Generatieve AI wordt mooier voorgesteld dan het in werkelijkheid is. Achter de façade wordt massaal roofbouw gepleegd op mens en milieu.
We kunnen er niet omheen: langs alle kanten wordt je tegenwoordig geconfronteerd met AI (en nu ook al in dit artikel). Het lijkt wel alsof elk initiatief, bedrijf of overheid niet goed bezig is, tenzij ze iets met AI aan het implementeren zijn. Vooral generatieve AI (genre ChatGPT, DALL-E, Le Chat, …) wordt daarbij opgedrongen als magische tool, die massaal vervelende taken gaat automatiseren, alle kennis in pacht heeft, en bovenal een performantie verhoging op de werkvloer moet teweegbrengen (lees: meer werk verzetten of minder mensen, maar waarschijnlijk beiden).
Het ontwikkelen van dergelijke AI modellen gaat evenwel gepaard met enorme kosten, en heeft een rechtstreekse impact op mens en milieu. Een AI model moet je immers eerst trainen op basis van een heel grote dataset aan tekst, beelden, … Om die data te verzamelen wordt het hele internet doorspit en met supercomputers in grote datacenters geanalyseerd. Een forse klus, die flink wat tijd en grondstoffen verbruikt.
Milieu impact
Het Franse Mistral (het bedrijf achter AI model ‘Le Chat’, https://mistral.ai) publiceerde recent gedetailleerde cijfers over hun milieu impact. De training van hun grootste model, Mistral Large 2, genereerde in totaal 20,4 kiloton aan CO2 emissies. Dat is equivalent met de jaarlijkse emissies van 4.758 personenwagens op benzine (https://www.epa.gov/energy). Tegelijk gebruikte die training 281 miljoen liter water, wellicht voornamelijk als koelwater voor het datacenter, net zoals in een energiecentrale als Doel het geval is. Wel knap dat Mistral zo transparant durft te zijn, want ze zijn globaal een kleine speler. Naar het energie verbruik van de Noord-Amerikaanse AI marktleiders hebben we het raden want die bieden hoegenaamd geen transparantie. Maar indicatief zijn bv. recente berichten dat zelfs oudere kerncentrales van onder het stof worden gehaald om aan de immer toenemende energievraag in de US tegemoet te komen (https://www.reuters.com).
Ook het internet kreunt onder de impact van AI. In hun zucht naar steeds meer nieuwe data om de AI modellen te trainen, worden ‘scraper bots’ ingezet. Dat is autonome software die systematisch kijken of de content van websites is veranderd. Sommige bekende informatieleveranciers, zoals bv. bibliotheken, museums, archieven merken echter dat deze bots hun site zo vaak controleren en informatie opvragen dat ‘reguliere’ gebruikers de website niet meer kunnen raadplegen. Generatieve AI ontwikkelaars voeren zo eigenlijk het equivalent van een DDOS aanval uit, een techniek die soms ook door malafide hackers wordt ingezet. Om de bots te weren dienen de informatieleveranciers zelf software in te zetten zoals Cloudflare of Nepenthes. Die proberen de bots om de tuin te leiden en laten hen verdwalen in een labyrint van webpagina’s met (door generatieve AI gegenereerde) verzonnen data, of zelfs bewust ‘giftige’ data bedoeld om het AI model ontwikkelingsproces tegen te werken. Een spel van kat en muis, met één verliezer: de kleine, onafhankelijke website die niet de middelen heeft om mee te draaien in deze virtuele wapenwedloop.
Menselijke kost
En, niet in het minst, heeft de ontwikkeling van AI ook een menselijke kost. Want die verzamelde dataset om het model op te trainen moet ook worden uitgezuiverd. Als jij een vraag stelt aan ChatGPT, zou je waarschijnlijk liever niet hebben dat die jou een pornografisch antwoord voorschotelt. Of dat DALL-E jou een afbeelding aflevert waarin een grafische gewelddaad is verwerkt. Nochtans staat het internet, in al zijn glorieuze afspiegeling van de menselijke conditie, vol van dat soort content. Dus als je wil vermijden dat porno, geweld, haat, etc. toch opduiken in een AI model, moet iemand dat uit de dataset van het model verwijderen. En ultiem is dit een taak die door mensen wordt uitgevoerd: duizenden data annotatoren en content moderatoren in landen als Kenia, India, Zuid Afrika, … die voor dit keiharde werk peanuts worden betaald. Om ChatGPT minder toxisch te maken huurde OpenAI bv. het Keniaanse bedrijf Sama in, waar werknemers maximaal 2 dollar per uur verdienden. De werknemers werden dag in dag uit met zeer extreme content geconfronteerd. Een der mate traumatische ervaring, dat het bedrijf uiteindelijk zelf besloot om vroegtijdig het contract met OpenAI te verbreken (https://time.com).
De praktijken van technologiebedrijven die generatieve AI ontwikkelen roepen steeds meer ethische vragen op. In afwezigheid van gedegen reglementering is het aan ons, de potentiële eindgebruiker, om de enige ethische keuze te maken en massaal generatieve AI links te laten liggen. Check https://resist-ai.sh hoe je dat kan doen.