Dit verhaal is oorspronkelijk gepubliceerd door Maalkoren. Meld je aan bij Grist wekelijkse nieuwsbrief hier.
Dit verhaal is tot stand gekomen in samenwerking met De opmaak, een onderzoekskamer zonder winstoogmerk die technologie uitdaagt om het algemeen belang te dienen. Meld u aan voor zijn nieuwsbrieven hier.
“Er klopt iets niet”, verklaarde een nieuwsbrief van maart van de rechtse, door fossiele brandstoffen gefinancierde denktank Texas Public Coverage Basis. Het onderschrift doemt op een imposant beeld van een gestrande walvis op een strandmet op de achtergrond drie enorme offshore windturbines.
Echt iets was gek van dat beeld. Het is niet omdat wind op zee de walvissterfte veroorzaakt, een ongegronde samenzwering gedreven door belangen in fossiele brandstoffen dat het beeld probeert te versterken. Het is omdat, zoals Gizmodo-schrijver Molly Taft meldde, de foto is vervaardigd met behulp van kunstmatige intelligentie. Samen met griezelig korrelig zand, vreemd gebogen strandresten en verkeerd samengesmolten windturbinebladen, behoudt de foto ook een veelbetekenend regenboogwatermerk van de kunstmatig intelligente beeldgenerator DALL-E.
DALL-E is een van de talloze AI-modellen die, vooral in het afgelopen jaar, tot buitenaardse niveaus van populariteit zijn gestegen. Maar terwijl honderden miljoenen gebruikers zich verbazen over het vermogen van AI om nieuwe beelden en geloofwaardige tekst te produceren, heeft de huidige golf van hype verhuld hoe AI ons vermogen om vooruitgang te boeken op het gebied van klimaatverandering zou kunnen belemmeren.
Voorstanders beweren dat deze effecten – waaronder enorme koolstofemissies in verband met de elektriciteit die nodig is om de modellen te laten draaien, een alomtegenwoordig gebruik van AI in de olie- en gasindustrie om de profitable van fossiele brandstoffen te stimuleren, en een zorgwekkende toename van de output van verkeerde informatie – vliegend zijn. uit zicht. Hoewel veel prominente onderzoekers en investeerders de angst hebben aangewakkerd rond AI’s “goddelijk“Technische kracht of potentieel om een einde te maken aan de beschaving, krijgt een hele reeks gevolgen in de echte wereld niet de aandacht die ze verdienen.
Veel van deze schade reikt veel verder dan klimaatkwesties, waaronder algoritmisch racisme, schending van het auteursrechtEn uitbuitende werkomstandigheden voor datawerkers die AI-modellen helpen ontwikkelen. “We zien technologie als een onvermijdelijkheid en denken er niet aan om het vorm te geven met maatschappelijke gevolgen in het achterhoofd”, vertelde David Rolnick, professor informatica aan de McGill College en mede-oprichter van de non-profit Local weather Change AI, aan Grist.
Maar de effecten van AI, inclusief de influence op ons klimaat en de inspanningen om de klimaatverandering in te dammen, zijn allesbehalve onvermijdelijk. Specialists zeggen dat we deze schade het hoofd kunnen en moeten bieden, maar eerst moeten we ze begrijpen.
Grote AI-modellen produceren een onbekende hoeveelheid uitstoot
In de kern is AI in wezen “een marketingterm”, de aldus de Federal Trade Commission terug in februari. Er is geen absolute definitie voor wat een AI-technologie is. Maar meestal, zoals Amba Kak, de uitvoerend directeur van het AI Now Institute, beschrijftverwijst AI naar algoritmen die grote hoeveelheden gegevens verwerken om taken uit te voeren zoals het genereren van tekst of afbeeldingen, het doen van voorspellingen of het berekenen van scores en ranglijsten.
Die hogere rekencapaciteit betekent dat grote AI-modellen grote hoeveelheden rekenkracht opslokken bij de ontwikkeling en het gebruik ervan. Neem bijvoorbeeld ChatGPT, de OpenAI-chatbot die viraal is gegaan vanwege het produceren van overtuigende, menselijke tekst. Onderzoekers schatten dat de coaching van ChatGPT-3, de voorloper van de GPT-4 van dit jaar, werd uitgezonden 552 ton kooldioxide-equivalent-gelijk aan meer dan drie retourvluchten tussen San Francisco en New York. De totale emissies zijn waarschijnlijk veel hoger, aangezien dat aantal slechts betrekking heeft op het eenmalig trainen van ChatGPT-3. In de praktijk kunnen modellen dat wel zijn omgeschoold duizenden keren terwijl ze worden gebouwd.
De schatting houdt ook geen rekening met het energieverbruik wanneer ChatGPT ongeveer wordt gebruikt 13 miljoen mensen per dag. Onderzoekers benadrukken dat het daadwerkelijk gebruiken van een getraind mannequin kan worden goedgemaakt 90 procent van het energieverbruik in verband met een AI-model voor machinaal leren. En de nieuwste versie van ChatGPT, GPT-4, vereist waarschijnlijk veel meer rekenkracht omdat het een veel groter mannequin is.
Er zijn geen duidelijke gegevens over hoeveel emissies het gevolg zijn van het gebruik van grote AI-modellen door miljarden gebruikers. Maar onderzoekers van Google gevonden dat het totale energieverbruik van machine-learning AI-modellen goed is voor ongeveer 15 procent van het totale energieverbruik van het bedrijf. Bloomberg meldt dat het bedrag gelijk zou zijn aan 2,3 terawattuur per jaar – ongeveer evenveel elektriciteit die huishoudens in een stad ter grootte van Atlanta in een jaar gebruiken.
Het gebrek aan transparantie van bedrijven achter AI-producten zoals Microsoft, Google en OpenAI betekent dat de totale hoeveelheid vermogen en emissies die betrokken zijn bij AI-technologie onbekend is. Bijvoorbeeld OpenAI heeft niet bekendgemaakt welke gegevens zijn ingevoerd in het ChatGPT-4-model van dit jaar, hoeveel rekenkracht is gebruikt of hoe de chatbot is gewijzigd.
“We hebben het over ChatGPT en we weten er niets van”, vertelde Sasha Luccioni, een onderzoeker die de koolstofvoetafdruk van AI-modellen heeft bestudeerd. Bloomberg. “Het zouden drie wasberen in een trenchcoat kunnen zijn.”
AI voedt on-line desinformatie over het klimaat
AI kan ook de manier waarop we on-line informatie consumeren en vertrouwen fundamenteel veranderen. De Britse non-profitorganisatie Centre for Countering Digital Hate heeft Google’s Bard-chatbot getest en vond het in staat om schadelijke en valse verhalen te produceren rond onderwerpen als COVID-19, racisme en klimaatverandering. Bard zei bijvoorbeeld tegen een gebruiker: “We kunnen niets doen om de klimaatverandering te stoppen, dus het heeft geen zin om je daar zorgen over te maken.”
Volgens Rolnick zit het vermogen van chatbots om verkeerde informatie te verspreiden in hun ontwerp ingebakken. “Grote taalmodellen zijn ontworpen om tekst te creëren die er goed uitziet in plaats van echt waar te zijn”, zei hij. “Het doel is om de stijl van menselijke taal aan te passen in plaats van gebaseerd te zijn op feiten” – een neiging die “zich good leent voor het creëren van verkeerde informatie.”
Google, OpenAI en andere grote technologiebedrijven proberen gewoonlijk inhoudsproblemen aan te pakken wanneer deze modellen reside worden ingezet. Maar deze inspanningen komen vaak neer op “beplakte” oplossingen, zei Rolnick. “Als je hun inhoud grondiger check, zie je dat deze vooroordelen diep gecodeerd zijn op veel verraderlijkere en subtielere manieren die niet zijn gepatcht door de bedrijven die de algoritmen inzetten,” zei hij.
Giulio Corsi, een onderzoeker aan het Britse Leverhulme Centre for the Way forward for Intelligence die verkeerde informatie over klimaat bestudeert, zei dat AI-gegenereerde beelden een nog grotere zorg zijn. In tegenstelling tot tekst die op individuele schaal wordt geproduceerd by way of een chatbot, kunnen afbeeldingen “zich zeer snel verspreiden en het gevoel van vertrouwen in wat we zien breken”, zei hij. “Als mensen op een consistente manier gaan twijfelen aan wat ze zien, vind ik dat behoorlijk zorgwekkend gedrag.”
Misinformatie over het klimaat bestond al lang voordat AI-tools. Maar nu hebben groepen zoals de Texas Public Coverage Basis een nieuw wapen in hun arsenaal om aanvallen op hernieuwbare energie en klimaatbeleid uit te voeren – en het beeld van de visachtige walvis geeft aan dat ze het al gebruiken.
De klimaatimpact van AI hangt af van wie het gebruikt en hoe
Onderzoekers benadrukken dat de real-world effecten van AI niet vooraf bepaald zijn – ze zijn afhankelijk van de intenties en acties van de mensen die het ontwikkelen en gebruiken. Zoals Corsi het stelt, kan AI worden gebruikt “als zowel een positieve als een negatieve kracht” als het gaat om klimaatverandering.
AI is dat bijvoorbeeld al gebruikt door klimaatwetenschappers om hun onderzoek voort te zetten. Door enorme hoeveelheden gegevens te doorzoeken, kan AI helpen bij het maken van klimaatmodellen, het analyseren van satellietbeelden om ontbossing aan te pakken en het weer nauwkeuriger te voorspellen. AI-systemen kunnen ook helpen de prestaties van zonnepanelen te verbeteren, emissies van energieproductie te monitoren en koel- en verwarmingssystemen te optimaliseren, onder andere toepassingen.
Tegelijkertijd wordt AI ook veel gebruikt door de olie- en gassector om de productie van fossiele brandstoffen te stimuleren. Ondanks het aanprijzen van netto-nul klimaatdoelstellingen, zijn Microsoft, Google en Amazon allemaal onder vuur komen te liggen vanwege hun lucratieve cloud computing en AI-software contracten met olie- en gasmaatschappijen waaronder ExxonMobil, Schlumberger, Shell en Chevron.
A 2020-rapport van Greenpeace ontdekte dat deze contracten bestaan in elke fase van olie- en gasoperaties. Fossiele-brandstofbedrijven gebruiken AI-technologieën om enorme hoeveelheden gegevens op te nemen om olie- en gasvoorraden te lokaliseren en efficiëntie te creëren in de hele toeleveringsketen, van boren tot verschepen tot opslag tot raffinage. AI-analyse en -modellering zouden tussen 2016 en 2025 tot $ 425 miljard aan further inkomsten kunnen genereren voor de olie- en gassector, volgens het adviesbureau Accenture.
De toepassing van AI in de olie- en gassector dient “ondubbelzinnig om de wereldwijde uitstoot van broeikasgassen te verhogen door koolstofarme energiebronnen te overtroeven”, aldus Rolnick.
Google-woordvoerder Ted Ladd vertelde Grist dat hoewel het bedrijf nog steeds actieve cloud computing-contracten heeft met olie- en gasbedrijven, Google momenteel geen aangepaste AI-algoritmen bouwt om olie- en gaswinning te vergemakkelijken. Amazon-woordvoerder Scott LaBelle benadrukte dat de AI-softwarecontracten van Amazon met olie- en gasbedrijven gericht zijn op het minder koolstofintensief maken van “hun oude bedrijven”, terwijl Microsoft-vertegenwoordiger Emma Detwiler tegen Grist zei dat Microsoft geavanceerde softwaretechnologieën levert aan olie- en gasbedrijven die zich hebben gecommitteerd om netto -nul-emissiedoelstellingen.
Er is momenteel geen belangrijk beleid om AI te reguleren
Als het gaat om hoe AI kan worden gebruikt, is het ‘het Wilde Westen’, zoals Corsi het uitdrukte. Het gebrek aan regelgeving is vooral alarmerend als je kijkt naar de schaal waarop AI wordt ingezet, voegde hij eraan toe. Fb, dat AI gebruikt om berichten en producten aan te bevelen, heeft bijna 3 miljard gebruikers. “Er is niets dat je op die schaal zou kunnen doen zonder toezicht”, zei Corsi, behalve AI.
Als reactie hierop hebben belangengroepen zoals Staatsburger en het AI Now Institute hebben opgeroepen om de technologiebedrijven die verantwoordelijk zijn voor deze AI-producten aansprakelijk te stellen voor de schade die AI veroorzaakt. In plaats van te vertrouwen op het publiek en beleidsmakers om achteraf onderzoek te doen naar en oplossingen te vinden voor de schade van AI, Landschapsrapport 2023 roept regeringen op om “de final op bedrijven te leggen om bevestigend aan te tonen dat ze geen kwaad doen.” Voorstanders en AI-onderzoekers pleiten ook voor meer transparantie en rapportagevereisten over het ontwerp, het datagebruik, het energieverbruik en de emissievoetafdruk van AI-modellen.
Ondertussen raken beleidsmakers stilaan op de hoogte van AI-governance. Medio juni vergadert het Europees Parlement goedgekeurde ontwerpregels voor ‘s werelds eerste moist om de technologie te reguleren. De komende AI-wet, die waarschijnlijk pas over twee jaar van kracht zal worden, zal AI-technologieën reguleren op foundation van hun waargenomen risico voor de samenleving. De concepttekst verbiedt gezichtsherkenningstechnologie in openbare ruimtes, verbiedt generatieve taalmodellen zoals ChatGPT om auteursrechtelijk beschermd materiaal te gebruiken en vereist dat AI-modellen hun inhoud bestempelen als door AI gegenereerd.
Voorstanders hopen dat de komende moist slechts de eerste stap is om bedrijven aansprakelijk te stellen voor de schade van AI. “Deze dingen veroorzaken nu problemen”, zegt Rick Claypool, onderzoeksdirecteur van Public Citizen. “En waarom ze nu problemen veroorzaken, is vanwege de manier waarop ze door mensen worden gebruikt om menselijke agenda’s te bevorderen.”
Dit artikel verscheen oorspronkelijk in Maalkoren bij https://grist.org/technology/the-overlooked-climate-consequences-of-ai/. Grist is een non-profit, onafhankelijke mediaorganisatie die zich toelegt op het vertellen van verhalen over klimaatoplossingen en een rechtvaardige toekomst. Meer informatie op Grist.org