Alles over de milieu-impact van AI

mei 3, 2026 | Maatschappij, Government, Technology

Je typt een vraag. Je krijgt een antwoord. Klaar.

Maar achter dat antwoord zit een wereld die je niet ziet. De milieu-impact van AI: enorme gebouwen vol servers, koelsystemen en elektriciteitsverbruik dat stijgt als een ketel met water die je aan de kook brengt. AI in de cloud is eigenlijk het gebruik van heel veel hardware. Tijdens trainingen die we verzorgen is de milieu-impact vaak een van de eerste vragen. We zijn ons bewust dat AI veel energie verbruikt. Maar hoeveel dan? Dat was voor ons ook een vraag. En wat doen we dan… We duiken erin! Wat AI echt kost aan energie en water, wie de rekening betaalt, welke oplossingen er al zijn, en wat jij als professional kunt doen met die kennis, hebben we voor je uitgezocht.

De groei van AI en de uitbreiding van datacenters zorgen voor een impact op het milieu. Je kunt stellen dat wereldwijd de energie-infrastructuur op de proef wordt gesteld door elektrificatie. De snelle adoptie van AI en zijn enorme energiehonger vergroten de druk op de energie-infrastructuur. De wereldwijde vraag naar energie neemt jaarlijks toe. De vraag neemt sneller toe dan in de afgelopen tien jaar. Denk dan wereldwijd aan 29.000 terawatt-uren (TWh). Ter vergelijking: 1 TWh is genoeg om in Nederland 55.000 huishoudens een jaar lang van energie te voorzien. Dit artikel geeft inzicht in het snelgroeiende waterverbruik, energieverbruik, de maatschappelijke gevolgen en mogelijke innovatieve oplossingsrichtingen.

Wat je niet ziet als je een vraag typt

Stel je voor dat je elke keer als je een Google-zoekopdracht doet, een klein lampje aansteekt. Die lamp brandt misschien een seconde. Daarna gaat hij uit. Nu stel je voor dat je een vraag aan ChatGPT stelt. Die lamp brandt langer, ongeveer zoiets als tussen de vijf tot tien seconden. En dat is alleen jouw vraag. Terwijl jij typt, stelt iemand in São Paulo een vraag, iemand in Jakarta, iemand in Stockholm. Tegelijk. Miljoenen mensen per dag. Een gemiddelde ChatGPT-vraag via GPT-4o zit ongeveer op 0,3 wattuur. Nog steeds meer dan een zoekopdracht, maar niet het monster dat sommige media ervan maakten.

De onderdelen van AI energiegebruik

Om te begrijpen wat de milieuimpact is volgen we het proces van hoe AI-systemen worden gebouwd en gebruikt. Dat gebeurd in stappen:

Stap 1 Trainen van het taalmodel

Het trainen van een groot AI-model is het meest energie-intensieve deel van het proces. Onderzoekers schatten dat het trainen van GPT-3 alleen al ongeveer 1.287 megawattuur elektriciteit kostte. Om dit in verhouding te zien, dat is genoeg om 120 gemiddelde Amerikaanse huishoudens een jaar lang van stroom te voorzien. Daarbij werd ongeveer 552 ton CO₂ uitgestoten. Maar GPT-4 is meerdere malen groter. En GPT-4 is al niet meer het nieuwste model. Elke nieuwe generatie is groter en duurder om te trainen. En bedrijven lanceren nieuwe modellen elke paar weken. De energie die erin zit om een vorig model te trainen: weg. Het nieuwe model begint van voor af aan.

Stap 2 Inferentie, het gebruik van het taalmodel

Elke keer dat iemand het model gebruikt, verbruikt het energie. elke keer wanner je antwoord krijgt. Dit heet inferentie. De training van het model zelf, de hardware die daarvoor nodig was, de datacenters die draaien, of je nu iets vraagt of niet: dat telt allemaal mee. Onderzoekers verwachten dat dit deel in de toekomst het grootste deel van het energieverbruik zal uitmaken, gewoon omdat AI-modellen overal worden ingezet en het gebruik exponentieel groeit.

Bij traditionele AI-systemen is het energieverbruik verdeeld over dataverwerking, training en inferentie. Bij generatieve AI zal inferentie op termijn de meeste energie kosten: meer gebruikers, grotere modellen, vaker ingezet. En elke nieuwe modelversie trekt meer stroom en meer rekenkracht dan zijn voorganger. Jij leest dit artikel en verdiept je in de milieu-impact van AI, maar een gemiddelde gebruiker denkt er niet bij na. De interface is eenvoudig, de consequenties van je vraag zijn onzichtbaar. Er is geen teller die aangeeft hoeveel energie jouw vraag kost. Dat maakt het extra belangrijk dat de systemen zelf , de bedrijven die ze bouwen, transparant zijn over de kosten. Voor de duidleijkheid, dat zijn ze niet, daarover later meer in dit artikel.

Organisaties op individueel niveau doen echt wel hun beste om het energieverbruik te verminderen. Dat is in hun eigen belang, want zij betalen een belangrijk deel van de energierekening. Maar het gebruik en daarmee de milieu-impact van AI neemt alleen maar toe. Een beetje zoals een kip-ei-situatie. AI wordt goedkoper en efficiënter.  AI wordt dan ook vaker gebruikt. Meer gebruik, meer totaalverbruik, ook al is elke individuele handeling zuiniger.

Er is ook een minder zichtbaar probleem. Tijdens de training van grote modellen zijn er snelle schommelingen in energiebehoefte. Het net moet die schommelingen opvangen. Dat doen netbeheerders meestal met dieselgeneratoren. Die draaien alleen als het echt moet — maar draaien dan ook op fossiele brandstof. Elke piek in AI-training brengt zo een kleine dieseladem met zich mee.

Stap 3 de datacenters

Hoewel we als gebruikers vaak denken aan “iets in de cloud”, realiseren we ons te weinig dat de cloud bestaat uit datacenters, de fysieke kant van AI. Amazon heeft wereldwijd meer dan honderd datacenters, elk met zo’n vijftigduizend servers. Dat is nog voor de extra bouw die de AI-golf met zich meebrengt. De stroomvraag van datacenters in Noord-Amerika steeg van 2.688 megawatt eind 2022 naar 5.341 megawatt eind 2023, grotendeels aangedreven door de groei van generatieve AI. Wereldwijd verbruikten datacenters in 2022 al 460 terawattuur aan elektriciteit. Gartner verwacht dat de elektriciteitsvraag van datacenters in 2025 met 16% groeit en tegen 2030 verdubbelt. OpenAI, de maker van ChatGPT, opende onlangs een datacenter in Noorwegen met 100.000 Nvidia-GPU’s. Noorwegen heeft schone waterkrachtenergie en een koel klimaat, twee goede redenen om daar te bouwen. Maar we kunnen niet heel Noorwegen volbouwen met datacenters.

Het waterverbruik van AI

CO₂ krijgt alle aandacht. Water nauwelijks. Maar datacenters zijn ook enorme waterconsumenten, en dat deel van het verhaal is bijna altijd afwezig in het publieke debat. Hoe werkt het? Servers worden heet. Heel heet. Om te voorkomen dat ze oververhitten, worden ze gekoeld met schoon drinkwater. Dat water verdampt grotendeels. Het is weg. Niet terug te brengen naar de bron. Een middelgroot datacenter verbruikt ongeveer 410.000 liter water per jaar. Binnen het totale watervoetverbruik van AI en datacenters is het belangrijk om onderscheid te maken tussen direct verbruik en indirect verbruik. Het totale waterverbruik wordt namelijk bepaald door de som van drie categorieën: het directe watergebruik op locatie, het indirecte watergebruik door de energiecentrales die de stroom leveren, en het water dat wordt geconsumeerd tijdens het productieproces van de AI-computerchips.

Direct verbruik

Dit is het verbruik in het datacenter zelf, voornamelijk voor de koeling van servers. Veel van dit koelwater wordt uit de lokale drinkwatervoorziening onttrokken. Om het datacenter te koelen wordt hiervoor schoon drinkwater gebruikt. Dit voorkomt de aanwas van bacteriën in het datacenter. Hiervan verdampt tot wel 80% in de koeltorens, waardoor het uit de lokale watercyclus verdwijnt.

Hoewel datagerelateerd direct verbruik op nationaal niveau vaak maar een klein percentage van het totale waterverbruik is, is de impact extreem lokaal. Grote datacenters slurpen grote hoeveelheden water op en kunnen daardoor op piekmomenten (zoals tijdens hete zomers) de lokale watervoorziening overbelasten en direct concurreren met huishoudens en de landbouw.

In onderstaand filmpje wordt precies uitgelegd hoe het water in een datacenter wordt gebruikt.

 

Datacenters verbruiken dus schoon, vers drinkwater om technische redenen. Het voorkomt verstoppingen, corrosie en bacteriegroei in hun koelsystemen. Het gevolg is dat AI-infrastructuur direct concurreert met het water dat bestemd is voor huishoudens en menselijke consumptie. Tachtig procent van het water in de koeltorens verdampt. Dit vocht verdwijnt uit de lokale watercyclus, zodat het niet meer gebruikt kan worden voor bijvoorbeeld landbouw of voor sanitaire voorzieningen. Voor mensen die daar leven is dat extra wrang, omdat in veel delen van de wereld de minimale behoeften aan water en sanitaire voorzieningen voor de allerarmsten wereldwijd nog altijd niet zijn opgelost. 

Hoewel datagerelateerd direct verbruik op nationaal niveau van een land vaak maar een klein percentage van het totale waterverbruik is, is de impact extreem lokaal. Grote datacenters slurpen gigantische hoeveelheden water op en kunnen daardoor op piekmomenten (zoals tijdens hete zomers) de lokale watervoorziening overbelasten en direct concurreren met huishoudens en de landbouw.

Indirect verbruik

Het indirecte waterverbruik is groter dan het directe verbruik. Het gaat hier om het opwekken van elektriciteit voor datacenters en de productie van hardware en AI-chips. Hier is ook veel koelwater nodig. Laten we eens kijken naar dit grotere, vaak onzichtbare verbruik;

Opwekken elektriciteit

Datacenters hebben stroom nodig. Omdat het elektriciteitsnet wereldwijd nog sterk afhankelijk is van kolen-, gas- en kerncentrales, wordt er water verbruikt. Deze centrales verhitten water om stoom op te wekken voor turbines en hebben koelsystemen nodig die water verdampen. Ter illustratie: een studie toonde aan dat voor het genereren van een korte tekst met GPT-3 in totaal 16,9 milliliter water nodig was, waarvan slechts 2,2 ml voor de directe koeling van het datacenter, en maar liefst 14,7 ml (indirect) voor de benodigde elektriciteit.

Steenkoolcentrales vereisen ongeveer 70.000 liter water per megawattuur (MWh), terwijl aardgascentrales zo’n 10.000 liter per MWh verbruiken. De elektriciteitsvraag voor AI zal tegen 2030 naar verwachting met 300% tot 400% stijgen, wat de druk op waterbronnen voor energieopwekking doet toenemen.

Hardware- en chipproductie

De geavanceerde halfgeleiders en AI-chips in datacenters worden niet zomaar gemaakt. Het productieproces vereist grote hoeveelheden zogeheten “ultrapuur water” om de siliciumwafers laag voor laag te reinigen. Een gemiddelde productiefaciliteit voor computerchips verbruikt meer dan 10 miljoen liter van dit gezuiverde water per dag. Dit betekent dat een chip al duizenden liters water heeft gekost nog voordat deze in een datacenter wordt geïnstalleerd. En een datacenter bevat zomaar 100.000 gpu’s (AI-chips). De vraag naar water vanuit deze sector zal tegen 2050 naar verwachting met meer dan 600% toenemen.

Om de waterproblematiek van AI echt op te lossen, moeten beide kanten van het verbruik worden aangepakt. Direct verbruik kan worden verminderd door over te stappen op gesloten koelcircuits, vloeistofkoeling of het gebruik van gerecycled afvalwater. Om het indirecte verbruik te verminderen, zou je over kunnen stappen op andere hernieuwbare energiesoorten. Denk daarbij aan bronnen zoals wind- en zonne-energie, die verbruiken namelijk vrijwel geen water voor de stroomopwekking.

Statistieken en cijfers

Je kunt op verschillende manieren kijken naar het waterverbruik van AI. Ik bekijk het op drie niveaus. Wereldwijd, op datacenterniveau en op consumptieniveau, wanneer je een vraag stelt aan je taalmodel.

Wereldwijd

Naar schatting zullen AI-systemen alleen al tussen de 312,5 en 764,6 miljard liter water gebruiken. Dit is vergelijkbaar is met de totale wereldwijde consumptie van flessenwater in een jaar. Het Internationaal Energieagentschap (IEA) schatte dat datacenters in 2023 wereldwijd 560 miljard liter water gebruikten, maar onderzoek toont aan dat dit het indirecte waterverbruik waarschijnlijk met een factor drie tot vier onderschat.

In totaal verbruikt de “AI-economie” momenteel 23.000 kubieke meter water per jaar, een cijfer dat naar verwachting tegen 2050 met 129% zal stijgen tot meer dan 54.000 kubieke meter. Ter vergelijking: het IJsselmeer bevat ongeveer 5000 kubieke meter. Technologiebedrijven die water gebruiken om datacenters te koelen en te laten draaien, hebben tegen 2027 mogelijk 4,2 tot 6,6 miljard kubieke meter water nodig. In de Verenigde Staten verbruiken datacenters naar schatting 620 miljard liter per jaar. Dit wordt voor een groot deel onttrokken aan de drinkwatervoorziening. Een schatting is dat in de Verenigde Staten ongeveer , 132 miljard liter fysiek uit Amerikaanse publieke watersystemen werd onttrokken.

Waterverbruik per datacenter 

Grote, moderne datacenters zijn grote waterverbruikers. Een enkel datacenter kan tot ongeveer 15 tot 19 miljoen liter water per dag verbruiken. Dit is gelijk aan het waterverbruik van een stad met 10.000 tot 50.000 inwoners. Een gemiddeld datacenter verbruikt jaarlijks zo’n 410 miljoen liter. Bedrijfsspecifieke data laten zien dat de datacenters van Google in 2022 meer dan 21 miljard liter drinkwater gebruikten, een stijging van 20% vergeleken met het voorgaande jaar. Ongeveer 80% van het water dat voor on-site koeling wordt gebruikt, verdampt en verdwijnt daarmee uit de lokale watercyclus.

Een halve liter water voor 10 tot 50 AI-prompts

Een standaard Google-zoekopdracht kost ongeveer 0,5 milliliter water. Taalmodellen (generatieve AI) gebruiken veel meer gebruikt. Wetenschappers schatten dat 10 tot 50 opdrachten aan ChatGPT ongeveer 500 milliliter water (een 0,5-literflesje water) kosten. Een prompt van 100 woorden wordt gelijkgesteld aan het verbruik van één flesje water. Andere schattingen voor het genereren van 150 tot 300 woorden met GPT-3 komen uit op 16,9 milliliter water, waarvan 14,7 milliliter indirect verbruik is via elektriciteitsopwekking. Sam Altman, de CEO van OpenAI, het bedrijf achter ChatGPT, beweert dat een enkele interactie slechts 1/15e van een theelepel kost. Experts zijn hier echter sceptisch over en wijzen erop dat dit waarschijnlijk geldt voor zeer kleine modellen. Het trainen van een AI op het niveau van een menselijk brein gedurende een jaar kost naar schatting 126.000 liter water.

Deze statistieken laten een groeiende spanning omtrent duurzaamheid zien. Op dit moment bevindt 40% van de datacenters ter wereld zich in gebieden die kampen met een hoge tot extreem hoge mate van waterstress, en bijna een derde van de chipfabrieken is eveneens gevestigd in waterschaarse regio’s.

Het AI-waterverbruik in Nederland

In Nederland staan zo’n 500 datacenters. Deze zijn te verdelen in drie categorieën:

  • Hyperscalers: dit zijn datacenters die in beheer en bezit zijn van de Amerikaanse techbros zoals Google en Microsoft.
  • Co-locatie-datacenters: dit zijn datacenters die serverruimte en IT-infrastructuur verhuren aan organisaties. Denk aan webhostingbedrijven, banken en overheidsinstellingen.
  • Enterprise datacenters: dit zijn datacenters in eigendom van bedrijven. Vaak hebben banken of ziekenhuizen bijvoorbeeld een eigen datacenter.

Het waterverbruik van datacenters in Nederland blijft moeilijk te achterhalen. Volgens de meest recente cijfers van het CBS gebruiken datacenters jaarlijks maximaal 1 miljoen kuub drinkwater. Dat is ongeveer evenveel als het drinkwatergebruik van 10.000 huishoudens, aldus drinkwaterpaltform.nl

Energie en emissies

Gartner schat dat de vraag naar datacenters alleen al in 2025 met 16% zal groeien en tegen 2030 zal verdubbelen tot 980 TWh. Andere snelgroeiende modellen van S&P Global Energy voorspellen dat de wereldwijde elektriciteitsvraag van datacenters tot 2030 jaarlijks met 14% kan toenemen, mogelijk tot meer dan 2.200 TWh—een niveau dat ongeveer gelijk is aan het huidige totale elektriciteitsverbruik van India, waar ongeveer 1,3 miljard mensen wonen. Deze toename is niet gelijkmatig verdeeld, maar wordt vooral aangedreven door de snelle opkomst van AI-geoptimaliseerde servers, waarvan het elektriciteitsverbruik naar verwachting bijna zal vervijfvoudigen van 93 TWh in 2025 tot 432 TWh in 2030. Tegen 2030 zal AI-geoptimaliseerde infrastructuur naar verwachting 44% van het totale energieverbruik van datacenters uitmaken en 64% van de extra elektriciteitsvraag in de sector vertegenwoordigen.

Elektriciteit: je AI-gebruik kost energie

Nederlandse datacenters verbruiken evenveel elektriciteit als 2 miljoen woningen. Dat is dus best veel. Om het langetermijnenergieverbruik van AI te snappen, moet je onderscheid maken tussen de eenmalige investering in training van een taalmodel en de voortdurende uitgaven voor het gebruik van AI (dit heet inferentie). Het trainen van een grootschalig model zoals GPT-4 is eenmalig. Het elektriciteitsverbruik hiervan wordt geschat op 50 GWh. De levensduur van deze getrainde modellen is kort. Bedrijven brengen vaak al na enkele weken nieuwe modellen uit met nog meer parameters, waardoor de energie die gebruikt is voor eerdere versies in wezen verspild is.

Inference</p>
<p>Het proces waarbij een getraind AI-model wordt ingezet om verzoeken te verwerken en voorspellingen te doen op basis van nieuwe data, oftewel het dagelijks gebruik door consumenten.

Tijdens het daadwerkelijke trainingsproces treden bovendien grote en snelle fluctuaties in de elektriciteitsvraag op. Om deze pieken en dalen op te vangen en schade aan het lokale elektriciteitsnet te voorkomen, maken netbeheerders vaak gebruik van vervuilende dieselgeneratoren.

Maar het gebruik van het taalmodel zelf, de inferentie, heeft een grotere impact op het milieu, immers, miljoenen mensen gebruiken dagelijks het taalmodel. Er worden ongeveer 1 miljard vragen gesteld aan alleen al ChatGPT, maar er zijn tientallen taalmodellen. Naar schatting is inferentie verantwoordelijk voor 80% tot 90% van het totale energieverbruik van een model over zijn volledige levensduur.

Het Internationale Energieagentschap stelt dan ook dat de stroomvraag voor AI-geoptimaliseerde datacenters tot 2030 met 300% tot 400% zal toenemen.

CO₂-emissies

Het digitale leven als geheel is al verantwoordelijk voor circa 4 procent van alle broeikasgasuitstoot, meer dan de luchtvaart, en dat aandeel kan groeien naar 14 procent als de huidige ontwikkeling doorzet. De CO₂-voetafdruk van AI is direct gerelateerd aan de energie- en elektriciteitsbehoefte van de datacenters die AI-systemen zuurstof geven. Naarmate het energieverbruik van datacenters stijgt, nemen ook de daarbijbehorende CO₂-emissies toe. De schaal van de CO₂-uitstoot: recente berekeningen tonen aan dat AI-systemen op jaarbasis verantwoordelijk kunnen zijn voor 32,6 tot 79,7 miljoen ton CO₂-uitstoot. 

Vergelijking met steden in de wereld

Om dit in perspectief te plaatsen: dit is vergelijkbaar met de klimaatvoetafdruk van een wereldstad als New York. New York heeft volgens het World Economic Forum de op twee na grootste CO₂-emissie ter wereld. Zo stootte de stad New York in 2023 52 miljoen ton CO₂ uit. Kijken we naar de ontwikkeling van individuele modellen, dan produceerde het trainingsproces van een model als OpenAI’s GPT-3 naar schatting alleen al zo’n 552 ton CO₂

De afhankelijkheid van fossiele brandstof

Het emissieprobleem ontstaat door de snelheid van AI- en datacenterontwikkeling. Omdat de bouw van nieuwe datacenters in zo’n hoog tempo plaatsvindt, kan de benodigde energie-infrastructuur niet op een duurzame manier worden bijgebouwd. Hierdoor is men genoodzaakt om het grootste deel van de benodigde elektriciteit uit elektriciteitscentrales op fossiele brandstoffen te halen. 

Naast het continue stroomverbruik voor het trainen en gebruiken (inference) van AI, wordt de CO₂-voetafdruk ook indirect vergroot door de hardware-infrastructuur. De productie van geavanceerde GPU’s (grafische processoren) is ingewikkeld en verbruikt veel meer energie dan de productie van klassieke chips (CPU’s). De CO₂-voetafdruk van deze chips wordt vergroot door de emissies die samenhangen met het transport van materialen en eindproducten en de vervuilende mijnbouwprocessen om de zeldzame aardmetalen, waarvan de chips gemaakt zijn, uit de grond te halen.

 

Maatschappelijke gevolgen

Het ontwikkelen en gebruiken van AI verbruikt dus enorme hoeveelheden water en elektriciteit. In Nederland is er best veel water, maar in andere delen van de wereld is dat niet zo. Je kunt de maatschappelijke gevolgen onderverdelen in de concurrentie om drinkwater en de daarmee samenhangende voedselvoorziening. Als gevolg daarvan ontstaat sociale onrust op plaatsen in de wereld waar datacenters worden aangekondigd of gebouwd. Omdat AI wereldwijd actief is, worden datacenters op plaatsen gebouwd waar het goedkoopst is. Bijvoorbeeld in ontwikkelingslanden. Hierdoor ontstaan geografische en sociale ongelijkheden. Hieronder behandel ik elk onderwerp:
 

Gebrek aan transparantie bij techbedrijven

Techbedrijven zoals OpenAI, Google, Meta en Apple rapporteren regelmatig over het directe verbruik van hun datacenters, maar verzwijgen of onderschatten hun indirecte verbruik behoorlijk. Google stelde bijvoorbeeld recent dat het het indirecte waterverbruik van zijn Gemini-AI niet wilde rapporteren, met als argument dat het geen volledige controle heeft over de processen bij energiecentrales. Onderzoekers benadrukken dat als dit indirecte verbruik wel wordt meegenomen, het totale waterverbruik van AI-systemen een factor drie tot vier hoger ligt dan wat officiële schattingen suggereren.

Hoewel bedrijven onder het Greenhouse Gas Protocol verplicht zijn om hun indirecte CO₂-emissies van ingekochte elektriciteit te rapporteren, delen ze zelden AI-specifieke cijfers over energieverbruik en CO₂-uitstoot. Experts stellen dat er strengere rapportage-eisen moeten komen met een helder onderscheid tussen AI en andere toepassingen, zodat de ware klimaatkosten van AI voor de samenleving duidelijk en inzichtelijk worden.

Voor gebruikers van AI is het verbruik en de impact ook grotendeels onzichtbaar. Omdat de “cloud” abstract is en AI-interfaces enorm gebruiksvriendelijk zijn, beseft een gemiddelde gebruiker niet dat zijn of haar zoekopdrachten impact hebben op de fysieke wereld. Hierdoor ontbreekt bij consumenten momenteel elke stimulans om hun AI-gebruik te minderen

Concurrentie met lokale drinkwatervoorzieningen

De enorme hoeveelheid waterverbruik van AI leidt tot conflicten, omdat op veel plekken in de wereld schaarse lokale drinkwatervoorziening concurreert met de waterbehoeften van datacenters. Wereldwijd leven vier miljard mensen in gebieden met waterschaarste, en naar verwachting zullen 1,6 miljard mensen tegen 2030 geen toegang hebben tot veilig drinkwater. Toch tappen AI-datacenters grote hoeveelheden drinkwater af. Met name tijdens hete zomers is dit problematisch, omdat dan ook de behoefte van bewoners en de landbouw piekt.
 

Enkele voorbeelden:

  • In Newton County (Georgia, VS) is de aangevraagde waterbehoefte voor nieuwe datacenters bijvoorbeeld zo groot dat dit het verbruik van de hele provincie tijdens een hittegolf zou overtreffen, wat de overheid mogelijk dwingt om waterrantsoenering voor haar eigen inwoners in te voeren.
  • Ook de landbouw en voedselvoorziening komen direct in het geding door de fysieke infrastructuur van AI. In Taiwan werd bijvoorbeeld de irrigatie voor maar liefst 180.000 hectare landbouwgrond stilgelegd om voldoende water te garanderen voor de productie van halfgeleiderchips. Daarmee onttrekken datacenters en chipfabrieken water dat cruciaal is voor menselijke consumptie en gebruik voor bijvoorbeeld irrigatie.
  • Uruguay werd getroffen door de zwaarste droogte in zeven decennia. De hoofdstad Montevideo was de eerste wereldhoofdstad die het punt van ‘dag nul’ bereikte en geen drinkwater meer had. De overheid loste dit noodgedwongen op door zout water van de Río de la Plata bij te mengen, waardoor het drinkwater een zilte smaak kreeg en nauwelijks drinkbaar was. Midden in deze crisis werden plannen voor een grootschalig Amazon-datacenter bekend, wat tot felle protesten leidde van bewoners die vreesden dat hun toch al schaarse zoetwater verder zou worden opgebruikt.
  • Google’s datacentercomplex bij Charleston, South Carolina, verbruikt al circa 4 miljoen gallon oppervlaktewater per dag en vroeg toestemming voor aanvullende 1,5 miljoen gallon per dag uit de lokale drinkwatervoorziening. Lokale waterautoriteiten, conservatiegroeperingen en de stad Mount Pleasant verzetten zich hevig, omdat dezelfde aquifer ook als drinkwaterbron voor huishoudens dient. Na jaren van conflict sloot Berkeley County uiteindelijk een deal om via een nieuwe pijpleiding vijf miljoen gallon behandeld oppervlaktewater per dag aan te voeren.
  • In de gemeente Hollands Kroon verbruiken datacenters in de Wieringermeer al 525.000 liter drinkwater per uur. Bij volledige uitrol van alle geplande datacenters in het gebied zou het jaarlijkse verbruik kunnen oplopen tot 5 à 10 miljoen kubieke meter. Bovendien bevatten de afvoerwateren chemicaliën die worden gebruikt om bacteriën in koelwater te doden, wat een extra risico vormt voor de lokale drinkwaterinfrastructuur. In het leveringsgebied van drinkwaterbedrijf PWN heeft dit geleid tot politieke onrust, kamervragen en een debat over prioritering van drinkwater voor huishoudens boven industrieel gebruik.
De maatschappelijke gevolgen zijn het meest voelbaar tijdens de zomermaanden. Precies op de momenten dat landbouw en huishoudens kampen met droogte en een hoge waterbehoefte, piekt ook de koelbehoefte van datacenters. 

Protesten in waterarme regio’s

Protesten en Sociale Onrust

De uitputting van lokale waterbronnen leidt wereldwijd tot toenemende sociale onrust. Gemeenschappen in onder andere Spanje, India, Chili, de Verenigde Staten en Uruguay komen in opstand tegen datacenters die een wissel trekken op hun watervoorziening en het lokale elektriciteitsnet. Een pijnlijk voorbeeld hiervan vond plaats in Uruguay, dat recent kampte met de ergste droogte in 74 jaar. De geplande komst van een Google-datacenter dat dagelijks 7,6 miljoen liter water zou vereisen, leidde daar logischerwijs tot felle protesten.

Geografische en sociale ongelijkheid in het zuiden

Er ontstaat ook een groeiende geografische ongelijkheid. Omdat water schaarser en duurder wordt, verplaatsen technologiebedrijven hun datacenters steeds vaker naar ontwikkelingslanden, zoals droge gebieden in Sub-Sahara Afrika en Latijns-Amerika. Dit stelt deze regio’s voor een pijnlijk dilemma: zij moeten de broodnodige economische voordelen van internationale investeringen afwegen tegen de zware belasting van hun eigen, toch al kwetsbare lokale watervoorraden. Ontwikkelingswetenschappers wijzen erop dat AI-infrastructuur drempels overschrijdt, terwijl de minimale basisbehoefte aan water en sanitaire voorzieningen voor de allerarmsten ter wereld nog altijd niet wordt gehaald.

De milieu-impact van AI en de paradox

Technologie-optimisten benadrukken dat AI de samenleving enorm kan helpen om klimaatproblemen op te lossen en de Sustainable Development Goals (SDG’s) te behalen. AI kan bijvoorbeeld worden ingezet voor slimme irrigatie in de landbouw, het meten van giftige chemicaliën in drinkwater en het opsporen van lekkages in verouderde waterleidingen, waardoor jaarlijks triljoenen liters water bespaard kunnen worden. Daarnaast experimenteert men steeds vaker met manieren om de restwarmte van AI-datacenters te hergebruiken om duizenden woningen in stedelijke gebieden te verwarmen. Wetenschappers waarschuwen echter dat de razendsnelle uitrol van AI momenteel het risico met zich meebrengt dat het de bestaande watercrises verergert in plaats van te verlichten. De grote vraag is dan ook of deze positieve maatschappelijke en ecologische bijdragen van AI uiteindelijk zullen opwegen tegen de grote hoeveelheid eigen waterverbruik en de maatschappelijke impact die dat nu heeft op lokale gemeenschappen.

Verbetering van energieverbruik van chips (GPU’s)

Het eerlijke verhaal is: AI verbruikt steeds meer stroom. En efficiënter chips lossen dat niet op. Een veel gehoord argument van de techoptimisten is dat de technologische vooruitgang ook voor efficiëntiewinst zorgt. Simpel gezegd: AI-hardware wordt zo snel efficiënter dat het energieprobleem vanzelf kleiner wordt. Dat is maar voor een deel waar. NVIDIA, de grootste maker van AI-chips, legt op haar website uit hoe energiezuinigheid in datacenters werkt. De kern: hoe meer rekenwerk je haalt uit één watt stroom, hoe beter. GPU’s, slimme koeling, efficiëntere netwerkchips. De nieuwste NVIDIA H100 GPU levert bijna twee keer zoveel energie-efficiëntie als de vorige generatie A100. Dat is zeker een positieve bijdrage aan de energieconsumptie. Maar tegelijk groeien de datacenters zo snel dat die efficiëntiewinst volledig wordt opgegeten door de schaalvergroting.

Het IEA berekende dat datacenters in 2024 verantwoordelijk waren voor zo’n 1,5 procent van het wereldwijde energieverbruik: 415 terawattuur. Dat verdubbelt naar verwachting naar 945 terawattuur in 2030. Ter vergelijking: dat is het jaarlijkse stroomverbruik van heel Japan.

Nieuwere chips verbruiken minder energie per berekening, en onderzoekers ontwikkelen compactere AI-modellen die minder rekenkracht vereisen. De energievraag per prompt daalde vergeleken met vroegere generaties AI-hardware. Nieuwe efficiënte halfgeleiderarchitecturen en koelmethoden zullen een belangrijke bijdrage leveren aan het verbeteren van de energie- en emissiecurve van AI.

Datacenters alternatief koelen

Er zijn waterloze of watervriendelijke koelingstechnieken voor datacenters. Hier is een aantal alternatieve koelingstechnieken voor datacenters op een rijtje.

Buitenluchtkoeling (Free Air Cooling): Free air cooling gebruikt koude buitenlucht direct als koelmedium, zonder verdampingswater. Een voorbeeld is IJsland: datacentercampus Verne Global in Reykjavik gebruikt 100% hernieuwbare energie (hydro- en geothermisch) en koelt uitsluitend met de ijskoude buitenlucht, het hele jaar door. Telecombedrijf Orange paste een vergelijkbaar intelligent free cooling-systeem toe in zijn grote datacenter in Normandië, Frankrijk, waarmee het energieverbruik voor koeling met meer dan 50% daalde.

Vloeistofonderdompeling (Immersion Cooling): Bij immersion cooling worden servers letterlijk ondergedompeld in een niet-geleidende vloeistof, Er is hierdoor geen verdampingswater meer nodig. Vloeistof geleidt energie circa 22,4 keer beter dan lucht, wat leidt tot ongeveer 15% verbetering in het totale energieverbruik.

Direct-to-Chip- en Rear-Door-koeling: Bij direct-to-chipkoeling worden koelplaten direct op processors gemonteerd, waardoor warmte zonder lucht of verdampingswater wordt afgevoerd via een gesloten vloeistofcircuit. Dit is met name populair bij AI-chips zoals NVIDIA H100’s, die zoveel warmte produceren dat traditionele luchtkoeling ontoereikend is. Google en Meta zetten dit systeem al in hun nieuwste datacenters in.

Onderwaterdatacenters (Seawater Cooling): Microsofts Project Natick zette een volledig verzegeld datacenter 117 voet diep op de zeebodem bij de Orkney-eilanden in Schotland, gekoeld door de omringende oceaan via warmtewisselaars. Resultaat: een serveruitvalpercentage achtmaal lager dan bij bovengrondse datacentra. Op basis van dit concept bouwen Chinese bedrijven inmiddels commercieel schaalbare onderwatermodules.

Restwarmteherwinning: in plaats van warmte weg te koelen, kan deze worden teruggewonnen en nuttig worden ingezet. In Finland gebruikt Fortum’s datacenter in Helsinki de restwarmte om duizenden woningen in de stad te verwarmen via het stadsverwarmingsnetwerk, een model dat ook navolging krijgt in Stockholm en Amsterdam.

Analysemodellen van AI

Kleinere, gespecialiseerde AI-modellen verbruiken veel minder energie dan grote generieke modellen. Nu AI steeds verder in onze samenleving doordringt, zullen meer ‘verticale’ modellen ontstaan, geschikt voor een specifieke toepassing of branche. Dezelfde AI-technologie kan ook het stroomnet optimaliseren, netcongestie verminderen en de energietransitie versnellen.

Meer of ander beleid

Beleid vormt de noodzakelijke kaders om de ontwikkelingen van AI in goede, duurzame en maatschappelijk verantwoorde banen te leiden. Daarvoor is echter wel een daadkrachtige overheid nodig. Die kan beleidsinstrumenten, rapportageverplichtingen en toezichtstrategieën ontwikkelen.
 

Wetgeving voor verantwoorde innovatie

Hoewel regulering vaak wordt gezien als een rem op technologische ontwikkeling, kan het ook als aanjager van verantwoorde innovatie zorgen. Beleid zoals de Europese AI-verordening creëert een gelijk speelveld (in Europa) en voorkomt dat bedrijven concurreren op aspecten waar minimumnormen horen te gelden. Denk daarbij aan privacy of veiligheid, maar dat zou ook voor duurzaamheid kunnen gelden. Een beleidsinstrument dat kan worden ingezet, is bijvoorbeeld de inzet van regulatory sandboxes (proeftuinen). Binnen deze afgeschermde omgevingen kunnen ontwikkelaars en toezichthouders samenwerken om nieuwe AI-toepassingen op een veilige en verantwoorde manier te testen aan de regelgeving, voordat ze op de markt komen. Dat gebeurt nu al. De Europese Unie stelt de lidstaten bijvoorbeeld de verplichting om eind 2026 AI-sandboxes te realiseren met de Europese Datatoezichthouder (EDPS) voor toezicht op compliance.
 

Transparantie, Registratie en Rapportage

Om de verborgen milieu- en maatschappelijke impact van AI beheersbaar te maken, is beleid gericht op transparantie natuurlijk wel erg belangrijk.
  • Milieurapportages: onderzoekers roepen op om strengere rapportageverplichtingen in te voeren voor techbedrijven, met volledige transparantie op datacenterniveau over het exacte energie-, water- en CO₂-verbruik.
  • Het Algoritmeregister: een belangrijk beheerinstrument is het verplichte Algoritmeregister voor (semi-)publieke organisaties. Dit register heeft een dubbel doel: het bevordert de interne controle en governance binnen de organisatie, en het zorgt voor transparantie zodat burgers, journalisten en toezichthouders het gebruik van AI kunnen controleren.
  • Impacttoetsen (FRIA): Overheidsorganisaties worden via beleid verplicht om een grondrechteneffectbeoordeling (FRIA) uit te voeren voordat zij hoogrisico-AI-systemen inzetten, om zo vooraf de risico’s voor de maatschappij in kaart te brengen.
Beleid voor Duurzame Digitalisering (Twin Transition) De Rijksoverheid heeft het Actieprogramma Duurzame Digitalisering 2026-2028 gelanceerd met als expliciet doel om de Nederlandse digitale sector in Europa koploper te maken op het gebied van duurzaamheid. Dit beleid focust zich op:
  • Het verduurzamen van overheidsdatacenters, het stimuleren van circulair gebruik van IT-apparatuur en duurzaam inkopen.
  • Het stimuleren van “groene software” (zoals het gebruik van energiezuinige algoritmen) en de ontwikkeling van een standaard voor het meten van directe en indirecte CO₂-uitstoot door ICT-systemen.
  • Daarnaast probeert het kabinet de fysieke en ecologische impact van de infrastructuur in te dammen. Ze probeert de milieu-impact van AI te beperken door via ruimtelijk beleid grenzen te stellen aan de komst van nieuwe megadatacenters (zoals een maximum van 10 hectare en een stroomaansluiting van maximaal 70 megawatt).

AI zelf als oplossing voor het energievraagstuk

AI met al haar mogelijkheden kan ook een rol spelen in de energietransitie. AI verbruikt energie en water. Dat is vastgesteld. Maar AI bespaart ook energie en water en in bepaalde sectoren op een schaal die het eigen verbruik ruimschoots overtreft.

AI voor het stroomnet

  • Optimalisatie van vraag en aanbod van elektriciteit in realtime
  • Aansturen van energiedistributiesystemen en het verminderen van netcongestie
  • Versnellen van investeringsbeslissingen voor duurzame infrastructuur

Het initiatief van de TU Delft

De TU Delft geeft een impuls aan het Nederlandse energielandschap door onderzoek te doen naar AI voor een duurzame en eerlijke energiehuishouding voor iedereen. Met meer dan 700 energiewetenschappers en enkele duizenden studenten werken we aan de ontwikkeling van de kennis en innovaties die hiervoor nodig zijn. Onze ambitie is om met AI-onderzoek meer inzicht in systemen en processen te krijgen (door geautomatiseerd leren uit gegevens) en een intelligent systeem te ontwikkelen dat zowel ingenieurs als maatschappelijke belanghebbenden  ondersteunt bij besluitvorming. Denk hierbij zowel aan het ontwerp van (delen van) het energienetwerk als aan het gebruik van het energienetwerk. Ze richten zich op de volgende gebieden van AI en digitalisering voor energie en duurzaamheid:

  1. Ondersteuning van de besluitvorming voor de vernieuwing van het energiesysteem, met aandacht voor risico’s, beschikbare hulpbronnen en veerkracht. Daarbij rekening houdend met meerdere belanghebbenden en met inbegrip van de effecten op de samenleving en het milieu.
  2. Coördinatie en nauwkeurige aansturing van het energiesysteem: de infrastructuur en energiemarkten voor elektriciteit, warmte en gas. Zodat het geïntegreerde systeem efficiënt, betrouwbaar en eerlijk is, zelfs wanneer alle energiebronnen hernieuwbaar en dus meestal variërend en nauwelijks controleerbaar zijn.
  3. Efficiënt energiegebruik van systeemcomponenten, zowel van apparatuur als van modellen.
  4. Ondersteuning van interacties in het energiesysteem: snelle en efficiënte interactie tussen actoren onderling (producenten, consumenten, huishoudens en industrie) én tussen actoren en het energiesysteem.

Energie-efficiëntie in gebouwen

Google DeepMind gebruikte AI om de koeling van zijn eigen datacenters te optimaliseren. Resultaat: 40% reductie in koelingsenergie. AI kan het energieverbruik in gebouwen met tot 40% verlagen door real-time aanpassingen van verwarming en koeling.

Slimme energienetten

AI kan de waarde van windenergie met zo’n 20% verhogen door de productie te voorspellen en de aansluiting op het net te optimaliseren. Windturbines produceren naar schatting meer dan 400 miljard datapunten per jaar, data die AI kan gebruiken om de energieopbrengst te maximaliseren.

Transport en logistiek

Google’s eco-routing-feature kiest routes die niet alleen snel zijn, maar ook zuinig. Dat scheelt naar schatting meer dan een miljoen ton CO₂ per jaar.

Klimaatmodellen

AI maakt klimaatmodellen sneller en nauwkeuriger, wat wetenschappers in staat stelt om extremen beter te voorspellen. Dat is de basis voor beleid, rampenplanning en verandering in strategie en beleid.

Landbouw en voedsel

Precisielandbouw integreert AI en sensordata om het gebruik van water, meststoffen en pesticiden te optimaliseren. Schattingen suggereren dat de eiwittransitie, versneld door AI, tot 3 gigaton CO₂-equivalent per jaar kan besparen. Voor elke ton CO₂ die AI-systemen uitstoten, kunnen ze naar schatting 3 tot 6 ton besparen via klimaattoepassingen. AI zou tegen 2030 vijf tot tien procent van de wereldwijde uitstoot kunnen besparen ,maar alleen als het op groene stroom draait.

Datacenters in koude gebieden

Het verplaatsen of bouwen van een datacenter, niet in het kwetsbare zuiden maar in koude klimaten, is een belangrijke innovatie om de milieu-impact van AI, de enorme water- en energievoetafdruk van AI te verkleinen. De hitte die door krachtige AI-servers wordt gegenereerd, vereist doorgaans waterintensieve koelsystemen, maar koude regio’s bieden een efficiënt, natuurlijk alternatief.  Dit wordt ook wel het principe van ‘Free Cooling’ genoemd. Techbedrijven kunnen dan handig gebruikmaken van het koude klimaat.  Een ‘free cooling’-systeem zuigt als het ware de van nature koude buitenlucht naar binnen om de apparatuur af te koelen. Een mooi voorbeeld is dat Microsoft bijvoorbeeld datacenters in Canada bouwt om te profiteren van de lage buitentemperaturen voor deze natuurlijke manier van serverkoeling. Door de locatie strategisch af te stemmen op het klimaat, kan het gebruik van water voor koeling vrijwel volledig worden geëlimineerd.
 

Datacenter in zee

Binnen het bredere vraagstuk van locatiekeuze zoeken technologiebedrijven naar steeds meer exotische oplossingen om de water- en energievoetafdruk van AI-datacenters te verkleinen. Een van de meest interessante innovaties is het verplaatsen van datacapaciteit naar onbewoonde, natuurlijke omgevingen, of zelfs buiten onze atmosfeer. Denk daarbij aan het bouwen van een datacentrum onder de zeespiegel of in het ijskoude Noordpoolgebied.
 

Datacenters in de ruimte

Nog een stap verder is het idee om datacapaciteit letterlijk “van de planeet af” te verplaatsen door gebruik te maken van de ruimte. Hoewel deze technologie zich nog in een zeer experimenteel stadium bevindt, verkennen mensen als Elon Musk met zijn bedrijf SpaceX momenteel actief de haalbaarheid hiervan. De huidige focus voor deze ruimtefaciliteiten ligt op het lanceren van satellieten die op zijn minst specifieke back-uptaken of andere, soortgelijke gerichte processen kunnen overnemen van de datacenters op aarde.

Je huis als datacenter? 

Ik vond onlangs een bericht van de Amerikaanse startup Span en woningbouwer PulteGroup. Samen gaan ze, met behulp van chipmaker NVIDIA iets niews proberen. Ze willen mini-datacenters aan de buitenmuur van nieuwbouwwoningen monteren, ongeveer zo groot als een airco-unit. Die kastjes heten XFRA-nodes. Vloeistofgekoeld, geen ventilatoren, en in elke node zitten 16 NVIDIA chips. Slimme meterkasten van Span sturen er ongebruikte stroomcapaciteit naartoe, want een gemiddeld huis benut maar zo’n 40 procent van zijn aansluiting. Het idee: in plaats van één datacenter ergens in de polder, krijg je duizenden kleintjes verspreid over woonwijken. Bewoners hosten een node en krijgen korting op stroom en internet. Dit najaar gaan honderd huizen in het zuidwesten van de VS starten met een pilot. Deze nodes doen alleen het inferentie-deel. Dus het werk dat AI doet wanneer jij iets vraagt aan ChatGPT of Copilot.

Een slim idee, maar ook een beetje ongemakkelijk. Slim, omdat we wereldwijd vastlopen in netcongestie en hier in Europa wordt gevochten om de beperkte ruimte voor het plaasen van datacenters. Een gedistribueerd model als deze omzeilt dat probleem deels. Maar de AI-infrastructuur schuigt nu wel heel gemakkelijk je woonwijk in. Wie is aansprakelijk als zo’n node oververhit raakt? Wat gebeurt er met je data? En past dit eigenlijk in de Europese AI Act, die juist transparantie en risicobeheersing voorschrijft? Ik denk dat we deze vragen niet alleen aan techbedrijven moeten overlaten. Dat gesprek komt eraan, ook in Nederland.

De nucleaire optie

Wind- en zonne-energie zijn niet altijd beschikbaar; AI-datacenters draaien 24/7. Grote techbedrijven zetten daarom al lang kernenergie in om de milieu-impact van AI op te vangen:

  • Microsoft financiert de heropening van Three Mile Island in Pennsylvania.

  • Amazon heeft een datacenter direct gekoppeld aan een kerncentrale.

  • Google sloot een deal met Kairos Power voor kleine modulaire reactoren (SMR’s) tot 500 MW in 2035.

Naarmate AI de groei van datacenters blijft aanjagen, is het veiligstellen van voldoende energievoorziening een uitdaging geworden. Onlangs noemde de CEO van het beursgenoteerde Nano Nuclear Energy (Nasdaq: NNE) dat hij een oplossing kan bieden. Nano Nuclear Energy richt zich op de ontwikkeling van microreactoren die compact genoeg zijn om via de weg, het spoor of over zee te worden vervoerd. Dit maakt ze geschikt voor afgelegen locaties, waaronder datacenters, die energie nodig hebben maar beperkte toegang hebben tot traditionele energiebronnen. Hij positioneert zijn microreactoren als ‘plug-and-play’-oplossingen. Deze kleine, draagbare reactoren zijn ontworpen om schone, veilige en betrouwbare energie te leveren om te voldoen aan de toenemende energiebehoefte van datacenters en andere industrieën.

De mobiele NANO kernreactor Zeus voor gebruik bij datacenters

Wat dit betekent voor jou als professional?

Je werkt in marketing, communicatie, sales of e-commerce. Je gebruikt AI-tools. Misschien elke dag. Misschien tientallen keren per dag. Dat is prima. Maar AI-geletterdheid betekent ook begrijpen wat het kost en wanneer dat gebruik gerechtvaardigd is. Vraag je daarom de volgende zaken af:

Heb je het grote model nodig? Voor het samenvatten van een e-mail of het checken van een zin is een kleiner model vaak voldoende. GPT-4o-mini, Claude Haiku, Gemini Flash, ze verbruiken een fractie van wat de grote broers doen.

Hoe vaak regenereer je prompts? Elke regeneratie is een nieuwe inferentie. Scherp prompten aan de voorkant scheelt meerdere rondes aan de achterkant. Wij van AI-geletterdheid helpen je daar graag bij 🙂 #reclame

Gebruik je AI voor taken waar het echt waarde toevoegt? Analyse van grote datasets, het snel verwerken van klantfeedback, het genereren van eerste drafts dat zijn waardevolle toepassingen.

Vraag je leveranciers naar hun duurzaamheidsprofiel. Welke energie gebruiken hun datacenters? Rapporteren ze waterverbruik? Dat verschil mag zwaarder wegen in aankoopbeslissingen.

Een concrete checklist voor je organisatie:

  • Weet je welke AI-tools jullie gebruiken en bij welke aanbieder ze draaien?
  • Weet je of die aanbieders rapporteren over energie- en waterverbruik?
  • Zijn er richtlijnen binnen je organisatie voor wanneer en hoe AI wordt ingezet?
  • Houd je bij hoeveel AI-gebruik je organisatie genereert, als onderdeel van je milieu-impact van AI, jouw footprint?
  • Heb je nagedacht over welke taken een groot model rechtvaardigt en welke niet?

Wat moet er veranderen?

Verplichte transparantie. Overheden , zeker de EU, via de AI Act , kunnen eisen dat techbedrijven AI-specifieke energie- en watercijfers publiceren. Dat is niet meer dan wat er al geldt voor CO₂-uitstoot via het Greenhouse Gas Protocol.

Slimmere locatiekeuze voor datacenters. Bouwen waar water en groene energie beschikbaar zijn, in plaats van waar de markt al zit. Dat vereist sturing, fiscale prikkels, vergunningsbeleid, internationale afspraken.

Investeren in efficiëntere hardware. Nieuwe GPU-generaties zijn al twintig keer efficiënter dan hun voorgangers voor bepaalde taken. Dat moet worden aangehouden en gestimuleerd.

Groene stroom als standaard. Datacenters die op hernieuwbare energie draaien, verminderen niet alleen hun CO₂-voetafdruk, maar ook indirect hun waterverbruik.

Een eerlijkere prijs voor AI. Er zijn mensen die pleiten voor een AI-taks, vergelijkbaar met de vliegtaks, die het gebruik bewuster maakt. Of dat de juiste maatregel is, valt te betwisten. Maar het idee dat AI gratis is voor de gebruiker en de planeet klopt niet.

Tot slot: een standpunt

AI is niet inherent slecht voor het klimaat. Maar AI is ook niet inherent goed voor het klimaat. Het hangt volledig af van hoe het wordt gebouwd, waar het op draait en voor welk doel het wordt ingezet. De technologie die klimaatmodellen verbetert, energienetten optimaliseert en precisielandbouw mogelijk maakt, is dezelfde technologie die stroom slurpt in datacenters die op kolen draaien. Dat is misschien geen paradox, maar een keuze. En keuzes kunnen anders zijn. De eerste stap is transparantie. Van techbedrijven, van overheden, en van onszelf als gebruikers. Je hoeft de milieu-impact van elke ChatGPT-vraag niet bij te houden. Maar weten dat er een impact is en begrijpen hoe die werkt, dat is wat je mag verwachten als minimum.

Want ook dat is AI-geletterdheid.

Bronnen gebruikt voor dit artikel

  1. AI’s hidden carbon and water footprint: Vrije Universiteit Amsterdam.
  2. Data Centers and Water Consumption: Environmental and Energy Study Institute (EESI).
  3. OpenAI gaat datacenter in Noorwegen met 100.000 Nvidia-gpu’s in gebruik nemen
  4. Wat is een TWh? – TNO
  5. AI energyconsumption statistics
  6. Gartner Says Electricity Demand for Data Centers to Grow 16% in 2025 and Double by 2030
  7. Understanding power generation
  8. Generative AI’s environmental impact: Massachusetts Institute of Technology.
  9. Data centers, backbone of the digital economy, face water scarcity and climate risk
  10. Gupta, et al._AIs excessive water consumption.pdf: Universiteit van Amsterdam.
  11. How AI uses our drinking water: BBC World Service
  12. These cities have the largest carbon footprint
  13. How Data Centers Are Wiping Out Our Drinking Water: Economy Media.
  14. There are many ways to minimise water use related to AI operations, but they may not be what you think: OECD.AI.
  15. Why AI’s water problem might actually be an opportunity: World Economic Forum.
  16. Explained: Generative AI’s environmental impact: MIT
  17. Wat als AI het eigen energieprobleem kan oplossen? Duurzaamnieuws
  18. Het AI-dilemma: Energievraag datacenters verdriedubbelt, kan ons energienet dat aan? Change.Inc
  19. Momentum is building to meet electricity demand in Texas with small nuclear reactors AP
  20. 2 Megawatt Nuclear Reactors That Can Fit In a Truck Nextbigfuture
  21. Micro nuclear reactors could cost as little as $20 million and launch by 2031 — but will it be enough for data center operators and the AI industry Techradar
  22. Hungry for Energy, Amazon, Google and Microsoft Turn to Nuclear Power New York Times
  23. ChatGPT minder energieverslindend dan gedacht ICT Magazine
  24. AI voor Energie en Duurzaamheid TU Delft
  25. ESG & Economie – Wat kan AI doen om klimaatverandering tegen te gaan? ABN Amro

 

 

 

 

AI geletterdheid
Privacyoverzicht

Deze site maakt gebruik van cookies, zodat wij je de best mogelijke gebruikerservaring kunnen bieden. Cookie-informatie wordt opgeslagen in je browser en voert functies uit zoals het herkennen wanneer je terugkeert naar onze site en helpt ons team om te begrijpen welke delen van de site je het meest interessant en nuttig vindt.