In het Verenigd Koninkrijk gaat een onderzoeksproject van start dat tot doel heeft te onderzoeken hoe de milieu-impact is wat men noemt ‘autonome internettechnologieën’ kan worden verminderd. Daaronder vallen met name AI en machine learning.
Autonome systemen die zijn gebaseerd op AI en machine learning worden vaak gepromoot als technologieën die efficiënt omgaan met resources zodat de milieu-impact van datagestuurde systemen kan worden verminderd. Deze systemen kunnen zelf echter extreem veel energie verbruiken en dus bijdragen aan de groeiende wereldwijde carbon footprint van digitale technologie. Deze bedraagt volgens de onderzoekers op dit moment ongeveer 4% van de totale wereldwijde uitstoot bedraagt.
Het InterNET ZERO-project wordt gefinancierd door de UKRI EPSRC TAS Hub. Deze organisatie beoogt het coördineren en samenwerken met researchinstellingen in de VK om een samenwerkingsplatform voor het ontwikkelen van sociaal nuttige autonome systemen. Het ontstaan van dit soort systemen is in belangrijke mate afhankelijk van AI en machine learning. Het energieverbruik van dit soort technologieën was tot voor kort niet direct duidelijk. Inmiddels weten we dat datacenters die veel AI/ML workloads kennen, beduidend meer energie verbruiken dan andere faciliteiten.
Grote zorgen
Deep Jariwala and Benjamin C. Lee, onderzoekers aan de Universiteit van Pennsylvania hebben onderzoek naar de milieu-impact van AI/ML. In een interview met een publicatie van de univertsiuetiut stelt Jariwala: “We nemen het als vanzelfsprekend aan, maar alle taken die onze machines uitvoeren, zijn transacties tussen geheugen en processoren, en elk van deze transacties kost energie. Naarmate deze taken uitgebreider en data-intensiever worden, beginnen twee dingen exponentieel op te schalen: de behoefte aan meer geheugenopslag en de behoefte aan meer energie.”
Hij vervolgt: “Wat het geheugen betreft, stelt een schatting van de Semiconductor Research Corporation, een consortium van alle grote halfgeleiderbedrijven, dat als we doorgaan met het opschalen van gegevens in dit tempo, die worden opgeslagen op geheugen gemaakt van silicium, we de jaarlijks wereldwijde hoeveelheid geproduceerd silicium zullen overtreffen. Dus binnenkort zullen we tegen een muur lopen waarbij onze toeleveringsketens van silicium de hoeveelheid gegevens die wordt gegenereerd niet kunnen bijhouden. Koppel dit aan het feit dat onze computers in 2018 ongeveer 1 tot 2% van de wereldwijde elektriciteitsvoorziening verbruikten, en in 2020 werd dit cijfer geschat op ongeveer 4 tot 6%. Als we in dit tempo doorgaan, zal het tegen 2030 naar verwachting met 8 tot 21% stijgen, wat de huidige energiecrisis nog verergert.”
Zijn collega-onderzoeker Lee vertelt in hetzelfde artikel: “Er is ook bezorgdheid over de koolstofemissies van berekeningen. Dus zelfs voordat producten zoals ChatGPT veel aandacht begonnen te krijgen, leidde de opkomst van AI tot een aanzienlijke groei in datacenters, faciliteiten die zijn bedoeld voor het huisvesten van IT-infrastructuur voor gegevensverwerking, beheer en opslag. En bedrijven als Amazon, Google en Meta hebben in het hele land (de Verenigde Staten – red) steeds meer van deze enorme faciliteiten gebouwd. Het vermogen van datacenters en de CO2-uitstoot van datacenters zijn zelfs verdubbeld tussen 2017 en 2020. Elke faciliteit verbruikt in de orde van grootte van 20 megawatt tot 40 megawatt aan stroom, en de meeste tijd draaien datacenters op 100% gebruik, wat betekent dat alle processors worden bezig gehouden met werk. Dus een faciliteit van 20 megawatt trekt waarschijnlijk redelijk constant 20 megawatt – genoeg om ongeveer 16.000 huishoudens van stroom te voorzien – en rekent zoveel mogelijk om de kosten van het datacenter, de servers en de stroomvoorzieningssystemen af te schrijven.”
Het Britse onderzoeksproject gaat proberen een bijdrage te leveren aan het afvlakken van deze groeicurves.