Notebookcheck Logo

AI en het stroomverbruik ervan: een van de vele problemen

Veel moeite voor een soms zeer goed te beheren rendement: kunstmatige intelligentie. (Afbeelding: pixabay/viarami)
Veel moeite voor een soms zeer goed te beheren rendement: kunstmatige intelligentie. (Afbeelding: pixabay/viarami)
Het is zeker geen geheim dat ChatGPT en andere AI-systemen energievreters zijn. En als Sam Altman, CEO van OpenAI, toegeeft dat dit een probleem zou kunnen worden, is het zeker de moeite waard om de rekensom te maken en naar de toekomst te kijken.

ChatGPT heeft momenteel de elektriciteit van 33.000 huishoudens nodig. 70.000 of 80.000 mensen zouden deze energie een heel jaar lang kunnen gebruiken.

Maar de plannen van OpenAI zijn natuurlijk gebaseerd op een toekomst die vergelijkbaar is met het heden van Google. Alleen al de zoekopdrachten van Google kunnen een aanzienlijke hoeveelheid energie genereren.

Volgens verschillende bronnen, die allemaal verwijzen naar een wat ouder cijfer, wordt er 0,3 Wh gebruikt per zoekopdracht - 8,5 miljard zoekopdrachten per dag wereldwijd.

Dat zou neerkomen op een totaal van bijna 1 terawattuur per jaar, alleen al om de zoekopdrachten te verwerken. Als u dat extrapoleert naar huishoudens, zijn dat er al 90.000 tot 100.000. Dat is het elektriciteitsverbruik van huishoudens in Reno of Buffalo.

Toch is het cijfer voor Google, dat nog steeds duidelijk gigantisch is, slechts drie keer zo hoog als voor ChatGPT. En voor beide bedrijven hebben we het over één aspect van het hele bedrijf.

Volgens de bedrijfsgegevens van Google is het totale verbruik eigenlijk 6 terawattuur, 6 keer zoveel als de zoekopdrachten zelf. Dit is echter wereldwijd. Als u bijvoorbeeld het totale elektriciteitsverbruik in de VS neemt, komt dit cijfer overeen met iets meer dan 0,1 procent.

OpenAI geeft echter een factor 4 tot 5 per zoekopdracht. Bovendien verdubbelt het aantal zoekopdrachten om de paar jaar.

Dus als het huidige zoekvolume door ChatGPT en zijn concurrenten zou worden verwerkt, zou de waarde die voor Google wordt gebruikt gemakkelijk kunnen worden vervijfvoudigd.

Dat zou 30 terawattuur zijn. Heel Los Angeles met zijn 4 miljoen inwoners kan met deze hoeveelheid elektriciteit toe. Aan de andere kant is 30 TWh maar een klein deel van de wereldwijde energieproductie, maar het vertegenwoordigt wel het wereldwijde gebruik van AI.

En toch: als de ontwikkeling over het algemeen doorgaat, zoekopdrachten in de toekomst alleen nog maar door AI worden beantwoord en het aantal in hetzelfde tempo blijft toenemen, zal het dichter bij 60 of 100 TWh liggen. Hier lijkt een onmiskenbaar besparingspotentieel te liggen.

Natuurlijk kan technologie ook gebruikt worden om elektriciteit te besparen. Als ik betere zoekresultaten krijg, hoef ik niet op vier of vijf websites te klikken, maar kan ik gewoon op de eerste klikken. Ik kan een foto genereren en hoef deze niet zelf te maken en te bewerken. Ik kan documenten bewerken met collega's en vrienden zonder ter plaatse te zijn, wat natuurlijk ook energie bespaart (hoewel hier geen AI voor nodig is).

Toch blijft het belangrijk om mensen bewust te maken van het feit dat AI efficiënter kan en moet. Er simpelweg op vertrouwen dat er genoeg goedkope energie beschikbaar is, zou wel eens een al te gemakkelijke denkfout kunnen blijken te zijn.

In dit opzicht is de wake-up call van Sam Altman een goed signaal. Zijn plan om kernfusie te gebruiken om alles in evenwicht te brengen, lijkt daarentegen nogal naïef.

Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 02 > AI en het stroomverbruik ervan: een van de vele problemen
Mario Petzold, 2024-02-22 (Update: 2024-02-22)