ChatGPT consumă cantități enorme de energie electrică. Și, pe măsură ce “va învăța” mai mult, va consuma și mai mult

07 09. 2024
chatgpt openai 53464575

De la lansarea sa în urmă cu aproape doi ani, ChatGPT al OpenAI a captat rapid atenția publicului, acumulând aproximativ 100 de milioane de utilizatori lunari în doar două luni. Cu toate acestea, deși capacitățile sale, de la redactarea de eseuri la rezolvarea de probleme matematice complexe și scrierea de coduri, sunt impresionante, ele vin la pachet cu un cost energetic ridicat, a scris BestBrokers într-un nou raport.

Fiecare interogare ChatGPT consumă aproximativ 2,9 Wh de energie electrică, de aproape zece ori mai mult decât o căutare standard pe Google.

Trimiterea unei interogări către un model AI precum ChatGPT este cunoscută sub numele de inferență. Consumul de energie depinde de multe variabile, cum ar fi lungimea interogării, numărul de utilizatori și eficiența cu care rulează modelul.

Echipa a calculat cu aproximație consumul anual total de energie electrică doar pentru generarea răspunsurilor. ChatGPT consumă 226,8 GWh în fiecare an pentru a procesa 78 de miliarde de solicitări. Potrivit prezentării, această cantitate este suficientă pentru a încărca complet aproximativ 3,13 milioane de vehicule electrice, fiecare cu o capacitate medie a bateriei de 72,4 kWh. Aceasta ar reprezenta 95% din mașinile electrice care circulau de pe drumurile din SUA la sfârșitul anului 2023.

În alți termeni, atât de multă energie electrică pentru gestionarea cererilor ar putea alimenta 21.602 locuințe din SUA timp de un an întreg Costul consumului anual se ridică la 29,7 milioane USD sau circa 0,04 cenți per interogare. Sau: energia pe care ChatGPT o utilizează într-un an pentru a răspunde la întrebări ar putea încărca 47,9 milioane de iPhone-uri 15 în fiecare zi, timp de un an.

Conform autorilor, consumul anual de energie al ChatGPT pentru gestionarea solicitărilor ar putea alimenta toată Finlanda sau Belgia timp de o zi, sau ar putea menține Irlanda în funcțiune pentru mai mult de două zile.

Pregătirea modelelor lingvistice de mari dimensiuni ( Large language models – LLM, modele de învățare profundă foarte mari care sunt pre-antrenate pe cantități enorme de date) este, de asemenea, un proces extrem de energointensiv. Modelul AI învață prin analizarea unor cantități mari de date și exemple. Aceasta poate dura de la câteva minute la câteva luni. Pe parcursul formării, procesoarele și plăcile video  concepute pentru a procesa seturi mari de date funcționează non-stop, consumând cantități semnificative de energie.

De exemplu, formarea modelului GPT-3 al OpenAI, cu cei 175 de miliarde de parametri ai săi, a durat aproximativ 34 de zile și a utilizat aproximativ 1,3 GWh de energie electrică.

Dar, pe măsură ce modelele evoluează și devin mai complexe, cererea lor de energie crește și ea. Pregătirea modelului GPT-4, cu peste un trilion de parametri, a consumat aproximativ 62,3 GWh de energie electrică pe parcursul a 100 de zile.

Sursa: Balkan Green Energy News