Myte avkreftet: ChatGPT-forespørsler bruker mindre enn 1 W/t

Av: Nastya Bobkova | 13.02.2025, 03:32

ChatGPT har blitt en integrert del av mange brukeres arbeidsflyt, men i takt med populariteten har også bekymringene for høyt strømforbruk vokst. En ny studie fra Epoch AI tilbakeviser imidlertid disse bekymringene.

Dette er hva vi vet

Forskeren Joshua Yu har beregnet at et enkelt spørsmål til ChatGPT (basert på GPT-4o) bruker omtrent 0,3 W/t, noe som er mye mindre enn tidligere antatt. Til sammenligning trodde man tidligere at hvert chatbot-spørsmål brukte 3 W/t, men denne beregningen var basert på utdaterte data og mindre effektiv maskinvare.

Joshua bemerker at dette strømforbruket er mye lavere enn for de fleste husholdningsapparater. I tillegg jobber teknologiselskaper aktivt med å forbedre energieffektiviteten til kunstig intelligens. Nye generasjoner av AI-brikker blir ikke bare kraftigere, men også mindre energikrevende.

Men strømforbruket vil fortsatt øke i takt med utviklingen av AI. Modeller som fokuserer på mer komplekse oppgaver, vil kreve mer datakraft, og fremtidens AI-agenter vil kunne utføre ulike oppgaver på menneskenivå.

Det forventes at fremtidige AI-agenter vil kunne arbeide på menneskelig nivå på ulike områder, noe som vil føre til en økning i antall datasentre og dermed en økning i energiforbruket.

"AI vil fortsette å utvikle seg, og opplæringen vil kreve stadig mer ressurser. I fremtiden vil disse systemene jobbe mye mer intensivt og utføre mer komplekse oppgaver enn de gjør i dag", konkluderer forskeren.

Kilde: Android Overskrifter