ChatGPT zużywa już nawet 8 razy więcej prądu niż wcześniej
Czy taka jest cena postępu? Chociaż najnowsze dziecko Amerykanów jest mądrzejsze i lepiej radzi sobie m.in. z programowaniem, to fizyki nie da się oszukać i może nas czekać kryzys energetyczny.

Najnowszy model od OpenAI, czyli GPT-5, jest według szacunków znacznie bardziej zaawansowany od swoich poprzedników, ale też dużo bardziej energochłonny - zużywa około 8,6 razy więcej energii niż GPT-4. Tak wynika z analiz przeprowadzonych przez amerykański Uniwersytet Rhode Island. Są to jednak tylko szacunki, bowiem OpenAI nie podaje oficjalnych danych dotyczących poboru mocy.
Centra danych do pracy z AI mogą pogłębić kryzys energetyczny
Według badaczy GPT-5 zużywa średnio około 18 Wh na jedno zapytanie. Przy deklarowanej liczbie 2,5 miliarda zapytań każdego dnia oznaczałoby to dzienny pobór energii na poziomie nawet 45 GWh. To ogromna wartość - nowoczesny reaktor jądrowy wytwarza około 1-1,6 GW energii elektrycznej na godzinę. Wynik ten przewyższa wszystkie inne testowane modele z wyjątkiem OpenAI o3 (25,35 Wh) oraz Deepseek R1 (20,90 Wh).



Metodologia badania daleka była jednak od ideału. Naukowcy obliczali pobór energii na podstawie czasu odpowiedzi modelu oraz szacowanego średniego poboru mocy sprzętu, na którym jest uruchamiany. A ponieważ OpenAI nie ujawnia szczegółów infrastruktury, badacze zakładają, że GPT-5 działa na systemach NVIDIA DGX H100 lub DGX H200.
Uwzględniono także pobór energii przez inne elementy infrastruktury (procesor, pamięć RAM, magazyny danych, chłodzenie) oraz specyficzne dla Microsoft Azure współczynniki środowiskowe, takie jak PUE, WUE czy CIF. Gdyby jednak OpenAI korzystało już z nowszych układów NVIDIA Blackwell, które są nawet czterokrotnie szybsze, wyliczenia byłyby błędne.
Warto też pamiętać, że GPT-5 wykorzystuje architekturę MoE, co oznacza, że nie wszystkie parametry są aktywne przy każdym zapytaniu, co zmniejsza zużycie energii przy krótkich odpowiedziach. Model posiada jednak tryb rozumowania o wydłużonym czasie przetwarzania, który może zwiększyć pobór mocy nawet 5-10 razy w stosunku do standardowych zapytań, przekraczając 40 Wh na odpowiedź.
Choć szacunki Uniwersytetu Rhode Island pozwalają zorientować się, jak GPT-5 wypada pod względem poboru mocy na tle poprzednich generacji, wartości bezwzględne mogą być dalekie od rzeczywistości. Wiadomo jednak, że centra danych obsługujące AI już teraz pogłębiają kryzys energetyczny.