„`html
ChatGPT: Mniej wymagający energetycznie niż się wydawało
ChatGPT, platforma stworzona przez OpenAI, nie jest tak energochłonna, jak wcześniej sądzono. Nowe badania wskazują, że zużycie energii przez ChatGPT zależy w dużej mierze od sposobu jego wykorzystania oraz modeli AI wykorzystywanych do odpowiedzi na zapytania.
Analiza przeprowadzona przez Epoch AI, instytut badawczy zajmujący się sztuczną inteligencją, próbowała oszacować, ile energii zużywa typowe zapytanie do ChatGPT. Wcześniej często podawano, że ChatGPT potrzebuje około 3 watogodzin na odpowiedź – to dziesięć razy więcej niż zapytanie w Google.
Jednak Epoch sugeruje, że to przeszacowanie. Z wykorzystaniem najnowszego standardowego modelu ChatGPT, GPT-4o, Epoch stwierdziło, że przeciętne zapytanie zużywa około 0,3 watogodziny – mniej niż wiele domowych urządzeń.
Energochłonność AI w centrum debaty
Zużycie energii przez AI i jego wpływ na środowisko są przedmiotem gorących debat, zwłaszcza w kontekście ekspansji infrastruktury przez firmy AI. Niedawno ponad 100 organizacji zaapelowało do branży AI o zminimalizowanie wpływu nowych centrów danych na zasoby naturalne.
Joshua You z Epoch zauważa, że wcześniejsze badania bazowały na nieaktualnych założeniach dotyczących technologii, na przykład na starszych układach scalonych OpenAI.
You podkreśla, że poprawność wcześniejszych ocen była ograniczona, ponieważ liczono na podstawie starych danych i przybliżeń. Nowa analiza również szacuje zużycie energii, ponieważ OpenAI nie opublikowało szczegółowych danych.
Przyszłość energochłonności AI
You przewiduje wzrost zapotrzebowania na energię przez ChatGPT w przyszłości wraz z zaawansowaniem technologii AI i wzrostem jej popularności. Mimo postępów w efektywności, skala wdrażania AI zwiększy zapotrzebowanie na zasoby energetyczne.
OpenAI planuje inwestować miliardy dolarów w rozwój centrów obliczeniowych AI w najbliższych latach. Całość zapotrzebowania AI na energię może dorównać temu z Kalifornii z 2022 roku.
Modele rozumowania i ich wpływ
OpenAI skupia się na modelach rozumowania, które zdolne są do bardziej skomplikowanych zadań niż tradycyjne modele jak GPT-4o. Modele te wymagają większej mocy obliczeniowej, co zwiększa zużycie energii.
Opracowano efektywniejsze modele rozumowania, jak o3-mini, lecz ich efektywność nie rekompensuje większych wymagań energetycznych związanych z procesami rozumowania.
You zaleca ograniczone korzystanie z aplikacji AI lub wybieranie mniej zasobożernych modeli, jeśli to możliwe.
W ramach ograniczania wpływu na środowisko warto rozważyć użycie mniejszych modeli AI, takich jak GPT-4o-mini.