Колко струва ChatGPT на климата? Не питайте OpenAI – няма да кажат
Компанията на Сам Алтман твърди, че една заявка в ChatGPT използва 0,34 ватчаса енергия – но не обяснява как го изчислява. А 84% от водещите AI модели нямат никакви данни за въглеродния си отпечатък
&format=webp)
„Хората често си задават въпроса колко енергия изразходва един въпрос в ChatGPT“, пише Сам Алтман в блога си миналата седмица.
Според главния изпълнителен директор на OpenAI, средното потребителско запитване използва около 0,34 ватчаса – „горе-долу колкото фурна за малко повече от секунда или енергоспестяваща крушка в рамките на няколко минути“.
На фона на 800 милиона активни потребители на седмична база обаче, тази метафора с фурната изглежда все по-малко безобидна, пише WIRED.
И със сигурност се нуждае от повече контекст…
Според експерти цифрата на Алтман звучи добре, но без яснота как е изчислена, тя остава неясна и, в най-добрия случай, подвеждаща. Какво е „среден“ въпрос? Това включва ли изображения? Смята ли се и охлаждането на сървърите? А обучението на модела?
„Можеше да си я измисли на място“, казва д-р Саша Лучони, експерт по климатичните ефекти на изкуствения интелект в Hugging Face. OpenAI не предоставя методологията зад тези изчисления, а публичните им доклади за въздействието върху околната среда са меко казано оскъдни.
Именно затова нова вълна от изследвания се опитва да внесе някаква прозрачност в казуса – не само относно това колко електричество всъщност хаби AI, но и какво означава това в контекста на климатичната криза.
Според Лучони 84% от всички заявки към големи езикови модели през май 2025 г. са насочени към модели, за които няма никаква публична информация относно въглеродния им отпечатък.
„Можеш да си купиш кола и веднага знаеш колко гориво всъщност харчи. Но ние използваме тези AI инструменти всеки ден и все пак нямаме никакви метрики за ефективност или емисии“, казва Лучони. „Не е регламентирано, изисквания не съществуват. А при сегашната ситуация с климата това би трябвало да е сред приоритетите на регулаторите.“
Едно твърдение, което често се повтаря в множество медии и политически доклади, гласи, че една заявка към ChatGPT използва десет пъти повече енергия от търсене в Google. Откъде обаче идва тази цифра? От изказването на Джон Хенеси – председател на борда на Alphabet – направено през 2023 г. Без да е свързан с OpenAI. Но колкото и спекулативно да звучи, числото се повтаря като факт.
„Хората възприемат подобни твърдения като стандарт, защото просто няма други числа“, казва Лучони. „Ако имаше прозрачност, нямаше да се хващаме за произволни изказвания.“
Един от малкото прозорци към реалните данни за енергийна ефективност идва от отворените модели. В контраст с OpenAI и Anthropic, които държат системите си затворени, някои компании публикуват поне част от данните, като позволяват на изследователи да правят сравнителни анализи.
Именно до това се свежда и ново проучване, публикувано във Frontiers of Communication, което сравнява 14 отворени LLM модела, включително два от Meta (LLaMA) и три от DeepSeek. Заключението е, че някои модели използват до 50% повече енергия от други при изпълнение на идентични заявки.
Тестовете включват 1000 въпроса – половината с отворен отговор, половината в multiple choice формат. Моделите с по-добри аналитични способности използват значително повече „мисловни токени“ – мярка за вътрешната обработка при генериране на отговори. Именно те се оказват и най-енергоемките.
„Дори по-малките по мащаб модели могат да дадат добри резултати, когато става въпрос за по-прости задачи, без огромни емисии“, казва Максимилиан Даунер, докторант в Мюнхенския университет по приложни науки, както и водещ автор на изследването. Той си представя система, в която сложността на въпроса автоматично насочва заявката към по-лека и ефективна AI архитектура.
Но кой всъщност има интерес?
Някои компании като Google и Microsoft вече използват по-леки модели в търсачките си, когато това е възможно – едновременно за по-бърз отговор, както и за по-нисък разход. Но масово липсва стремеж за насочване на потребителите към по-ефективни решения.
„Целта е да ти дадат отговор възможно най-бързо, за да не напуснеш платформата“, казва Номан Башир, експерт по изкуствен интелект и климат в MIT. „Ако ChatGPT започне да отговаря след пет минути, със сигурност ще използваш друг инструмент.“
И все пак реалният разход не се определя само от това какво „мисли“ моделът. Хардуерът също е от голямо значение – GPU чипове като Nvidia A100 (използван в проучването), както и още по-мощният H100, са с различна ефективност. Още повече – центровете за данни използват охлаждане, осветление, мрежова инфраструктура. А всичко това работи в зависимост от времето на деня и вида на енергийната мрежа – въглища или ВЕИ.
Башир дава сравнение: „Да изчисляваш емисиите от AI, без да включваш сървърите, е все едно да вдигнеш колата, да въртиш гумата във въздуха и да измерваш оборотите, за да прецениш горивната ѝ ефективност.“
Най-големият проблем обаче все още е налице: затворените модели, като ChatGPT, са доминиращи. А именно те крият не само детайлите около енергийната си консумация при заявка, но и колосалните емисии, които се отделят при обучението им и последващите актуализации.
„Ако имах вълшебна пръчица, бих направила задължително за всяка компания, която внедрява AI система, да обяви въглеродния си отпечатък“, казва Лучони.
И в ерата, в която изкуственият интелект се превръща в новия инфраструктурен слой на глобалната икономика, може би е време това да бъде задължение…