Растущая популярность искусственного интеллекта, в частности сервиса ChatGPT, вызвала активное обсуждение его энергопотребления и экологического воздействия. Руководитель OpenAI Сэм Альтман заявил, что один запрос к ChatGPT потребляет 0,34 ватт-часа электроэнергии. Однако специалисты критикуют эту цифру, поскольку в ней не учтены ряд важных факторов, включая затраты на охлаждение серверов, специфику энергосетей, работу коммуникационного оборудования и изменяющуюся нагрузку на системы.
Об этом сообщает News IO
Недостаточная прозрачность энергопотребления искусственного интеллекта
Климатическая исследовательница компании Hugging Face Саша Луччоні указывает на то, что публично озвученные данные о энергопотреблении ChatGPT не являются достаточно обоснованными. Отсутствие подробной методологии расчетов, характеристик среднего запроса и информации о обучении модели снижает достоверность таких оценок. Эксперт также подчеркивает, что большинство ИТ-компаний не раскрывают реальной информации о экологическом следе своих продуктов.
Состоянием на май 2025 года 84% крупнейших языковых моделей не предоставили официальных данных о влиянии на окружающую среду. В связи с этим общественность вынуждена ориентироваться на неподтвержденные предположения. Например, бытует мнение, что один запрос в ChatGPT потребляет в десять раз больше энергии, чем поисковый запрос в Google. Однако даже инициатор этой гипотезы, глава Alphabet Джон Хеннессі, подчеркивал, что это лишь предположение, которое не следует воспринимать как доказанный факт.
“Когда вы покупаете автомобиль, вам говорят, сколько топлива оно потребляет. Но когда вы ежедневно пользуетесь ИИ, никто не раскрывает, сколько энергии это забирает”, – говорит она. По ее мнению, экологическая прозрачность должна быть обязательной, особенно в условиях климатического кризиса.
Поиск путей снижения энергопотребления языковых моделей
В научных кругах активно исследуют уровень энергопотребления открытых языковых моделей. Недавнее исследование охватило 14 таких систем, включая Meta Llama и DeepSeek. Выяснилось, что разница в потреблении энергии между отдельными моделями может достигать 50% даже при одинаковых условиях. Более сложные модели генерируют более длинные ответы и требуют больше промежуточных расчетов, что увеличивает нагрузку на энергосеть.
Эксперты советуют использовать менее мощные языковые модели для решения простых задач. Это позволяет сократить потребление электроэнергии и ограничить выбросы парниковых газов. Компании Google и Microsoft уже внедряют такие подходы, применяя более компактные модели в своих сервисах.
Тем не менее, большинство поставщиков искусственного интеллекта не спешат оптимизировать энергопотребление, отдавая предпочтение производительности и скорости для конечного пользователя. Специалисты подчеркивают, что только прозрачные отчеты о энергопотреблении и выбросах CO₂ позволят адекватно оценить влияние ИИ на окружающую среду. По мнению Саши Луччоні, обязательное опубликование таких данных должно стать общепринятым стандартом для всех компаний, внедряющих искусственный интеллект.
