Углеродный след искусственного интеллекта в 2025 году соответствует выбросам Нью-Йорка

Когда Google, Amazon или Meta опубликовывают отчеты об энергопотреблении, они сообщают цифры, которые практически невозможно расшифровать. Энергопотребление подразделений, а то и целых компаний складируется в один агрегированный показатель — это создаёт такую же непрозрачность, как если бы наблюдатель смотрел на чёрный ящик и пытался угадать, что внутри. За последние два года потребление электроэнергии центрами обработки данных, обслуживающими искусственный интеллект, выросло экспоненциально, но регуляторы и общественность остаются в неведении относительно реального масштаба экологического воздействия.
Именно эта информационная брешь стимулировала исследование Alex de Vries-Gao из Амстердамского университета свободных исследований (VU Amsterdam), результаты которого опубликованы в научном журнале Patterns. Нидерландский учёный попытался сделать видимым невидимое — параметризировать углеродный и водный следы AI-систем, используя при этом доступные корпоративные отчёты и международные статистические данные IEA.
Методология на грани возможного: как оценить неизвестное
De Vries-Gao встал перед нетривиальной задачей: компании, которые разработали современные AI-модели, часто блокируют прямые данные об их энергопотреблении. Google при этом открыто заявляет в отчёте по экологичности модели Gemini, что отказывается отчитываться о косвенном водопотреблении, связанном с производством электроэнергии в электросетях, аргументируя это отсутствием полного контроля над процессами на электростанциях. Это создаёт асимметричную ситуацию: компании добросовестно рассчитывают свои косвенные выбросы CO₂ (scope 2 по Greenhouse Gas Protocol), но применяют двойной стандарт, отказываясь делать то же самое для воды.
Учёный применил косвенный метод. Он собрал информацию о продажах высокопроизводительных чипов NVIDIA (главный поставщик AI-ускорителей), провёл анализ корпоративных отчётов об устойчивости Google, Amazon и Meta, затем сопоставил это с данными IEA о среднем энергопотреблении на киловатт-час в глобальной энергосистеме и КПД преобразования воды в охлаждающие системы дата-центров.
Результат расчётов обнажает неудобную реальность. В 2025 году углеродный след AI-систем может составить от 32,6 до 79,7 миллиона тонн CO₂. Для сравнения: Нью-Йорк в 2023 году выбросил 52,2 миллиона тонн CO₂. Полученный диапазон отражает различные сценарии интенсивности развёртывания, но даже нижняя граница приблизительно соответствует половине городских выбросов крупнейшего американского мегаполиса.
Параллельное водопотребление ещё более поражающее. AI-системы используют от 312,5 до 764,6 миллиарда литров воды в год. В контексте это приблизительно равно объёму мировой торговли бутилированной водой. Здесь De Vries-Gao делает критически важное уточнение: IEA в 2023 году оценил общее водопотребление дата-центров в 560 миллиардов литров. Анализ корпоративных данных показывает, что косвенное водопотребление (вода, используемая электростанциями для охлаждения реакторов и каскадных систем) недооценено в три-четыре раза.
Растущий дефицит адекватной регуляции и информационной асимметрии
Исследование де Фриса-Гао обнажает фундаментальный дефект в архитектуре глобального климатического менеджмента. Европейский акт об искусственном интеллекте, несмотря на свою репутацию жёсткого регулятора, требует отчётности исключительно по энергопотреблению на фазе обучения моделей. Фаза развёртывания (inference), которая составляет подавляющее большинство реального энергопотребления, остаётся за рамками регуляции.
Причина этого упущения проста — когда закон принимался, масштаб потребления был недостаточно очевиден. Между тем, по данным de Vries-Gao, электроэнергия, потребляемая только вычислительными модулями для AI (графические процессоры и тензорные процессоры), колеблется от 3 до 5,2 гигаватт. С учётом охлаждающих систем и прочей инфраструктуры дата-центров полное потребление может достичь 9,4 гигаватт — это эквивалент всего электропотребления Нидерландов. В 2025 году, когда производственные мощности удвоились, потребление может вырасти до 23 гигаватт.
Параллельно текущему году IDC прогнозирует среднегодовой прирост энергопотребления дата-центров AI на 44,7% вплоть до 2027 года, с достижением 146,2 тераватт-часов. Это создаёт калейдоскопический эффект: регуляторы начинают понимать проблему, когда инфраструктура уже построена, и корректировка невозможна.
Почему методология de Vries-Gao остаётся неполной и что это значит
Критический анализ исследования выявляет несколько существенных ограничений. Во-первых, учёный вынужден использовать исторические данные о продажах чипов и средние коэффициенты энергопотребления, поскольку конкретная производительность моделей AI на конкретном оборудовании остаётся частью коммерческой тайны компаний. Это означает, что его оценки по определению консервативны — действительное потребление может быть и выше, и ниже в зависимости от типа рабочих нагрузок.
Во-вторых, диапазон оценок (от 32,6 до 79,7 миллиона тонн CO₂) слишком широк, чтобы служить основой для конкретных политических решений. Такая неопределённость отражает не только методологическую небрежность, но и просто отсутствие первичных данных. Компания, инвестирующая триллионы в AI-инфраструктуру, может позволить себе закрыть двери перед исследователями, полагая, что неопределённость в отношении воздействия — это политический ресурс.
В-третьих, исследование сосредоточено на глобальных масштабах, но не учитывает острые локальные диспропорции. Водный след AI-систем не распределён равномерно — он концентрируется в узких географических точках, где расположены гипермасштабные дата-центры (США, Европа, части Азии). Последствия для локальных водоёмов и экосистем регионов, где строятся новые объекты, могут быть катастрофичными, несмотря на кажущуюся умеренность глобального показателя.
От диагностики к политическому действию: что требуется теперь
De Vries-Gao в своих публикациях не только считает проблему, но и чётко артикулирует её корень: отсутствие прозрачности и обязательной отчётности. Он указывает, что согласованность климатических целей и расширения AI практически невозможна без полного раскрытия информации о энергопотреблении на уровне отдельных дата-центров, с чёткой дифференциацией между AI-нагрузками и другими приложениями.
Сегодня крупнейшие технологические компании обращаются к экстремальным источникам энергии, чтобы обойти климатические обязательства: Microsoft подписал 20-летний контракт на 835 МВт мощности с атомной электростанцией Three Mile Island; Google рассматривает малые модульные реакторы; Amazon планирует АЭС на собственной территории. Это решение проблемы энергопотребления за счёт энергопроизводства, но не за счёт энергоэффективности. Каждый новый гигаватт требует инфраструктуры, и углеродный откат от строительства и вывода из эксплуатации этих объектов может быть значительным.
Между тем европейское и американское законодательство всё ещё движется с запаздыванием. ЮНЕП рекомендует странам внедрить стандартизированные процедуры оценки экологического воздействия AI и обязать компании раскрывать информацию о прямом воздействии своих AI-продуктов, но эти рекомендации остаются именно рекомендациями.
Неразрешённый конфликт целей
Исследование de Vries-Gao выявляет не технический, а политический парадокс: глобальные климатические обязательства (снижение выбросов на 45% к 2030 году, нейтральность по CO₂ к 2050) могут быть несовместимы с нынешней траекторией развития AI без коренного переосмысления того, как мы развёртываем эту технологию.
Компании сегодня ориентированы не на оптимизацию энергопотребления AI-моделей, а на максимизацию их мощности. Это создаёт инсентивную структуру, в которой прозрачность и экологическая ответственность становятся обузой, а не преимуществом. До тех пор, пока регуляция остаётся фрагментарной и запаздывающей, а корпоративные данные остаются недостаточными, исследователи вроде de Vries-Gao будут вынуждены работать в условиях информационного голода.
Источник исследования: https://techxplore.com/news/2025-12-ai-carbon-footprint-york-city.html



