Недавний всплеск интереса к ИИ благодаря большим языковым моделям (LLM) и генеративному ИИ подталкивает к внедрению этой технологии в самых разных приложениях, что приводит к опасениям, что необходимая для этого обработка вызовет резкий рост потребления электроэнергии в центрах обработки данных.
Эти опасения подняты в статье Алекса де Фриза, исследователя из Свободного университета Амстердама.
В своей статье Де Врис отмечает, что при исследовании устойчивости ИИ люди сосредоточили свое внимание на этапе обучения моделей ИИ, поскольку этот этап обычно считается наиболее ресурсоемким и, следовательно, самым энергозатратным.
Тем не менее, по его мнению, фазе вывода уделяется относительно мало внимания, однако есть признаки того, что вывод – работа с обученной моделью – может внести значительный вклад в стоимость жизненного цикла модели ИИ.
В подтверждение этого в документе утверждается, что для поддержки ChatGPT OpenAI потребовалось 3617 серверов на базе платформы Nvidia HGX A100, оснащенных в общей сложности 28 936 графическими процессорами, что означает потребность в энергии 564 МВтч в день. Это сопоставимо с оценочными 1287 МВтч, использованными на этапе обучения модели GPT-3.
Интернет-гигант Google внедряет возможности поиска на основе искусственного интеллекта в свою поисковую систему после того, как Microsoft ранее в этом году добавила функции поиска на основе искусственного интеллекта в поисковую систему Bing. В документе ссылается на цитату председателя Alphabet о том, что это «вероятно будет стоить в 10 раз больше, чем стандартный поиск по ключевым словам», предполагая, что потребление электроэнергии составит примерно 3 Втч каждый.
Если каждый Google поиск стал взаимодействием LLM, электроэнергия, необходимая для его питания, может составлять столько же, сколько в такой стране, как Ирландия, – 29,3 ТВтч в год, утверждается в документе. Это основано на GoogleОбщее потребление электроэнергии в 2021 году составило 18,3 ТВтч, из которых на долю AI в то время приходилось от 10 до 15 процентов.
Но в документе признается, что это наихудший сценарий, поскольку он предполагает полномасштабное внедрение ИИ с существующим аппаратным и программным обеспечением, что «маловероятно, что произойдет быстро», не в последнюю очередь потому, что у Nvidia нет производственных мощностей для поставки примерно 512 821 устройств. Серверы A100 HGX потребуются и будут стоить Google 100 миллиардов долларов на покупку.
Для более реалистичного прогноза в документе рассматривается ожидаемое количество серверов искусственного интеллекта на базе Nvidia, которые, вероятно, будут приобретены, поскольку в настоящее время компания занимает примерно 95 процентов рынка.
Цитируя оценки аналитиков, что Nvidia поставит 100 000 своих серверных платформ AI в 2023 году, газета подсчитала, что серверы, основанные на этом, будут иметь совокупную потребность в мощности от 650 до 1020 МВт, потребляя до 5,7-8,9 ТВт-ч электроэнергии в год. По сравнению с историческими оценками годового потребления электроэнергии центрами обработки данных в 205 ТВт-ч «это почти ничтожно», утверждает де Врис.
Не забывайте парадокс Джевонса
Но прежде чем кто-нибудь вздохнет с облегчением, Nvidia может поставить 1,5 миллиона единиц своих серверных платформ искусственного интеллекта к 2027 году, потребляя от 85,4 до 134 ТВтч электроэнергии. На данном этапе эти серверы могут внести значительный вклад в потребление электроэнергии глобальными центрами обработки данных, говорится в документе. Однако это предполагает, что рассматриваемые продукты Nvidia будут иметь такое же потребление, как и сегодняшний комплект.
В статье также рассматривается эффект парадокса Джевонса, если инновации в модельной архитектуре и алгоритмах должны уменьшить количество вычислительной мощности, необходимой для обработки сложных моделей ИИ. Парадокс Джевонса возникает, когда повышение эффективности стимулирует рост спроса. В этом случае повышение эффективности модели может позволить отдельным графическим процессорам потребительского уровня обучать модели ИИ.
Это приведет к тому, что рост потребления электроэнергии, связанного с искусственным интеллектом, будет происходить не только за счет новых высокопроизводительных графических процессоров, таких как Nvidia A100, но и за счет более универсальных графических процессоров, утверждается в документе, что сводит на нет любое повышение эффективности моделей.
Как делается вывод в статье, будущее потребление электроэнергии при обработке ИИ трудно предсказать. Внедряя искусственный интеллект в такие приложения, как Google Поиск может значительно повысить энергопотребление, а различные ресурсные факторы, вероятно, будут ограничивать рост глобального потребления электроэнергии, связанного с искусственным интеллектом, в ближайшем будущем.
Однако исследование де Фриза также предупреждает, что было бы слишком оптимистично ожидать, что повышение эффективности полностью компенсирует любые долгосрочные изменения в потреблении электроэнергии, связанном с ИИ, и говорит, что разумность использования ИИ во всем следует подвергать сомнению, поскольку «маловероятно, что все приложения получат выгоду от ИИ или что выгоды всегда будут перевешивать затраты».
Учитывая нынешнюю непристойную спешку добавлять ИИ во все, это кажется тщетным ожиданием. ®