Воздействие искусственного интеллекта на окружающую среду: насколько ИИ загрязняет окружающую среду?
(Zapoved) – Откройте ChatGPT и обменяйтесь 20 сообщениями с искусственным интеллектом. Вы только что выпили литровую бутылку воды. Для этого короткого диалога с чат-ботом потребовалось 500 мл воды для охлаждения серверов, на которых размещена большая языковая модель, созданная OpenAI. Чтобы обучить его перед выпуском своей первой публичной версии, литров воды, «потребленных» ChatGPT 3.5, было не менее 3,5 миллионов. Эквивалент ежедневного потребления около 25 000 граждан Европы. Этих нескольких цифр достаточно, чтобы понять, что влияние искусственного интеллекта на окружающую среду станет (уже есть) очень актуальной темой.
Однако до сих пор исследования и, прежде всего, модели для мониторинга и отчетности о выбросах и воздействии искусственного интеллекта на окружающую среду все еще немногочисленны или находятся в зачаточном состоянии. Недавноотчет ОЭСР представлены во время Cop27 в Египте в конце 2022 года он предложил структуру для оценки прямого и косвенного воздействия ИИ с учетом всего жизненного цикла и оценки различных факторов, включая выбросы, потребление энергии, водозабор.
С другой стороны, существующие исследования обычно сосредоточены на конкретных аспектах или приложениях, а не на общей оценке всего сектора. Есть, например, некоторые оценки влияния обучения некоторых нейронных сетей: 550 т CO2 для GPT-3, чуть менее 50 т CO2 для T5, около 95 т CO2 для Мины. Это самый маленький кусок потребления. По оценкам крупных компаний, таких как Google и Amazon, около 90 % энергопотребления приходится на долю фазы. выводто есть процесс запуска обученной модели машинного обучения.
Экологический след ИИ по-прежнему определяется зрением
Одной из больших проблем с оценкой воздействия искусственного интеллекта на окружающую среду является отсутствие прозрачности компаний. Мало того, что многие, в том числе OpenAI, не раскрывают базу данных, на которой обучаются модели, но даже не дают никаких точек опоры для получения результатов этой деятельности.
По словам Саши Лучони, который работает в конкурирующей компании OpenAI, фактор, который необходимо учитывать, — это увеличение сложности моделей. Сложность LLM определяется выражением параметры, т.е. от внутренних связей с моделью, которые позволяют ей «выучить» пути на основе полученного обучения. Чем больше параметров, тем мощнее будет модель и тем лучше результаты.
Исследование, проведенное Эммой Струбелл из Университета Карнеги-Мелон, показало, что обучение модели под названием BERT, выпущенной в 2019 году с 213 миллионами параметров, привело к выбросу 280 т CO2. Лучони указывает, что тем временем мы достигли примерно 500 миллиардов параметров в модели Google PaLM 2023 года. Но, например, мы не имеем ни малейшего представления о том, сколько параметров использует ChatGPT-4, последняя версия открытого ИИ. Аппаратная эффективность имеет тенденцию снижать энергопотребление, но не полностью компенсирует это.
Затем следует рассмотреть, какая энергия используется. Лучони опубликовал исследование, в котором он рассказывает об экологическом воздействии модели, запущенной в 2022 году его компанией под названием ЦВЕСТИ. Тренировка сгенерировал во всем 25 тCO2что становится равным 50, если мы также примем во внимание выбросы, генерируемые для производства всего оборудования, необходимого для его работы. 50 т CO2 эквивалентны 60 рейсам Лондон-Нью-Йорк.. Но BLOOM обучался на французском суперкомпьютере с ядерной установкой: если в смесь добавятся уголь и газ, а они, скорее всего, так и поступят, общее количество может легко вырасти в 10-20 раз. Более, каждый день работы BLOOM генерирует еще 19 кгCO2: столько, сколько производит поездка на автомобиле в 160 км.