Как снизить энергопотребление искусственного интеллекта?

Стремительное развитие искусственного интеллекта (ИИ) делает его неотъемлемой частью современной жизни, находя применение в самых разных областях – от чат-ботов до систем распознавания изображений. Однако, наряду с очевидными преимуществами, растет и обеспокоенность по поводу энергопотребления систем ИИ, особенно больших языковых моделей (LLM). Эти системы функционируют на базе дата-центров, которые потребляют огромное количество электроэнергии для вычислений, хранения и передачи данных. Отмечается, что только в Германии в 2020 году дата-центры израсходовали около 16 миллиардов кВтч, что составляет примерно 1% от общего потребления электроэнергии в стране. Прогнозируется, что к 2025 году этот показатель увеличится до 22 миллиардов кВтч, отражая растущий спрос на сервисы, основанные на ИИ.

Эксперты из Мюнхенского технического университета (TUM) разработали новый метод обучения, который значительно снижает энергопотребление ИИ. Исследователи отмечают, что энергопотребление ИИ представляет собой серьезную экологическую проблему. Основная причина заключается в огромной вычислительной мощности, необходимой для обучения и эксплуатации передовых моделей ИИ. Эти модели требуют обработки больших объемов данных, что приводит к длительному и интенсивному использованию мощного оборудования, такого как графические процессоры (GPU) и тензорные процессоры (TPU), которые потребляют большое количество электроэнергии. Высокий спрос на энергию еще больше усиливается зависимостью операций ИИ от дата-центров, которым требуется значительная мощность как для вычислений, так и для охлаждения.

Исследования показывают, что энергия, используемая для создания одного изображения с помощью генератора изображений ИИ, может быть равна энергии, используемой для полной зарядки смартфона. Взаимодействие с системами ИИ, такими как ChatGPT, может потреблять значительно больше электроэнергии, чем стандартные запросы в поисковых системах. Международное энергетическое агентство (IEA) заявляет, что увеличение потребления электроэнергии дата-центрами, криптовалютами и ИИ в период с 2022 по 2026 год может быть эквивалентно потреблению электроэнергии Швеции или Германии. Прогнозируется, что к 2030 году спрос на электроэнергию для дата-центров в Соединенных Штатах достигнет 606 тераватт-часов (ТВтч) по сравнению со 147 ТВтч в 2023 году.

Чтобы решить эту проблему, исследователи TUM разработали революционный метод обучения, который, как они утверждают, в 100 раз быстрее, сохраняя при этом точность, сравнимую с существующими методами. Этот прорыв может значительно снизить энергопотребление ИИ, делая его широкомасштабное внедрение более устойчивым. Системы ИИ используют искусственные нейронные сети, структура которых вдохновлена человеческим мозгом. Эти сети состоят из взаимосвязанных узлов – искусственных нейронов, – которые обрабатывают входные сигналы. Каждое соединение имеет определенные параметры, и когда входной сигнал превышает пороговое значение, сигнал передается дальше. Обучение нейронной сети включает в себя настройку этих параметров посредством многократных итераций для улучшения прогнозов. Однако этот процесс требует больших вычислительных затрат и способствует высокому потреблению электроэнергии.

Феликс Дитрих, профессор, специализирующийся на машинном обучении с использованием физических принципов, и его исследовательская группа представили инновационный подход к обучению нейронных сетей. Вместо того, чтобы полагаться на традиционные итерационные методы, их метод использует вероятностный выбор параметров. Этот метод фокусируется на выявлении критических точек в данных обучения – там, где происходят быстрые и значительные изменения, – и стратегическом присвоении значений на основе распределения вероятностей. Ориентируясь на ключевые места в наборе данных, этот подход, по утверждению разработчиков, значительно сокращает количество необходимых итераций, что приводит к существенной экономии энергии.

Эта новая технология обучения имеет большой потенциал для различных применений. Энергоэффективные модели ИИ могут использоваться в климатическом моделировании, анализе финансовых рынков и других динамических системах, требующих быстрой обработки данных. Уменьшая энергетический след обучения ИИ, этот метод не только снижает эксплуатационные расходы, но и согласует развитие ИИ с глобальными целями устойчивого развития. Стремительное расширение областей применения ИИ требует устойчивого подхода к энергопотреблению. Учитывая, что потребление электроэнергии центрами обработки данных, как ожидается, будет расти, внедрение энергоэффективных методов обучения имеет решающее значение. Прорыв команды TUM знаменует собой важный шаг на пути к тому, чтобы сделать ИИ более экологичным без ущерба для производительности. По мере развития технологий подобные инновации будут играть ключевую роль в формировании более устойчивого цифрового будущего.

 

DeepSeek R1: когда ИИ рассуждает не по-человечески

«Открытые» наборы данных для ИИ: ловушка для бизнеса?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *