ИИ против дипфейков: новый метод UNITE видит подделку целиком



Стремительное развитие технологий искусственного интеллекта стирает грань между реальными и поддельными видео. Современные дипфейки — это уже не просто замена лиц или имитация речи. Мощные генеративные инструменты позволяют создавать с нуля целые сцены, включая фон, освещение и движение, что открывает широкие возможности для распространения дезинформации.

В ответ на этот вызов исследователи из Калифорнийского университета в Риверсайде совместно с учеными из Google разработали передовую систему для обнаружения подделок. Их модель получила название UNITE (Universal Network for Identifying Tampered and synthEtic videos) и способна распознавать дипфейки во всех их проявлениях, а не только те, что связаны с манипуляциями над лицами.

Долгое время большинство детекторов дипфейков концентрировались на анализе лиц, выискивая неестественные паттерны моргания, несоответствия в освещении или странные движения в области рта и глаз. Однако сегодня такого подхода уже недостаточно, поскольку ИИ научился генерировать полностью синтетические ролики, где подделкой является вся сцена целиком.

«Дипфейки эволюционировали, — объясняет Рохит Кунду, аспирант Калифорнийского университета. — Речь больше не идет только о замене лиц. Люди создают полностью поддельные видео — от персонажей до фона — с помощью мощных генеративных моделей. Наша система создана, чтобы ловить все это».

Система UNITE использует принципиально иной подход. В ее основе лежит архитектура «трансформер», которая обрабатывает видео как последовательность данных, отслеживая закономерности в пространстве и времени. Вместо того чтобы фокусироваться на конкретных объектах, таких как человеческие лица, модель анализирует общие визуальные свойства: тонкие детали в движении, смещение цветов и расположение объектов. Это позволяет ей работать с любым контентом, даже с видео, где нет людей.

Ключевым нововведением стал метод обучения. Многие модели ИИ склонны концентрироваться на самых очевидных признаках подделки, например, на лице. UNITE же использует специальную функцию, которая заставляет его «распределять внимание» по всему кадру. Благодаря этому система эффективно находит следы вмешательства даже в сгенерированных с помощью ИИ видео с пустыми комнатами или измененными ландшафтами. «Это одна модель, которая справляется со всеми этими сценариями, — подчеркивает Кунду. — Именно это и делает ее универсальной».

Свои наработки команда представила на престижной конференции по компьютерному зрению CVPR. В ходе тестирования на нескольких эталонных наборах данных, включающих манипуляции с лицами, замену фона и полностью синтетические ролики, UNITE превзошла все существующие аналогичные детекторы. «Люди заслуживают знать, является ли то, что они видят, реальностью, — говорит Кунду. — И по мере того, как ИИ становится все лучше в подделке реальности, мы должны становиться лучше в раскрытии правды».

Растущая убедительность дипфейков представляет серьезную угрозу. Их используют для распространения ложных политических заявлений, преследования людей и создания опасных мистификаций. Инструменты, подобные UNITE, могут стать важным барьером на пути дезинформации. Потенциально модель может быть интегрирована в социальные сети для сканирования загружаемого контента, а также использоваться журналистами и фактчекерами для проверки подлинности вирусных видео.

Профессор Амит Рой-Чоудхури, один из руководителей проекта, подчеркнул острую необходимость в надежных инструментах в современном цифровом мире. Анализируя картину целиком, а не только отдельные ее части, UNITE предлагает более гибкое и перспективное решение проблемы. В эпоху, когда технологии создания дипфейков становятся все мощнее и доступнее, подобные системы защиты становятся жизненно необходимыми.

Эпоха ИИ: революция в работе и творчестве, угрозы нового мира

ИИ-агенты: как научить их заботиться, а не просто подчиняться

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *