Deepfake Detection Challenge: новый этап в борьбе с ИИ-обманом

Стремительный рост числа дипфейков, созданных искусственным интеллектом, вызывает серьёзную обеспокоенность. По прогнозам, в 2025 году ими поделятся восемь миллионов раз, по сравнению с 500 000 в 2023 году. Этот масштаб в сочетании с большей изощрённостью и убедительностью означает, что поиск способов быстрого обнаружения и нейтрализации дипфейков, сгенерированных ИИ, становится всё более актуальной задачей.

Опасения по поводу преступных манипуляций с цифровым текстом, изображениями и видео не новы, но распространение в последние месяцы инструментов генеративного ИИ, которые позволяют любому человеку в любом месте быстро, легко и дёшево создавать дипфейк-изображения, существенно изменило ситуацию.

Среда ускоренного развития возможностей (Accelerated Capability Environment, ACE), выступая в роли инновационного посредника, связывающего правительственные и правоохранительные органы с передовыми технологиями, находится в центре активизации деятельности, направленной на поиск практических решений для борьбы с дипфейками. 2024 год стал годом, когда сочетание передовых технологий, сотрудничества и свежего мышления позволило добиться значительных успехов.

ACE провёл серию целевых исследований, которые дали чёткие результаты в области обнаружения дипфейков, созданных ИИ, в различных областях. Не менее важно и то, что знания и практический опыт, полученные в ходе одного исследования, были переданы другим, чтобы способствовать углублению знаний и навыков.

Самым значительным событием в этой области стал конкурс Deepfake Detection Challenge. Инициированный Министерством внутренних дел, Департаментом науки, инноваций и технологий, ACE и Институтом Алана Тьюринга, этот дальновидный проект объединил экспертов из академических кругов, промышленности и правительства для разработки инновационных и практических решений, направленных на обнаружение дипфейков. На первоначальном брифинге присутствовало более 150 человек. Было представлено пять конкурсных заданий, расширяющих границы текущих возможностей.

Крупные технологические компании, в том числе Microsoft и Amazon Web Services (AWS), оказали практическую поддержку и приняли участие в разработке концепций по обнаружению поддельных изображений. Восемь недель ушло на разработку инновационных идей и решений на специально созданной платформе, на которой размещалось около двух миллионов ресурсов, состоящих как из реальных, так и из синтетических данных для обучения и тестирования.

После этого было получено 17 заявок, и шесть команд были отобраны для демонстрации своих идей по обнаружению дипфейков, созданных ИИ, перед более чем 200 заинтересованными сторонами. Решения от Frazer-Nash, Oxford Wave, Университета Саутгемптона и Naimuri – сочетание существующих продуктов, которые были определены как потенциально имеющие операционную ценность, а также находящиеся на ранней стадии разработки концепции для конкретных случаев использования, включая CSEA, дезинформацию и аудио – сейчас проходят эталонное тестирование и пользовательские испытания.

Ключевые выводы из первоначальной работы по конкурсу, наряду с явным успехом в ускорении развития современных возможностей обнаружения дипфейков, включали в себя то, что курируемые данные имели решающее значение для достижения максимально возможного прогресса в доступное время и в доступных условиях, и что создание набора данных, который был бы более репрезентативным для реальных оперативных сценариев, было бы полезным.

Когда Лаборатория оборонной науки и техники (DSTL) и Управление главного научного советника (OCSA) представили ACE ещё одно важное задание по дальнейшему обнаружению дипфейков, разработка данных стала главным приоритетом. Чтобы усовершенствовать инструмент обнаружения контента ИИ EVITA (Evaluating video, text, and audio), акцент сместился с объёма.

Самая большая проблема заключается в цифровой криминалистике, где, по словам сотрудников ACE, на одном изъятом телефоне может быть до миллиона изображений с жестоким обращением с детьми. Этот проект, в котором участвуют члены сообщества Blueprint, Camera Forensics и TRMG, направлен на то, чтобы понять, где инструменты обнаружения дипфейков наиболее эффективно вписываются в стадию расследования.

Следующим шагом в этом конкретном проекте является «воплощение этого в жизнь» – работа над вводом в эксплуатацию концепции или испытанием существующей возможности. Таким образом, обучение снова становится цикличным по мере продвижения следующего этапа Deepfake Detection Challenge. Это выведет работу в этой области на новый уровень, сосредоточив внимание на том, чтобы сделать первоначальные решения более ориентированными на пользователя и более актуальными для практикующих специалистов.

 

MIT создаёт консорциум для изучения влияния искусственного интеллекта

Mind Evolution: революция в ИИ от Google

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *