Новое исследование показало, что секретные сообщения можно встраивать в фальшивые диалоги, созданные чат-ботами на основе искусственного интеллекта. Эта работа была проведена в ответ на инициативы правительств многих стран мира, предлагающих законодательно регулировать шифрованные коммуникации, вплоть до их обнаружения, создания «черных ходов» или полного запрета.
Предлагаемое во многих странах законодательство такого типа подчеркивает необходимость в альтернативных способах безопасной и скрытой связи по открытым каналам. В своем исследовании, недавно опубликованном на сервере препринтов arXiv, ученые утверждают, что разработали метод, способный предложить «жизнеспособную альтернативу в случаях, когда традиционное шифрование обнаруживается или ограничивается».
Недавние политические инициативы и действия значительно угрожают конфиденциальности пользовательских данных, о чем свидетельствует ряд событий. Правительство Великобритании требовало от Apple внедрения лазейки для доступа к зашифрованным данным пользователей. Аналогичным образом, французское правительство рассматривало меры, позволяющие получать доступ к передаваемым сообщениям в рамках следственных запросов. Кроме того, связанные с Россией хакерские группы разработали методы для компрометации сервисов зашифрованных сообщений, включая Signal, WhatsApp и Telegram.
Эти события вызывают серьезные опасения относительно будущего безопасной коммуникации. Учитывая потенциальный сценарий, при котором публичное общение может лишиться шифрования, становится крайне важным исследовать альтернативные методы встраивания скрытой информации в общедоступный контент. Данная работа решает эту проблему и предлагает новый подход к обеспечению скрытой связи в таких условиях.
Предлагается «новый криптографический фреймворк для встраивания данных», который обеспечивает скрытую передачу сообщений, зашифрованных с использованием открытого или симметричного ключа, через публичные чат-каналы с помощью текстов, выглядящих как созданные человеком. Эти тексты, сгенерированные чат-ботами с искусственным интеллектом, затем могут распространяться через такие платформы, как Facebook, WhatsApp или по электронной почте, без обнаружения встроенных секретных сообщений.
Большие языковые модели (LLM) работают, составляя текст слово за словом, выбирая следующее слово на основе статистического анализа наиболее вероятного варианта. Исследователи изменили этот механизм работы ИИ, поручив ему вставлять следующий символ зашифрованного сообщения через определенные интервалы в генерируемый текст.
Таким образом, ИИ выбирает следующее слово в предложении, основываясь не только на том, насколько оно подходит по контексту, но и на том, чтобы следующий зашифрованный символ из секретного сообщения появился в нужном месте предложения. Если ИИ достигает точки, где он не может разместить следующий символ, не создав подозрительных или неестественных фраз, он возвращается на несколько шагов назад и пробует снова.
Благодаря плавной интеграции шифрования с генерацией текста, имитирующего человеческую речь, предложенный метод предоставляет альтернативу для безопасной связи в сценариях, где обычные механизмы шифрования легко обнаруживаются или ограничиваются.