Достижения в области искусственного интеллекта, особенно большие языковые модели, такие как ChatGPT и их аналоги с открытым исходным кодом, кардинально меняют повседневное общение людей. Эти системы искусственного интеллекта генерируют текст, схожий с человеческим, четко отвечают на вопросы и даже помогают автоматизировать задачи обслуживания клиентов. Однако теперь ученые обнаружили неожиданное новое применение для ИИ-чат-ботов: безопасную отправку секретных сообщений, которые не могут быть обнаружены системами кибербезопасности.
Недавнее исследование, опубликованное в научной базе данных arXiv, представило новый метод, превращающий текст, сгенерированный искусственным интеллектом, в скрытые носители зашифрованных сообщений. Этот инновационный подход предлагает важную альтернативу для безопасной связи, особенно в условиях, когда правительства по всему миру ищут способы обнаружения, мониторинга или ограничения традиционных зашифрованных сообщений.
Необходимость в невидимом шифровании становится все более острой. Несколько правительств недавно выступили за принятие законов, ослабляющих безопасность шифрования или требующих создания «черных ходов» к зашифрованным данным. Например, правительство Великобритании обращалось к Apple с просьбой разработать способы обхода пользовательского шифрования. Аналогичным образом, Франция рассматривала законы, которые предоставили бы властям доступ к зашифрованным коммуникациям в ходе расследований. Кроме того, хакерские группы, связанные с Россией, разработали методы проникновения на предположительно безопасные платформы, такие как WhatsApp, Signal и Telegram.
Эти действия подчеркивают острую потребность в новых способах тайной и безопасной связи без традиционного шифрования, которое теперь может быть перехвачено или запрещено. Ученые ответили на этот вызов, разработав метод шифрования, скрытый в разговорах, генерируемых ИИ, что делает секретные сообщения невидимыми для систем кибербезопасности и наблюдения.
Исследователи разработали криптографический метод под названием EmbedderLLM — специализированную систему, предназначенную для вставки секретных, закодированных сообщений в естественно выглядящий текст, созданный ИИ. Этот текст, кажущийся совершенно обычным и сгенерированным человеком, содержит скрытые сообщения, которые могут прочитать только авторизованные получатели с помощью уникального цифрового «ключа». Это можно сравнить с написанием сообщения невидимыми чернилами: невооруженным глазом текст кажется обычным, но со специальным раствором, или «ключом», скрытое сообщение внезапно становится ясным. Исследователи достигли этого, научив ИИ тщательно подбирать слова, которые не только имеют смысл, но и незаметно включают символы из скрытого, зашифрованного сообщения с точными интервалами. Если ИИ сталкивается с трудностями при естественном размещении этих символов, он разумно отступает и выбирает альтернативные слова.
Маянк Райквар, исследователь из Университета Осло и ключевой член исследовательской группы, описывает их метод как предлагающий «более безопасный способ передачи критически важной информации без обнаружения», что особенно ценно для граждан, живущих в условиях жесткого надзора.
Одной из примечательных особенностей этого нового подхода к шифрованию является то, что он не зависит от конкретных моделей ИИ. Он может работать с любым популярным чат-ботом, таким как ChatGPT или даже с локально запускаемыми моделями, что обеспечивает широкую доступность и гибкость. Более того, эта техника устойчива к текущим и будущим технологическим угрозам, включая квантовые компьютеры. Квантовые вычисления представляют значительную угрозу традиционному шифрованию из-за их потенциала легко взламывать коды, считающиеся сегодня безопасными. Однако метод, разработанный Райкваром и его коллегами, гарантирует, что зашифрованные сообщения останутся в безопасности даже в постквантовую эпоху.
Юмин Ся, главный технический директор компании Galxe, занимающейся безопасностью блокчейна, заявляет, что идея использования больших языковых моделей для криптографии технически осуществима. Он добавляет, что, хотя многое будет зависеть от деталей, это, безусловно, очень возможно, исходя из текущей криптографии.
Несмотря на захватывающие возможности, эта новая технология сопряжена с этическими проблемами. Исследователи признают, что, как и любой мощный инструмент, она также может быть использована не по назначению. Райквар объясняет, что каждая техническая разработка поднимает этические вопросы о злоупотреблениях, поэтому необходимо тщательно определять, где ее можно безопасно применять. Тем не менее, существует множество потенциальных положительных применений. Исследователи особо упоминают журналистов и активистов, работающих в условиях ограничений, как группы, которые могли бы получить значительную выгоду. Поскольку репрессивные режимы все чаще отслеживают или ограничивают безопасные каналы связи, эта техника шифрования на основе ИИ может предложить безопасную альтернативу для критически важной коммуникации.
Хотя технология и выглядит многообещающей, эксперты предупреждают, что ее широкое внедрение может быть медленным. Юмин Ся отмечает, что, хотя некоторые страны уже вводят ограничения на шифрование, более широкое практическое использование этого метода сильно зависит от реального спроса и признания. Он также добавляет, что на данный момент исследование служит интересным изучением гипотетических сценариев, подчеркивая, что до значительного внедрения в реальном мире может быть еще далеко. Тем не менее, Райквар и его коллеги сохраняют оптимизм, надеясь, что их метод скоро предложит безопасное, необнаруживаемое решение для обмена сообщениями тем, кто наиболее остро нуждается в защите конфиденциальности.
Райквар утверждает, что, учитывая растущие риски для конфиденциальности данных во всем мире, поиск безопасных, инновационных методов связи сейчас важен как никогда.
По мере дальнейшего развития искусственного интеллекта способность встраивать скрытые сообщения в текст, сгенерированный ИИ, может полностью изменить ландшафт безопасной коммуникации. Эта разработка знаменует собой важную веху, демонстрируя потенциал ИИ не только для улучшения повседневного общения, но и для обеспечения критически важной защиты от слежки и цензуры. Хотя это еще только начало, данный прорыв подчеркивает развивающуюся роль ИИ — не просто как инструмента для удобства, но и как мощного защитника конфиденциальности. Поскольку правительства и другие организации продолжают бросать вызов традиционным методам шифрования, инновационные решения, такие как EmbedderLLM, могут стать важнейшими инструментами защиты свободы выражения мнений и частной жизни во всем мире.