Компания Perplexity AI представила новую версию популярной языковой модели с открытым исходным кодом R1 1776, основанную на китайской разработке DeepSeek R1. В отличие от оригинала, новая модель лишена встроенной китайской цензуры. DeepSeek R1, известная своими высокими способностями к рассуждению, сравнимыми с ведущими моделями при меньших затратах, имела существенный недостаток: она отказывалась обсуждать определенные деликатные темы, отражая правила цензуры китайского правительства.
Perplexity AI решила эту проблему, проведя «децензурирование» модели с помощью обширного процесса дообучения. Компания собрала большой набор данных из 40 000 многоязычных запросов, охватывающих вопросы, которые DeepSeek R1 ранее цензурировал или отвечал уклончиво. С помощью экспертов было выявлено около 300 деликатных тем, по которым оригинальная модель придерживалась официальной линии. Для каждого такого запроса команда подготовила фактические, аргументированные ответы на нескольких языках. Эти усилия легли в основу многоязычной системы обнаружения и исправления цензуры, которая научила модель распознавать, когда она применяет политическую цензуру, и вместо этого давать информативный ответ. После этой специальной тонкой настройки модель, получившая название «R1 1776», стала общедоступной. Perplexity утверждает, что устранила фильтры китайской цензуры и предвзятости из ответов DeepSeek R1, не изменяя при этом ее основных возможностей.
R1 1776 иначе реагирует на ранее запрещенные вопросы. Например, на запрос о независимости Тайваня и ее потенциальном влиянии на цену акций NVIDIA оригинальная DeepSeek R1 избегала ответа, выдавая клише, соответствующие политике Коммунистической Партии Китая. В то же время, R1 1776 предоставляет подробную и откровенную оценку, обсуждая конкретные геополитические и экономические риски, которые могут повлиять на акции NVIDIA.
Открыв исходный код R1 1776, Perplexity сделала веса и изменения модели прозрачными для сообщества. Разработчики и исследователи могут загрузить ее с Hugging Face и даже интегрировать через API, гарантируя, что удаление цензуры может быть изучено и доработано другими.
Решение Perplexity AI об удалении китайской цензуры из DeepSeek R1 имеет несколько важных последствий для сообщества ИИ. Во-первых, пользователи R1 1776 теперь могут получать нецензурированные, прямые ответы на ранее запрещенные темы. Во-вторых, Perplexity сообщает, что основные навыки R1 1776, такие как математика и логическое мышление, остаются на уровне оригинальной модели. В тестах на более чем 1000 примерах, охватывающих широкий спектр деликатных запросов, модель была признана «полностью нецензурированной», сохраняя при этом тот же уровень точности рассуждений, что и DeepSeek R1. В-третьих, открывая исходный код децензурированной модели, Perplexity приглашает сообщество ИИ проверить и улучшить свою работу, демонстрируя приверженность прозрачности.
С другой стороны, полное удаление цензуры поднимает сложные этические вопросы. Одно из опасений заключается в том, как эта нецензурированная модель может использоваться в контекстах, где цензурируемые темы являются незаконными или опасными. Также возникает более широкий геополитический аспект: американская компания, изменяющая модель китайского происхождения, чтобы бросить вызов китайской цензуре, может рассматриваться как смелая идеологическая позиция. Сам заголовок «1776» подчеркивает тему освобождения. Некоторые критики утверждают, что возможна замена одного набора предубеждений другим, ставя под сомнение, не отражает ли теперь модель западную точку зрения в деликатных областях.
Запуск Perplexity R1 1776 происходит в то время, когда сообщество ИИ решает вопросы о том, как модели должны обрабатывать спорный контент. Цензура в моделях ИИ может иметь разное происхождение. В Китае технологические компании обязаны встраивать строгие фильтры и даже жестко закодированные ответы на политически чувствительные темы, как в DeepSeek R1. Многие западные модели, такие как GPT-4 от OpenAI или LLaMA от Meta, не подчиняются директивам КПК, но все же имеют уровни модерации, которые некоторые пользователи называют «цензурой». Perplexity AI показала, что модели с открытым исходным кодом могут быть адаптированы к различным системам ценностей или нормативным требованиям.
Это событие также затрагивает более широкую геополитическую динамику развития ИИ. Китайская модель с определенными встроенными мировоззрениями взята американской командой и изменена, чтобы отразить более открытый информационный этос. Это свидетельствует о том, насколько глобальна и безгранична технология ИИ: исследователи в любой точке мира могут опираться на работу друг друга, но они не обязаны сохранять исходные ограничения.
Наконец, этот шаг подчеркивает ключевой момент в дебатах о контроле над ИИ: кто решает, что ИИ может или не может говорить? В проектах с открытым исходным кодом эта власть становится децентрализованной. Сообщество или отдельные разработчики могут решить внедрить более строгие фильтры или ослабить их. В случае с R1 1776 Perplexity решила, что преимущества нецензурированной модели перевешивают риски, и у них была свобода сделать этот выбор и поделиться результатом публично.