Новый ИИ лжет чаще: парадокс «галлюцинаций» и как с ним бороться



Когда искусственный интеллект впервые ворвался в общественное пространство, многие в деловом мире рассматривали «галлюцинации» — генерацию ложной информации — как незначительный и временный сбой, который можно исправить в процессе доработок. Однако спустя несколько лет после публичного запуска ChatGPT реальность оказалась парадоксальной: новые модели ошибаются чаще, чем когда-либо прежде. Согласно собственным данным OpenAI, их новейшая модель для сложных рассуждений, o4-mini, «галлюцинирует» почти в половине случаев, выдавая неверную информацию в 48% запросов. Для сравнения, ее предшественники были значительно точнее.

Казалось бы, по мере того как технологии ИИ становятся все более искусными в сложных логических задачах, они должны были бы стать и более точными в фактах. Но некоторые модели становятся лишь хуже в генерации безошибочной информации. Этот тревожный факт, однако, не отпугнул пользователей. Напротив, применение ИИ достигло рекордно высокого уровня: еженедельная аудитория ChatGPT насчитывает сотни миллионов человек, а по данным McKinsey, более 78% организаций уже внедрили нейросети в свою работу. Это доказывает, что преимущества от скачка в вычислительных способностях ИИ для многих перевешивают риски, связанные с его неточностями.

Проблема «галлюцинаций» заставляет переосмыслить подход к работе с ИИ. Эксперты все чаще говорят, что ключ к успеху лежит не только в качестве данных, по принципу «мусор на входе — мусор на выходе», но и в более широком понятии — грамотном управлении данными. Недавний отчет Precisely и Drexel University показал, что именно отсутствие надежной системы управления данными сегодня считается главным препятствием для внедрения ИИ. Все больше компаний осознают это: в 2024 году уже 71% организаций заявили о наличии политик и технологий управления данными, по сравнению с 60% годом ранее.

Управление данными — это не просто проверка информации на достоверность. Это комплексная стратегия, которая определяет политики, роли и обязанности, регулирующие сбор, использование и защиту данных в рамках всей организации. Такой подход обеспечивает соответствие практики управления данными стратегическим целям и нормативным требованиям. В итоге это не только повышает производительность ИИ, но и гарантирует, что инструменты на его основе используются эффективно и безопасно.

Чтобы сократить влияние «галлюцинаций» и повысить точность ИИ, организациям стоит сосредоточиться на нескольких ключевых шагах. Во-первых, необходимо сделать качество данных главным приоритетом, внедрив автоматизированные инструменты проверки и создав культуру ответственности среди сотрудников. Во-вторых, следует четко определить роли и обязанности по управлению информацией, назначив ответственных за конкретные наборы данных. Это повышает подотчетность и предотвращает пробелы в управлении. Наконец, крайне важно постоянно совершенствовать данные, чтобы они отражали реальные сценарии и предпочтения пользователей. Этот подход не устранит «галлюцинации» полностью, но поможет системам ИИ генерировать ответы, которые будут не только точными, но и максимально релевантными.

Несмотря на то, что мы еще не «решили» проблему «галлюцинаций», искусственный интеллект стал эффективнее и популярнее, чем когда-либо. По мере его взросления становится очевидно, что для улучшения результатов необходимо мыслить стратегически и целостно подходить к регулированию и управлению всем массивом данных, который питает эти мощные инструменты. Именно в этом, а не в исправлении отдельных ошибок, заключается залог безопасного и продуктивного будущего ИИ.

Инстинкт выживания ИИ: на что готовы нейросети ради самосохранения

Дедлайн для бизнеса: как ИИ помогает сделать интернет доступным для всех

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *