Генеративный ИИ в бизнесе: медленный старт и растущие киберугрозы

Внедрение искусственного интеллекта охватило практически все сферы жизни общества, однако этот процесс далек от упорядоченного. Согласно отчету Gallagher «State of the Sector» за 2023/24 год, внедрение ИИ напоминает «Дикий Запад» нашего времени, где лишь немногие компании действуют по заранее разработанному плану.

Исследование показывает, что 71% опрошенных организаций не предоставляют своим специалистам по внутренним коммуникациям четких указаний о том, когда, где и как использовать ИИ. Такая ситуация создает серьезные риски для целостности и безопасности данных. Настало время сделать шаг назад, оценить текущую обстановку и тщательно спланировать дальнейшие действия, прежде чем строить критически важные процессы на столь шатком фундаменте.

Существует длинный список проблем, связанных с внедрением ИИ, начиная от интеграции систем и конфиденциальности данных до обучения сотрудников и определения базовых правил использования. Чераэ Робинсон, руководитель сообщества в Flybridge Capital Partners, говорит, что именно поэтому необходим системный подход. По ее словам, такой подход должен предусматривать резервные механизмы и гарантии для предотвращения потенциальных ловушек, открывая путь к масштабируемому внедрению.

Все начинается с понимания того, как именно ИИ может помочь конкретной организации. Лорел Дзнеладзе, консультант по маркетингу продуктов в Microsoft, отмечает, что перед коммуникаторами часто ставят задачу извлечь ценность для организации с помощью ИИ. Поэтому первой задачей она считает обучение специалистов по коммуникациям распознаванию возможностей ИИ, что может стать отправной точкой для разработки концепций, обобщения информации и автоматизации. Она добавляет, что при правильном использовании ИИ способен выявлять информацию, которую иначе можно было бы и не обнаружить.

Однако Сьюзи Робинсон из ClearBox Consulting указывает, что многие люди просто не знают, как относиться к ИИ, что усложняет его принятие. Она ссылается на исследование IC Index 2024, которое документирует эти смешанные чувства. Например, треть сотрудников не доверяет внутренним сообщениям, написанным с помощью ИИ. Робинсон предполагает, что сокрытие использования генеративного ИИ могло бы быть решением, но это поднимает этические вопросы прозрачности, и если секрет раскроется, это может нанести еще больший вред.

Чтобы повысить доверие к коммуникациям с использованием ИИ, необходимо знакомить людей с технологией. Но как это сделать, если использование ChatGPT во многих компаниях не одобряется, а инвестировать в более безопасные решения генеративного ИИ (GenAI) без доказательств их эффективности организации пока не готовы?

Лорел Дзнеладзе констатирует, что хотя многие компании обладают интеллектуальными возможностями поиска на базе ИИ, которые подбирают информацию в зависимости от роли сотрудника, его коллег, местоположения и т.д., большинство организаций еще не приобрели лицензии на GenAI в масштабе предприятия. Таким образом, сотрудники могут использовать внешние инструменты вроде ChatGPT в рабочих целях, но полноценного внедрения GenAI на уровне компании пока не произошло. Сьюзи Робинсон говорит, что на корпоративном уровне наиболее распространенными возможностями на базе ИИ являются автоматизация обслуживания клиентов, кодинг-помощники для команд разработчиков и автоматизация операционных рабочих процессов. Она предвидит прогресс в области автоматизирующих агентов для задач рабочего процесса, более глубоких технических операций и сложных процессов, таких как оценка рисков, анализ данных и проектирование систем, что повысит эффективность корпоративных операций.

На горизонте также маячит полная автоматизация задач и процессов, создание фото и видео, перевод аудио с сохранением голоса говорящего и имитация стиля письма людей. Исследование ClearBox «AI Trends in Employee Experience in 2024» показало, что многие платформы для улучшения опыта сотрудников (EX) уже включают функции ИИ. Сьюзи Робинсон отмечает, что хотя уровень их использования все еще довольно низок, команды внутренних коммуникаций уже применяют некоторые возможности GenAI. Они используют его для сокращения текста или создания черновика статьи – иными словами, как вспомогательный инструмент, а не замену сотруднику. Она добавляет, что примерно половина оцененных ею продуктов включает генеративный ИИ в такой форме, а некоторые предлагают возможности генерации изображений, которые экономят время, но требуют внимательности к деталям. Несколько приложений для планирования и управления публикациями на базе ИИ также могут помочь с персонализацией и таргетингом аудитории, показывая нужный контент нужным людям в нужное время и тем самым улучшая опыт сотрудников.

Интуитивно понятно, что движение к более широкому использованию ИИ неизбежно, но путь вперед может вызывать опасения. Существует тонкая грань между персонализацией и конфиденциальностью, и в гонке за созданием лучших решений мы все чаще жертвуем конфиденциальностью новыми способами. Кроме того, мы полагаемся на данные, которые уже доказали свою недостаточную надежность.

Правила защиты данных едва поспевают за развитием технологий. Утечки данных, фишинговые атаки, злоумышленники и множество других проблем безопасности данных постоянно присутствуют в повестке дня, и этот список, кажется, расширяется ежедневно. Компаниям также приходится беспокоиться о чрезмерно активных энтузиастах ИИ среди сотрудников. В апреле прошлого года сотрудники Samsung допустили серьезную ошибку, загрузив конфиденциальные данные в ChatGPT, включая исходный код новой программы, протоколы внутренних совещаний и другие данные, касающиеся их оборудования. Это означало, что информация стала частью обучающих материалов OpenAI и могла быть использована для дальнейшего обучения и совершенствования ChatGPT.

В результате, как отмечает Сьюзи Робинсон, многие поставщики программного обеспечения теперь предлагают возможности ИИ в «огороженном» виде, утверждая, что это полностью безопасно и данные не покинут среду клиента. Однако она предупреждает, что это не гарантирует отсутствия «галлюцинаций» – повторяющейся проблемы для любого контента, сгенерированного ИИ. Если ИИ запутается или получит доступ к документу, нерелевантному для сотрудника, результат может выглядеть авторитетно, но быть неверным.

Проблемы с данными и безопасностью давно существуют и в обычных базах знаний: сотрудники неправильно хранят данные, позволяя всем в компании видеть документы, которые должны быть закрыты. Но Лорел Дзнеладзе подчеркивает, что у генеративного ИИ есть дополнительные проблемы безопасности, помимо галлюцинаций и присущих ему предубеждений. Она упоминает, например, «внедрение подсказок» (prompt injection) и «отравление данных» (data poisoning) – когда люди намеренно создают вредоносный контент для переобучения модели или задают вопросы, чтобы заставить GenAI действовать злонамеренно. Существуют также утечки и другие сложные киберугрозы. Сьюзи Робинсон призывает компании действовать проактивно: управлять и выявлять слабые места и уязвимости ИИ-моделей, а также внедрять средства защиты от этих все более распространенных угроз.

Однако Лорел Дзнеладзе пока не видит, чтобы внутренние коммуникации ставили безопасность в приоритет в ответ на вызовы ИИ. Она объясняет, что поскольку большинство организаций еще не внедрили GenAI повсеместно, это пока не кажется острой необходимостью. По ее мнению, им следует сосредоточиться на обеспечении правильного хранения и маркировки контента, чтобы ИИ/GenAI мог его находить, а также на обучении коммуникаторов роли проводников изменений.

Опережать развивающиеся угрозы будет сложно для большинства компаний, но те, кто подходит к внедрению ИИ бессистемно, рискуют стать героями следующих новостей о катастрофических утечках данных.

 

Искусственный интеллект в образовании: польза или вред?

ИИ для космоса: как Space HPC ускоряет исследования и разработки

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *