Лидеры расходятся во мнениях о том, как создать ответственный ИИ, выбирая между подходом, основанным на управлении, и подходом, основанным на экспериментах, а регуляторы еще больше борются за достижение правильного баланса.
Эти идеи были раскрыты на форуме лидеров в области искусственного интеллекта на прошлой неделе, где лидеры отрасли обсуждали лучшие подходы к внедрению ИИ и управлению им.
Выступая на дискуссии об ответственном ИИ, Андре Рогачевски, генеральный директор Netcompany, поставщика цифровых решений, сказал, что было слишком много разговоров об этике и регулировании, и компании должны просто “воплотить это в жизнь”.
Он сказал, что есть способы преодолеть законные опасения по поводу защиты данных и использования искусственного интеллекта для принятия решений, такие как фильтры данных и использование его только в качестве помощника, но технология развивается, и компании рискуют отстать без инвестиций.
“Я не думаю, что есть что обсуждать о первых 80% того, для чего мы можем использовать ИИ”, — сказал он. “Компаниям следует повторно использовать то, что уже существует”.
И наоборот, Алекс Тайрелл, технический директор подразделения здравоохранения и руководитель Центра передового опыта в области искусственного интеллекта компании Wolters Kluwer, занимающейся разработкой программных решений, сказал, что его компания придерживается подхода, ориентированного в первую очередь на управление, и не “пишет ни строчки кода”, не рассмотрев связанные с этим риски.
“Невозможно двигаться вперед, если вы не соответствуете определенным четким критериям, позволяющим убедиться, что это хороший вариант использования, что он используется ответственно и этично, а также приносит пользу”, — сказал он.
По словам Тайрелла, Уолтерс Клювер воспринял шумиху вокруг искусственного интеллекта и “попытался создать взаимодействие, а не трения” вокруг его использования, чтобы помочь сотрудникам безопасно экспериментировать. Это становится все более важным, поскольку компании не имеют контроля или прозрачности в отношении того, как обучаются большие языковые модели (LLM).
Недавний опрос «Делойта» показал, что две трети компаний увеличивают инвестиции в генеративный ИИ, хотя многие из этих инициатив все еще находятся на ранней стадии. В ходе опроса также было подчеркнуто, что проблемы, связанные с данными, масштабируемостью и рисками, ограничивают возможности и снижают энтузиазм руководства.
Компании с опаской относятся к тому, как правительства могут регулировать искусственный интеллект, в то время как регулирующие органы пытаются решить, как законодательно закрепить гарантии, не препятствуя инновациям.
Закон Европейского союза об искусственном интеллекте, принятый ранее в этом году, — первый нормативный акт от крупного регулирующего органа, — подчеркивает проблемы, связанные с обеспечением правильного баланса. Предполагалось, что он обеспечит предприятиям уверенность, но Кай Зеннер, глава офиса и советник по цифровой политике в Европейском парламенте, сказал, что сложность закона привела к обратному результату.
“В Европейском союзе осознают, что мы, как регулирующие органы, сделали слишком много, приняли слишком много законов, часто крайне непоследовательных, дублирующих друг друга, противоречащих друг другу и так далее”, — сказал он. “В Германии компании напуганы, они не инвестируют, если есть правовая неопределенность”.
Это отличается от ситуации в США, где избранный президент Дональд Трамп пообещал отменить указ президента Джо Байдена об управлении искусственным интеллектом, когда вступит в должность.
Кеннер сказал, что компаниям следует взаимодействовать с регулирующими органами, чтобы помочь им учиться, и в ответ они получат “добрую волю“, добавив: ”В оптимальном мире мы бы использовали это время для инноваций и последующего регулирования».
+ There are no comments
Add yours