Агентный ИИ: доверим ли машинам принятие ключевых решений?

Появляется новое поколение искусственного интеллекта, так называемый агентный ИИ (Agentic AI), который демонстрирует повышенную автономность, адаптивность и способность достигать сложных целей с минимальным участием человека. Эти системы ИИ могут анализировать огромные объемы данных, оптимизировать рабочие процессы и даже предвидеть потребности, предлагая беспрецедентные возможности для анализа и повышения эффективности. Например, в здравоохранении такие системы, как IBM Watson Health, уже анализируют медицинскую литературу и данные пациентов для предоставления персонализированных рекомендаций по лечению.

Однако по мере того, как возможности ИИ в принятии решений становятся все более сложными, возникает критический вопрос: можем ли мы доверять машинам принятие жизненно важных решений? Этот сдвиг парадигмы заставляет задуматься о роли ИИ в стратегическом управлении, ценности человеческого руководства и этических последствиях работы автономных систем ИИ.

Майкл Тейлор, генеральный директор SchellingPoint, объясняет, что обсуждение возможности принятия управленческих решений искусственным интеллектом затрагивает фундаментальные вопросы менеджмента. Он уточняет, что руководители и менеджеры принимают три типа решений: единоличные, информированные и совместные. Стратегии, политика, решение сложных проблем, запуск программ трансформации и проектов относятся к совместным решениям, когда высшее руководство обсуждает вопросы с другими ключевыми заинтересованными сторонами для выработки общего мнения.

Тейлор отмечает, что ИИ сейчас используется в таких случаях для сбора мнений заинтересованных сторон, их анализа и представления группе того, что она думает, в качестве входных данных для принятия решений. Он указывает, что эти анализы рациональны и убедительны, но также регулярно вводят в заблуждение. По его мнению, это связано с методами сбора и анализа мнений, разработанными в прошлом веке, которые были нацелены на наблюдение за группами, а не на поддержку принятия ими решений. Он предупреждает, что хотя анализы привлекательны и логичны, ИИ, используемый таким образом, может создавать значительное невидимое смещение и редко бывает точным.

В то же время Мэриам Ашури, директор по управлению продуктами IBM watsonx.ai, поясняет, что человеческое лидерство и аналитика на основе ИИ могут дополнять друг друга. Она считает, что люди-лидеры привносят эмпатию, креативность и критическое мышление, тогда как аналитика на основе ИИ предлагает объективную, основанную на данных информацию. Ашури полагает, что объединение сильных сторон обеих сторон позволяет организациям принимать более качественные решения и достигать своих целей. Однако она подчеркивает, что это сработает только в том случае, если решения, принимаемые ИИ, будут прозрачными, справедливыми и подотчетными. Организациям необходимо инвестировать в правильные инструменты и лучшие практики, такие как интерпретируемость и объяснимость моделей, чтобы понимать решения и действия системы ИИ, а предложения с открытым исходным кодом могут обеспечить дополнительную прозрачность и контроль.

Марко Монтес де Ока из EnFi предполагает, что по мере прояснения процесса принятия решений ИИ, мы, вероятно, будем делегировать ему больше задач, которые когда-то были исключительно человеческими. Но пока, по его словам, большие языковые модели все еще работают как «черные (или серые) ящики». Он указывает, что недостаток прозрачности их внутренних процессов принятия решений будет вызывать у людей нерешительность в передаче ответственных решений. Кроме того, он добавляет, что машины также выходят из строя, что подчеркивает необходимость человеческого контроля. Монтес де Ока предвидит, что в обозримом будущем люди продолжат принимать окончательные решения в ситуациях с высокими ставками. Тем не менее, он признает, что ИИ, несомненно, станет более способным и может взять на себя все более сложные формы лидерства, хотя конечная ответственность все равно останется за людьми.

Монтес де Ока напоминает, что хотя ИИ может имитировать эмпатию, он никогда не сможет ее почувствовать. Он поясняет, что ИИ может имитировать эмпатию, анализируя тон голоса, выражение лица и другие сигналы, но это не то же самое, что подлинное переживание эмоций. Настоящий эмоциональный интеллект, по его мнению, понимает человеческий контекст, ценности и культурные нюансы — факторы, выходящие за рамки простого распознавания образов. Он утверждает, что хотя ИИ, вероятно, станет более изощренным в симуляции эмпатии, он все еще работает на основе запрограммированной логики, а не подлинного эмоционального понимания. Поэтому в ответственных или чувствительных руководящих ролях человеческая эмпатия остается необходимой и труднозаменимой алгоритмом.

Монтес де Ока заключает, что идеальный сценарий — это тот, в котором люди привносят креативность, этическое мышление и эмоциональный контекст, в то время как ИИ превосходно справляется с обработкой данных и распознаванием закономерностей в больших масштабах. Он советует организациям позволить ИИ делать то, для чего он был разработан, а именно выполнять задачи, требующие скорости, точности или обработки больших данных, но оставлять людей-лидеров в курсе для принятия решений, связанных с этикой, эмпатией и стратегическим видением. Эта синергия, по его мнению, позволяет организациям использовать сильные стороны ИИ, не теряя при этом уникальных человеческих качеств, которые определяют этичное и эмпатичное лидерство.

Лиран Хасон, вице-президент по ИИ в Coralogix, добавляет, что на данный момент ИИ лучше всего работает как инструмент поддержки принятия решений, а не как фактический лидер. Он соглашается, что лидерство — это не только принятие «правильного» решения, но и эмпатия, стратегия и управление людьми. Хасон считает, что ИИ пока не достиг этого уровня, но признает, что будущее непредсказуемо, поскольку ИИ уже удивлял нас неожиданным образом. До тех пор, пока мы не передадим рабочие решения ИИ, он подчеркивает важность трех вещей: наблюдаемости ИИ, защитных механизмов и аналитических данных. Хасон утверждает, что компаниям необходимо отслеживать действия ИИ, выявлять потенциальные проблемы и иметь прозрачность в реальном времени относительно того, как принимаются решения. По его словам, если ИИ принимает решения, влияющие на жизнь людей или бизнес, необходима прозрачность.

Хасон твердо убежден, что люди всегда должны участвовать во всем, что делает ИИ. Он предполагает, что инструменты наблюдаемости ИИ могут помочь понять происходящее в реальном времени, подобно тому, как наблюдаемость систем помогает инженерам отслеживать простои. Он заключает, что «золотая середина» — это сочетание человеческого лидерства и аналитических данных на основе ИИ для принятия более разумных и обоснованных решений.

Монтес де Ока отмечает, что ИИ может в конечном итоге потребоваться полная автономия для принятия решений в реальном времени без участия человека в специализированных средах с высоким риском, таких как миссии в глубоком космосе. Это неизбежно вызовет дебаты. Однако в более широких секторах, таких как бизнес и политика, люди, вероятно, останутся у руля из-за проблем с подотчетностью и сложности атрибуции ошибок, допущенных ИИ. Тем не менее, по мере того как ИИ становится более прозрачным и надежным, граница между решениями, принимаемыми человеком и ИИ, может стираться.

Дастин Джонсон, технический директор Seeq, подчеркивает важность стратегии «человек прежде всего» в рамках концепции Human-AI Teaming (HAIT), чтобы гарантировать, что ИИ усиливает человеческий интеллект, а не заменяет его. Он считает, что прозрачность, подотчетность и этичное использование ИИ в контексте лидерства — это путь вперед. Вероятно, организациям придется обновить свои миссии, включив в них эти принципы. Джонсон утверждает, что бизнесу необходимо создать базовую структуру для раскрытия информации о том, когда и как ИИ используется в процессах принятия решений, четкие руководящие принципы относительно того, кто несет ответственность за решения, принятые ИИ, и механизмы возмещения ущерба в случае вреда. Эти защитные меры, по его мнению, помогут гарантировать, что системы ИИ разрабатываются и используются в соответствии с человеческими ценностями и предотвращают предвзятость или дискриминацию. Он заключает, что интегрируя ИИ в качестве партнера для совместной работы, организации могут стимулировать творчество, улучшать принятие решений и сокращать вытеснение рабочих мест, при этом этические соображения должны направлять роль ИИ в лидерстве для поддержания доверия и ответственности.

 

ИИ компании Polaron: новый этап в материаловедении

Сбор данных ИИ: как защитить авторов?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *