В современных офисах наблюдается удивительная тенденция: использование искусственного интеллекта стремительно растет, однако мало кто открыто признается в этом. Если же сотрудники и говорят об обращении к ИИ, то зачастую с нервной улыбкой или оговорками вроде «я использовал его только для черновика» или «лишь чтобы немного подправить структуру». Эти комментарии подчеркивают наше неоднозначное отношение к ИИ: ощущаем ли мы себя обманщиками, прибегая к его помощи, или же пытаемся отстоять правомерность его применения в профессиональной деятельности?
Неопределенность вокруг использования ИИ для задач, которые традиционно выполнялись исключительно людьми, связана не столько с политикой компаний, сколько с вопросами личного авторитета и восприятия. Речь идет о том, как мы демонстрируем свою компетентность, как сигнализируем о приложенных усилиях и как выстраиваем доверительные отношения с коллегами, руководством и даже клиентами, когда машины становятся соавторами нашей работы. Некоторые смело делятся опытом применения ИИ, признавая его полноценным помощником или обсуждая процесс создания запросов для получения нужного результата. Другие же скрывают это, даже когда явные признаки выдают их.
У «голоса» искусственного интеллекта есть свои характерные лингвистические черты: порой неуклюжая беглость, монотонность изложения и своеобразное пристрастие к чрезмерному использованию тире. Оценка этого явления – хорошо это или плохо – зависит как от индивидуальных взглядов, так и от корпоративных приоритетов, взвешивающих баланс между затраченными усилиями, эффективностью и восприятием результата. Если созданный с помощью ИИ материал быстро готовится и находит отклик у аудитории, становится ли его использование более приемлемым, чем работа, выполненная традиционно, но не достигающая поставленных целей или не получающая должного внимания?
За этим скрывается более глубокий вопрос: на чем основывается наше доверие к чьей-либо работе? На предполагаемых усилиях, вложенных в нее, на ощущении авторства или на честности в отношении методов ее создания? В наших технологически ориентированных компаниях, где инновации и эффективность возведены в культ, мы по-прежнему цепляемся за устаревшие критерии ценности. Один из них – миф о «видимых усилиях», согласно которому «хорошая работа» непременно должна стоить значительных временных или трудовых затрат. Другой – идея единоличного авторства, даже в условиях командной работы или использования вспомогательных инструментов.
Инновации в области ИИ усложнили эту картину. Технологии ускоряют генерацию идей, улучшают грамматику, оттачивают стиль, однако их присутствие часто маскируется. Недавнее исследование KPMG показало, что 42% «белых воротничков» скрывают использование ИИ на работе. Делает ли применение ИИ работника в чем-то «менее» квалифицированным, ведет ли оно к атрофии навыков по мере роста его внедрения? Возможно, именно ощущение, будто они «обманывают систему», создавая продукт с меньшими усилиями, чем предыдущие поколения, заставляет сотрудников умалчивать об этом.
В такие моменты, как сказал бы французский теоретик Мишель Фуко, сотрудники строят свой собственный «паноптикум», шпионя за использованием ИИ собой и другими. Работники становятся одновременно и производителями контента с помощью ИИ, и надсмотрщиками за его легитимностью. Мы следим за языком друг друга, выискивая признаки «настоящего» человеческого труда. Мы занимаемся самоконтролем, корректируя запросы к ИИ до тех пор, пока результат не будет звучать «по-нашему». Мы существуем в пространстве, где применение ИИ ожидаемо, но признание в этом все еще кажется рискованным.
Результатом такой скрытности становится потеря потенциала для инноваций и повышения эффективности, а также торможение процесса генерации новых идей. Вместо этого происходит фрагментарное и рискованное внедрение, порождающее проблемы с безопасностью данных и культурную разобщенность внутри коллективов. Как напоминает Фуко, признание всегда было механизмом власти, не только в религии, но и в различных институтах. Признаться – значит встроиться в систему, тогда как умалчивание порождает подозрения. Поэтому мы выстраиваем сложные ритуалы частичного раскрытия информации, вроде «этот раздел я написал сам» или «инструмент помог только с форматированием». Это не столько ложь, сколько стратегия сохранения репутации.
Помимо рисков безопасности и культурной фрагментации, возникает еще одна проблема: по мере того как контент, созданный ИИ, наводняет рабочее пространство, проявляется эффект «омертвения». Язык становится более плоским, усредненным, а истинные намерения автора – все труднее различимыми. В попытках звучать профессионально мы рискуем начать звучать одинаково. Некоторые эксперты уже называют это эффектом «мертвого интернета» или, более формально, «коллапсом модели»: ИИ поглощает контент, созданный другим ИИ, в бесконечном цикле отполированной посредственности, где «галлюцинации» нейросетей ведут к энтропии содержания. И снова мы движемся от инноваций к стагнации, подгоняемые страхом быть разоблаченными.
Что же могут предпринять организации в этой ситуации? Искусственный интеллект уже здесь, он прочно вошел в рабочие процессы самых разных компаний и культур. Однако то, что еще предстоит выстроить, – это доверие к профессиональным суждениям сотрудников при его использовании. Фокус смещается с вопроса о том, использовался ли ИИ, на то, насколько четко обозначена роль человека в этом процессе. Доверие означает прозрачность. Это не просто декларация «сделано с помощью ИИ», а скорее переосмысление авторства таким образом, чтобы на передний план выходили намерения и контроль человека. Сами по себе инструменты ИИ не хороши и не плохи; значение имеет то, как мы понимаем наши отношения с ними и как их используем.
Организации могут ускорить движение к доверию и прозрачности в использовании ИИ несколькими способами. Во-первых, необходимо нормализовать вдумчивое раскрытие информации о применении ИИ, создавая культуру, в которой признание этого факта не является поводом для чувства вины, а свидетельствует о компетентности и «свободном владении» новыми технологиями. Важно подчеркивать этическую эффективность, когда использование ИИ становится преимуществом для скорости бизнеса и качества результата. Во-вторых, следует поощрять ясность процесса, а не только безупречность итогового продукта, создавая пространство для обсуждения того, почему контент достиг цели и как именно взаимодействовали человек и ИИ для этого. Наконец, стоит переосмыслить само определение профессиональной экспертизы: это не сопротивление ИИ, а мастерство его интеграции в работу.
Доверие не теряется, когда в комнате появляется ИИ. Оно теряется, когда никто не говорит, что он там был.