Когда в 2015 году была основана компания OpenAI, она дала миру радикальное обещание: сделать так, чтобы общий искусственный интеллект (AGI) приносил пользу всему человечеству. Проект начинался как некоммерческая организация, основанная на принципах прозрачности, безопасности и равенства. Однако к 2019 году это обещание начало рушиться. OpenAI была преобразована в гибридную компанию с «ограниченной прибылью», что позволило инвесторам получать доход, в сто раз превышающий их вложения. Миссия осталась на бумаге, но не в структуре. Приверженность общественному благу сменилась рыночными расчетами, а то, что позиционировалось как всеобщее достояние, по сути, стало частным активом.
Тем не менее мечта продолжала жить. Выпуск ChatGPT в конце 2022 года был встречен не как корпоративный продукт, а как откровение. В различных отраслях и медиа его превозносили как демократизирующую силу, способную выровнять правила игры и расширить доступ к знаниям. Но для многих эта история с самого начала казалась представлением, созданным, чтобы скрыть, как на самом деле создаются эти системы, для кого они предназначены и что извлекают в процессе. Это не рассказ о несовершенстве технологий, а история о misplaced trust и о том, как мечтатели, этики и защитники справедливости обнаружили, что ИИ изначально создавался не для них.
Компании, стоящие за разработкой ИИ, активно продвигали идеалистические лозунги. OpenAI клялась принести пользу «всему человечеству», Anthropic позиционировала себя как «корпорацию общественного блага», а основатели DeepMind заявляли, что хотят «решить проблему интеллекта», чтобы «решить все остальное». Эти философские утверждения нашли отклик. В научных кругах начали обсуждать внедрение ИИ, не изучив досконально его происхождение, а обычные пользователи полагали, что системы обучаются на чистых и контролируемых данных, а не на гигантских массивах информации, собранной с Reddit, Wikipedia и самых темных уголков интернета. ИИ продавали как нейтральный, научный и освобождающий инструмент, но этот идеализм, как оказалось, не имел под собой реальной основы.
Суровая правда заключается в том, что практически нет доказательств, что современные системы ИИ создавались для поддержки уязвимых групп или содействия глобальному равенству. Наоборот, большие языковые модели, такие как GPT-4, Gemini и Claude, построены на данных, отражающих доминирующие культуры и экономики Глобального Севера. Исследования подтверждают, что эти модели в больших масштабах демонстрируют расовые и гендерные предубеждения. Например, MIT Technology Review сообщил о «четких, измеримых паттернах предвзятости» в ответах GPT-3. Разработчики знают, как проводить аудит справедливости и диверсифицировать наборы данных, но часто предпочитают этого не делать. В 2023 году OpenAI без лишнего шума прекратила раскрывать данные, на которых обучалась GPT-4, сославшись на «конкурентные угрозы» и тем самым пресекая общественный контроль.
Глубокая ирония современной революции ИИ заключается в том, что многие компании-лидеры отрасли практикуют форму цифрового колониализма. Эти технологии не просто отражают существующее неравенство — они его усугубляют через систематическое присвоение данных. Данные стали новым сырьем, которое незаметно извлекается из фотографий, текстов и цифровых следов пользователей. Эта форма «техноколониализма» непропорционально затрагивает Глобальный Юг, откуда данные часто извлекаются без согласия, а готовые продукты ИИ внедряются без культурной адаптации и подотчетности. Прибыль концентрируется в Кремниевой долине, а на выходе получается не нейтральная система, а модель, которая зеркально отражает и усиливает глобальные асимметрии.
История знает немало примеров, когда попытки бросить вызов корпоративной логике жестко пресекались. Так, в 2020 году Тимнит Гебру, соруководитель команды Google по этике ИИ, была уволена после публикации статьи, в которой освещались риски больших языковых моделей: их огромный углеродный след, роль в распространении дезинформации и усилении расистских и сексистских стереотипов. Исследование показало, что обучение одной модели может привести к выбросам более 280 тонн углекислого газа, что эквивалентно жизненному циклу пяти автомобилей. Вместо того чтобы отреагировать на выводы, Google уволила Гебру, послав ясный сигнал: те, кто ставит под сомнение траекторию развития ИИ, делают это на свой страх и риск.
Между тем лидеры индустрии демонстрируют поразительное двуличие. Технический директор OpenAI Мира Мурати публично говорит об «экзистенциальных рисках» ИИ и необходимости регулирования, однако под ее руководством компания продолжает выпускать все более мощные системы с минимальной прозрачностью. В то же время Meta незаметно сделала сбор данных для обучения своих моделей функцией по умолчанию. Отказаться от этого технически возможно, но намеренно сложно из-за «темных паттернов» в интерфейсе — запутанных настроек и юридических формулировок. Это не случайность, а тщательно продуманные механизмы, призванные сломить сопротивление пользователя.
Все это складывается в единую картину: институты, которые продвигают ответственность на словах, на деле создают непрозрачность. Поверхностная приверженность этике скрывает глубинную логику разработки ИИ, движимую извлечением данных, огораживанием технологий и прибылью. Эти инструменты создавались не для расширения прав и возможностей общества, а для сбора наших данных, труда и языка под видом инноваций.
Парадокс заключается в том, что ИИ — это зеркало своих создателей. Он кодирует их выбор, их слепые зоны и амбиции. Эти модели показывают, что происходит, когда инновации движимы исключительно жаждой денег и доминирования, а этика передана на аутсорсинг. ИИ не спустился с небес с дарами — он был создан намеренно. Чтобы вернуть его на службу обществу, а не только могущественным корпорациям, необходимо проснуться от навязанной мечты и признать горькую правду о том, с чем мы столкнулись. Мир, в котором технологии лечат, а не вредят, не будет нам подарен — его нужно строить целенаправленно, срочно и сообща.