В какой момент мы коллективно решим, что нам необходимо замедлить все достижения, которых мы добиваемся в области искусственного интеллекта (ИИ)?
Многочисленные чрезвычайно умные люди уже сделали несколько довольно ужасающих предупреждений об ИИ, но, похоже, это вообще не оказало никакого влияния.
Последнее предупреждение об искусственном интеллекте пришло к нам благодаря недавнему исследованию, проведенному специалистами по этике искусственного интеллекта в Леверхалмском центре будущего интеллекта Кембриджского университета.
Их исследование, опубликованное в журнале Философия и технологии, предупреждает, что без надлежащих протоколов безопасности люди могут в конечном итоге стать преследуемыми «привидениями» мертвых близких, созданными ИИ.
Несмотря на то, что концепция возникла прямо из эпизода сериала Черное зеркало, опасения исследователей по поводу этих Deadbots или Griefbots вполне реальны.
“Искусственный интеллект, который позволяет пользователям вести текстовые и голосовые разговоры с потерянными близкими, рискует нанести психологический вред и даже в цифровом формате ‘преследовать’ тех, кто остался без стандартов безопасности проектирования,” заявили специалисты по этике искусственного интеллекта в пресс-релизе о своем исследовании.
В своей статье они описывают три сценария применения ботов-привидений, которые они классифицируют как “сценарии высокого риска возникновения”:
1. Компании могли бы использовать Deadbots, чтобы “тайно рекламировать товары пользователям на манер ушедшего любимого человека.”
“Когда живые подписываются на виртуальное воссоздание после их смерти, полученные чат-боты могут использоваться компаниями для рассылки спама живым родственникам и друзьям с помощью нежелательных уведомлений, напоминаний и обновлений об услугах, которые они предоставляют – сродни тому, как их преследуют в цифровом формате мертвые, ‘объяснили исследователи.
2. Deadbots могут “огорчить детей, настаивая на том, что мертвый родитель все еще ‘с вами.’”
Например, неизлечимо больная женщина может оставить Deadbot, чтобы помочь своему маленькому ребенку в процессе скорби.
«Хотя Deadbot изначально помогает в качестве терапевтического средства, ИИ начинает генерировать запутанные реакции, адаптируясь к потребностям ребенка, например, изображая предстоящую личную встречу», — пишут исследователи.
3. Люди, которые могут получить первоначальное утешение от Deadbot, могут стать «опустошенными» в результате ежедневного общения со своим умершим родственником.
Окончательный сценарий, изученный в исследовании – вымышленной компании под названием “Stay” –, показывает, как пожилой человек тайно связывается с Deadbot и платит за двадцатилетнюю подписку в надежде, что это утешит их взрослых детей и позволит их внукам узнать их.
После смерти служба начинает действовать. Один взрослый ребенок не участвует и получает шквал электронных писем голосом своего умершего родителя. Другой так и делает, но в конечном итоге эмоционально истощается и терзается чувством вины за судьбу Deadbot. Однако приостановка работы Deadbot нарушит условия контракта, подписанного их материнской компанией с сервисной компанией.
Не дай Бог, ваш Deadbot в конечном итоге встретится с другим Deadbot, и у них возникнут проблемы в отношениях.
“Быстрые достижения в области генеративного ИИ означают, что почти любой, у кого есть доступ в Интернет и некоторые базовые ноу-хау, может оживить умершего близкого человека, ” сказала соавтор исследования доктор Катажина Новачик-Басиньская.
“Эта область ИИ является этическим минным полем. Важно расставить приоритеты в достоинстве умершего, и сделать так, чтобы на это не посягали финансовые мотивы цифровых сервисов «загробной жизни».
“В то же время человек может оставить симуляцию ИИ в качестве прощального подарка близким, которые не готовы пережить свое горе таким образом. Права как доноров данных, так и тех, кто взаимодействует с услугами ИИ для загробной жизни, должны быть одинаково защищены.”
+ There are no comments
Add yours