Эксперт по безопасности ИИ: ИскИн нельзя контролировать, он может привести к исчезновению человечества

 

Многочисленные очень умные люди с глубоким знанием того, насколько опасным может быть искусственный интеллект (ИИ), за последние несколько лет выпустили предупреждения о его использовании.

Последним это сделал доктор Роман В. Ямпольский, эксперт по безопасности искусственного интеллекта и доцент Университета Луисвилля.

Ямпольский утверждает в исследовании, недавно опубликованном в книге ИИ: Необъяснимо, Непредсказуемо, Неконтролируемо что в настоящее время нет никаких доказательств того, что искусственным интеллектом можно безопасно управлять.

“Мы столкнулись с почти гарантированным событием, которое может вызвать экзистенциальную катастрофу, — говорится в заявлении доктора Ямпольского. “Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Итогом может стать процветание или вымирание, а судьба вселенной висит на волоске.”

Он считает, что пока у нас нет конкретных доказательств того, что ИИ можно контролировать, его не следует развивать.

“Почему так много исследователей полагают, что проблема управления искусственным интеллектом разрешима? Насколько нам известно, этому нет никаких доказательств, никаких доказательств. Прежде чем приступить к поиску по созданию управляемого ИИ, важно показать, что проблема разрешима,” говорит доктор Ямпольский.

“Это, в сочетании со статистикой, которая показывает, что развитие сверхразума ИИ является почти гарантированным событием, показывает, что мы должны поддерживать значительные усилия по обеспечению безопасности ИИ.”

Он утверждает, что наша способность производить интеллектуальное программное обеспечение намного превосходит нашу способность контролировать или даже проверять его. После всестороннего обзора литературы он предполагает, что передовые интеллектуальные системы никогда не могут быть полностью управляемыми и поэтому всегда будут представлять определенный уровень риска, независимо от пользы, которую они приносят. Он считает, что целью сообщества ИИ должно быть минимизировать такой риск, одновременно максимизируя потенциальную выгоду.

Доктор Ямпольский предупреждает: “Если мы привыкнем принимать ответы ИИ без объяснения причин, по сути, рассматривая его как систему Oracle, мы не сможем сказать, начинает ли он давать неправильные или манипулятивные ответы.”

По мере увеличения возможностей ИИ его автономия также увеличивается, но наш контроль над ним уменьшается, объясняет Ямпольский, а повышение автономии является синонимом снижения безопасности.

“Менее интеллектуальные агенты (люди) не могут постоянно контролировать более интеллектуальных агентов (ASI),” сказал он. “Это не потому, что мы можем не найти безопасную конструкцию для сверхразума в огромном пространстве всех возможных конструкций, это потому, что такая конструкция невозможна, ее не существует. Суперинтеллект не бунтует, он неконтролируем с самого начала,” объясняет он.

“Человечество стоит перед выбором, становимся ли мы как младенцы, о которых заботятся, но мы не контролируем своих опекунов, или же мы отказываемся от наличия полезного опекуна, но остаемся ответственными и свободными.”

+ There are no comments

Add yours