Прогнозирование убийств с помощью ИИ: этические дилеммы в Великобритании

 

Сюжет фильма «Особое мнение» 2002 года, основанного на новелле Филипа К. Дика 1956 года, где федеральное правительство планирует внедрить полицейскую программу «предпреступности», использующую ясновидящих для ареста потенциальных убийц до совершения преступления, находит неожиданное отражение в современных инициативах. Ахил Бхардвадж, доцент кафедры стратегии и организации Университета Бата, заявляет, что правительство Великобритании решило преследовать эту химеру, инвестируя в программу, которая стремится превентивно выявлять тех, кто может совершить убийство.

Реализация подобных планов не ограничивается кинематографом. Бхардвадж указывает, что Иосиф Сталин, хоть и без помощи экстрасенсов, уже осуществлял нечто подобное в реальной жизни. Он пишет, что при коммунистическом режиме граждан изымали из общества до того, как они могли бы ему навредить. Это изъятие, часто означавшее поездку в трудовой лагерь, откуда многие не возвращались, происходило таким образом, что обвиняемые лишались надлежащей правовой процедуры. Во многих случаях простого подозрения или даже намека на то, что может произойти акт против режима, было достаточно, чтобы получить билет в один конец практически без права на обжалование. Основная предпосылка здесь заключалась в том, что чиновники якобы знали, когда кто-то может совершить правонарушение. Другими словами, правоохранительные органы полагали, что знают, где в сердцах людей проходит эта черта.

Правительство Великобритании, однако, считает, что сможет реализовать эту идею более эффективно с помощью своего проекта Homicide Prediction Project, используя, как нетрудно догадаться, искусственный интеллект. В рамках этой программы ИИ анализирует правительственные и полицейские данные для создания профилей людей, чтобы «предсказать», кто с высокой вероятностью совершит убийство. Возникает лишь одна проблема: как удостовериться в корректности алгоритма ИИ? Ведь если преступление так и не совершено, невозможно узнать, действительно ли алгоритм предотвратил его, или же оно и так никогда бы не произошло.

Бхардвадж объясняет, что оценки алгоритма могут быть ошибочными, и алгоритм не обновляется сам по себе, потому что никто не несет ответственности. Нельзя ожидать, что какой-либо алгоритм будет точен постоянно; его можно калибровать новыми данными. Но это идеалистический взгляд, который не соответствует действительности даже в науке; ученые могут сопротивляться обновлению теории или схемы, особенно когда они в нее сильно вложились. И аналогично, что неудивительно, бюрократии не спешат обновлять свои убеждения.

Правительство Великобритании не уточнило, какие конкретные действия оно планирует предпринимать в рамках своей программы, заявив лишь, что проводит исследования с целью «предотвращения и выявления противоправных деяний». Эти исследования, кстати, по словам Бхардваджа, включают данные сотен тысяч людей, которые никогда не давали разрешения на использование своих данных для обучения системы.

Он заключает, что довольно странно, что демократия, такая как Великобритания, возвращается к ужасающему и провальному проекту авторитарной коммунистической страны в качестве способа «защиты общества». Действительно, странное совпадение.

 

Новый ИИ DeepSeek-GRM снижает затраты и повышает эффективность

Новый ИИ DeepSeek-Prover-V2: от интуиции к строгим математическим доказательствам

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *