Компания Meta, стремясь ответить на растущие опасения, связанные с безопасностью искусственного интеллекта, представила новую систему управления рисками. Этот документ подробно описывает, как компания намерена оценивать и снижать риски, исходящие от новейших моделей ИИ, а также определяет условия, при которых разработка может быть остановлена, доступ ограничен или система не будет выпущена.
В документе, озаглавленном «Frontier AI Framework», описывается процесс категоризации моделей ИИ. Meta разделяет их на группы высокого и критического риска, предпринимая соответствующие действия для снижения угрозы до «приемлемого уровня». Модель относится к категории критического риска, если она способна самостоятельно реализовать описанный сценарий угрозы. Высокий риск означает, что модель может значительно способствовать реализации угрозы, но не обеспечивает её выполнение самостоятельно.
Среди рассматриваемых сценариев угроз – распространение биологического оружия, обладающего высокой поражающей способностью, сравнимой с известными агентами, а также масштабный экономический ущерб для частных лиц или корпораций в результате мошенничества и афер.
Если модель достигает порога критического риска, Meta прекращает разработку, ограничивает доступ к ней узким кругом экспертов и внедряет меры безопасности для предотвращения взлома или утечки данных, «насколько это технически осуществимо и коммерчески целесообразно». Для моделей высокого риска доступ будет ограничен, а также будут приняты меры по снижению риска до умеренного уровня, при котором модель не будет существенно способствовать реализации сценария угрозы.
В процессе оценки рисков участвуют специалисты из разных областей, включая внутренних и, «при необходимости», внешних экспертов, а также руководители компании из различных подразделений. Новая система применяется только к самым передовым моделям и системам компании, которые соответствуют или превосходят текущие возможности.
В Meta подчеркивают, что публикация текущего подхода к разработке передовых систем ИИ призвана не только обеспечить прозрачность процессов принятия решений, но и стимулировать обсуждение и исследования в области совершенствования оценки ИИ и количественной оценки рисков и преимуществ. Подход к оценке и снижению рисков будет развиваться и совершенствоваться со временем. Однако, учитывая, что оценка ИИ находится на ранней стадии развития, Meta планирует сосредоточиться на повышении надежности и достоверности оценок, в том числе на обеспечении того, чтобы результаты тестирования отражали реальное поведение модели после внедрения.
В компании заявляют, что процесс принятия решений по разработке и выпуску передового ИИ руководствуется внутренней программой управления ИИ, пороговыми значениями риска и строгой программой оценки и смягчения последствий, лежащей в их основе.