Процесс обучения искусственного интеллекта (ИИ) во многом схож с тем, как родители учат маленьких детей познавать мир – через ассоциации и выявление закономерностей. Например, показывая ребенку букву «S» в разных контекстах, родители добиваются того, что он начинает узнавать ее самостоятельно, без подсказок: в школе, в книге или на рекламном щите.
Значительная часть современных технологий ИИ была обучена похожим образом. Исследователи предоставляли системе корректные примеры того, что она должна распознавать. Подобно ребенку, ИИ начинал выявлять паттерны и применять полученные знания в новых, незнакомых ситуациях, формируя собственную «нейронную сеть» для классификации объектов. Однако, как и в случае с человеческим интеллектом, эксперты со временем перестали точно понимать, какие именно входные данные и внутренние процессы приводят ИИ к тем или иным выводам.
Так возникла проблема «черного ящика» в ИИ: мы не до конца понимаем, как и почему система устанавливает связи между данными, и какие переменные влияют на ее решения. Этот вопрос становится особенно острым, когда речь идет о повышении надежности и безопасности ИИ-систем, а также о разработке правил их внедрения и использования.
Примеры последствий этой непрозрачности множатся: от беспилотных автомобилей, не успевающих затормозить и создающих угрозу для пешеходов, до медицинских устройств на базе ИИ, помогающих врачам ставить диагнозы, и систем отбора персонала, демонстрирующих предвзятость. Сложность, стоящая за этими системами, привела к появлению новой области исследований – физики искусственного интеллекта. Ее цель – глубже понять природу ИИ и утвердить его как инструмент, помогающий людям достигать нового уровня понимания.
Теперь для решения этих задач создается новая независимая исследовательская группа. Она объединит усилия специалистов из физики, психологии, философии и нейронаук для междисциплинарного изучения загадок ИИ.
Новая группа, названная Physics of Artificial Intelligence Group, является ответвлением лаборатории физики и информатики (Physics & Informatics Lab, PHI Lab) компании NTT Research. О ее создании было объявлено на конференции Upgrade 2025 в Сан-Франциско. Группа продолжит развивать подход «физики ИИ» к пониманию его работы, которым команда занималась последние пять лет, стремясь повысить доверие к технологии и ее безопасность.
Возглавит новую исследовательскую группу доктор Хидэнори Танака, получивший степень PhD по прикладной физике и информатике в Harvard University. Он будет опираться на свой предыдущий опыт работы в группе интеллектуальных систем NTT и в программе исследования физики интеллекта CBS-NTT AI Research program в Гарвардском университете.
Доктор Танака на прошлой неделе в кулуарах конференции отметил, что как физик он чрезвычайно воодушевлен темой интеллекта. Он задался вопросом, как можно математически осмыслить такие понятия, как креативность или доброта. По его словам, эти концепции оставались бы абстрактными, если бы не ИИ. Легко рассуждать и давать свое определение доброты, но оно не будет иметь математического смысла. Однако с появлением ИИ это становится практически важным, поскольку, если мы хотим сделать ИИ «добрым», необходимо объяснить ему, что такое доброта, на языке математики.
Еще на ранних этапах своих исследований PHI Lab осознала важность понимания природы «черного ящика» ИИ и машинного обучения для разработки новых, более энергоэффективных вычислительных систем. Однако стремительное развитие ИИ за последние пять лет выдвинуло на первый план вопросы безопасности и доверия, которые стали критически важными для промышленного применения и государственного регулирования внедрения ИИ.
Через новую исследовательскую группу NTT Research будет изучать сходства между биологическим и искусственным интеллектом, надеясь раскрыть сложности механизмов ИИ и построить более гармоничное сотрудничество человека и машины.
Хотя интеграция физики и ИИ является новаторской, сам подход не нов. Физики веками стремились раскрыть точные детали взаимосвязей между технологиями и человеком: от исследований Галилео Галилея о движении объектов, внесших вклад в механику, до понимания термодинамики, пришедшего с появлением парового двигателя во время промышленной революции. В XXI веке ученые пытаются понять, как ИИ обучается, накапливает знания и принимает решения, чтобы в будущем создавать более согласованные, безопасные и надежные ИИ-технологии.
Доктор Танака пояснил, что ИИ – это нейросеть, структура которой очень похожа на работу человеческого мозга: нейроны, соединенные синапсами, представлены числами внутри компьютера. Именно здесь, по его мнению, и может применяться физика. Физика, как он выразился, занимается тем, что берет любой объект во Вселенной, формулирует математические гипотезы о его внутреннем устройстве и проверяет их.
Новая группа продолжит сотрудничество с Center for Brain Science (CBS) при Harvard University и планирует наладить взаимодействие с доцентом Stanford University Суей Гангули, с которым доктор Танака уже является соавтором нескольких научных работ.
При этом доктор Танака подчеркивает фундаментальную важность естественно-научного и межотраслевого подхода. Еще в 2017 году, будучи аспирантом в Гарвардском университете, он понял, что хочет выйти за рамки традиционной физики и, следуя по стопам своих предшественников от Галилея до Ньютона и Эйнштейна, открыть новые концептуальные миры в физике.
Доктор Танака заключил, что ИИ сейчас является той темой, которую он может обсуждать абсолютно со всеми. Как исследователь, он считает это большим плюсом, потому что люди всегда готовы говорить об ИИ, и каждый такой разговор обогащает его, показывая, как по-разному люди видят и используют ИИ, даже вне академического контекста. Он видит миссию NTT в том, чтобы стать катализатором таких дискуссий, независимо от бэкграунда собеседников, поскольку каждое взаимодействие приносит новые знания.