Шрифт:
Интервал:
Закладка:
Тем не менее уже сейчас делаются первые попытки организации вычислительных экспериментов, в которых в ходе обучения искусственные нейронные сети учатся создавать модели подобных им агентов. В июне 2023 г. в журнале Cell была опубликована статья[2429] исследователей из Института автоматизации Китайской академии наук под названием «Импульсная нейронная сеть с моделью психического состояния, вдохновлённой устройством мозга, достигает лучших результатов в мультиагентном сотрудничестве и конкуренции» [A brain-inspired theory of mind spiking neural network improves multi-agent cooperation and competition]. Существующие методы мультиагентного обучения с подкреплением (Multi-Agent Reinforcement Learning, MARL) в основном полагаются при выборе поведения на наблюдения агентов, но им не хватает механизма, аналогичного модели психического состояния [Theory of Mind] у людей, что отрицательно влияет на эффективность обучения. Авторы работы предлагают нейросетевую архитектуру MAToM-DM (Multi-Agent Theory of Mind Decision Making, Принятие решений на основе мультиагентной модели психического состояния), призванную решить эту проблему. Её две подсети должны предсказывать поведение других агентов на основе собственного опыта и наблюдений за другими агентами. Каждый агент может корректировать своё поведение в соответствии с прогнозируемыми действиями других. Авторы работы используют несколько очень простых модельных задач, таких, например, как «охота на оленя», в ходе которой управляемые нейросетями «охотники» охотятся на «оленя» в двумерном игровом мире размером 5 × 5 клеток. Несмотря на обнадёживающие результаты, для создания искусственного сознания, приспособленного к решению задач реального мира, предстоит проделать ещё весьма длинный путь.
Впрочем, как часто бывает в науке, всё очень сильно зависит от того, какое именно определение мы вкладываем в используемое понятие — в данном случае в понятия «сознание» и «самосознание». Например, некоторые эксперименты показывают наличие самосознания даже у рыбок[2430]. Если определить сознание и самосознание достаточно широко, то, возможно, первые успехи в области создания машин, обладающих субъективным психологическим опытом, не так уж и далеки от нас. Но даже в таком случае для самых сложных созданных на сегодняшний день систем ИИ нам пока не приходится говорить о наличии чувств. Их «нервная система» по уровню сложности сопоставима разве что с самыми примитивными живыми существами и обычно очень специализирована. Можно сказать, что мы пока создаём не столько интеллектуальные, сколько инстинктивные системы, действия которых обычно подчинены простым и прямолинейным целям, а их способности к рефлексии и планированию пока ещё довольно скромны и хорошо работают только в очень сильно упрощённых моделях мира.
В августе 2023 г. группа учёных во главе с философами-когнитивистами Патриком Батлином из Института будущего человечества Оксфордского университета (Future of Humanity Institute, University of Oxford) и Робертом Лонгом из Центра безопасности искусственного интеллекта (Center for AI Safety) в Сан-Франциско опубликовали 80‑страничное исследование под названием «Сознание в искусственном интеллекте: представления науки о сознании» [Consciousness in Artificial Intelligence: Insights from the Science of Consciousness][2431], в котором рассмотрели вопрос о возможности наличия сознания у ИИ-систем с точки зрения шести современных нейробиологических теорий. На их основе учёные составили перечень из четырнадцати свойств-индикаторов — сформулированных в вычислительных терминах необходимых (но не достаточных) признаков систем, позволяющих судить о наличии или отсутствии у них сознания. Вот их список:
1. Свойства-индикаторы, основанные на положениях теории рекуррентной обработки (Recurrent processing theory, RPT):
• RPT-1: наличие входных модулей, использующих алгоритмически реализованные обратные связи [Input modules using algorithmic recurrence].
Пояснение. Теория рекуррентной обработки утверждает, что для появления сознания требуется, чтобы поступающие сигналы передавались обратно (из более высоких областей обработки в более низкие). Например, при зрительном восприятии для категоризации объектов достаточно обычной обработки поступающих сигналов, но для группировки и привязки объектов, для разделения фигуры и фона уже требуется повторяющаяся обработка. Это похоже на петли обратной связи в мозге, которые позволяют отдельным нейронам многократно обрабатывать информацию. Именно подобная повторяющаяся обработка и создаёт представление визуальных сцен, которые мы наблюдаем в сознании.
Авторы полагают, что для реализации сознания достаточно алгоритмической реализации обратных связей, физическое их наличие необязательно.
• RPT-2: наличие входных модулей, генерирующих организованные, интегрированные представления восприятия [Input modules generating organised, integrated perceptual representations].
Пояснение. Предполагается, что если алгоритмически реализованные обратные связи используются для создания организованного последовательного сюжета со способностью различать фигуры на фоне и с представлением пространственных отношений объектов, то этого будет достаточно для возникновения сознания.
2. Свойства-индикаторы, основанные на положениях теории глобального рабочего пространства (Global workspace theory, GWT):
• GWT-1: наличие нескольких специализированных систем, способных работать параллельно (модулей) [Multiple specialised systems capable of operating in parallel (modules)].
• GWT-2: наличие «рабочего пространства» с ограниченной ёмкостью, что приводит к появлению узкого места в информационном потоке и механизма избирательного внимания [Limited capacity workspace, entailing a bottleneck in information flow and a selective attention mechanism].
• GWT-3: наличие широковещательной передачи: информация в рабочей области должна быть доступна для всех модулей [Global broadcast: availability of information in the workspace to all modules].
• GWT-4: наличие внимания, зависящего от состояния, что даёт возможность использовать рабочее пространство для последовательных запросов модулей при выполнении сложных задач [State-dependent attention, giving rise to the capacity to use the workspace to query modules in succession to perform complex tasks].
Пояснение. Теория глобального рабочего пространства основана на идее, что люди и высшие животные для выполнения умственных задач используют множество специализированных подсистем, часто называемых модулями. Эти модули могут выполнять задачи независимо и параллельно (свойство GWT-1), но при этом они объединены в единую систему, позволяющую им работать вместе.
Теория утверждает, что одним из способов интеграции модулей является их общий доступ к «глобальному рабочему пространству», где находится информация. Важным условием (свойство GWT-2) является наличие узкого места в потоке информации через систему: ёмкость рабочего пространства должна быть меньше совокупной ёмкости модулей. Это позволяет модулям эффективно обмениваться информацией (в отличие от схем с взаимодействием модулей между собой, которые сложно масштабировать), а также заставляет систему «изучать» низкоразмерные мультимодальные представления. Последнее приводит к появлению механизма внимания, который выбирает информацию из модулей для представления в рабочей области.
Ещё одним условием (свойство GWT-3) является то, что информация в рабочем пространстве должна быть доступна всем модулям, включая и те, которые обрабатывают входные данные. Это влечёт за