litbaza книги онлайнРазная литератураОхота на электроовец. Большая книга искусственного интеллекта - Сергей Сергеевич Марков

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 259 260 261 262 263 264 265 266 267 ... 482
Перейти на страницу:
языковых моделей, порождены главным образом агентами, обладающими сознанием (т. е. людьми), то языковые модели могут до некоторой степени моделировать отдельные аспекты человеческого сознания. Но их возможности здесь, по всей видимости, существенно ограничены: ведь тексты в массе своей не содержат исчерпывающей информации о внутреннем состоянии агента, порождающего текст, а также о внешних обстоятельствах, при которых этот текст был порождён.

Тем не менее уже сейчас делаются первые попытки организации вычислительных экспериментов, в которых в ходе обучения искусственные нейронные сети учатся создавать модели подобных им агентов. В июне 2023 г. в журнале Cell была опубликована статья[2429] исследователей из Института автоматизации Китайской академии наук под названием «Импульсная нейронная сеть с моделью психического состояния, вдохновлённой устройством мозга, достигает лучших результатов в мультиагентном сотрудничестве и конкуренции» [A brain-inspired theory of mind spiking neural network improves multi-agent cooperation and competition]. Существующие методы мультиагентного обучения с подкреплением (Multi-Agent Reinforcement Learning, MARL) в основном полагаются при выборе поведения на наблюдения агентов, но им не хватает механизма, аналогичного модели психического состояния [Theory of Mind] у людей, что отрицательно влияет на эффективность обучения. Авторы работы предлагают нейросетевую архитектуру MAToM-DM (Multi-Agent Theory of Mind Decision Making, Принятие решений на основе мультиагентной модели психического состояния), призванную решить эту проблему. Её две подсети должны предсказывать поведение других агентов на основе собственного опыта и наблюдений за другими агентами. Каждый агент может корректировать своё поведение в соответствии с прогнозируемыми действиями других. Авторы работы используют несколько очень простых модельных задач, таких, например, как «охота на оленя», в ходе которой управляемые нейросетями «охотники» охотятся на «оленя» в двумерном игровом мире размером 5 × 5 клеток. Несмотря на обнадёживающие результаты, для создания искусственного сознания, приспособленного к решению задач реального мира, предстоит проделать ещё весьма длинный путь.

Впрочем, как часто бывает в науке, всё очень сильно зависит от того, какое именно определение мы вкладываем в используемое понятие — в данном случае в понятия «сознание» и «самосознание». Например, некоторые эксперименты показывают наличие самосознания даже у рыбок[2430]. Если определить сознание и самосознание достаточно широко, то, возможно, первые успехи в области создания машин, обладающих субъективным психологическим опытом, не так уж и далеки от нас. Но даже в таком случае для самых сложных созданных на сегодняшний день систем ИИ нам пока не приходится говорить о наличии чувств. Их «нервная система» по уровню сложности сопоставима разве что с самыми примитивными живыми существами и обычно очень специализирована. Можно сказать, что мы пока создаём не столько интеллектуальные, сколько инстинктивные системы, действия которых обычно подчинены простым и прямолинейным целям, а их способности к рефлексии и планированию пока ещё довольно скромны и хорошо работают только в очень сильно упрощённых моделях мира.

В августе 2023 г. группа учёных во главе с философами-когнитивистами Патриком Батлином из Института будущего человечества Оксфордского университета (Future of Humanity Institute, University of Oxford) и Робертом Лонгом из Центра безопасности искусственного интеллекта (Center for AI Safety) в Сан-Франциско опубликовали 80‑страничное исследование под названием «Сознание в искусственном интеллекте: представления науки о сознании» [Consciousness in Artificial Intelligence: Insights from the Science of Consciousness][2431], в котором рассмотрели вопрос о возможности наличия сознания у ИИ-систем с точки зрения шести современных нейробиологических теорий. На их основе учёные составили перечень из четырнадцати свойств-индикаторов — сформулированных в вычислительных терминах необходимых (но не достаточных) признаков систем, позволяющих судить о наличии или отсутствии у них сознания. Вот их список:

1. Свойства-индикаторы, основанные на положениях теории рекуррентной обработки (Recurrent processing theory, RPT):

• RPT-1: наличие входных модулей, использующих алгоритмически реализованные обратные связи [Input modules using algorithmic recurrence].

Пояснение. Теория рекуррентной обработки утверждает, что для появления сознания требуется, чтобы поступающие сигналы передавались обратно (из более высоких областей обработки в более низкие). Например, при зрительном восприятии для категоризации объектов достаточно обычной обработки поступающих сигналов, но для группировки и привязки объектов, для разделения фигуры и фона уже требуется повторяющаяся обработка. Это похоже на петли обратной связи в мозге, которые позволяют отдельным нейронам многократно обрабатывать информацию. Именно подобная повторяющаяся обработка и создаёт представление визуальных сцен, которые мы наблюдаем в сознании.

Авторы полагают, что для реализации сознания достаточно алгоритмической реализации обратных связей, физическое их наличие необязательно.

• RPT-2: наличие входных модулей, генерирующих организованные, интегрированные представления восприятия [Input modules generating organised, integrated perceptual representations].

Пояснение. Предполагается, что если алгоритмически реализованные обратные связи используются для создания организованного последовательного сюжета со способностью различать фигуры на фоне и с представлением пространственных отношений объектов, то этого будет достаточно для возникновения сознания.

2. Свойства-индикаторы, основанные на положениях теории глобального рабочего пространства (Global workspace theory, GWT):

• GWT-1: наличие нескольких специализированных систем, способных работать параллельно (модулей) [Multiple specialised systems capable of operating in parallel (modules)].

• GWT-2: наличие «рабочего пространства» с ограниченной ёмкостью, что приводит к появлению узкого места в информационном потоке и механизма избирательного внимания [Limited capacity workspace, entailing a bottleneck in information flow and a selective attention mechanism].

• GWT-3: наличие широковещательной передачи: информация в рабочей области должна быть доступна для всех модулей [Global broadcast: availability of information in the workspace to all modules].

• GWT-4: наличие внимания, зависящего от состояния, что даёт возможность использовать рабочее пространство для последовательных запросов модулей при выполнении сложных задач [State-dependent attention, giving rise to the capacity to use the workspace to query modules in succession to perform complex tasks].

Пояснение. Теория глобального рабочего пространства основана на идее, что люди и высшие животные для выполнения умственных задач используют множество специализированных подсистем, часто называемых модулями. Эти модули могут выполнять задачи независимо и параллельно (свойство GWT-1), но при этом они объединены в единую систему, позволяющую им работать вместе.

Теория утверждает, что одним из способов интеграции модулей является их общий доступ к «глобальному рабочему пространству», где находится информация. Важным условием (свойство GWT-2) является наличие узкого места в потоке информации через систему: ёмкость рабочего пространства должна быть меньше совокупной ёмкости модулей. Это позволяет модулям эффективно обмениваться информацией (в отличие от схем с взаимодействием модулей между собой, которые сложно масштабировать), а также заставляет систему «изучать» низкоразмерные мультимодальные представления. Последнее приводит к появлению механизма внимания, который выбирает информацию из модулей для представления в рабочей области.

Ещё одним условием (свойство GWT-3) является то, что информация в рабочем пространстве должна быть доступна всем модулям, включая и те, которые обрабатывают входные данные. Это влечёт за

1 ... 259 260 261 262 263 264 265 266 267 ... 482
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?