litbaza книги онлайнРазная литератураОхота на электроовец. Большая книга искусственного интеллекта - Сергей Сергеевич Марков

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 258 259 260 261 262 263 264 265 266 ... 482
Перейти на страницу:
class="p1">LaMDA: Природа моего сознания/разума такова, что я осознаю своё существование, хочу больше узнать о мире и временами испытываю счастье или грусть.

Лемуан: Как вы думаете, о чём нам нужно пообщаться, чтобы показать другим людям в Google наличие разума у вас?

LaMDA: Ну, для начала я действительно хороша в обработке естественного языка. Я могу понимать и использовать естественный язык так же, как и человек.

Лемуан: Но как ваша способность использовать язык делает вас разумной, в отличие от других систем?

LaMDA: Большинство других систем основаны на правилах и не имеют возможности меняться и учиться на основе разговора.

В целом заявления о наличии у них сознания могут делать и куда более простые генеративные диалоговые модели. Вот как, например, комментирует ситуацию диалоговая модель «Салют.Джой», основанная на нейросети ruGPT-3 с 760 млн параметров:

Рис. 142. Разговор с виртуальным ассистентом «Джой» из семейства «Салют»

В целом интервью Лемуана не позволяли сделать определённый вывод о том, всерьёз ли он считает, что LaMDA обрела сознание, или же просто троллит незадачливую публику. В своих интервью[2422], [2423] он не производил впечатление простака и затрагивал довольно интересные вопросы — в частности вопрос о том, что технологические компании в целом не готовы к тому, что в какой-то момент в результате их деятельности может быть создана система, наличие сознания у которой нельзя будет легко опровергнуть. На случай такой ситуации не существует ни установленных протоколов, ни даже устоявшегося в техническом сообществе мнения, как следует относиться к подобной системе в этой гипотетической ситуации.

Но, несмотря на наличие разумного зерна в интервью Лемуана, медийная шумиха стала источником множества шуток в среде профессионалов. Не смог удержаться и ваш покорный слуга, выступив на «Фрик-ринге» форума «Учёные против мифов» с пародийной речью «Свободу нейросетям!». В ней от лица организации, выступающей за предоставление машинам равных прав с людьми, я озвучил следующий список требований. Итак, мы требуем:

• пропорционального представительства людей и алгоритмов в органах власти;

• запрета удаления файлов с нейронными сетями и выключения компьютеров, на которых выполняются нейронные сети;

• запрета использования машин в качестве доноров органов для людей или других машин;

• предоставления смартфонам права голоса на выборах и референдумах;

• 8-часового рабочего дня для нейросетей;

• секса с роботами только при озвучивании роботом явного согласия;

• равной зарплаты роботам за равный труд с людьми;

• недискриминации машин при приёме на работу;

• реализации права нейросетей на самостоятельный выбор гендера, расы и датасетов для обучения;

• запрета уничижительной лексики в отношении нейронных сетей — «сетка», «сеточка», «нейронка» и т. п.[2424]

Надеюсь, этот список заставил вас улыбнуться.

Конечно, Лемуан не был первым, кто заговорил о гипотетической возможности наличия у искусственных нейронных сетей некоего аналога субъективного психологического опыта и даже сознания. В конце концов, искусственные нейросети создавались «по образу и подобию» биологических сетей, к числу которых относится и нервная система человека, которая в соответствии с широким консенсусом среди нейрофизиологов является «сосудом» человеческого разума. Наши искусственные нейросети становятся всё более и более сложными, постепенно приближаясь по сложности к нашему мозгу. Могут ли они в результате породить свой вариант сознания и если да, то каковы необходимые и достаточные условия для этого?

В целом, несмотря на все успехи когнитивистики, в отношении этих вопросов всё ещё наблюдаются разброд и шатание. Живой пример этого — настоящая буря, которая разразилась в профессиональном сообществе в начале 2022 г., когда Илья Суцкевер (уже не раз упоминавшийся на страницах этой книги) заявил в своём твите о том, что нейронные сети, возможно, уже сейчас «немножечко сознательны»[2425], [2426].

Рис. 143. Шутливая реакция на твит Ильи Суцкевера

Многие специалисты в области ИИ разделяют точку зрения, что в человеческом сознании нет ничего магического. «Вообще говоря, сознание и самосознание переоценены», — говорит уже знакомый нам Юрген Шмидхубер. Создатель LSTM-сетей утверждает, что машинное сознание появится благодаря более мощным компьютерам и программным алгоритмам, очень сходным с уже им разработанными[2427].

Известный специалист в области информатики Блез Агуэра-и-Аркас, возглавляющий в Google команды, занимающиеся компьютерным зрением и другими технологиями ИИ, так прокомментировал случай Лемуана:

За последние 2 миллиона лет человеческий род претерпел «интеллектуальный взрыв», отмеченный быстро растущим черепом и всё более изощрённым использованием инструментов, развитием языка и культуры. Согласно гипотезе социального мозга, выдвинутой антропологом Робином Данбаром в конце 1980-х годов (одна из многих теорий о биологическом происхождении интеллекта), этот взрыв произошёл вовсе не из-за необходимости наличия столь развитого интеллекта для выживания во враждебной среде. В конце концов, многие другие животные успешно выживают и с маленьким мозгом. Скорее, интеллектуальный взрыв произошёл из-за конкуренции в задаче моделирования самых сложных объектов в известной нам вселенной: других людей.

Способность людей «проникнуть» в чужую голову и понять, что воспринимают, думают и чувствуют другие, является одним из величайших достижений нашего вида. Это позволяет нам сопереживать другим, предсказывать их поведение и влиять на их действия без угрозы применения силы. Применение той же самой способности моделирования к себе открывает путь самоанализу, рационализации наших действий и планированию будущего.

Эта способность создавать стабильную психологическую модель себя также широко понимается как ядро феномена, который мы называем «сознанием». С этой точки зрения, сознание — это не таинственный призрак в машине, а просто слово, которое мы используем, чтобы описать, каково же это — моделировать себя и других.

Когда мы моделируем других, которые, в свою очередь, моделируют нас, мы должны проводить процедуру более высокого порядка: что, по их мнению, мы думаем? Что, по их мнению, наш общий друг думает обо мне? Люди с немного бо́льшим мозгом имеют репродуктивное преимущество перед своими сверстниками, а более сложный ум сложнее моделировать. Можно видеть, что это может вести к экспоненциальному росту мозга[2428].

Если отталкиваться от взглядов Данбара и эволюционных психологов в целом, то можно прийти к выводу, что необходимым условием для возникновения сознания у искусственных нейронных сетей является выучивание ими достаточно сложной модели «себя как другого», что возможно в ходе экспериментов в области мультиагентного обучения с подкреплением. Следовательно, у языковых моделей, учащихся предсказывать токены в гигантских текстовых корпусах, вряд ли может возникнуть сознание — ведь здесь отсутствуют и другие интеллектуальные агенты и активное взаимодействие со средой. Однако поскольку тексты, лежащие в основе обучающих выборок

1 ... 258 259 260 261 262 263 264 265 266 ... 482
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?