litbaza книги онлайнРазная литератураИскусственный интеллект – надежды и опасения - Джон Брокман

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 31 32 33 34 35 36 37 38 39 ... 84
Перейти на страницу:
как нам создать ОИИ? Можем ли мы заставить этот интеллект развиться из «популяции» ИИ (как люди из обезьян) в виртуальной среде? Если бы такой эксперимент удался, он был бы самым аморальным в истории, ибо нам неведомо, как достичь результата, не причиняя колоссальных страданий. Мы также не знаем, как предотвратить развитие статичной культуры.

Элементарные учебники по информатике объясняют, что компьютеры – это АПБ, абсолютно послушные болваны; вдохновляющая аббревиатура, не правда ли? Она отражает суть всех нынешних компьютерных программ: они понятия не имеют, что и как делают и почему. Потому бессмысленно наделять ИИ все новыми и новыми конкретными функциональными возможностями в надежде, что он в конечном итоге выполнит некое «провидческое» обобщение – и превратится из ИИ в ОИИ. Мы стремимся к обратному, наш идеал – НАМА: непослушный автономный мыслящий автомат[109].

Как можно проверить мышление? По тесту Тьюринга? К сожалению, тут необходимо привлекать посредника. Можно вообразить некий масштабный проект в интернете: ИИ оттачивает свои мыслительные способности в беседах с людьми-посредниками и становится ОИИ. Но это предполагает, помимо прочего, что чем дольше посредник сомневается, программа перед ним или человек, тем ближе он к тому, чтобы признать собеседника человеком. Ожидать такого нет оснований.

А как можно проверить непослушание? Вообразим непослушание как обязательный школьный предмет с ежедневными уроками и экзаменом в конце семестра? (Предположительно с дополнительными баллами за то, что не посещал уроки и не пришел на экзамен?) Очевидная глупость.

Значит, несмотря на свою полезность в других приложениях, методика определения цели для проверки и обучения программы ее достижению должна быть отброшена. По правде говоря, я считаю, что любое тестирование при разработке ОИИ может оказаться контрпродуктивным и даже аморальным, как и в образовании людей. Я разделяю гипотезу Тьюринга о том, что мы узнаем ОИИ, когда он предстанет перед нами, но эта способность распознавать успех не поможет созданию успешной программы.

В самом широком смысле стремление человека к пониманию действительно является проблемой поисков в абстрактном пространстве идей, слишком широком, чтобы его можно было изучить исчерпывающим образом. Но у этого поиска нет предопределенной цели. Как сказал Поппер, нет ни критерия истины, ни вероятной истины, особенно в отношении объяснительного знания. Цели суть идеи, подобные любым другим, они создаются в процессе поиска и постоянно модифицируются и уточняются. То есть придумывание способов запретить программе доступ к большинству идей в пространстве не поможет, тут не спасут ни винт инквизиции, ни кол, ни смирительная рубашка. Для ОИИ необходимо открыть все пространство. Мы не в силах знать заранее, какие именно идеи программа никогда не сможет реализовать. Идеи, которые она рассматривает, должны выбираться самой программой с опорой на методы, критерии и цели, которые она также сформулирует самостоятельно. Ее выбор, как и выбор ИИ, будет непросто предсказать без практики (мы нисколько не отходим от обобщения, допуская здесь некий детерминизм; ОИИ, использующий генератор случайных чисел, останется ОИИ, даже если генератор заменить на «псевдослучайный»), но сразу бросается в глаза дополнительная характеристика: невозможно по начальному состоянию машины доказать, что она не способна мыслить вообще, если ее не запустить.

Эволюция наших предков – единственный известный случай зарождения мышления во Вселенной. Как я уже говорил, что-то пошло совсем неправильно, и не случилось немедленного взрыва инноваций: креативность преобразовалась в нечто иное. Но планета не превратилась в гигантскую скрепку для бумаг (воспользуемся фантазией Ника Бострома). Скорее – как и следует ожидать, кстати, если проект ОИИ зайдет так далеко и провалится, – извращенный творческий потенциал не помог справиться с непредвиденными проблемами. Все обернулось застоем и упадком, что трагически задержало превращение чего-либо во что-либо. Но затем случилось Просвещение. Будем надеяться, мы усвоили урок.

Глава 12

Применение моделей человеческого поведения в ИИ

Том Гриффитс

профессор-стипендиат информатики, технологий, сознания и культуры в Принстонском университете, автор (вместе с Брайаном Кристианом) книги «Алгоритмы жизни».

Подход Тома Гриффитса к проблеме «выравнивания ценностей» при разработке ИИ – то есть к изучению того, как именно мы можем удержать новейшие серийные модели ИИ от превращения планеты в одну большую скрепку – основывается на деятельности человека, ученого-когнитивиста, каковым он и является. Том считает, что ключом к машинному обучению выступает обязательное человеческое наставление, которое он исследует в Принстоне с использованием математических и компьютерных инструментов.

Том однажды сказал мне, что «одна из загадок человеческого интеллекта заключается в том, что мы способны так много сделать при столь малом ресурсе». Подобно машинам, люди используют алгоритмы принятия решений и решения задач; принципиальная разница состоит в общем уровне успехов человеческого мозга, несмотря на сравнительную ограниченность его вычислительных ресурсов.

Эффективность человеческих алгоритмов проистекает, если обратиться к жаргону исследователей ИИ, из «ограниченной оптимальности». Как отмечал психолог Дэниел Канеман, люди рациональны лишь до определенной степени. Будь мы совершенно рациональны, то рисковали бы свалиться замертво, прежде чем приняли бы сколь-нибудь важное решение – кого нанимать, на ком жениться и т. д. – в зависимости от количества вариантов, доступных для обработки.

«Учитывая все успехи ИИ в последние несколько лет, мы получили хорошие модели таких объектов, как изображения и тексты, но нам не хватает хороших моделей людей, – говорит Том. – Человеческие существа по-прежнему являются лучшими образчиками мыслящих машин. Определив количество и природу предубеждений, формирующих человеческое познание, мы сможем заложить основы для приближения компьютеров к человеческим возможностям».

Когда просишь вообразить мир, в котором успешно и с пользой для себя люди взаимодействуют с искусственным интеллектом, то, как правило, у каждого формируется немного своя картинка. Наши идиосинкратические представления о будущем могут различаться наличием или отсутствием космических кораблей, летающих машин или человекоподобных роботов. Но одно в них остается неизменным – это присутствие людей. О том же, безусловно, думал и Норберт Винер, когда писал о способности машин улучшить человеческое общество через взаимодействие с людьми и помощь им в налаживании контактов друг с другом. Чтобы добиться этого, недостаточно придумать способ сделать машины умнее. Понадобится также как следует разобраться в работе человеческого разума.

Новейшие достижения в области искусственного интеллекта и машинного обучения привели к появлению систем, которые на равных соперничают с человеком или даже превосходят людей в умении играть в игры, классифицировать изображения и обрабатывать тексты. Но если захочется узнать, почему водитель машины, идущей слева, вас «подрезал», почему люди голосуют вопреки собственным интересам и какой подарок на день рождения действительно обрадует брачного партнера, будет лучше спросить человека, а не машину. Решение таких задач в системе ИИ требует построения моделей человеческого разума, это важно не

1 ... 31 32 33 34 35 36 37 38 39 ... 84
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?