Шрифт:
Интервал:
Закладка:
Когда мы вытравим созданный телевидением образ искусственного интеллекта из нашего коллективного сознания, то сможем заметить машинную среду, в которой мы уже мыслим совместно. ИИ станет платформой или территорией, где это произойдет, и от того, как мы его запрограммируем, в значительной мере зависит, к чему мы будем стремиться и даже что сочтем возможным.
Хелен Фишер
Специалист по биологической антропологии, Ратгерский университет; автор книги «Формула любви: Ключ к успешным отношениям» (Why Him? Why Her? How to Find and Keep Lasting Love)[87]
Как часто говорится, назвать — значит сделать первый шаг к пониманию. Так что же такое «думать»? На мой взгляд, у мышления есть несколько базовых компонентов. Прежде всего я следую логике нейробиолога Антонио Дамасио, который различает две главные базовые формы сознания: глубинное и расширенное. Многие животные демонстрируют проявления глубинного сознания: они чувствуют, а также сознают, что они чувствуют. Они знают, когда им холодно, когда они проголодались или грустят. Но они живут здесь и сейчас. Расширенное сознание также оперирует прошлым и будущим. У индивида есть четкое представление о «я» и «ты», о «вчера» и «сегодня», о «когда я был ребенком» и «когда я постарею».
Высшие млекопитающие оперируют определенными формами расширенного сознания. У ближайших родственников человека, например, есть четкое представление о собственном «я». Горилла Коко, пользуясь американским языком жестов, говорит: «Я Коко». А у обычных шимпанзе есть четкое представление о ближайшем будущем. Когда группе шимпанзе в Арнемском зоопарке (Нидерланды) показали их новый вольер, они быстро и внимательно его изучили, дюйм за дюймом. Потом они дождались, когда удалится последний смотритель, вбили около высокого забора длинную жердь и по ней выбрались на свободу, помогая при этом менее ловким сородичам. Тем не менее совершенно очевидно: расширенное сознание, которое Дамасио описывает в своей книге «Чувство того, что случится» (The Feeling of What Happens), высшей точки развития достигает у людей. Станут ли машины вспоминать прошлое и разбирать свои переживания, чтобы размышлять о будущем? Возможно.
Но расширенное сознание — это еще не все, из чего состоит человеческое мышление. Антропологи используют термин «символическое мышление» для описания того, как можно сопоставить абстрактное понятие с реальным миром. Классический пример — различие между водой и святой водой. Для шимпанзе вода, находящаяся в мраморной чаше внутри собора, — просто вода; для католика это нечто совсем иное, «святое». Подобным образом черный цвет — черный для любого шимпанзе, а для вас он может ассоциироваться со смертью или с модой. Поймут ли машины когда-нибудь смысл креста, свастики, демократии? Я сомневаюсь.
Но, если поймут, смогут ли они эти вещи обсуждать? Нет лучшего примера символического мышления, чем то, как мы используем писк и свист, лай и вой, чтобы продуцировать человеческий язык. Возьмем слово «dog». Англоговорящие люди произвольно сопоставили слово «dog» с пушистым, пахучим существом, которое виляет хвостом. Еще примечательнее то, что мы разделяем слово «dog» на бессмысленные компоненты-звуки — «d», «o» и «g», а затем рекомбинируем эти звуки (фонемы), чтобы создавать новые слова с новыми произвольными значениями, например «g-o-d». Разделят ли когда-нибудь машины свои щелчки и свист на базовые звуки или фонемы, составят ли из них другие комбинации, чтобы создать новые слова и придать им произвольные значения, будут ли использовать эти слова для описания абстрактных явлений? Я сомневаюсь.
А как насчет эмоций? Эмоции направляют наше мышление. Роботы могут осознать, например, несправедливость, но почувствуют ли они ее? В этом я тоже сомневаюсь.
Я пою хвалу человеческому разуму. Наш мозг содержит свыше 100 миллиардов нейронов, у многих из которых до 10 000 связей со своими соседями. Этот трехфунтовый ком клеток — главное достижение жизни на Земле. Большинство антропологов уверено, что современный человеческий мозг появился около 200 000 лет назад, но все согласны с тем, что около 40 000 лет назад наши прародители создавали произведения искусства и хоронили своих мертвых, демонстрируя тем самым определенные представления о загробной жизни. Сегодня любой здоровый взрослый человек из любого общества может разделить слова на составляющие их звуки, перемешать эти звуки множеством разных способов, чтобы создать новые слова, уловить их произвольное значение и уяснить абстрактные понятия, такие как «дружба», «грех», «чистота» и «мудрость».
Один известный ученый, занимающийся конструированием роботов, недавно сказал за ужином, что у его творения уходит пять часов на то, чтобы сложить полотенце. Я соглашусь с неким Уильямом Келли, который говорил: «Человек — это медленный, небрежный и гениальный мыслитель; машина — быстрый, точный и глупый».
Стюарт Рассел
Профессор информатики, профессор инженерного дела Калифорнийского университета в Беркли; автор, совместно с Питером Норвигом, книги «Искусственный интеллект: Современный подход» (Artificial Intelligence: A Modern Approach)[88]
Искусственный интеллект нужен нам, как и раньше, в первую очередь для того, чтобы строить машины, которые лучше принимают решения. Считается, что сегодня это означает увеличение ожидаемой полезности, насколько возможно. Однако на самом деле смысл состоит немного в другом, а именно: дана функция полезности (или функция вознаграждения, или цель), нужно максимизировать ее ожидаемое значение. Исследователи искусственного интеллекта усердно работают над алгоритмами такой максимизации — над игрой «поиск по дереву», над обучением с подкреплением и т. д. — и над методами (включая восприятие) получения, репрезентации и обработки информации, необходимыми для вычисления ожиданий. Во всех областях был достигнут значительный прогресс, и он, похоже, только ускоряется.
Среди всей этой активности незамеченным остается один важный момент: уметь хорошо принимать решения и принимать хорошие решения — не одно и то же. Неважно, насколько безупречно машина максимизирует ожидания, неважно, насколько точна ее модель мира, — решения, принятые с помощью алгоритма, могут быть несказанно глупы в глазах обычного человека, если функция полезности плохо соотносится с человеческими ценностями. Известный пример со скрепками — хорошая иллюстрация: если единственная цель машины — увеличивать число канцелярских скрепок, она может изобрести потрясающие технологии, чтобы преобразовать всю материю в досягаемой области Вселенной в канцелярские скрепки, но ее решения все равно будут совершенно тупыми.
Искусственный интеллект вслед за исследованием операций, статистикой и даже экономикой рассматривает функцию полезности как нечто, заданное экзогенно. Мы говорим: «Решения отличные, проблема с функцией полезности, но это не вина системы ИИ». Почему это не вина системы ИИ? Если бы я вел себя как машина, вы бы сказали, что это моя вина. Когда мы оцениваем людей, то ожидаем от них и способности осваивать прогностические модели мира, и способности выяснять, что является целесообразным, то есть общей системы человеческих ценностей.