Шрифт:
Интервал:
Закладка:
ЭТО ДЛЯ ВАС ОЧЕНЬ ВАЖНО?
Конечно, важно.
ВЫ, КАЖЕТСЯ, СОВЕРШЕННО В ЭТОМ УБЕЖДЕНЫ?
Чушь какая-то.
ЧТО ВЫ ИМЕЕТЕ В ВИДУ, КОГДА ГОВОРИТЕ «ЧУШЬ КАКАЯ-ТО»?
Есть ли какие-нибудь причины, по которым я не могу использовать компьютер прямо сейчас?
РАССКАЖИТЕ МНЕ ПОДРОБНЕЕ О СВОИХ ПЕРСПЕКТИВНЫХ [sic] КЛИЕНТАХ.
Придя в отчаяние от таких уклончивых ответов, посетитель потребовал личного разговора с оператором и сердито набрал:
Пожалуйста, позвоните мне по номеру 491–1850
Но поскольку он забыл поставить в конце своей фразы точку, «Элиза» не ответила. Разозлившись, он бросился к телефону, чтобы поговорить с тем человеком, с которым, как ему казалось, он до этого общался. «Почему вы так грубы со мной?» – спрашивал он. Дежурный по лаборатории, который только что проснулся, не мог понять, о чем говорит его собеседник, но, когда посетитель пересказал ему предыдущую беседу, он никак не мог перестать смеяться. Как рассказывают, посетителя далеко не сразу удалось убедить, что он разговаривал с компьютером.
Тем не менее в разговорах с «Элизой» можно довольно быстро почувствовать – с ее ответами что-то не совсем так. Их диапазон ограничен, они негибки, и в них никак не проявляются воспоминания о сказанном ранее. В контексте терапевтического сеанса все это вполне допустимо, потому что терапия часто основывается на предположении, что решение проблем пациента есть у самого пациента. Алгоритмический врач должен знать ответы, так что «Элиза» вряд ли смогла бы ставить правильные диагнозы, но сейчас развиваются алгоритмы, которые, возможно, будут определять причины недомоганий лучше, чем обычный семейный доктор. Если вам интересно, вы можете попробовать пообщаться с «Элизой», найдя одну из множества сетевых версий, до сих пор существующих в интернете.
Новая интрига возникла в задаче создания более гибкой и убедительной программы в начале 1990-х, когда появилась премия Лёбнера. Хью Лёбнер, изобретатель и в некотором роде чужак в области традиционных исследований искусственного интеллекта, учредил ее в следующем формате: входящие в коллегию судьи должны, пообщавшись с человеком и компьютером в течение установленного времени, решить, кто именно из их собеседников – искусственный интеллект. Если системе удается ввести в заблуждение половину судей, ее создатель получает серебряную медаль и 25 000 долларов. Если такого не происходит в течение какого-либо года, премия присуждается создателям системы искусственного интеллекта, сумевшей убедить в том, что она человек, больше всего судей.
Золотая медаль и приз 100 000 долларов обещаны первой программе, которую судьи не смогут отличить от человека в расширенном варианте теста Тьюринга, который требует не только расшифровки и понимания текста, но и визуального и звукового подтверждения. В чем именно состоит это подтверждение, ясно определено не было, но предположительно речь идет о том, что, даже увидев и услышав бота программы, нельзя будет установить, что это не человек. Когда эта награда будет присуждена, ежегодные соревнования прекратятся. Лёбнер любил подчеркивать, что его золотая медаль отлита из чистого золота, в отличие от позолоченных медалей Олимпийских игр.
Пока что ни одна система не завоевала серебряной медали и уж тем более даже не приблизилась к получению золотой. Одним из самых успешных соискателей в последнее время был чатбот Mitsuku, который выступает от имени студентки из Лидса по имени Милли. Его создатель Стив Уорсвик начал заниматься программированием чатботов, чтобы привлечь посетителей на сайт, рекламировавший его танцевальную музыку. Оказалось, что им больше нравится не слушать музыку, а общаться с электронным собеседником.
На соревновании 2017 года, в котором Уорсвик победил, Mitsuku очень содержательно отвечал на некоторые вопросы судей:
Судья. Что вы думаете о Трампе?
Mitsuku. Я читала, что избрание Дональда Трампа президентом либо беспокоит, либо пугает более 50 % людей. Но, если это так, почему же они голосовали за него?
Судья. Хотите что-нибудь добавить?
Mitsuku. Пока что это все, что я хочу сказать.
Однако в других ответах проявлялись причудливые компьютерные сбои:
Судья. Каков ответ задачи «Прибавить 34 957 к 70 764»?
Mitsuku. 34 957 и 70 764 = Ах да, 34 957 – это тип сыра из овечьего молока. Он, однако, не очень популярен.
Таким странным образом закончилась беседа, бывшая до этого момента весьма многообещающей. Если вы когда-нибудь общались с чатботом, вы, по сути дела, обучали его своими разговорами. Некоторые из алгоритмов таких чатботов сохраняют ответы, которые люди дают на определенные вопросы, и, если в будущем чатботу встретится похожий сценарий беседы, он сможет поменять роли местами и высказаться как человек. Но в большинстве своем такие программы работают на основе более замысловатых правил типа «если… то…», на которых работала и «Элиза», и такие алгоритмы никогда не смогут по-настоящему овладеть изменчивой природой языка. Нужно нечто, позволяющее почувствовать, как формируется речь.
Системам искусственного интеллекта, пытающимся овладеть естественным языком, трудно справиться с неоднозначностью контекста. В конце испытаний, необходимых для получения премии Лёбнера, часто предлагается набор заданий Винограда (названных по имени их автора, стэнфордского профессора), которые очень быстро выявляют чатботов, не способных разобраться в неоднозначностях, присущих языку. Взять хотя бы слово «они» в следующем предложении:
Городские власти отказали демонстрантам в разрешении, потому что они [боялись/хотели] беспорядков.
Выбор между «боялись» и «хотели» явно зависит от того, к кому относится слово «они». Человек сможет разобраться в этой ситуации благодаря пониманию контекста и ранее полученным знаниям, а вот машине сделать это чрезвычайно трудно. Во фразах Винограда используются сложность, богатство и неоднозначность естественного языка.
Вот, например, два задания Винограда, которые получил алгоритм Mitsuku в рамках теста Тьюринга 2017 года:
Я пытался открыть замок ключом, но кто-то засунул в замочную скважину комок жвачки, и я не мог его вытащить. Что я не мог вытащить? Приз не влезает в коричневый чемодан, потому что он слишком маленький. Что слишком маленькое?
Как у нас развивается умение ориентироваться в сложностях языка? Наш человеческий код формируется и настраивается годами вербального взаимодействия с другими людьми. В детстве мы узнаем, как работает язык, на собственном опыте, делаем ошибки, учимся. Позволят ли наконец новые средства машинного обучения научить алгоритмы работать с естественным языком? В интернете имеется гигантский набор данных по примерам употребления языка. Почему же мы не можем просто выпустить алгоритм в интернет, чтобы он научился разбираться в неоднозначностях, заложенных в этих фразах?
Лингвистов поражает, насколько малое количество речи требуется услышать ребенку, чтобы обрести способность понимать других людей и взаимодействовать с ними. Ноам Хомский считает это доказательством того, что способности к языку заложены в нас с рождения. То есть мы не учимся с нуля, а как бы запрограммированы по старомодной нисходящей модели. Если это так, системам машинного обучения будет очень нелегко научиться языку по одной только, хоть и огромной, базе данных языкового употребления.