litbaza книги онлайнДомашняяЧеловек и компьютер. Взгляд в будущее - Гарри Каспаров

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 25 26 27 28 29 30 31 32 33 ... 79
Перейти на страницу:

Леонард Клейнрок оказался нашим соседом в Верхнем Уэст-Сайде на Манхэттене. Он был достаточно любезен, чтобы поделиться со мной своими мыслями о том, почему и как ARPA (он всегда настаивал на этом названии) перестало быть двигателем развития ИИ и других технологических инноваций. Его первый вывод не удивил: рост бюрократии задушил инновации и коммуникации. «Агентство стало слишком большим, — сказал он мне за обедом. — Раньше мы проводили выездные встречи, во время которых физики, компьютерщики, микробиологи и психологи обменивались друг с другом идеями и опытом. Все могли уместиться в одной комнате. Но когда агентство разрослось, это стало невозможным и разные группы стали мало общаться друг с другом».

Из небольшого клуба блестящих (и хорошо финансируемых) ученых, изучающих различные идеи в условиях относительной свободы, DARPA превратилось в громоздкую иерархическую организацию. Вот почему я с 2013 года занимаюсь междисциплинарными исследованиями в Школе Джеймса Мартина при Оксфордском университете, где работаю приглашенным старшим научным сотрудником. Великие новые открытия рождаются благодаря перекрестному опылению.

Клейнрок также отметил, что переход на чисто военную ориентацию означал, что десятки аспирантов, участвовавших в финансируемых DARPA проектах, были отстранены от работы из-за отсутствия допуска к секретной информации. Для Клейнрока было неприемлемым изгнание стольких ярких молодых умов из важных областей исследований, и он перестал брать деньги у DARPA. В 2001 году министерство обороны возглавил Дональд Рамсфельд, выразив намерение перетрясти его сверху донизу. Но планы вернуть агентству его гибкий, амбициозно-экспериментальный характер были сорваны терактами 11 сентября, после которых правительство сосредоточило все внимание и ресурсы на борьбе с террористической угрозой. DARPA обратилось к проектам, посвященным сбору и анализу информации; одним из его детищ стала печально известная программа под оруэлловским названием «Тотальная информационная осведомленность», вызвавшая в 2003 году недовольство общественности.

DARPA не полностью отказалось от ИИ и даже имело в бюджете небольшую «шахматную» статью. Внимательно прочитав научные публикации о машине HiTech, созданной Хансом Берлинером в Университете Карнеги — Меллона, можно увидеть, что в 1980-е этот проект частично финансировался за счет гранта DARPA. Недавно агентство предложило провести ряд конкурсов на лучший беспилотный автомобиль и другие прикладные технологии, связанные с практическим применением ИИ. Используя развитие шахматных машин как модель, DARPA объявило конкурс на лучшую разработку автономной защиты сети. В соответствии с дарвиновской теорией эволюции в компьютерных шахматах фокус на конкуренции, а не на фундаментальных исследованиях препятствовал прогрессу истинного искусственного интеллекта, но способствовал созданию все более эффективных шахматных машин. А военные всегда испытывали острый интерес к алгоритмам анализа разведданных и совершенствованию военных технологий, к чему я вернусь позже.

Грандиозные предсказания исследователей искусственного интеллекта в 1950–1960-е годы перекликались с прогнозами специалистов по компьютерным шахматам тех же лет; на самом деле зачастую это были одни и те же голоса. Но, в отличие от ученых, занимавшихся ИИ, специалисты по компьютерным шахматам вытащили золотой билет — разработали поисковый алгоритм «альфа-бета», который гарантировал стабильное улучшение. Было ли это новшество благословением или проклятием, но оно обусловило ощутимый прогресс. Те же, кто изучал универсальный ИИ, не сумели добиться столь же явного постепенного роста, который гарантировал бы им государственные гранты, инвестиции корпораций и исследовательские программы в университетах. Весна ИИ наступила только тогда, когда это движение, как и движение компьютерных шахмат, отказалось от грандиозной мечты сымитировать человеческий интеллект. Новым направлением развития стало машинное обучение, которое на протяжении многих лет не достигало больших успехов. Но в 1980-е годы появился новый решающий фактор — большие данные.

Дональд Мичи был одним из пионеров машинного обучения, еще в 1960 году применив этот метод к игре в крестики-нолики. Основная концепция заключается в том, что вы не закладываете в машину комплекс правил, которые она должна соблюдать, подобно тому как вы учите грамматические и синтаксические правила при изучении иностранного языка. Вместо того чтобы рассказывать машине о процессе, вы снабжаете ее множеством примеров этого процесса и позволяете самой выяснить правила.

И снова перевод с языка на язык служит хорошей иллюстрацией. Программа Google Translate опирается на машинное обучение и практически не знает правил тех десятков языков, с которыми работает. Компания даже не нанимает людей со знанием соответствующих языков. В систему загружаются миллионы и миллионы примеров правильного перевода, и машина, встречая что-то новое, сама определяет, какой вариант будет верным. В 1960-е годы, когда Мичи и другие пробовали применять этот подход, машины были слишком медленными, а их системы сбора и ввода данных — примитивными. Никто не смел предположить, что решение такой «человеческой» задачи, как язык, может быть делом масштаба и скорости. Создатели систем ИИ столкнулись с той же проблемой, что и первые шахматные программисты, которые, глядя на программы типа А, решили, что машины никогда не станут достаточно быстрыми для того, чтобы выйти на уровень грамотной игры с помощью грубой силы. Как сказал один из разработчиков программы Google Translate: «Когда вы переходите от десяти тысяч обучающих примеров к десяти миллиардам, это начинает работать. Данные решают всё».

В начале 1980-х Мичи со своими коллегами написал основанную на данных экспериментальную шахматную программу машинного обучения и получил весьма занятные результаты. Программисты «скормили» машине сотни тысяч позиций из гроссмейстерских партий в надежде на то, что машина сама разберется, что к чему. Вначале показалось, что это сработало. Ее оценка позиций была более точной, чем у обычных программ. Проблемы начались во время партии. Программа разыграла дебют, начала атаку — и сразу же пожертвовала ферзя! Потеряв ферзя за бесценок, она проиграла партию в несколько ходов. Почему она это сделала? Дело вот в чем: когда ферзя жертвует гроссмейстер, за этим всегда следует блестящий и решительный удар, и машина, учившаяся на гроссмейстерских партиях, решила, что жертва ферзя — ключ к победе!

Этот итог вызвал смех и разочарование, но представьте себе, что может произойти в реальном мире, если машины станут на основании примеров вырабатывать собственные правила. Давайте снова обратимся к научной фантастике, поскольку произведения этого жанра полны точных и дальновидных прогнозов. Опустим роботов-убийц и сверхразумные машины из фильмов «Терминатор» и «Матрица». Эти мрачные сценарии хороши только для фильмов и новостных заголовков, но такое антиутопическое будущее настолько далеко и маловероятно, что разговор о нем лишь отвлекает нас от более насущных и более вероятных проблем. К тому же лично мне надоело сражаться с машинами.

В картине 1984 года «Человек со звезды» рассказывается о наивном инопланетянине, который попадает на Землю (его сыграл Джефф Бриджес). Пришелец пытается вписаться в человеческое общество и учится обычаям землян, наблюдая за их поведением, — такая вот инопланетная версия универсального машинного обучения. Естественно, он делает массу забавных ошибок, но самую серьезную совершает тогда, когда садится за руль автомобиля. Он на скорости проскакивает перекресток, провоцируя аварию, и так объясняет своей подруге Дженни свой поступок:

1 ... 25 26 27 28 29 30 31 32 33 ... 79
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?