Шрифт:
Интервал:
Закладка:
Возвращаясь к разговору о матче-реванше, хочу обратить особое внимание на слова Эшли о «человеческом вмешательстве», произнесенные им на пресс-конференции. В течение 20 лет мне приходилось сталкиваться с многочисленными истолкованиями того, что я подразумевал под этой фразой, хотя произнес ее не я и мои подозрения касались более тонких вещей. В ходе матча определенное вмешательство людей в работу Deep Blue разрешалось. В частности, это касалось исправления ошибок в программе, перезапуска системы после сбоев, а также внесения между партиями изменений в дебютную книгу и оценочную функцию. В последующих матчах между людьми и машинами действия такого рода будут ограничены как создающие несправедливое преимущество для компьютера.
Во время матча с Deep Blue произошло как минимум два сбоя, потребовавших ручной перезагрузки. Как сообщает команда Deep Blue, это случилось в 3-й и 4-й партиях. Хотя, с их точки зрения, эти инциденты не имели никакого значения, поскольку не повлияли на следующий ход Deep Blue, во время напряженного эндшпиля в 4-й партии мне пришлось отвлечься от игры и спросить у Сюй Фэнсюна, что происходит. И, как впоследствии сказали мне шахматные программисты, перезагрузка системы имеет серьезные последствия с точки зрения воспроизводимости. Поскольку перезагрузка приводит к потере таблиц памяти, используемых машиной для сохранения позиций, нет никакого способа добиться того, чтобы машина точно воспроизвела предыдущие ходы.
Если отбросить эти разрешенные действия, многие люди истолковывают идею человеческого вмешательства таким образом, что где-то внутри Deep Blue прятался Карпов или другой сильный гроссмейстер — как в шахматном автомате «Турок» Вольфганга фон Кемпелена. Но в нынешние времена благодаря резервным системам и удаленному доступу нет необходимости прятать шахматных гномов в большом черном ящике. Это любопытная мысль, но я имел в виду совсем другое. Просто перезагрузить машину или инициировать какой-либо сбой, дабы вынудить Deep Blue потратить больше времени на обдумывание сложной позиции, могло быть вполне достаточно, чтобы существенно повлиять на результат. Помните тот случай на чемпионате в Гонконге в 1995 году, когда прототип Deep Blue после перезагрузки во время решающей партии с программой Fritz сделал более слабый ход? Не повезло, но после перезапуска он вполне мог сделать и более сильный ход, особенно если был запрограммирован использовать дополнительное время после сбоя.
Выступая 15 сентября 2016 года в Оксфорде на конференции по социальной робототехнике и искусственному интеллекту, я воспользовался случаем познакомиться с Ноэлем Шарки из Университета Шеффилда. Шарки — один из ведущих в мире специалистов в области ИИ и машинного обучения, участвующий в различных проектах, связанных с исследованием этических принципов и социальных последствий роботизации. Но в Великобритании Ноэль больше известен как эксперт и главный судья в популярном телешоу «Битвы роботов». Мы встретились во время короткого перерыва на ланч, после которого должно было состояться его выступление. Я собирался побеседовать с ним о машинном обучении и организованной им дискуссии об этических аспектах роботизации в Организации Объединенных Наций. Но он жаждал поговорить со мной о Deep Blue!
«Эта тема не дает мне покоя много лет, — сказал он мне. — Я был так воодушевлен перспективой того, что искусственный интеллект победит чемпиона мира! Но я хотел, чтобы это было честное состязание. Увы, оно таковым не оказалось. Системные сбои? Подключенные системы? Как все это можно контролировать? Они могли менять между ходами программное обеспечение и даже оборудование. Я не могу утверждать, что IBM смошенничала, но я и не могу сказать, что она этого не делала. Определенно, у них была такая возможность. Если бы я был арбитром, я бы вырвал из их машины все провода, построил вокруг нее клетку Фарадея и сказал: "Окей, теперь играйте". В противном случае я бы немедленно присудил этой чертовой штуке техническое поражение».
Представив себе картину, как Ноэль Шарки вырывает сетевые кабели из Deep Blue, я подумал, что охотно включил бы его в свою команду — против кого бы я ни играл.
Наконец, очень популярный в то время ключевой аргумент, будто IBM никогда бы не совершила неправомерных действий ради победы Deep Blue, сегодня звучит почти нелепо. В 1997 году оставалось еще четыре года до того, как корпоративный мир сотряс скандал вокруг американского энергетического гиганта Enron, оказавшегося империей зла и обмана. Это стало своеобразным «Уотергейтом» для корпоративного мира и предвестником череды разоблачений, связанных с финансовым кризисом 2007–2008 годов. Разумеется, я не ставлю шахматный матч в один ряд с финансовым крахом. Но хочу сказать, что после истории с Enron люди перестали говорить мне, что «крупные американские корпорации наподобие IBM никогда не сделают ничего неэтичного». Многие призадумались, особенно когда узнали, как выросла цена акций IBM после матча.
Благодаря откровенности Мигеля Ильескаса мы знаем, что IBM была готова расширить границы этичного поведения, чтобы любой ценой повысить шансы Deep Blue на победу. В упомянутом интервью журналу New In Chess (2009) Ильескас рассказал любопытные вещи: «Каждое утро мы собирались всей командой — инженеры, специалисты по связям с общественностью, все. Никогда в жизни я не видел такого профессионального подхода. Принимались во внимание все детали. Раскрою вам один секрет. Правда, это больше похоже на анекдот, потому что не имело никакого значения. Однажды я увидел, как Каспаров и Дохоян что-то обсуждают после партии. Я хотел узнать, о чем они говорят, и спросил: можем ли мы сменить охранника на такого, который знает русский язык? Назавтра они поставили нового охранника, и теперь я знал, о чем они говорят после партий».
Возможно, с практической точки зрения это и впрямь «не имело никакого значения», но мы видим, как далеко была готова зайти IBM, чтобы получить любое состязательное преимущество. Если бы во время матча стало известно, что IBM наняла русскоязычных сотрудников безопасности для слежки за мной и моим секундантом в комнате отдыха, вряд ли разразился бы скандал, но могу сказать одно: это было некрасиво.
Сказав все это, я тоже хочу сделать признание. В самом главном, что и стало основной причиной потери мной самообладания, я был неправ и должен принести команде Deep Blue свои извинения. Ходы компьютера во 2-й партии, которые привели к проигрышной для меня позиции и подорвали мой боевой дух, были уникальными для машины только в те годы. Уже через пять лет коммерческие программы, работающие на стандартных серверах Intel, смогли воспроизвести все лучшие ходы Deep Blue и даже улучшить некоторые из его «человеческих» ходов, которые так впечатлили меня и всех остальных во время матча. Сегодня шахматная программа на моем ноутбуке меньше чем за десять секунд отдает небольшое предпочтение «шокирующе человеческому» ходу 37.Се4 во 2-й партии, хотя оценивает его почти так же, как вылазку ферзем — маневр, которого я ожидал, считая его более правильным, чем ход слоном. Если бы я защищался лучше и не сдался бы в порыве эмоций, игру машины во 2-й партии можно было бы рассматривать как очень хорошую, но не более того, независимо от конечного результата.
Это в очередной раз показывает, почему я придаю столь большое значение тому факту, что перед матчем я не видел ни одной партии противника. Если бы я знал, что Deep Blue способен на «некомпьютерный» позиционный подход, как в случае с 37.Сe4 во 2-й партии или удивительным рывком пешки h7–h5 в 5-й партии, я бы реагировал и играл совсем по-другому. Полная таинственность вокруг Deep Blue была самым сильным ходом во всем матче, однако возможность пойти таким образом имелась у IBM, но не у меня.