Шрифт:
Интервал:
Закладка:
Но Бенжио также предупредил, что сообщество должно задумываться о том, как используются эти технологии. «Честь, которая нам оказана, неотделима от ответственности, – сказал он. – Наши инструменты могут быть использованы как во благо, так и во зло». Двумя месяцами ранее New York Times сообщила, что правительство Китая в сотрудничестве с несколькими компаниями, занимающимися искусственным интеллектом, разработало технологию распознавания лиц, которая может помочь отслеживать и контролировать уйгуров642, преимущественно мусульманское этническое меньшинство. Следующей осенью главный юрисконсульт Google Кент Уокер выступил643 на мероприятии в Вашингтоне, где заявил, что, несмотря на разногласия по поводу проекта Maven, компания готова сотрудничать с Министерством обороны, и многие сразу же насторожились, не связано ли планируемое сотрудничество с перспективами создания автономного оружия. И приближающиеся выборы 2020 года лишь усугубляли чувство тревоги.
Следующим выступил Лекун, руководитель лаборатории искусственного интеллекта в Facebook. «Выступать после Йошуа всегда трудно, – сказал он. – А еще труднее выступать перед Джеффом». Единственный из всех троих одетый в смокинг, он сказал, что многие спрашивают его, как присуждение премии Тьюринга изменило его жизнь. «Я уже привык к тому, что люди всегда указывали мне на мои оплошности, – сказал он. – Теперь же мне нужно быть особенно осторожным в своих поступках, потому что отныне уже никто не осмелится сказать мне, что я не прав». Он сказал, что они с Бенжио являются уникальными лауреатами премии Тьюринга. Они двое единственные, кто родился в 1960-е годы. Они единственные, кто родился во Франции. Они единственные, чьи имена начинаются на Y. И они единственные, чьи братья работают в Google. Он поблагодарил своего отца, который наставил его на правильный путь, благодаря чему он стал инженером, и поблагодарил Джеффа Хинтона за то, что тот всегда был его учителем.
Пока зал аплодировал Лекану, Хинтон отвел, наконец, взгляд от своей карточки и подошел к трибуне. «Я тут провел некоторые вычисления, – сказал он, – и с уверенностью могу утверждать, что я моложе Яна и Йошуа вместе взятых». Он поблагодарил комитет по награждению AВТ и похвалил их «необычайный здравый смысл». Поблагодарил своих аспирантов и постдоков. Поблагодарил своих наставников и коллег. Поблагодарил организации, которые финансировали его исследования. Но больше всего, по его словам, ему хотелось бы поблагодарить свою жену Джеки, которая умерла за несколько месяцев до объявления награды. Двадцать пять лет назад, сказал он, умерла его жена Розалинда, и он думал, что его исследовательской карьере конец. «Несколько лет спустя Джеки оставила свою работу в Лондоне и переехала со мной в Канаду, – сказал он, и его голос сорвался. – Джеки знала, как сильно я хотел получить эту награду, и ей очень хотелось бы быть сегодня здесь».
* * *
В следующем месяце Хинтон по случаю вручения награды читал «тьюринговскую лекцию» в Финиксе644, штат Аризона, в которой говорил о причинах и дальнейших перспективах роста машинного обучения. Попутно он рассказал о различных способах обучения машин645. «Есть две категории алгоритмов обучения646 – вернее, три, но третья работает не очень хорошо, – сказал он. – Третья называется обучение с подкреплением». По аудитории, состоявшей из нескольких сотен разработчиков ИИ, пробежал смех. Хинтон продолжал. «В отношении обучения с подкреплением существует чудесное reductio ad absurdum647, – сказал он собравшимся. – Оно называется DeepMind». Хинтон не верил в обучение с подкреплением, метод, который Демис Хассабис и DeepMind рассматривали как путь к AGI. Для решения практических задач в реальном мире эта технология требовала слишком много исходных данных вычислительной мощности. По тем же причинам – и по многим другим – он и в погоню за AGI не верил.
Он считал, что AGI – слишком масштабная задача, которую невозможно решить в обозримом будущем. «Я бы предпочел сосредоточиться на тех задачах, в отношении которых все-таки можно найти решение», – заявил он весной того года во время визита в штаб-квартиру Google в Северной Калифорнии. Но он также задавался вопросом, зачем вообще этим заниматься. «Если у меня есть робот-хирург, ему нужно очень хорошо разбираться в медицине и в хирургических манипуляциях. Но я не понимаю, зачем моему хирургу-роботу разбираться в бейсболе. Зачем вообще нужны знания общего характера? Я думал, нам нужны машины, которые могут быть в чем-то нам полезны. Если я хочу, чтобы машина должным образом рыла канавы, мне скорее нужен экскаватор, чем робот-андроид. Зачем вам андроид, копающий канавы? Если я хочу, чтобы автомат выдавал деньги, мне нужен банкомат. Я имею в виду, что нам, вероятно, не так уж и нужны андроиды общего назначения». Когда его спросили, не является ли вера в AGI чем-то вроде религии, он возразил: «Это далеко не такая темная вещь, как религия».
В том же году Питер Аббил предложил ему вложиться в Covariant. И когда Хинтон увидел, на что способны роботы Аббила благодаря обучению с подкреплением, он изменил свое мнение о будущем разработок ИИ. Когда разработанные Convariant системы были внедрены на складе в Берлине, он назвал это «моментом AlphaGo» для робототехники. «Я всегда скептически относился к обучению с подкреплением, потому что для этого требовалось огромное количество вычислений. Но теперь у нас этого предостаточно», – говорит он. Тем не менее, в создание AGI он по-прежнему не верит. «Прогресс достигается за счет решения конкретных проблем – когда вы создаете робота, умеющего чинить то, что сломалось, или робота, выполняющего услуги переводчика, – но не за счет тех, кто занимается созданием искусственного интеллекта общего назначения», – говорит он.
В то же время он не видит признаков того, что прогресс в этой области в обозримом будущем прекратится, хотя теперь этим будут заниматься другие. Он надеялся на