Шрифт:
Интервал:
Закладка:
Третья проблема — защищенность. Несмотря на долгие годы напряженной работы, компьютерная безопасность далека от идеальной. Опытный хакер может взломать даже самые надежные системы. Вполне возможно, к 2050 году надежное, должным образом реализованное шифрование станет обычным делом, пароли уйдут в прошлое и для того, чтобы взломать защиту, потребуется мощь целого государства. За заметным исключением Yahoo, крупнейшие технологические компании продемонстрировали желание заняться решением этой задачи: примечательно, что Facebook, Google, Amazon и Apple удивительно мало страдают от хакерских атак.
Последняя проблема, пожалуй, наименее тревожная. Пессимисты предсказывают, что виртуальная реальность сделает мир местом, где каждый живет в абсолютном одиночестве, где люди погружаются в свои личные виртуальные миры, полностью оторвавшись от окружающей их реальности. «Виртуальная реальность погубит мозги наших детей», — говорят они. Но эти страхи не новы: стоит вспомнить социальные сети, видеоигры, телевидение и рок-музыку XX века, появление печатного станка в XVI веке и даже просто записывание речи учителя во времена Сократа (по крайней мере, если верить Платону).
Люди пожилого возраста жалуются, что дети сегодня все свое время проводят, уставившись в экраны смартфонов. Но ведь юное поколение использует свои устройства для взаимодействия с окружающим миром — фотографирует своих друзей, описывает в WhatsApp то, что видит, наблюдая за жизнью во всем ее разнообразии, а не бродит по выдуманным мирам. И пускай технологии меняются — люди остаются все теми же. А это означает, что мы всегда будем хотеть взаимодействовать с реальным миром.
Примечание
В дополнение к упомянутым в тексте я хотел бы поблагодарить следующих людей за понимание и за то, что они согласились щедро потратить на меня свое время: Джастина Хендрикса, Джанет Мюррей, Аластера Рейнольдса, Марка Скварека и Сашку Анселд.
Лучано Флориди
Угроза захвата машинами власти над над человечеством — не более чем плод воображения. Но риск, связанный с неправильным использованием машин, реален.
Предположим, вы входите в темную комнату в неизвестном вам здании. Вы можете запаниковать, боясь чудовищ, которым могут скрываться в темноте. Но можете и просто включить свет, чтобы не натыкаться на мебель. Темная комната — это будущее искусственного интеллекта (ИИ). К сожалению, есть люди, считающие, что, входя в эту комнату, мы можем столкнуться со злыми сверхразумными машинами. Страх перед монстрами вроде Голема или Франкенштейна столь же древен, как и сама человеческая память. Компьютерная версия такого страха восходит к 1960-м годам, когда британский математик Ирвинг Джон Гуд, работавший шифровальщиком в Блетчли-парке вместе с Тьюрингом, сделал следующее наблюдение:
— Определим сверхразумную машину как такую, которая может значительно превзойти результаты интеллектуальной деятельности любого человека, как бы умен он ни был. Поскольку проектирование машин является одним из таких интеллектуальных видов деятельности, сверхразумная машина могла бы проектировать еще лучшие машины, тогда, несомненно, произошел бы «взрыв интеллекта», и человек остался бы далеко позади. Таким образом, первая сверхразумная машина является последним изобретением, которое сделает человек при условии, что машина достаточно послушна, чтобы сказать нам, как держать ее под контролем. Любопытно, что этот момент редко обсуждается вне научной фантастики. Иногда к этому виду литературы стоит относиться более серьезно.
Как только сверхразумные машины станут реальностью, они могут выйти из повиновения, поработить нас, начать игнорировать наши права и преследовать свои собственные цели, независимо от последствий для нашей жизни и благополучия. Если это звучит слишком невероятно, чтобы восприниматься всерьез, то быстрое и удивительное развитие цифровых технологий за последние полвека заставило многих людей поверить: божественный «взрыв интеллекта», иногда называемый сингулярностью, очень рискованная штука, если мы не будем достаточно осторожными, конец нашего биологического вида может оказаться достаточно близок.
Например, Стивен Хокинг заявил: «Я думаю, что развитие полноценного искусственного интеллекта может означать конец человеческой расы». Но это так же верно, как и условно: если бы появились четыре всадника Апокалипсиса, проблемы стали бы еще более серьезными. Дело в предпосылках. Основатель Microsoft Билл Гейтс тоже озабочен:
— Я отношусь к тем людям, которых тревожит суперинтеллект. Сначала машины займут много рабочих мест, и не будут слишком умными. Это позитивное изменение, если мы подойдем к вопросу правильно. Несколько десятилетий спустя их разумность значительно повысится — настолько, что это уже может стать проблемой. В этом я согласен с Илоном Маском и другими и не понимаю, почему некоторых людей это не тревожит.
А вот что по этому поводу сказал генеральный директор американской автомобильной компании Tesla Илон Маск:
— Думаю, мы должны быть очень осторожны с искусственным интеллектом. Если бы пришлось делать прогноз относительно наиболее серьезной угрозы нашему существованию как вида, я, вероятно, назвал бы именно ИИ. Ученые все чаще считают, что на национальном и международном уровнях должен существовать какой-то надзор, чтобы мы не сделали чего-то очень глупого. Создавая искусственный интеллект, мы призываем демона. Во всех историях, где есть парень с пентаграммой и святой водой, он уверен, что сможет контролировать его. Но обычно у него ничего не получается.
Но все же, если вы считаете, что прогнозы экспертов являются надежным руководством к дальнейшим действиям, подумайте еще раз. Существуют много поразительно неверных технологических прогнозов великих экспертов. Например, в 2004 году Гейтс предсказал: «Через два года проблема спама будет решена». Маск также высказывал предположение: «Шанс, что мы не живем в компьютерном симуляторе — один на миллиард». То есть вы не реальны, вы читаете все это в Матрице. Буквально.
Реальность более банальна. Нынешние и предполагаемые умные технологии обладают интеллектом счетной доски, абака, то есть нулевым. Беда всегда является продуктом человеческой глупости или злой воли. 24 марта 2016 года Microsoft представила в Twitter Тая — говорящего робота с искусственным интеллектом. Всего через 16 часов компании пришлось удалить его. В процессе общения с людьми Тай должен был становиться все умнее и умнее. Вместо этого он быстро превратился в злого болтуна, обожающего Гитлера, отрицающего холокост, пропагандирующего инцест и провозглашающего, что «теракт 11 сентября 2001 года организовал Буш». Причина? Он функционировал как обычное кухонное полотенце, впитывающее любые отправленные ему злобные и неприятные сообщения. Microsoft пришлось извиняться.
Таково состояние искусственного интеллекта сегодня и в обозримом будущем. Компьютерам по-прежнему не удается найти стоящие рядом с ними принтеры. Тем не менее тот факт, что совершенный искусственный интеллект пока остается лишь объектом из научной фантастики, не является поводом для самоуспокоенности. Напротив, после стольких сбивающих с толку безответственных домыслов о разнообразных и самых причудливых рисках, связанных со сверхразумными машинами, пришло время включить свет, перестать тревожиться по поводу научно-фантастических сценариев и сосредоточиться на реальных и серьезных задачах, чтобы избежать болезненных и дорогостоящих ошибок при разработке и использовании «умных» технологий.