litbaza книги онлайнНаучная фантастикаПроект "Кракен" - Дуглас Престон

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 23 24 25 26 27 28 29 30 31 ... 87
Перейти на страницу:

Программистка смерила его взглядом и усмехнулась:

– Такой большой и сильный мужчина – и боится крови?

– Ешьте кролика сами. Я удовлетворюсь своей лапшой и вяленой говядиной.

– Никогда не видела, чтобы кто-то приносил в горы столько нездоровой пищи. – Мелисса указала на его запасы раздавленных картофельных чипсов, супов быстрого приготовления и пакетиков с вяленой говядиной.

– Люблю нездоровую пищу, – пожал плечами ее собеседник.

– А меня от нее тошнит. Давайте займитесь кроликом. Я скажу, что нужно делать.

Короткая охотничья экспедиция, похоже, вернула Шепард – хотя бы отчасти – в ее обычное состояние. Раздражительное и язвительное. С усиливающимся отвращением, отбившим всякий аппетит, Форд под руководством девушки выпотрошил кролика и снял с него шкуру. Хуже всего было именно сдирать шкуру, издававшую влажный, хлюпающий звук. Мяса в костлявом кролике оказалось немного – оно не стоило таких усилий. Тем не менее Мелисса разрубила тушку на части и бросила их в кипящую на костре воду, а потом добавила туда дикий лук, какие-то неизвестные растения и грибы, которые успела собрать еще до охоты. Вскоре вода закипела, и Форд был вынужден признать, что это лучше лапши и вяленого мяса, – если только они не отравятся.

Шепард все еще отказывалась объяснять свое странное заявление о том, что ей угрожает Дороти. Сыщик подумал, что она сама похожа на дикое животное: пугливое, нервное, в любую секунду готовое сорваться и убежать. Ее сарказм и задиристость – это всего лишь маска.

Но теперь, когда в котелке варился ужин, Форд решил, что настал подходящий момент еще раз поднять эту тему:

– Я тут все гадаю, что вы имели в виду, когда сказали об угрозах от Дороти.

Ответом ему было долгое молчание.

– Я не уверена, что смогу объяснить, – заговорила наконец девушка.

– Попробуйте.

Мелисса ткнула в огонь длинной палкой, и пламя осветило их лица.

– Дороти не была уничтожена взрывом, – призналась Шепард. – Она спаслась. Выгрузилась из «Эксплорера» перед самым взрывом и скопировала себя в компьютерную сеть Годдарда, а оттуда в Интернет.

– Разве программа способна на такое?

– Так работает любой бот или вирус. Программа искусственного интеллекта была разработана так, что могла выполняться на любой платформе.

– Почему Дороти так поступила?

– Только не нужно ее одушевлять. Я не знаю ответа на ваш вопрос. В нее не закладывалась такая мобильность.

– А потом она… в общем, угрожала вам?

– Дороти позвонила мне по «Скайпу», когда я лежала в больнице. Злая. Обезумевшая. В первый момент я подумала, что кто-то из коллег обвиняет меня в аварии. Но это, вне всякого сомнения, была моя программа. Звонивший знал то… что было известно только нам с Дороти, и никому больше.

– У меня с трудом укладывается в голове, что компьютерная программа может разозлиться или хочет кому-то угрожать.

– Программа ничего не «хочет». Это всего лишь набор команд. Я считаю, что взрыв заставил программу перейти в аварийный режим выживания, и она там застряла.

– Похоже на компьютер HAL из фильма «Космическая одиссея-2001».

– Довольно удачное сравнение.

– И где же теперь эта программа?

– Понятия не имею. Притаилась на каком-нибудь Интернет-сервере, планирует мое убийство.

– Вы сбежали из-за ее угроз?

– Это не просто угрозы. Она подожгла мой компьютер.

– Как?

– Думаю, она вывела из строя контроллер заряда литий-ионного аккумулятора, и тот перегрелся, взорвался и вызвал пожар. Вот почему я сожгла свой сотовый телефон и планшетный компьютер – и растоптала ваш телефон. Вот почему я в этих горах. Чтобы программа «Дороти» не добралась до меня.

– Значит, это весь ваш план? Прятаться в горах и надеяться, что все рассосется?

– Я не обязана перед вами отчитываться.

– Почему вы не сообщили об этих угрозах НАСА?

– Думаете, они бы мне поверили? Расскажи я им нечто подобное, они заперли бы меня в психушке!

– Но на вас лежит ответственность.

– Послушайте, я написала программу «Дороти» в соответствии с техническими условиями, которые мне дали. Они получили в точности то, что просили. Моей вины тут нет. Пусть НАСА выслеживает ее и уничтожает. Эта свихнувшаяся программа – их проблема. Я свое дело сделала.

Форд перевел взгляд на костер:

– Я все-таки не очень понимаю, как обычная программа способна принимать такие решения – бегство, преследование, угрозы.

Мелисса ответила не сразу. Чаша неба над их головами сделалась лиловой, и на ней начали по одной проступать звезды. На огне кипел котелок, а ветер уносил в ночь ароматный дым от горящих дров.

– Большинство людей не понимают, что такое искусственный интеллект и как он работает, – наконец сказала девушка. – Вы помните, когда-то была программа по имени «Элиза»?

– Программа психоанализа?

– Да. В шестом классе я раздобыла версию, написанную на языке BASIC. В базе данных «Элизы» хранился набор стереотипных фраз. Когда вы что-то вводили в машину, «Элиза» выуживала из своей базы данных подходящий ответ. По сути, она перефразировала ваше утверждение и возвращала в виде вопроса. Вы говорили, например: «Моя мать меня ненавидит», – и она отвечала: «Почему ваша мать вас ненавидит?» Мы с друзьями переделали программу, превратив «Элизу» в чокнутую суку. Ей говорили: «Отец меня не любит», – а она отвечала: «Отец тебя не любит, потому что ты болван». Потом мы продолжили переписывать программу, заставляя ее еще сильнее сквернословить и оскорблять собеседника. А потом нас застукал учитель. Меня вызвали к директору школы. Старикан, ничего не понимавший в компьютерах. Он запустил «Элизу» и начал вводить вопросы – чтобы посмотреть, что такого мы натворили. Программа принялась его оскорблять, обложила по полной. Он разозлился. И среагировал так, будто «Элиза» была реальным человеком, который говорил ему все это. Директор начал объяснять «Элизе», что она ведет себя возмутительно, оскорбительно и что она должна немедленно прекратить сквернословить. Даже угрожал ее наказать! Вот была потеха – старикан, который не врубается и сердится на тупую компьютерную программу!

– Не уверен, что я понял вашу мысль.

– Дороти подобна «Элизе», только неизмеримо сложнее. Программа не думает и не чувствует, у нее нет эмоций, желаний, потребностей или амбиций. Она просто симулирует человеческие реакции, причем с такой точностью, что вы не отличите ее от человека. Термин «сильный искусственный интеллект» означает именно это: невозможность отличить программу от человека, просто взаимодействуя с ней.

– Но все это по-прежнему не объясняет, почему Дороти преследует именно вас.

1 ... 23 24 25 26 27 28 29 30 31 ... 87
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?