litbaza книги онлайнКлассикаСозидатель - Игнат Валунов

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 55 56 57 58 59 60 61 62 63 ... 95
Перейти на страницу:
выстраивать ассоциативные связи между этими блоками, как их выстраивает человек. Человек выстраивает ассоциативные связи между природными явлениями и характером людей – он может, к примеру, назвать бурю свирепой. А компьютерному уму по умолчанию это не нужно, но для имитации работы человеческого мозга мы и этому его научим. В общем, можно сказать, что изобретение уже сделано, но мы пока не можем в полном объеме оснастить его. Все равно как изобрести дрон для исследования подводных глубин, но не суметь снабдить его манипуляторами, при помощи которых он смог бы осуществлять поиски в труднодоступных местах. Приходится пока держать этот дрон про запас: если отправить его в сложную экспедицию сейчас, он будет обречен получить неполноценный результат.

А.: Что ты в итоге видишь конечной целью своей работы? Создание идеального искусственного интеллекта? Обучение его навыкам контроля безопасности целой человеческой цивилизации? Тебе не кажется, что эти задачи не будут решены в наш век?

Э.: Да, в наш век эти задачи точно не будут решены. Но мне интересна работа по усилению роли искусственного интеллекта. Я не скрою, что в этом есть проявление тщеславия: своей работой я зачастую покрываю спектры задач, которые в устаревающей картине мира решаются целыми группами значимых профессионалов, и это дает мне немало очков престижа, это правда. Но что в основном подталкивает меня осуществлять мою работу – это любопытство. Ни один другой род деятельности не позволяет проникать в настолько большое количество сторон человеческой жизни и настолько глубоко: потребность в участии искусственного интеллекта буквально всюду, от детских садов до правительственных учреждений. Пожалуй, я успел досконально изучить особенности труда представителей 30 или 40 самых разнообразных профессий. Да, самой своей деятельностью я способствую тому, что люди лишаются работы, когда их удается полностью заменить компьютерным умом. Что для меня это значит? Не чувствую ли я себя палачом? Нет, отнюдь. Я лишь несу неизбежное. Как изобретатели нового медицинского оборудования несут неизбежное таким образом, что созданные им новшества лишают работы докторов, лечивших болезни, от которых это новое оборудование избавляет.

А.: По-моему, это вас учат преодолевать этическое противоречие. А в начале разговора ты упоминал, что тебе в принципе приходится решать разные этические противоречия. Что стоит за этой формулировкой? Можешь привести какие‑нибудь примеры?

Э.: Вот смотри. Бывают случаи, при которых искусственный интеллект не может претворить в жизнь какое‑либо сгенерированное им решение исключительно техническими средствами. Требуется участие человека, который должен будет действовать согласно предписаниям, поступившим от искусственного интеллекта. Но что, если эти предписания будут на первый взгляд противоречить здравому смыслу и принципам морали? К примеру, случится на крупном предприятии серьезная авария. Искусственный интеллект, имея доступ к показателям работы всего оборудования, сумеет грамотно рассчитать, какие меры и в какой последовательности нужно предпринять, чтобы свести общий ущерб к минимуму. Допустим, без участия искусственного интеллекта человек вообще не смог бы полноценно контролировать происходящее и предприятие разрушилось бы так, что не подлежало бы восстановлению. С немалой долей вероятности во время аварии может возникнуть ситуация, при которой искусственный интеллект предпишет какому‑нибудь сотруднику предприятия совершить явно опасное для жизни действие или дать указание другому сотруднику совершить такое действие. Вот представь: ты начальник участка на предприятии, которое готово вот-вот взлететь на воздух по причине крупной аварии. Искусственный интеллект дает тебе задание отправить кого‑нибудь из своих подчиненных на опасный участок, чтобы посредством некоторых манипуляций с оборудованием снизить угрозу. Допустим, с самого начала ясно, что при грамотных действиях он выполнит свою миссию и останется невредимым, но в случае ошибки, которая в таких экстремальных условиях весьма вероятна, он почти наверняка подвергнет себя смертельному риску. Ты как человек переживающий будешь думать, что он совершит промах, поддавшись панике. И, конечно, тебе станет страшно оказаться причастным к чужой смерти. Из-за чего подумаешь, что, может, это искусственный интеллект дал сбой, что он неправильно оперирует информацией, что его разработчики были фундаментально в чем‑то неправы. С другой стороны, если ты не решишься отправить сотрудника на опасную миссию, целое предприятие может вмиг превратиться в руины. Как ты будешь чувствовать себя в таком случае и как в итоге поступишь?

А.: Вопрос не из простых. Давай считать, что к тому моменту у меня уже будет какой‑то опыт взаимодействия с искусственным интеллектом, и я приму решение исходя из того, завоевал он мое доверие или нет.

Э.: Я тебя понял. Если бы это произошло в конкретный исторический момент, ты не прислушался бы к предписанию искусственного интеллекта. Но ты же понимаешь, что, когда речь зайдет об избавлении от смертельной опасности для огромного числа людей, опираться на такую субъективную вещь, как уровень доверия отдельного человека искусственному интеллекту, будет совсем неправильно. Поэтому еще одно направление деятельности моей и моих коллег – это формирование правовых норм, регулирующих участие искусственного интеллекта в жизни людей. И мы, и сами разработчики искусственного интеллекта не для того посвящаем жизни его развитию, чтобы он однажды сработал впустую только по вине чьего‑то недоверия. Важное, что уже сделано, – это внедрение на законодательном уровне положений об омологации систем искусственного интеллекта. Сейчас активно ведется разработка методик сертификации разных видов систем. После сертификации все решения, принимаемые модулем искусственного интеллекта, который эту сертификацию прошел, будут иметь юридическую силу. То есть неповиновение им будет трактоваться минимум как административное нарушение. Да, еще одна важная работа, которая ведется сейчас и которая в обозримом будущем должна дать результаты: разработка законодательных норм взаимоотношения человека и искусственного интеллекта. И знаешь что? В отношении омологированного искусственного интеллекта будет действовать та же презумпция невиновности, как в отношении человека. То есть если заново обратиться к примеру, который я тебе описывал: ты сможешь избежать наказания за неповиновение искусственному интеллекту, если докажешь: по каким‑то признакам тебе стало очевидно, что он вынес неверное решение. Если тебе это не удастся, даже в том случае, если отдельной экспертизой будет установлено, что искусственный интеллект действительно ошибался, с тебя не будет снята никакая ответственность. Вот представь, что ты встретишь на темной улице человека, о котором будешь знать, что он серийный маньяк, который в этот конкретный момент может угрожать проходящей мимо незнакомке. Может, но, правда, пока не угрожает. Опираясь на репутацию этого человека и его возможные действия, ты вырубаешь его. Потом следствие установит, что он на самом деле преступник, но в контексте ситуации, в которой принимал участие ты – когда он не успел выказать никаких дурных намерений, – именно твои действия расценят как преступные. Я думаю, что в конечном счете

1 ... 55 56 57 58 59 60 61 62 63 ... 95
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?