Шрифт:
Интервал:
Закладка:
Прославленный специалист по когнитивной науке Стивен Пинкер предлагает более оптимистичный вариант аргумента Аткинсона. С его точки зрения, «культура безопасности в развитых обществах» гарантированно исключит любые серьезные риски, которые несет ИИ, следовательно, неуместно и контрпродуктивно привлекать к ним внимание[220]. Даже если отмахнуться от факта, что наша «продвинутая» культура безопасности привела к Чернобылю, Фукусиме и неуправляемому глобальному потеплению, Пинкер в своей аргументации попадает пальцем в небо. Культура безопасности заключается в людях, указывающих на возможные системные отказы и ищущих пути их предотвращения. (В случае ИИ стандартная модель — обязательно ведет к системному отказу.) Утверждение, будто нелепо привлекать внимание к отказам, поскольку культура безопасности в любом случае их отследит, равнозначно заявлению, что никому из свидетелей наезда на пешехода не следует вызывать скорую помощь, поскольку кто-нибудь так или иначе вызовет скорую помощь все равно.
Пытаясь представить риски публике и политикам, исследователи ИИ находятся в проигрышном положении по сравнению с ядерными физиками. Физикам не нужно писать книги, объясняющие общественности, что, если собрать критическую массу высокообогащенного урана, это может быть рискованно, поскольку последствия уже были продемонстрированы в Хиросиме и Нагасаки. Не потребовалось особых усилий, чтобы убедить власти и фонды в важности соблюдения безопасности при развитии ядерной энергетики.
В «Эдгине» Батлера сосредоточение на «проблеме гориллы» приводит к незрелому и ложному противостоянию сторонников и противников машин. Сторонники считают опасность господства машин минимальной или несуществующей, противники убеждены, что она непреодолима, пока все машины не уничтожены. Спор принимает фракционный характер, и никто не пытается решить фундаментальную проблему сохранения контроля человека над машинами.
В разной степени обсуждение всех важнейших технологических вопросов XX в. — ядерной энергии, генетически модифицированных организмов и ископаемого топлива — страдает фракционизмом. По каждому вопросу имеется две стороны, за и против. Динамика и результаты во всех случаях разные, но симптомы нашизма одинаковы: взаимное недоверие и очернение, иррациональная аргументация и отказ принимать любой (разумный) довод, который может свидетельствовать в пользу другой фракции. На протехнологической стороне наблюдаем отрицание и сокрытие рисков в сочетании с обвинениями в луддизме, на антитехнологической — убежденность, что риски непреодолимы, а проблема неразрешима. На представителя протехнологической фракции, слишком честно высказывающегося о проблеме, смотрят как на предателя, что особенно прискорбно, поскольку эта фракция включает большинство людей, способных решить эту проблему. Член антитехнологической фракции, обсуждающий возможное уменьшение рисков, — тоже «изменник», поскольку зло видится в технологии как таковой, а не в ее возможных эффектах. Таким образом, лишь крайние маргиналы — у которых меньше всего шансов быть услышанными по обе стороны баррикад — могут высказываться от имени каждой фракции.
…выключить эту штуку?
Уловив саму идею экзистенциального риска, будь то в форме «проблемы гориллы» или «проблемы царя Мидаса», большинство людей, я в том числе, сразу же начинают искать простое решение. Часто первое, что приходит в голову, — это выключить машину. Например, сам Алан Тьюринг в приведенной ранее цитате рассуждает, что мы можем «удержать машины в подчиненном положении, например отключив питание в критический момент».
Это не поможет по той простой причине, что сверхинтеллектуальная сущность уже подумала об этой возможности и предприняла шаги по ее предотвращению. Она сделает это не из желания остаться живой, а потому что преследует ту или иную цель, которую мы ей дали, и знает, что не сможет ее достичь, если ее отключат.
Уже придуман ряд систем, которые невозможно отключить, не причинив серьезный ущерб нашей цивилизации. Это системы, реализованные в качестве так называемых смарт-контрактов в блокчейне. Блокчейн — высокораспределенная форма выполнения вычислений и хранения данных на основе шифрования, созданная специально для того, чтобы никакую часть данных нельзя было уничтожить и ни один смарт-контракт невозможно было прервать, фактически не взяв под контроль очень большое число машин и не разрушив цепочку, что, в свою очередь, может уничтожить значительную часть интернета и (или) финансовой системы. Ведутся споры, является ли эта невероятная устойчивость «фичей или багом», но, несомненно, это инструмент, с помощью которого сверхинтеллектуальная ИИ-система могла бы себя защитить.
…посадить ее под замок?
Если невозможно выключить ИИ-систему, нельзя ли окружить машины своего рода брандмауэром, получая от них полезную работу по ответам на вопросы, но не позволяя напрямую влиять на реальный мир? Таков замысел Oracle AI, подробно обсуждаемой в сообществе специалистов по безопасности ИИ[221]. Система Oracle AI может быть условно интеллектуальной, но способна отвечать на любой вопрос только «да» или «нет» (или сообщать соответствующие вероятности). Она может иметь доступ ко всей информации, которой обладает человечество, только с помощью чтения, то есть без непосредственного доступа в интернет. Разумеется, это означает отказ от сверхинтеллектуальных роботов, помощников и многих других типов ИИ-систем, но заслуживающая доверия Oracle AI все равно будет иметь колоссальную экономическую ценность, поскольку мы сможем задавать ей важные для нас вопросы, например имеет ли болезнь Альцгеймера инфекционную природу или следует ли запретить автономное оружие. Таким образом, Oracle AI, бесспорно, представляет собой интересную возможность.
К сожалению, здесь имеются серьезные трудности. Во-первых, система Oracle AI будет, по меньшей мере, столь же упорно (как и мы) постигать физическое устройство и происхождение своего мира — вычислительные ресурсы, их режим работы и тех «таинственных сущностей», которые создали информационное хранилище и теперь задают вопросы. Во-вторых, если задача системы Oracle AI заключается в том, чтобы давать точные ответы на вопросы за разумный промежуток времени, у нее будет стимул вырваться из своей клетки, чтобы получить больше вычислительных возможностей и контролировать спрашивающих, заставив их задавать лишь простые вопросы. Наконец, мы пока не изобрели брандмауэр, надежно защищающий от обычных людей, не говоря о сверхинтеллектуальных машинах.