Шрифт:
Интервал:
Закладка:
М. Ф.: Можно ли решить проблему безработицы введением универсального базового дохода?
Г. М.: Реальной альтернативы универсальному базовому доходу я не вижу. И он неминуемо будет введен. Вопрос в том, удастся ли мирно договориться или начнутся массовые беспорядки.
М. Ф.: В США сейчас наблюдается настоящая эпидемия наркомании, которая вполне может быть связана с потерей работы из-за автоматизации на предприятиях и отчаянием, которое испытывают люди.
Г. М.: Возможно, это правда, но я не вижу однозначной связи между потерей работы и наркоманией. Более того, для многих наркотиком становятся смартфоны. Допускаю, что в итоге мы окажемся в мире, состоящем из виртуальной реальности и пособий.
М. Ф.: Но ИИ несет в себе и другие опасности. Например, Илон Маск активно говорил об экзистенциальных угрозах. Как вы думаете, у нас есть повод для беспокойства?
Г. М.: Беспокоиться следует о том, что люди могут использовать ИИ во зло. Именно в этом заключается реальная проблема, ведь ИИ все сильнее встраивается в нашу жизнь и становится все более уязвимым для хакерских атак. Нет повода переживать из-за того, что системы ИИ захотят съесть нас или превратить весь мир в скрепки. Я не утверждаю, что это невозможно, но реальных доказательств того, что подобное может случиться, нет. Зато очевидно, что машины становятся все более мощными, а мы пока толком не умеем решать вопросы информационной безопасности.
М. Ф.: А что вы думаете о проблеме выравнивания и рекурсивном цикле самосовершенствования?
Г. М.: Не скажу, что вероятность такого сценария равна нулю, но вряд ли подобное произойдет в ближайшее время. Недавно в сеть выложили видео о роботах, открывающих дверные ручки. Там рассказывается, на какой стадии находятся все эти разработки.
Систем ИИ, умеющих надежно ориентироваться в нашем мире, пока не существует. Нет и роботизированных систем, которые умеют себя улучшать. Так что проблема выравнивания не актуальна. Разумеется, имеет смысл инвестировать немного денег, чтобы кто-то искал решение на подобный случай. И заниматься насущными проблемами, такими как генерация и целенаправленная реклама недостоверной информации.
М. Ф.: Нужно ли следить за тем, чтобы цели интеллектуальной системы совпадали с нашими?
Г. М.: Разумеется, нужно. Но даже когда сильный ИИ будет создан, кто сказал, что у него будет желание вмешиваться в человеческие дела? Около 60 лет назад ИИ не мог выиграть партию в шашки, а в прошлом году решил куда более сложную задачу – выиграл в го. Можно сказать, что за 60 лет отвечающий за игры IQ вырос с 0 до 60. Если попытаться таким же способом оценить, насколько изменилась злобность машин, мы увидим, что никакой корреляции тут нет.
М. Ф.: Получается, что до появления сильного ИИ не может быть и речи о недовольстве машин.
Г. М.: Получается, что так. Отчасти это связано с системами мотивации. Например, у людей существует генетическая предрасположенность к совершению насильственных действий. Я сейчас о том, что мужчины склонны к насилию больше женщин.
М. Ф.: Получается, сильный ИИ должен быть женщиной?
Г. М.: Нужно просто сделать ИИ не склонным к насилию. Необходимы ограничения и правила, уменьшающие вероятность агрессивного поведения ИИ, направленного на человека. Это трудные и важные вопросы, куда менее очевидные, чем высказывания Маска, но они могут заставить многих людей задуматься.
М. Ф.: Но при этом Маск инвестирует в компанию OpenAI, что совсем неплохо. Эту работу все равно должен кто-то делать. Государственные инвестиции в вопросы будущего контроля ИИ было бы сложно понять, но почему бы этим не заниматься частным организациям?
Г. М.: Министерство обороны США действительно тратит деньги на подобные вещи, но должен быть портфель рисков. Меня больше беспокоят определенные виды биологического терроризма и кибернетические войны, чем разговоры о том, что ИИ может взять нас под контроль.
В подобных случаях нужно, во-первых, ответить на вопрос, можно ли говорить о том, что вероятность X больше 0. Ответ: однозначно да. Во-вторых, оценить вероятность рассматриваемого сценария по отношению к другим угрожающим сценариям. Тут я бы сказал, что это маловероятный сценарий.
М. Ф.: Как вы считаете, будет ли сильный ИИ обладать сознанием или станет зомби?
Г. М.: Скорее, второе. Я не считаю сознание обязательным условием. Это эпифеномен живых существ. В конце концов, мы можем столкнуться с чем-то, что ведет себя совсем как мы, но не обладает сознанием. Кроме того, пока нет способов определить наличие сознания. Откуда мне знать, обладаете ли сознанием вы?
М. Ф.: Можно предположить, что обладаю, потому что мы с вами принадлежим к одному виду.
Г. М.: На мой взгляд, это не аргумент. Что если сознание случайным образом распределено среди четверти населения? Что если за его наличие отвечает какой-то ген? Я, конечно, шучу, но факт остается фактом – объективных критериев, позволяющих установить наличие сознания, у нас нет.
М. Ф.: Получается, задача неразрешима.
Г. М.: Со временем кто-то, возможно, придумает решение, но пока по большей части исследуется та часть сознания, которую мы называем осознанностью. В какой момент центральная нервная система логически осознаёт, что определенная информация доступна?
Исследования показали, что если человек наблюдал что-то всего 100 миллисекунд, он не осознает, что видел это. Если наблюдение длилось половину секунды, человек практически уверенно осознает, что именно он видел. Базируясь на этих данных, уже можно создавать схему, указывающую, какие цепочки нейронов предоставляют информацию, доступную для осмысления и интерпретации. Именно это мы можем назвать осознанностью.
М. Ф.: А может получиться так, что сильный ИИ никогда не будет создан?
Г. М.: Нет. Он неизбежно появится, если человечество сохранится как вид. Нет причин не создавать его.
М. Ф.: Что вы думаете о международной гонке вооружений в сфере ИИ?
Г. М.: Китай открыто заявил, что ИИ у них одно из приоритетных направлений. США какое-то время никак на это не отвечали, что меня расстроило.
М. Ф.: Китай обладает многочисленными преимуществами: большей численностью населения и меньшей озабоченностью вопросами конфиденциальности, что позволяет получать больше данных.
Г. М.: Они дальновидны, понимают важность ИИ и инвестируют в него на государственном уровне.
М. Ф.: Должно ли правительство регулировать исследования в сфере ИИ?
Г. М.: Да, этой сфере требуется регулирование, но я не знаю, по какому принципу оно должно осуществляться. Например, мне совсем не нравится идея автономного оружия, но его прямой запрет, скорее всего, окажется наивной мерой, которая приведет к ситуации, когда кто-то обладает таким оружием, а кто-то безоружен.