Шрифт:
Интервал:
Закладка:
М. Ф.: Но даже в описанном вами варианте множество водителей потеряет работу. Можно ли решить эту проблему введением универсального базового дохода?
Д. К.: Пока об этом рано говорить. Если вспомнить историю, то и раньше, во время сельскохозяйственной, а потом и промышленной революции делались прогнозы по поводу массовых увольнений и огромного числа людей, оставшихся без работы. Мир изменился, и люди нашли другую работу.
Нужно думать об отношении к образованию. Инвестиции в переобучение явно недостаточны для того, чтобы люди могли найти себе место в новой реальности. Важно понять, какие навыки нужны людям для успешного продвижения вперед. И только если это не даст возможности сохранить занятость большинства населения, думать о всеобщем базовом доходе.
М. Ф.: С ИИ связывают и другие риски. Их можно разделить на две категории: краткосрочные, такие как проблемы конфиденциальности, безопасности и использования дронов, и долгосрочные, такие как собственные цели сильного ИИ.
Д. К.: Я бы сказала, что все вещи, перечисленные в первой группе, существуют и без привязки к ИИ.
М. Ф.: Но разве риски не растут по мере расширения технологий? Представьте, что грузовики автономно развозят по магазинам продукты и вдруг кто-то взламывает систему и останавливает их движение.
Д. К.: Я согласна, что мы все больше полагаемся на электронные решения, у которых в силу их взаимосвязи возрастает вероятность появления единой точки отказа. Сейчас, чтобы парализовать доставку товаров в магазины, нужно вывести из строя всех водителей.
М. Ф.: Вас беспокоит возможность злонамеренного использования технологии?
Д. К.: Конечно, любая технология может попасть в недобрые руки. Человечество постоянно совершенствует способы убийства себе подобных. Оружие массового поражения появилось довольно давно. Сейчас говорят, например, о биологическом оружии, о возможности создавать новые вирусы, действующие только на представителей определенных групп. И я бы не сказала, что оснащенные ИИ беспилотники-убийцы более опасны, чем люди, которые синтезируют новые штаммы оспы.
М. Ф.: Давайте рассмотрим риски, связанные с сильным ИИ: проблему выравнивания, появление собственной цели и ее реализацию неожиданным для нас или даже вредоносным способом.
Д. К.: Я считаю, что думать обо всех этих вещах несколько преждевременно. Когда в процессе проектирования этой системы мы выясним, из каких ключевых компонентов она состоит, тогда придет время задуматься, как получить самый лучший результат.
М. Ф.: Но этой проблемой уже занимается ряд организаций, например компания OpenAI. С вашей точки зрения, это преждевременные инвестиции?
Д. К.: Компания OpenAI занимается не только этим вопросом. Например, они создают инструменты ИИ с открытым исходным кодом для демократизации доступа к ценной технологии. И мне кажется, что это здорово. На конференции по машинному обучению NIPS 2017 был интересный доклад о том, как машинное обучение усиливает неявные искажения в тренировочных данных до такой степени, что начинают проявляться худшие варианты поведения (например, расизм или сексизм). Вот о чем важно думать уже сейчас, потому что это реальная опасность и нужно искать способ ее устранения.
М. Ф.: Нужны ли сфере ИИ регуляционные меры со стороны правительства?
Д. К.: Скажем так, я думаю, что уровень понимания этой технологии членами правительства в лучшем случае ограничен. Не очень хорошая идея регулировать вещи, в которых не разбираешься.
Кроме того, такая технология, как ИИ, проста в использовании и уже доступна правительствам других стран, которые не обязательно связаны теми же этическими нормами, что и мы. Так что регулирование этой технологии, на мой взгляд, не имеет особого смысла.
М. Ф.: Да, сейчас много говорят о преимуществах Китая, в котором благодаря количеству населения собираются огромные объемы данных, кроме того, там не так сильно беспокоятся о конфиденциальности. Как вы считаете, есть ли у нас риск отстать?
Д. К.: Такой риск присутствует. И если говорить о вмешательстве со стороны правительства, то было бы полезно, если бы на государственном уровне поспособствовали технологическому прогрессу, чтобы поддержать нашу конкурентоспособность. Это инвестиции в науку, образование и конфиденциальность при доступе к данным.
Например, многое можно сделать в сфере здравоохранения. Большинство пациентов с удовольствием предоставит данные для исследований, направленных на борьбу с их заболеваниями. Люди понимают, что даже если они не получат помощи, в будущем это может помочь другим, и хотят в этом участвовать. Но сейчас правовые и технологические препоны, которые нужно преодолеть для распространения медицинских данных, настолько суровы, что зачастую с ними даже не пытаются бороться. Это замедляет поиск способов лечения и другие исследования.
Именно в этой сфере может иметь значение как изменение политики на государственном уровне, так и изменение социальных норм. Например, в одних странах люди подписывают согласие на донорство органов после смерти, а в других – отказ. В обоих случаях есть государственный контроль, но там, где граждане выражают согласие, количество доноров выше. Потому что отказ создает ощущение принуждения. Если использовать подобную систему для обмена данными, новые исследования будут происходить быстрее.
М. Ф.: Вы верите в то, что выгоды от ИИ, машинного обучения и остальных технологий перевешивают сопутствующие риски?
Д. К.: Да. Чтобы уменьшить риски, нужно думать о мерах предосторожности и изменении социальных норм. Если мы откажемся от технологического прогресса, его осуществит кто-то другой, возможно, имеющий не такие мирные намерения. Технологии должны развиваться, а нам нужно думать о механизмах, позволяющих направить их в позитивную сторону.
Дэвид Ферруччи
“В отличие от других, я не считаю, что для достижения сильного ИИ нужно ждать какого-то огромного прорыва. Думаю, мы уже знаем, как действовать, просто нужно доказать эффективность этого пути".
Основатель и генеральный директор компании ELEMENTAL COGNITION LLC, сотрудник компании BRIDGEWATER ASSOCIATES
Дэвид Ферруччи был ведущим специалистом IBM по системе Watson, которая в 2011 г. одержала победу в телевикторине «Своя игра». Окончил Манхэттенский колледж со степенью бакалавра биологии и Политехнический институт Ренсселера со степенью доктора computer science. Специализировался на представлении знаний и аргументации. Имеет более 50 патентов, опубликовал многочисленные статьи на тему ИИ, автоматических рассуждений, НЛП, архитектур интеллектуальных систем, автоматического создания историй и автоматического ответа на вопросы.