litbaza книги онлайнДомашняяАрхитекторы интеллекта. Вся правда об искусственном интеллекте от его создателей - Мартин Форд

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 21 22 23 24 25 26 27 28 29 ... 88
Перейти на страницу:

Поездки на такси будут дешевыми, потому что машиной управляет ИИ-система, но повысятся цены на еду в ресторанах, где готовит повар, а обслуживают официанты.

М. Ф.: Но ведь далеко не все люди обладают востребованными навыками или талантами. Что вы думаете об идее универсального базового дохода?

Я. Л.: У меня нет определенного мнения по этому поводу, так как я не экономист, но все экономисты, с которыми я разговаривал, выступали против универсального базового дохода. Все они считали, что правительства должны принять меры для компенсации возрастающего в результате технического прогресса неравенства. Все должно упираться в фискальную политику, то есть налогообложение, перераспределение богатства и доходов.

Неравенство в доходах особенно заметно в США, в меньшей степени – в Западной Европе. Коэффициент Джини – статистический показатель степени расслоения общества – во Франции или Скандинавии составляет около 25 или 30. В США он равен 45, и это уровень стран третьего мира. Экономист из MIT Эрик Бринолфссон вместе со своим коллегой Эндрю Макафи написал пару книг о влиянии технологий на экономику. Они говорят, что средний доход американских домохозяйств не изменился с 1980-х гг., то есть со времен рейганомики и снижения налогов на высокие доходы. А вот производительность росла более или менее непрерывно. В Западной Европе ничего подобного не было. Так что все зависит от налоговой политики. Существуют простые меры, которыми правительства могут компенсировать дестабилизацию, просто в США этого не делается.

М. Ф.: Какие еще опасности может принести ИИ?

Я. Л.: Начну с того, что нет смысла бояться, что мы создадим интеллект человеческого уровня, а он вырвется из-под нашего контроля, и роботы захотят захватить мир. Желание захватить мир связано не с интеллектом, а с тестостероном. В американской политике много примеров, явно показывающих, что стремление к власти не связано с интеллектом.

М. Ф.: Но, например, с точки зрения Ника Бострома проблема в том, что ИИ может начать добиваться своей цели способом, который навредит людям.

Я. Л.: То есть мы достаточно умны, чтобы создавать машины с интеллектом, а потом зачем-то приказываем им создать бесконечное количество скрепок? С моей точки зрения это нереально.

М. Ф.: Я думаю, что Ник специально привел преувеличенно карикатурный пример. Такие сценарии кажутся надуманными, но, когда речь заходит о суперинтеллекте, нельзя исключать, что машина может начать действовать непостижимыми для людей способами.

Я. Л.: Такие сценарии предполагают, что каким-то образом мы заранее проектируем целевую функцию, то есть внутренние мотивы машин, и в случае ошибки они начнут делать сумасшедшие вещи. Люди устроены по-другому. Внутренние целевые функции в нас не встроены. Разумеется, есть инстинкты, заставляющие есть, дышать и размножаться, но многое в нашем поведении и системе ценностей появляется как следствие обучения. То же самое можно сделать с машинами. Сформировать их систему ценностей, научить вести себя в обществе и приносить пользу человечеству. Не проектированием, а обучением, что гораздо проще. Мы же учим этому детей. Что мешает так же поступить с роботами или системами ИИ?

Мне эти вопросы кажутся преждевременными. Грубо говоря, у нас еще не изобретен двигатель внутреннего сгорания, а мы уже беспокоимся, что не сможем изобрести тормоз и ремень безопасности. При этом изобрести двигатель куда сложнее.

М. Ф.: Что вы думаете о сценарии с рекурсивными улучшениями, в результате которых ИИ многократно превзойдет людей?

Я. Л.: Я в него не верю. Очевидно, что непрерывное улучшение неизбежно. Но чем выше будет интеллект машин, тем больше они начнут помогать в проектировании следующего поколения.

Существует дифференциальное уравнение, описывающее развитие технологий, экономику, потребление ресурсов, коммуникации, сложность технологий и т. п. Оно содержит целый ряд замедляющих коэффициентов, которые почему-то игнорируются сторонниками сценария быстрого взлета. Любой физический процесс в какой-то момент должен перейти в стадию насыщения, например по причине истощения ресурсов. Не будет такого, что кто-то раскроет секрет сильного ИИ и мы начнем переходить от машин с интеллектом крысы к машинам с интеллектом орангутана, через неделю они станут умнее нас, а месяц спустя – намного умнее.

Кроме того, превосходство в области интеллекта не означает превосходства во всем. Вирусы при всей своей глупости убивают людей. Если мы сможем создать систему ИИ, то, вероятно, сможем создать и более специализированный ИИ, предназначенный для уничтожения первого. И он будет крайне эффективно справляться с задачей, так как специализированные машины эффективнее универсальных. Я уверен, что в каждую проблему уже встроено решение.

М. Ф.: Тогда о чем имеет смысл беспокоиться в ближайшие десятилетия?

Я. Л.: Прежде всего о проблемах в экономике. Все они решаемы, но нужно преодолеть политические препятствия, особенно в таких странах, как США, где не принимается идея о перераспределении доходов. Еще есть проблема с распространением технологии. Желательно, чтобы она приносила пользу всему миру, а не только развитым странам. Я думаю, что ускорение технического прогресса и появление ИИ заставят правительства больше вкладывать в образование, особенно в непрерывное образование, потому что людям придется искать новые рабочие места. Иначе нас ждет дестабилизация. Предвзятость, которая попадает в машину на уровне данных, в случае обучения с учителем может усугубиться.

М. Ф.: Я надеюсь, что предвзятость в алгоритме исправить проще, чем в человеке.

Я. Л.: Именно поэтому я смотрю на ситуацию с оптимизмом. Бороться с предвзятостью машин действительно проще. У людей необъективность и пристрастность иногда принимают твердую форму.

М. Ф.: Беспокоит ли вас применение ИИ военными, например создание автономного оружия?

Я. Л.: И да, и нет. Разумеется, технологию ИИ можно использовать для создания оружия, но, к примеру, я совершенно не согласен со Стюартом Расселом, который считает, что это непременно будет оружие массового уничтожения. Я думаю, что все будет с точностью до наоборот. ИИ начнут применять для так называемых хирургических действий. Зачем разрушать бомбой целое здание, если можно послать беспилотник, который просто усыпит человека, которого нужно захватить?

М. Ф.: Беспокоит ли вас то, что ИИ может первым создать Китай? В этой стране больше данных при меньших ограничениях на конфиденциальность. Дает ли им это преимущество?

Я. Л.: Не думаю. Современный прогресс в науке обусловлен не широкой доступностью данных. Сколько бы человек ни проживало в Китае, доля тех, кто связан с технологиями и занимается исследованиями, относительно мала.

Разумеется, их количество будет расти. Китай делает успехи в этом направлении. Но мне кажется, что принятые там стиль управления и тип образования могут через некоторое время задушить творческие порывы. Но в Китае есть и хорошие специалисты, которые могут внести вклад в развитие ИИ.

1 ... 21 22 23 24 25 26 27 28 29 ... 88
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?