Шрифт:
Интервал:
Закладка:
Одним из источников такого страха является изображение ИИ в кинематографе, где в течение многих лет его изображали как нечто отрицательное или пугающее, вновь и вновь показывая нам ужасных роботов, уничтожающих своих создателей. Другой причиной является то, что технологии искусственного интеллекта, которые мы можем создать сегодня, больше похожи на живых существ, чем когда-либо раньше, то есть они могут видеть, слышать, понимать, рассуждать, а в некоторых случаях ходить, говорить и даже выглядеть как человек. Это может не на шутку раззадорить воображение людей на тему того, что еще могут начать делать эти машины.
Еще одним фактором, который может усиливать страх общества перед искусственным интеллектом, является обсуждение экспертами проблем, являющихся вполне обоснованными причинами для беспокойства. Некоторые из этих известных экспертов, таких как Стивен Хокинг и Илон Маск, публично предупреждали о том, что развитие технологий искусственного интеллекта может стать опасным для людей в случае, если мы не подготовимся к приходу этих технологий в нашу жизнь и не спланируем это событие должным образом. Выражение такого рода опасений может привести к ненамеренному усугублению страхов в обществе относительно искусственного интеллекта.
Сотни экспертов уже работают над проблемой страха в обществе, среди которых и некоторые именитые ученые в области искусственного интеллекта и в некоторых других отраслях. Существуют организации, такие как Future of Life Institute, которые внедряют множество инициатив в данной области. Я абсолютно уверен в том, что все они проделывают огромную работу по избавлению общества от необоснованных страхов.
Рис. 9.3. 7 главных мифов о развитом искусственном интеллекте (согласно данным Future of Life Institute)
Лично для меня самым большим страхом относительно искусственного интеллекта является то, как его могут использовать недобросовестные игроки для достижения своих целей. Одним из самых разрушительных и очевидных способов является использование искусственного интеллекта для создания оружия или для террористических, а также иных целей физического насилия или убийства других людей. Другим опасным примером является возможность применения ИИ для создания огромного количества недостоверных новостей, которые могут подаваться в форме статей или видеороликов и распространять недостоверную информацию. Чтобы защититься от злодеяний, описанных выше, нам необходимо заранее подготовить соответствующие этические нормы и новое законодательство, и с их помощью регулировать данные вопросы.
На рисунке 9.3 отражены типичные страхи относительно развитого искусственного интеллекта. Содержание данного снимка было взято у «Института будущего жизни». Данная информация прекрасно отражает мифы и правду относительно развитого ИИ.
В данной книге мы раскрыли множество различных аспектов нашей повседневной жизни, положительное влияние искусственного интеллекта на которые очевидно. Несмотря на то что остается еще множество проблем и вызовов, с которыми еще предстоит справиться, ведущие эксперты уже сейчас пытаются найти необходимые решения. Так что вместо того чтобы переживать из-за раздутых инфоповодов, подумайте о том, как бы вы применили ИИ в своей жизни как сейчас, так и в ближайшем будущем.
Одним из множества вызовов, с которыми столкнется общество из-за быстрого развития технологий искусственного интеллекта, является обеспечение безопасности личной информации.
Вы можете вспомнить времена до появления социальных сетей и поисковых систем, когда никто не мог найти вас по имени в Интернете и получить информацию о вас? С того времени по настоящий момент наши представления о приватности кардинально изменились. Во многих случаях Google и Facebook знают о нашей повседневной жизни и процессах принятия решений даже больше, чем мы сами, просто имея доступ к огромному количеству и разным типам данных. Это обусловило обеспокоенность многих людей относительно потери приватности в угоду интересам крупных технологических компаний.
В следующие несколько лет ИИ распространится и проникнет во многие сферы нашей жизни. Благодаря искусственному интеллекту, мы ощутим значительные улучшения в сфере здравоохранения, образования, общественной безопасности, а также во множестве других сфер. Это станет возможным благодаря способности инструментов с искусственным интеллектом быстро и эффективно анализировать большие объемы данных.
Однако с наличием такого объема данных возникают различные вопросы, например о том, как мы можем защитить наши данные от использования их ненадлежащим образом или в коммерческих целях. Такие вопросы необходимо решать как на уровне отдельного человека, так и на государственном уровне, где для защиты частной жизни граждан можно, например, изменить законодательство.
Некоторые персональные помощники, такие как Siri от Apple, Alexa от Amazon и Google Assistant, могут быть крайне полезными инструментами, но они имеют доступ к огромному количеству данных о том, куда мы ходим и что мы делаем. Поэтому многие люди уже сейчас отказываются от использования такого рода устройств: они обеспокоены тем, что компании, которые создают такие продукты, могут использовать их персональные данные в рекламных целях, или продавать их, или еще что похуже.
Именно поэтому многие настаивают на том, чтобы у людей всегда был доступ к своим персональным данным, которыми владеют технологические компании. Простым примером этому может послужить сервис «Мои действия» (My Activity) от Google, доступ к которому осуществляется через Google-аккаунт пользователя. В меню сервиса пользователь может посмотреть историю своих поисковых запросов, просмотров или посещений сайтов Google. Вы можете ознакомиться с данным сервисом по ссылке: https://myactivity.google.com/myactivity.
Концепция приватности также различается от страны к стране. Например, политики приватности в США сильно отличаются от европейских, более строгих и идущих в ногу с технологическими трендами.
Одним из примеров такого законодательства в Европейском союзе является Генеральный регламент о защите персональных данных (GDPR), который вступил в силу 25 мая 2018 года. Главной целью данного набора законов является обеспечение большего контроля гражданами ЕС над способами использования их персональных данных.
Вот три интересных пункта из данного законодательства:
1. Право быть забытым: позволяет каждому гражданину ЕС требовать удаления своих данных из записей компании.
2. Информированное согласие: компаниям не разрешается применять длинные или вводящие в заблуждение описания условий. Любой запрос на согласие пользователя должен быть понятен и доступен любому пользователю. Это приводит к огромным трудностям для некоторых сервисов, которые используют инструменты с искусственным интеллектом, такие как Alexa, Google Assistant и Siri.