Шрифт:
Интервал:
Закладка:
Как показывает история с беспилотным транспортом, важным источником регулирования, затрагивающим технологии ИИ, являются различные отраслевые требования и стандарты. Например, Управление по контролю качества пищевых продуктов и лекарственных средств США (US Food and Drug Administration, US FDA или просто FDA) развивает собственные подходы и нормативную базу регулирования применения технологий ИИ в области здравоохранения[3238], [3239], [3240], предъявляя к разработчикам систем, содержащих ИИ-компоненты, достаточно жёсткие требования. Аналогичным образом поступают и отраслевые регуляторы многих других стран, например Национальная администрация медицинских продуктов (国家药品监督管理局) Китая[3241].
В 2017 г. Международная организация по стандартизации (International Organization for Standardization, ISO) совместно с Международной электротехнической комиссией (International Electrotechnical Commission, IEC) создала комитет ISO/IEC JTC 1/SC 42, предназначенный для разработки международных стандартов в области ИИ[3242]. В 2020 г. комитет выпустил отчёт ISO/IEC TR 24028:2020 «Информационные технологии. Искусственный интеллект. Обзор надёжности в области искусственного интеллекта»[3243], [3244], где анализируется, как оценивать и улучшать надёжность, доступность, точность, безопасность и конфиденциальность систем ИИ. Документ также рассматривает варианты снижения рисков от подводных камней в системах ИИ и описывает, как добиться доверия к системам ИИ через прозрачность, объяснимость, управляемость и так далее.
В 2018 г. Федеральное агентство по техническому регулированию и метрологии (Росстандарт) выступило инициатором создания национальных стандартов в области ИИ. Стандартизации было предложено подвергнуть технологии искусственного интеллекта в различных сферах: в системе общественной безопасности, в медицине, в сельском хозяйстве, на транспорте, в составе «умных домов» и так далее. В 2019 г. по инициативе Российской венчурной компании при поддержке Минпромторга России и Росстандарта был создан Технический комитет №164 «Искусственный интеллект», на сайте которого в 2021 г. были опубликованы первые редакции 36 проектов национальных стандартов в области применения искусственного интеллекта. Как говорится на сайте комитета, ТК 164 является «зеркальным» по отношению к международному подкомитету SC 42 «Artificial Intelligence» объединённого технического комитета ISO/IEC JTC 1 «Information Technologies» и берёт на себя функции постоянно действующего национального органа в ISO.
Принятая в декабре 2020 г. перспективная программа стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021–2024 годы, утверждённая Росстандартом и Минэкономразвития, предусматривает разработку 217 стандартов в области ИИ[3245].
Надо заметить, что в связи с обсуждением будущего технологий ИИ часто возникает тема сбора и обработки персональных данных (и например, Федеральный закон №152-ФЗ «О персональных данных»[3246] тоже косвенно затрагивает тему разработки систем ИИ). Ставший сегодня хрестоматийным скандал вокруг компании Cambridge Analytica[3247] продемонстрировал опасность, которую влечёт за собой сосредоточение больших объёмов информации в руках крупных компаний, и создал прецедент неэтичного и недопустимого использования технологий ИИ. Так что к проблемам, описанным О’Нил, можно смело добавить ещё одну — риски вторжения алгоритмов в частную жизнь людей, что может существенно сместить принятые в обществе границы личной тайны. Анализируя массивный цифровой след, оставляемый человеком, алгоритмы в состоянии эффективно раскрывать те или иные факты личной жизни, которые люди предпочитают держать в секрете. Например, анализируя «лайки» в Facebook, современные модели машинного обучения могут строить весьма точные предположения о вашей сексуальной ориентации[3248]. В 2012 г. газета The New York Times рассказала своим читателям леденящую кровь историю о том, как отец узнал о беременности своей дочери благодаря действию алгоритмов рекламной системы Target:
Разгневанный мужчина ворвался в офис Target под Миннеаполисом и потребовал немедленно поговорить с менеджером: «Моя дочь получила это по почте! — заявил он. — Она ещё только учится в старшей школе, а вы присылаете ей купоны на детскую одежду и детские кроватки? Вы пытаетесь подтолкнуть её к тому, чтобы она забеременела?»
Менеджер понятия не имел, о чём говорит этот человек. Он посмотрел в почтовую программу, где обнаружил письма, отправленные дочери мужчины, содержавшие рекламу одежды для беременных, детской мебели и фотографии улыбающихся младенцев. Менеджер извинился, а через несколько дней позвонил мужчине, чтобы принести дополнительные извинения.
Однако по телефону отец говорил несколько смущённо. «Я поговорил с дочерью, — сказал он. — Оказывается, в моём доме происходили кое-какие вещи, о которых я не был полностью осведомлён. В августе она должна родить. Приношу свои извинения»[3249].
Вне зависимости от того, является ли эта история правдой или выдумкой, проблему раскрытия подробностей частной жизни алгоритмами вряд ли стоит недооценивать. Мир, в котором неопределённый круг людей может быть уведомлён о вашей беременности, болезни, сексуальных предпочтениях, влюблённости и так далее, вряд ли можно признать уютным. И по мере того как алгоритмы становятся всё более совершенными, точность их выводов становится всё больше, а объём информации, необходимый для достижения этих выводов, всё меньше.
Кто знает, возможно в недалёком будущем под влиянием таких проблем, как незаконная обработка персональных данных или проблема цифрового тайного суда, возникнет институт «цифровых адвокатов» или «алгоритмических омбудсменов», призванных защищать интересы людей в мире, в котором математические модели всё больше и больше влияют на нашу жизнь.
Если же говорить об анализе алгоритмических рисков вообще, то нельзя не отметить, что на сегодняшний день корпорации продвинулись в этой области существенно дальше, чем общественность. Начиная с конца XX в. специалисты в области финансов, а затем и другие корпоративные эксперты активно занялись изучением проблемы так называемого модельного риска — риска возникновения убытков в результате использования недостаточно точных моделей для принятия решений. Подготовкой рекомендаций в отношении управления модельными рисками занимаются влиятельные международные организации, например Базельский комитет по банковскому надзору[3250].
Успехи генеративных моделей в наши дни вновь привлекли общественное внимание к проблеме ИИ-рисков и регулирования технологий искусственного интеллекта. Неудивительно, что в сложившихся обстоятельствах законодатели также во многом прислушиваются ко мнению корпоративных экспертов. Вслед за наступлением «момента ChatGPT» появление Сэма Альтмана в Конгрессе было вопросом времени. Впрочем, все мы понимаем, что Альтман нуждается в контактах с законодателями не меньше, а возможно, и больше, чем они желают общения с ним. Поэтому контакты руководителя OpenAI с конгрессменами и другими влиятельными политиками США не ограничились лишь участием в парламентских слушаниях[3251].
В своей речи на Капитолийском холме Альтман выступил в поддержку государственного регулирования сферы ИИ и согласился сотрудничать с правительством в целях управления ИИ-рисками.
На слушаниях к Альтману присоединились Кристина Монтгомери, директор IBM по конфиденциальности и доверию [Chief Privacy & Trust Officer], и вездесущий Гэри Маркус.
В своей речи Альтман отметил, что хотя технологии, разрабатываемые его компанией, и