Шрифт:
Интервал:
Закладка:
• нанести маркировку CE и подписать декларацию соответствия;
• осуществлять мониторинг работы системы после вывода её на рынок;
• сотрудничать с органами надзора за рынком.
Каждое из подобных требований весьма подробно детализировано в законопроекте. Например, в нём для системы менеджмента качества приведён минимальный перечень из 13 аспектов, которые должны найти отражение в письменных правилах, процедурах и инструкциях.
Контроль соблюдения закона возлагается на национальные органы по надзору за рынком. Если орган надзора обнаруживает, что система ИИ не соответствует требованиям, изложенным в законе, он должен без промедления потребовать от оператора системы предпринять корректирующие действия и привести систему в соответствие либо вывести систему ИИ из эксплуатации в течение разумного периода, соразмерного характеру риска.
Значительная часть поправок, принятых в 2023 г., относится к вопросам регулирования разработки фундаментальных моделей. В соответствии с последней версией закона разработчики фундаментальных моделей обязаны среди прочего:
• продемонстрировать посредством соответствующего проектирования, тестирования и анализа выявление, снижение и смягчение разумно прогнозируемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона; причём это должно осуществляться как до, так и на протяжении всего процесса разработки, для чего предлагается, например, привлекать независимых экспертов, а также тщательно документировать все неустранённые риски;
• обрабатывать и включать в обучающую выборку только те датасеты, в отношении которых можно применять подходящие для фундаментальных моделей методы управления данными, в частности меры по проверке пригодности источников, наличия смещений, а также меры по смягчению негативных последствий выявленных проблем;
• обеспечить достижение на протяжении всего жизненного цикла модели соответствующих уровней производительности, предсказуемости, интерпретируемости, корректируемости, безопасности и кибербезопасности, оцениваемых с помощью соответствующих методов, таких как оценка модели с привлечением независимых экспертов, документированный анализ и обширное тестирование в ходе концептуализации, проектирования и разработки;
• при проектировании и разработке модели использовать подходящие стандарты для снижения энергопотребления, использования ресурсов и производства отходов, а также для повышения энергоэффективности и общей эффективности системы; для всех создаваемых фундаментальных моделей должна существовать возможность измерения и регистрации потребления энергии и ресурсов, а также, если это технически возможно, другого воздействия на окружающую среду, которое может быть оказано в процессе развёртывания и эксплуатации системы на протяжении всего её жизненного цикла;
• составить обширную техническую документацию и понятные инструкции по использованию;
• создать систему управления качеством для обеспечения и документирования соблюдения закона;
• зарегистрировать модель в базе данных Евросоюза;
• в течение 10 лет после публикации или ввода в эксплуатацию модели хранить техническую документацию по ней и предоставлять её по требованию в распоряжение национальных компетентных органов и так далее.
Если же фундаментальная модель предназначена для задач генерации контента, то её создатели должны, вдобавок ко всему вышеперечисленному, проектировать, обучать (и если планируется — развивать) модель таким образом, чтобы обеспечить «адекватные гарантии против создания контента, нарушающего законодательство Евросоюза», а также публиковать подробный отчёт о наличии в обучающих данных контента, защищённого законом об авторском праве.
Помимо этого, в июне 2023 г. Еврокомиссия предложила не только ввести маркировку любого контента, произведённого системами ИИ, но и создать технологии распознавания такого контента[3228].
К другим интересным документам, разработанным в Евросоюзе, относится ряд документов Совета Европы: «Технико-экономическое обоснование правовой базы проектирования, разработки и применения ИИ на основе стандартов Совета Европы»[3229] (2020), «Возможные элементы правовой базы по ИИ, основанные на стандартах Совета Европы в области прав человека, демократии и верховенства закона»[3230] (2021), «„Нулевой проект“ конвенции об ИИ, правах человека, демократии и верховенстве закона»[3231] (январь 2023) и др.
Сложно представить себе, что современные технологии ИИ смогут успешно развиваться при наличии столь тяжеловесного регуляторного обременения. Впрочем, кто знает, в какой редакции будет окончательно принят европейский Закон об искусственном интеллекте и на что будет похожа на деле практика его применения.
Коротко рассмотрим состояние дел с регулированием ИИ в других странах.
Канада, по аналогии с Евросоюзом, стала на путь ограничительного регулирования. Проект универсального «Закона об ИИ и данных» устанавливает ряд обязательств и запретов, относящихся к проектированию, разработке и использованию систем ИИ. Более значимые обязательства могут быть возложены на разработчиков высокоэффективных систем ИИ, оказывающих значительное влияние на общество. По состоянию на май 2023 г. проект прошёл второе чтение, однако, по последним сообщениям в СМИ, власти Канады заняли выжидательную позицию до принятия европейского закона[3232].
Власти Индии отказались от регулирования этой отрасли путём принятия единого закона. Индия не будет регулировать ИИ, поскольку ИИ является «движущим фактором» цифровой экономики и играет важную стратегическую роль для продвижения страны вперёд. При этом «Национальная стратегия ИИ» (2018) признаёт наличие этических проблем в этой области. Так же как и во многих других странах, на разработку систем ИИ в Индии влияет законодательство о защите персональных данных. Находящийся на стадии обсуждения законопроект о регулировании этой сферы, возможно, введёт определённые ограничения при сборе данных для обучения. Также рассматривается вопрос об определении и регулировании высокорисковых систем ИИ[3233].
Израиль, так же как и Индия, отказался от принятия единого закона об ИИ, сделав ставку преимущественно на стимулирующее регулирование. Впрочем, с 2021 г. Министерство юстиции ведёт сбор предложений и комментариев в отношении создания нормативных ограничений и возможного регулирования в области ИИ. Однако существующий проект политики регулирования и этики в сфере ИИ, выпущенный Органом по инновациям в 2022 г., исключает возможность регулирования с помощью отдельного закона и призывает содействовать регулированию в конкретных случаях на основе управления рисками, а также предпочтительно использовать мягкие инструменты регулирования[3234], [3235].
В Южной Корее в настоящее время обсуждается проект закона «О продвижении индустрии ИИ и основных подходах для создания ИИ, заслуживающего доверия». Основные его положения в текущей редакции: поддержка индустрии ИИ, защита пользователей услуг на основе ИИ путём обеспечения надёжности ИИ-систем, повышенные требования к высокорисковым системам ИИ, создание системы сертификации ИИ, которому можно будет доверять[3236].
В России наиболее заметным событием в области регулирования ИИ является Указ Президента РФ от 10 октября 2019 г. №490 «О развитии искусственного интеллекта в Российской Федерации»[3237], утвердивший «Национальную стратегию развития искусственного интеллекта на период до 2030 года» «в целях обеспечения ускоренного развития искусственного интеллекта <…> проведения научных исследований в области искусственного интеллекта, повышения доступности информации и вычислительных ресурсов для пользователей, совершенствования системы подготовки кадров в этой области». Сама «Национальная стратегия» — небольшой документ, содержащий всего 23 страницы. Он определяет цели, основные задачи и принципы развития ИИ в РФ, приоритетные направления развития и