Шрифт:
Интервал:
Закладка:
Соответствовать основным ценностям социализма и не подстрекать к подрыву государственной власти и свержению социалистической системы, не должно ставить под угрозу национальную безопасность и интересы, наносить ущерб национальному имиджу, подстрекать к сепаратизму, подрывать национальное единство и социальную стабильность, не должно способствовать терроризму, экстремизму, продвижению контента, запрещённого законами и административными правилами, в частности разжигающего этническую ненависть и дискриминацию, пропагандирующего насилие, содержащего непристойность, а также вредоносную дезинформацию.
В процессе разработки алгоритмов, отбора обучающих данных, создания и оптимизации моделей, а также предоставления услуг должны быть приняты эффективные меры по предотвращению дискриминации по признаку этнической принадлежности, убеждений, страны, региона, пола, возраста, профессии, здоровья и так далее.
Уважать права интеллектуальной собственности, деловую этику, не нарушать коммерческую тайну и не использовать алгоритмы, данные, платформы и другие преимущества для достижения монополии и осуществления недобросовестной конкуренции.
Уважать законные права и интересы граждан, не подвергать опасности физическое и психическое здоровье людей, а также не посягать на честь и репутацию, не нарушать права на воспроизведение личных изображений, на неприкосновенность частной жизни и личной информации.
Основываясь на особенностях типов услуг, должны предприниматься эффективные меры для повышения прозрачности сервисов генеративного искусственного интеллекта, а также повышения уровня точности и надёжности генерируемой информации.
Однако при всей внушительности списка требований нужно отметить, что меры, предусмотренные этим документом для их обеспечения, являются весьма щадящими. В проекте документа, опубликованном в начале апреля 2023 г., было указано, что в случае выявления несоответствия сервиса указанным критериям у его создателей будет три месяца на устранение выявленного несоответствия, а в случае нерешения проблемы в течение этого срока предполагалось назначение штрафа (от 10 000 до 100 000 юаней, т. е. примерно от 130 000 до 1 300 000 рублей). Однако в финальной версии документа, опубликованной 10 июля и вступившей в силу 15 августа 2023 г., даже эта санкция отсутствует[3223].
В окончательной редакции документ стал ещё более лояльным к разработчикам генеративных сервисов. Среди прочего в нём исчезли требование при оказании услуг следовать «добрым традициям», жёсткое требование «правдивости и точности» генерируемого контента, требование перед запуском сервиса предоставить в Отдел информации национальной сети установленную законом оценку безопасности информационных услуг, а требование «гарантировать подлинность, точность, объективность и разнообразие» обучающих данных было заменено на требование «принимать эффективные меры» в этом направлении. Кроме того, в документе появились призывы поощрять инновационное применение технологий генеративного искусственного интеллекта в различных отраслях и областях, исследовать и оптимизировать сценарии применения, создавать экосистему приложений, поддерживать независимые инновации в области генеративного ИИ, программных и аппаратных платформ, развивать международное сотрудничество, содействовать созданию инфраструктуры генеративного ИИ и так далее и тому подобное. В документе также содержится призыв к создателям сервисов разъяснять и раскрывать способы их полезного применения, направлять пользователей к научному и рациональному пониманию и использованию технологий генеративного ИИ, принимать эффективные меры для предотвращения чрезмерного использования генеративного ИИ несовершеннолетними пользователями.
Также правила содержат требования маркировки генеративного контента и наличия договора с пользователем на оказание соответствующих услуг.
В целом «Временные меры по управлению услугами генеративного искусственного интеллекта» вряд ли могут всерьёз замедлить развитие соответствующих сервисов в Китае, чего не скажешь о готовящемся законодательстве Евросоюза.
Если судить по текстам европейских законопроектов, то кажется, что их авторов заботило главным образом создание труднопроходимых барьеров для зарубежных сервисов.
Центральную роль в планируемой системе регулирования ИИ в Евросоюзе занимает документ под названием «Гармонизированные правила в отношении искусственного интеллекта (Закон об искусственном интеллекте)» [Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)], который был впервые представлен общественности в 2021 г.[3224] Подготовка к созданию документа началась ещё в 2018 г., когда была создана Экспертная группа высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, HLEG), в состав которой вошли 52 известных эксперта.
Это весьма внушительный законопроект, состоящий (в редакции 2022 г.) из 85 статей и занимающий (вместе с предваряющими его общими соображениями по стратегии регулирования, а также предложениями по внесению поправок в некоторые связанные законы) 217 страниц[3225]. В ходе первого чтения в Европарламенте в июне 2023 г. к этому документу была принята 771 поправка (текст поправок занимает в общей сложности ещё 349 страниц)[3226].
Для того чтобы разъяснить логику законопроекта, авторы подготовили презентацию из 21 слайда (не обновлявшуюся, впрочем, с 2021 г.)[3227].
Давайте рассмотрим наиболее важные положения законопроекта, а затем попробуем разобраться в некоторых частностях.
Первым делом «Закон об искусственном интеллекте» требует обязательной сертификации систем ИИ до вывода их на рынок. В ходе сертификации должны быть выявлены риски, связанные с использованием данной системы, а сама система должна быть отнесена к одной из четырёх групп:
1. Системы с неприемлемым уровнем риска — в качестве примеров приводятся: дистанционная биометрия в общественных местах (с исключениями, касающимися защиты от преступлений и борьбы с терроризмом); системы распознавания эмоций в правоохранительных органах, пограничной службе, образовательных учреждениях и на рабочих местах; скоринг, где оценка может привести к проблемам для людей или групп людей в том социальном контексте, где данные изначально не собирались, или может привести к проблемам, несоразмерным совершённым поступкам. Эксплуатация систем такого рода категорически запрещена.
2. Высокорисковые системы («системы искусственного интеллекта, которые представляют значительный риск для здоровья, безопасности или основных прав людей») — например, системы, используемые в медицине или при найме сотрудников. Эксплуатация таких систем возможна, но только в строгом соответствии с установленными требованиями и после прохождения процедуры оценки соответствия системы этим требованиям.
3. Некоторые системы ИИ с особыми требованиями по обеспечению прозрачности (боты) — их эксплуатация разрешена при соблюдении требований по информированию и прозрачности.
4. Системы с минимальным уровнем риска или его отсутствием — их эксплуатация разрешается без ограничений.
В зависимости от группы, к которой будет отнесена та или иная система ИИ, к ней, её создателям и пользователям могут применяться разные требования. Например, разработчики высокорисковой системы должны:
• создать и внедрить систему менеджмента качества в своей организации;
• составить и поддерживать в актуальном состоянии техническую документацию по системе;
• вести журналирование операций [logging], чтобы пользователи могли контролировать работу системы;
• до ввода системы в эксплуатацию пройти оценку соответствия требованиям и, возможно, проходить повторные оценки системы (в случае значительных модификаций);
• зарегистрировать систему ИИ в базе данных Евросоюза;