Шрифт:
Интервал:
Закладка:
Для исследователей ИИ задача предвидения и смягчения непредвиденных последствий и злонамеренного использования стала одной из центральных проблем нашей области. Для этого требуется очень осторожный подход к проектированию и проектированию систем, а также тщательное рассмотрение способов их возможного сбоя и вреда, который может возникнуть в результате. Уголовное правосудие является областью, в которой необходимо проявлять максимальную осторожность и смирение при использовании статистических инструментов. Мы обеспокоены тем, что сторонники этих инструментов не смогли должным образом удовлетворить минимальные требования для ответственного использования до широкого распространения.
В дальнейшем мы надеемся, что этот отчет вызовет более глубокое обсуждение этих проблем с использованием инструментов оценки рисков и стимулирует сотрудничество между политиками, исследователями и группами гражданского общества для достижения столь необходимых стандартов и реформ в этой области.
Раздел IV
Основные направления правового регулирования ИИ[8]
§ 1. Вводные положения
Исследование «European Tech Insights 2019», проведенное Университетом управления в Мадриде (IE)[9], показало, что более двух третей европейцев всех возрастов считают, что новые технологии, если они не будут должным образом контролироваться, принесут больше вреда, чем пользы для общества в ближайшее десятилетие. Это опасение, в свою очередь, ведет к растущему сопротивлению инновациям и требованию ужесточить регулирование. Подавляющее большинство опрошенных европейцев ожидают, что их правительства введут новые законы и налоги, чтобы ограничить автоматизацию и предотвратить замещение рабочих мест, даже если это повлечет за собой остановку технического прогресса. Эти результаты согласуются по странам, возрастным группам, полам и идеологиям.
Исследование проводилось в 8 европейских странах – Франции, Германии, Ирландии, Италии, Испании, Нидерландах и Великобритании.
Большинство опрошенных граждан ЕС выступают за правительства, продвигающие политические меры по ограничению автоматизации бизнеса компаниями. Минимальные интервенционные меры по дополнительному налогообложению предприятий, которые сокращают рабочие места из-за автоматизации (67 %), предоставлению дополнительной поддержки тем, кто пострадал в результате потери рабочих мест (71 %), одобряются значительной частью населения, в то время как более решительные меры государственного вмешательства имеют еще более высокий уровень поддержки: 72 % опрошенных считают, что правительства должны установить ограничения на количество рабочих мест, которые могут быть заменены машинами на предприятиях. 74 % считают, что предприятиям следует разрешить замену только самых опасных или вредных для здоровья рабочих мест.
Подавляющее большинство европейцев ожидают, что правительства введут новые законы и налоги, чтобы ограничить автоматизацию и предотвратить замещение рабочих мест, даже если это приведет к замедлению экономического прогресса. Эти результаты согласуются по странам, возрастным группам, полам и, что особенно удивительно, идеологиям. И все же, подобные меры в настоящее время находятся вне политической дискуссии.
Одновременно расследование выявило парадокс, заключающийся в том, что, хотя общественность опасается технологических достижений, особенно что касается повышения уровня автоматизации, каждый четвертый европеец предпочитает, чтобы искусственный интеллект принимал важные решения по управлению их страной. В таких странах, как Нидерланды, Германия и Великобритания, этот процент еще выше: каждый третий житель выступает за это.
Исследование также показывает, что люди не только обеспокоены предстоящим технологическим преобразованием, но и считают, что учреждения, на которые возложен этот процесс, не справляются со своими обязанностями. Большинство опрошенных (60 %) считают, что система образования не обучает их решать проблемы, возникающие в связи с новыми технологиями.
Экспертная группа ЕС по искусственному интеллекту (ИИ) констатировала в феврале 2019 года принципиальное отличие политики, инвестиций, правового регулирования и практического использования ИИ в ЕС по сравнению с Соединенными Штатами и Китаем.
В отличие от США ЕС в гораздо большей степени привержен тщательному предварительному изучению долговременных политических, социально-психологических и поведенческих аспектов внедрения новых решений в сфере ИИ. ЕС также принципиально отличается подходом от Китая, поскольку ставит на первый план при разработке и внедрении ИИ безусловное соблюдение прав личности, меньшинств и в целом гражданского общества. В этом плане развитие ИИ в странах ЕС – это своеобразный третий путь эволюции ИИ по отношению к США и Китаю[10].
Этот подход в полной мере реализуется при реформировании Директивы об ответственности за качество ИИ и Директивы по развитию машинной инфраструктуры ИИ, а также совершенствовании программной базы. В качестве предварительного заявления Целевая группа CEPS констатирует, что применительно к подавляющему большинству программно-аппаратных решений в сфере ИИ она не видит необходимости внесения принципиально новых изменений в нормативные документы, регулирующие требования к программно-аппаратной базе ИИ. По мнению Группы, подавляющая часть программно-аппаратных решений в сфере ИИ не требует внесения принципиальных изменений в законодательства, нормативные требования и стандарты эксплуатации. Причина в том, что основная часть так называемых программно-аппаратных систем ИИ, используемых как в бизнесе, так и в сфере государственного управления, не представляют собой чего-то принципиально нового и отличного от ранее использованных пакетов статистического анализа больших данных. Лишь незначительная часть программно-аппаратных комплексов, в основном находящаяся сейчас в сфере экспериментальных, исследовательских и опытно-конструкторских разработок, по своим возможностям заметно отличаются от привычной компьютерной техники и программного обеспечения. Соответственно, главным направлением ИИ на сегодняшний день является не прокламируемая социальными медиа революция, а реальная эволюция, постепенное улучшение на основе больших данных, более мощных аппаратных средств и более разнообразных, чем раньше, статистических программ и программ по распознаванию.
Комиссия ЕС еще до принятия соответствующих законодательных решений указала на то, как ИИ может реально изменять поведение граждан, а также, как он может быть использован для социального инжиниринга недобросовестными акторами и организованной преступностью.
При рассмотрении действующего законодательства, и что более важно, при формировании законодательной базы разработки и использования ИИ Европейская Комиссия учитывала следующее:
• необходимость перейти от нарративной, описательной формы подготовительных материалов к данным, отражающим прогнозные перспективы и анализ рисков, связанных с использованием ИИ;
необходимость оставаться открытой для новой формы «инновационных сделок», в рамках которых разработчики ИИ бросают вызов действующему регулированию, демонстрируя, что они могут достичь более значительных преимуществ и создать программноаппаратные средства решения задач, которые не ставились ранее. По сути, инновационная сделка означает, что ЕС должен создать возможность для исследователей в области ИИ работать вне действующего законодательства. Должна быть создана своего рода «законодательная песочница», в которой получившие специальное разрешение компании могут работать вне общеустановленной нормативной базы. Подобный подход к инновационным сделкам позволит европейским исследователям оставаться на самых передовых позициях без ослабления контроля над применением ИИ в бизнесе и федеральных органах; с точки зрения методологии необходимо проанализировать разработку новых критериев для определения тем в сфере ИИ, которые могут финансироваться за счет общеевропейских ресурсов. В настоящее время распределение