Шрифт:
Интервал:
Закладка:
Уже упомянутый Л.Лессинг еще в 1999 г. утверждал, что со временем «закон как текст» сменится «законом как кодом». При этом он справедливо полагал, что главное преимущество «закона как текста» состоит в его реализуемости через людей, а не через самоисполняемые программы. Самоисполняемая программа, по его мнению, не может предоставить уровня гибкости и нюансов, необходимого для адекватной интерпретации конкретных ситуаций. Поэтому, по мнению Л.Лессинга первоначально «закон как текст» и «закон как код» будет сосуществовать. Причем второй будет понемногу вытеснять первый из тех сфер, где трактовка закона однозначна, а ситуации не имеют нюансов и т. п. Полное же вытеснение «закона как текста» и человека-судьи «законом как кодом» и его программным самоисполнением произойдет только и если ИИ, не будучи так называемым общим или универсальным интеллектом, сможет за счет распознавания фактов учитывать большее число нюансов и более качественно распознавать сложные ситуации, чем судья-человек.
В части мониторинга и оценки регулятивной политики в области ИИ во всех случаях необходимо обеспечить максимально полный сбор данных и их непредвзятый анализ, как основу оценки не только эффективности, но и соответствия работы ИИ законодательно, нормативно и общественно установленным критериям. Безусловно, критерии для мониторинга должны быть разработаны не отдельными странами, а ЕС в целом. Это позволит обеспечить беспрепятственный мониторинг в рамках всего европейского политического и экономического пространства, а также исключит крайне вредную двусмысленность в национальных законодательствах, которую сейчас активно использует киберпреступность.
§ 2. Реформирование правил и ответственности
Одним из ключевых аспектов политико-правовой регламентации ИИ является выбор режима ответственности за ущерб, нанесенный ИИ, как юридическим, так и физическим лицам. В последние два года государства ЕС и Европейская Комиссия приступили к активному обсуждению этой тематики и анализу концептуальных предложений со стороны юридических фирм и разработчиков ИИ. Особенно остро эта проблема стоит в отношении ущерба, нанесенного конечному пользователю – домохозяйствам (в случае В2В ответственность, как правило, регулируется договорным правом и соответственно прямыми договорами между производителями, эксплуатантами и потребителями).
Есть три основных аспекта темы ущерба, нанесенного ИИ, которые должны быть обсуждены, и соответственно найдено политико-правовое решение в самое ближайшее время. Первый связан со сферой ответственности; второй – с типом конкретных инструментов правовой защиты, а, следовательно, и типом ответственности; третий касается проблем распределения ответственности между производителями. Дело в том, что ИИ – это всегда сложное программно-аппаратное устройство, в ходе производства которого сотрудничают производители харда, производители софта, сервисные компании, а также провайдеры интернет-услуг. Кроме того, в настоящее время формируются компании-эксплуатанты, которые сдают рабочее время ИИ конечным потребителям по модели «ИИ как сервис».
В целом, представляется, что решение проблемы связано с созданием взаимосвязанной системы технических регламентов и стандартов, определяющих требования к харду, софту, к сервисному обслуживанию и подключению ИИ к интернету. При наличии таких стандартов и регламентов, отклонения от них и более того, нарушение, которое в итоге повлекло сбой в работе ИИ, нанесший ущерб потребителю, могут быть четко зафиксированы и распределены по конкретным виновникам и масштабам их вины. Более того, как раз в подобного рода случаях в перспективе «закон как текст» может уступить место «закону как коду». Согласно оценке экспертов в области ИИ, достаточно часто могут иметь место случаи, когда четкое распределение ответственности за сбой в системе ИИ, повлекшее за собой ущерб, установить сложно. Например, зафиксированы случаи, когда сама по себе система ИИ работала в нормальном регламенте при соблюдении всех стандартов, однако при взаимодействии с человеком имели место сбои. Проще всего обвинить в ущербе человека. Однако при тщательном изучении инцидентов было установлено, что сбой произошел из-за растерянности человека, вызванной в свою очередь, не вполне дружественным интерфейсом.
Столь же экзотическими на первый взгляд, однако, достаточно массовыми являются случаи, когда сбои в работе ИИ связаны с вычислениями в облаке. Когда к облаку одновременно подключаются несколько мощных ИИ, происходит конфликт взаимодействия между различными вычислительными системами или так называемые флеш-сбои. Здесь на сегодняшний день тоже нет однозначно прописанных требований и критериев, нарушение которых могло бы однозначно трактоваться как вина одного из участников процесса. Третья группа факторов связана со сбоями, которые происходят из-за того, что в рамках одной комплексной системы ИИ используются компоненты и элементы, созданные различными поставщиками.
Отдельную группу составляют факторы, когда при взаимодействии с робототехникой, управляемой ИИ, виноватым оказывается человек. Например, в марте 2018 г. в г. Темпа, штат Аризона автомобиль Volvo, управляемый Uber, не смог распознать женщину, пересекающую улицу, и задавил ее. В результате, государственные органы в течение достаточно длительного времени разбирались, кто несет ответственность за происшествие: производитель датчика распознавания, компания-производитель автомобиля, компания, поставляющая для Volvo видеокамеры или кто-либо еще. В ходе расследования выяснилось, что поодиночке и совместно все эти компоненты системы работали штатно. Одновременно удалось установить, что жертва в момент перехода улицы находилась под воздействием наркотиков и небольшой дозы алкоголя. В результате, с привлечением ведущих специалистов по робототехнике был сделан окончательный вывод. Поскольку действия человека, находящегося в состоянии алкогольного или наркотического опьянения, имеют другую моторику, нежели в нормальном состоянии, программному обеспечению, распознающему пешехода, было трудно идентифицировать объект как субъекта, который на красный свет пересекал при достаточно сильном движении дорогу. Грубо говоря, женщина погибла из-за целого комплекса обстоятельств, когда в буквальном смысле она была единственной, кто нарушил заранее установленные правила.
Сегодня очевидно, что, например, в Соединенных Штатах, Сингапуре, Нидерландах робомобили, в том числе траки и такси, уже в 2020 г. могли бы массово выйти на дороги. Однако видимо этого не произойдет, поскольку окончательно не решены вопросы распределения ответственности при инцидентах с ними. Вопрос распределения ответственности сегодня является главным для формирования юридической нормативной базы использования ИИ.
Фактически судьбы таких прорывных технологий, как ИИ, зависят от дополнения юридической системы, регулирующей отношения физических и юридических лиц специальными случаями, когда между юридическим и физическим лицом находится сложное устройство, имеющее многих производителей.
Робототехника, оснащенная ИИ, это отнюдь не первое сложное техническое устройство, изготавливаемое многими производителями, с которыми взаимодействуют люди. Лучший пример тому – авиатехника. Там тоже постоянно возникают проблемы поиска конкретного виновника нанесения ущерба и соответственно стороны, выплачивающей