Шрифт:
Интервал:
Закладка:
Поиск устойчивого и справедливого баланса – непростая задача. Но альтернатива – отсутствие этических норм использования научных достижений и технологий в информационной среде – будет иметь печальные последствия. С одной стороны, игнорирование этических вопросов может вызвать неприятие обществом, как было, например, с программой использования медицинских данных Национальной службы здравоохранения Англии. С другой стороны, чрезмерные усилия по защите прав личности и этических ценностей в неверном контексте могут привести к применению слишком жестких регулятивных мер. Это в свою очередь может уменьшить шансы на извлечение из цифровых решений пользы для общества и человечества. Поправки к
Общему регламенту Евросоюза по защите данных (GDPR), предложенные Комитетом Европейского парламента по гражданским свободам, правосудию и внутренним делам (LIBE), показывают конкретный пример. Чтобы избежать обеих крайностей, при рассмотрении любого цифрового проекта, имеющего хотя бы отдаленное влияние на жизнь людей и планеты, рекомендуется руководствоваться четырьмя обязательными принципами: технической осуществимостью, экологической устойчивостью, социальной приемлемостью и предпочтительностью для человека. Это позволит минимизировать риски и не упустить открывающиеся возможности.
Как найти подобный баланс? За последние несколько десятилетий мы пришли к пониманию того, что не конкретная технология (компьютеры, планшеты, мобильные телефоны, протоколы Интернета, веб-приложения, онлайн-платформы, облачные вычисления и т. д.) представляет правильное направление наших этических стратегий. Это делают данные, которыми манипулирует любая цифровая технология. Именно поэтому такие понятия, как «этика Интернета», «робоэтика» и «машинная этика», теряют смысл, возвращая нас в те времена, когда казалось, что «компьютерная этика» дает правильное понимание проблемы. Прежде чем беспокоиться о конкретных цифровых технологиях и связанных с ними этических проблемах, таких как конфиденциальность, анонимность, прозрачность, доверие и ответственность, следует изучить жизненный цикл данных, от сбора и сохранения до управления и использования. Для того нам и нужны этические нормы работы с данными, чтобы маневрировать между риском общественного неприятия и слишком строгой регуляцией, чтобы находить решения, позволяющие извлечь максимум этической пользы из данных и алгоритмов на благо общества, всех нас и окружающей среды.
Этика работы с данными – ветвь этики, изучающая и оценивающая моральные проблемы, связанные с данными, алгоритмами и соответствующими практиками. Ее цель – формулировать и поддерживать правильные с моральной точки зрения решения (например, корректное поведение или правильные ценности) посредством разработки трех направлений исследований: этика данных, этика алгоритмов и этика практик.
Этика данных узко определяет взгляды на создание, запись, сопровождение, обработку, распространение, обмен и использование данных. Она занимается моральными проблемами, возникающими при сборе, анализе и применении больших наборов данных. Затрагиваемые вопросы варьируются от применения больших данных в биомедицинских исследованиях и общественных науках для профилирования, рекламы и филантропии до использования открытых данных в правительственных проектах. Одна из наиболее острых проблем – возможность повторной идентификации личности с помощью поиска, сопоставления и слияния данных, а также повторного использования крупных наборов данных. Риску подвергается и так называемая «групповая конфиденциальность», когда идентификация категорий людей, независимо от деидентификации каждого из них, может привести к возникновению серьезных этических проблем, от групповой дискриминации (например, по возрастному, этническому или половому признаку) до насилия, направленного на определенные группы людей.
Ввиду признанной неосведомленности общественности о преимуществах, рисках и сложностях, связанных с технологиями обработки данных, доверие и прозрачность – тоже очень важные вопросы этики данных.
Этика алгоритмов сосредоточена на программах, ИИ, искусственных агентах, машинном обучении и роботах. Она решает вопросы, возникающие в связи с тем, что сложность и автономность алгоритмов в их широком понимании продолжают расти. Алгоритмы создают этические трудности в обращении с искусственным интеллектом и интеллектуальными агентами, такими как сетевые боты. Особенно остро этот вопрос встает в случаях, где применяется машинное обучение. Одна из важнейших проблем – моральная и юридическая ответственность пользователей, проектировщиков и исследователей в отношении непредвиденных и нежелательных последствий и упущенных возможностей. В свете этого неудивительно, что изучение этических проблем, требований к алгоритмам и возможных нежелательных последствий (таких как дискриминация и продвижение антиобщественного контента) привлекает все больше исследователей.
Наконец, этика практик интересуется ответственными инновациями, программированием, хакингом, профессиональными кодексами и деонтологией. Она решает насущные вопросы, связанные с ответственностью и обязательствами людей и организаций, в том числе исследователей, контролирующих процессы, стратегии и политики использования данных. Ее цель – определить этические рамки для формирования профессиональных кодексов, предписывающих ответственное отношение к инновациям, их разработке и использованию, что может способствовать прогрессу в развитии науки о данных и соответствующих технологий и помочь в защите прав отдельных людей и групп. В этом направлении анализа центральное место занимают три вопроса: согласие пользователей, их конфиденциальность и вторичное использование данных.
Все три направления исследований – этика данных, алгоритмов и практик – тесно связаны. Они формируют концептуальные оси координат, определяющие трехмерное пространство, в котором этические проблемы можно идентифицировать и моделировать. Например, анализ аспектов, затрагивающих конфиденциальность данных, поднимает также вопросы согласия пользователей, аудита алгоритмов и профессиональной ответственности. Аналогично этому этический аудит алгоритмов часто включает анализ ответственности их создателей, разработчиков, пользователей и распространителей.
Этика данных должна распространяться на все концептуальное пространство, а значит, на все три направления исследований (ведь большинство проблем относится более чем к одному направлению), хотя приоритеты могут меняться в зависимости от проблемы. По этой причине этика данных должна с самого начала разрабатываться как макроэтика, то есть как общая «геометрия» этического пространства, избегающая узких, специализированных подходов и определяющая последовательные, целостные, инклюзивные и многосторонние стандарты и рамки для решения этических проблем, возникающих в ходе информационной революции.
Десять лет назад сложно было найти компанию, совет директоров которой активно обсуждал бы киберриски, если только эта компания сама не стала жертвой успешной атаки, получившей широкую огласку. В 2008 году исследовательский институт Cylab Университета Карнеги – Меллона провел опрос, показавший, что 77 % членов советов директоров организаций США редко или никогда не получали от старшего менеджмента отчетов о рисках безопасности и конфиденциальности. Что касается ресурсов, ролей или регулятивных мер высшего уровня, необходимых для обеспечения кибербезопасности, более 80 % членов советов директоров редко или никогда их не обсуждали{110}.