Шрифт:
Интервал:
Закладка:
Взаимодействие сетевой платформы и государственной политики приведет к непредсказуемым и в некоторых случаях весьма спорным результатам. Скорее всего, это будут не однозначные результаты, а ряд дилемм с довольно незрелыми решениями. Будут ли попытки регулирования сетевых платформ и их ИИ соответствовать политическим или социальным целям различных стран (таким как снижение преступности или борьба с предвзятостью), приведут ли они в конечном итоге к созданию более справедливых обществ? Не появятся ли в результате еще более жесткие, авторитарные правительства, которые поставят себе на службу ИИ с неизвестной логикой, чтобы принимать решения, не подлежащие обжалованию? Будут ли глобальные сетевые платформы, управляемые ИИ, способствовать развитию человеческой культуры и поиску решений, применимых к разным национальным традициям или системам ценностей? Или результаты их работы будут неожиданными, незапланированными и противоречащими тому, к чему стремились их разработчики-люди?
Государственные границы давно уже перестали быть препятствием для новых идей и тенденций, включая созданные со злым умыслом, – но никогда распространение информации не приобретало таких масштабов, как теперь. В основном все согласны с тем, что намеренное распространение дезинформации, способной определять социальные тенденции или политические события, важно предотвращать, но делать это в реальности слишком сложно. В будущем информационными атаками и защитой от них – то есть распространением дезинформации и борьбой с ней – все больше будет заниматься ИИ. Например, генерирующий язык ИИ GPT-3 способен создавать искусственные персоны и вступать в беседы с пользователями, и есть потенциальная возможность того, что эти персоны будут внушать своим собеседникам предрассудки и даже подталкивать их к насилию[38]. Если подобный ИИ будет развернут для масштабного распространения ненависти и раскола, люди могут оказаться не в состоянии противостоять этому. Для решения столь масштабной и сложной задачи правительствам и операторам сетевых платформ придется обратиться, как это уже делается, к алгоритмам ИИ для модерации контента.
Свободные страны используют сетевые платформы с поддержкой ИИ для создания и фильтрации контента через национальные и региональные границы. Если результатом работы этих платформ становится непреднамеренная пропаганда ненависти, такие страны сталкиваются с новой угрозой и должны рассматривать новые подходы к охране информационной среды. Подобные опасения подталкивают нас к созданию и внедрению сложных инструментов, управляемых ИИ, которые будут обнаруживать и удалять источники дезинформации, – по сути, алгоритмических патрульных для удаления вредного контента[39]. Такие решения, основанные на использовании ИИ, будут, в свою очередь, порождать новые проблемы. В любом случае проблема дезинформации весьма актуальна – как и вопрос о сохранении баланса между человеческим суждением и решениями, принимаемыми ИИ.
Перспектива использования ИИ для оценки и, возможно, цензуры информации приводит привыкшие к свободному обмену идеями общества к сложным и фундаментальным дебатам. Поскольку мощь и автономность инструментов для борьбы с дезинформацией растет, процесс выявления и подавления дезинформации становится важной социальной и политической функцией. У частных корпораций или демократических правительств в результате появляется необычная и не слишком желательная степень влияния на социальную и культурную сферы, которые ранее никем не управлялись и не контролировались, естественным образом развиваясь в физическом мире.
Некоторые склоняются к тому, что эту задачу должен выполнять ИИ, предназначенный для выявления и пресечения дезинформации, свободный от человеческой предвзятости или пристрастности. Но как правильно поступать с малоизвестным контентом, который практически никто не видел, – по сути, несуществующим? А если оборонительный ИИ совершает ошибку, удаляя контент, который не несет вреда, – как это исправлять? И что делать с дезинформацией, сгенерированной ИИ? Возможность обучить некий оборонительный ИИ определенному стандарту дезинформации и контролировать его работу станет функцией фундаментальной важности и влияния, не менее сильного, чем у правительства. Небольшие различия в задачах таких ИИ, параметрах обучения и определениях дезинформации могут изменить общество в целом, ведь сетевые платформы используют ИИ для предоставления своих услуг миллиардам людей.
TikTok, сетевая платформа с поддержкой ИИ для создания и обмена короткими забавными видео, неожиданно оказалась примером проблем использования ИИ для коммуникаций – особенно в тех случаях, когда видео произведены в одной стране, а просматриваются в другой. Пользователи TikTok снимают и размещают видео с помощью своих смартфонов, а собственные алгоритмы ИИ рекомендуют контент, который может понравиться пользователям, основываясь на предыдущих просмотрах. Платформа разработана в Китае и популярна во всем мире, она не создает видео сама и не модерирует его создание и размещение – не считая ограничений на хронометраж и запретов на дезинформацию, экстремальную жестокость и определенные виды контента. Теоретически в TikTok можно показывать все, что угодно, – например, видео водопада, чтение стихов или выдержки из Канта. Но на практике в TikTok такое не смотрят. Как и на других сетевых платформах, пользователи TikTok смотрят то, что рекомендует ИИ платформы. ИИ TikTok берет в расчет предпочтения пользователей и, используя собственный алгоритм выбора контента, рекомендует к просмотру одни видео и оставляет без внимания другие, что в итоге формирует у пользователей определенную картину мира.
Для обычного зрителя TikTok – не более чем массив забавных коротких видеофрагментов, изображающих танцы, шутки или необычные навыки. И тем не менее в 2020 г. платформа TikTok была запрещена или ограничена правительствами Индии и США из-за опасений насчет персональных данных пользователей и скрытых возможностей цензуры и дезинформации. Кроме того, Вашингтон добивался продажи американского подразделения TikTok американской компании, которая могла бы хранить данные пользователей внутри страны, не допуская их экспорта в Китай. В свою очередь, Пекин запретил экспорт кода, поддерживающего алгоритм рекомендаций, который и лежит в основе эффективности и привлекательности TikTok. В перспективе возможно, что, даже если платформа TikTok будет управляться местной компанией в США или Индии, работа сервиса все равно будет зависеть от ИИ, точные цели и функции которого известны только в Китае.
Какими будут политические, юридические и технологические последствия этих действий, пока неизвестно. Тот факт, что забавное развлекательное приложение с поддержкой ИИ вызвало такое беспокойство на государственном уровне, говорит о том, что в ближайшем будущем нас ждут еще более странные геополитические и нормативные ребусы. А тем временем все больше сетевых платформ, использующих все более сложные ИИ, – и в первую очередь те платформы, которые обеспечивают связь, развлечения, ведение бизнеса, финансы и промышленные процессы, – будут проникать через государственные границы.