Шрифт:
Интервал:
Закладка:
Наконец, пользователи этих автоматизированных медиа слишком легко становятся жертвами отчуждения, угнетающего чувства бессмысленности и фрагментации, которое может легко перейти в экстремизм или эскапизм. Подлинный анализ такого отчуждения выходит далеко за пределы лишенной контекста критики эхо-камер, распространившейся в XXI в. во время первой волны критики социальных сетей. Скорее, в нем должна найти отражение критическая теория, созданная в ответ на авторитаризм 1930-х гг. Особенно когда дело доходит до политики, когда граждане погружаются в то, что Рахель Иегги назвала «отношением без отношения», когда все основные политические партии относятся к ним с безразличием или даже угрожают им, тогда-то создаются условия для радикальной деградации публичной сферы[360]. Наиболее успешные авторитарные популисты нашего времени эксплуатировали это широко распространившееся отчуждение, обратив накопившееся недовольство в деструктивные политические программы.
Новые законы робототехники не смогут решить все эти проблемы. Это серьезные проблемы не только для демократии, но и для любого политического сообщества. Тем не менее, если подписаться под принципами дополнительности, аутентичности, кооперации и атрибуции, это станет существенным шагом к будущему гуманных медиа. Обновление журналистики, редакторского дела и кураторства, которые должны стать устойчивыми и хорошо вознаграждаемыми профессиями, даст нам хотя бы шанс в борьбе с тиранией посредников, опирающихся на ИИ (а также с армией пиар-экспертов и консультантов, умело ими манипулирующих). Требование раскрытия ботов предоставит пользователям и платформам важную информацию, которая необходима, чтобы самостоятельно определить нужное сочетание компьютерного и человеческого взаимодействия. Новая балансировка компьютерного и профессионального суждения должна снизить уровень отчуждения, и того же результата должен достичь культурный сдвиг от пассивного доверия посредникам, поставляющим новости и аналитические материалы, к более специализированным кураторам, обладающим более прямыми и локальными связями со своей аудиторией.
ИИ может защищать свободу слова, если он правильно ограничен четырьмя новыми законами робототехники. ИИ не может заменить журналистского суждения или даже суждения многочисленных «модераторов контента», которые ищут незаконные, отвратительные или наполненные ненавистью посты. Спровоцировав гонку таргетированного рынка между фирмами, политиками и пропагандистами, крупные фирмы, опирающиеся на ИИ, снизили денежную прибыль, которая ранее позволяла журналистике стоять на ногах гораздо крепче. Некоторую часть этих денег надо вернуть профессиональным журналистам, одновременно старым и новым институтам, опирающимся на истину (и оформляющим консенсус)[361]. Это особенно важно, когда создатели ботов и дипфейков становятся все более изощренными. Четвертый закон робототехники, предписывающий прямую и четкую атрибуцию, должен управлять регулированием «проблемы фейковых медиа», как и второй закон, запрещающий вводящее в заблуждение подражание человеческим действиям. Не должно быть так, чтобы для отличия твитов и видео, представляющих аутентичный контент или, наоборот, являющихся попросту подстроенным спектаклем, человеку требовалась ученая степень по цифровой криминалистике.
Платформы можно реформировать, и исследователи коммуникации разработали вполне убедительные представления о том, как проектировать ИИ, чтобы он дополнял, а не спешно заменял редакторов, журналистов и работников творческих профессий, которые ныне зажаты в тисках мощных посредников. Этим предложениям, в целом вполне достойным, потребуется, чтобы созреть, поддерживающая их политико-экономическая среда, создаваемая четырьмя новыми законами робототехники. При правильном применении эти законы помогут предотвратить худшие эксцессы автоматизированной публичной сферы.
5. Машины, судящие людей
Представьте, что вам отказали в работе просто из-за тональности вашего голоса. Фирмы нанимают сегодня рекрутеров, которые используют распознавание лиц и голоса для оценки нервозности, настроения и паттернов поведения», и все это для того, чтобы понять, кто действительно «соответствует духу» компании. ИИ использовался в таких крупных компаниях, как PWC, L’Oreal, Mars и Citibank[362].
С точки зрения защитников ИИ как инструмента подбора кадров, сканирование лиц и голоса представляется лишь следующим логическим шагом после программ, сортирующих резюме. Если машина может автоматически отвергнуть сотни резюме, почему бы не позволить ей судить о более тонких материях?
Вполне очевидной и уже реальной опасностью является дискриминация. Программное обеспечение способно исключать меньшинства, которые недостаточно представлены в массиве данных ИИ. Феминистски поспешили напомнить фирмам о том, что внешний вид и голос «образцовых сотрудников» может быть связан не только с реальными компетенциями, но и с застарелым сексизмом. Если женщины не были частью управляющей команды в прошлом, они не могут определять массив данных, который предсказывает будущих звезд. Подтверждая такие опасения, группа по защите прав Upturn опубликовала подробный доклад по проблемным алгоритмам найма, рекомендуя принять «активные меры для выявления и устранения перекосов в их инструментах»[363]. Например, работодатели могли бы давать второй шанс особенно перспективным кандидатам, отсеянным фильтрующим ИИ.
Анализ лиц и голосов подрывает также принципы достоинства и автономии. Одно дело, когда ваше резюме анализирует ИИ, и совсем другое – когда о вас судят по непонятным характеристикам вашего поведения и умения себя держать. Я сам выбираю, что включать в резюме; но я не могу определить, не раскрывается ли мой глаз на один лишний миллиметр, когда интервьюер говорит что-то неожиданное. Конечно, собеседования с людьми часто оказываются неловкими и натужными; умелые вруны могут заговорить интервьюера и получить незаслуженную позицию, тогда как другие, более квалифицированные претенденты, – провалиться. И все же чисто механический анализ внешнего вида, осанки и поведения представляется проявлением неуважения. Нам известно, что топ-менеджмент фирмы набирают не так. Почему же подвергать других сотрудников такой бесчеловечной процедуре?
Когда все чаще машины начинают судить людей, возможны по крайней мере четыре разные реакции. Некоторые попытаются найти способ использовать систему, выполнив обратный инжиниринг неявных признаков ловкости, соответствия «духу компании» и любых других характеристик, которые должен предсказывать ИИ. Другая группа попытается повысить точность таких систем; третья, менее значительная, попытается сделать их более справедливыми – техническими методами либо регулированием. Наконец, четвертая группа будет выступать за полный запрет машинных суждений, то есть за то, чтобы в некоторых контекстах они не использовались, или потребует обязательного наличия человека в цепочке решений.
В этой главе основное внимание уделяется двум последним группам – тем, кто хотел бы скорректировать или устранить оценивающий ИИ, который претендует на измерение надежности, кредитоспособности, преступности людей, а также их общего «соответствия» рабочим местам или льготным программам. Машинные суждения о людях очень далеки от распознания