litbaza книги онлайнРазная литератураPower and Progress - Daron Acemoglu;Simon Johnson;

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 101 102 103 104 105 106 107 108 109 ... 124
Перейти на страницу:
вызывают активное участие тысяч, иногда сотен тысяч пользователей.

Правозащитные группы и активисты еще в 2014 году обратились к руководству Facebook с обеспокоенностью по поводу растущего количества разжигания ненависти и совершаемых в результате этого злодеяний, но без особого успеха. Поначалу проблема игнорировалась, активисты упирались, в то время как количество ложной, подстрекательской информации против рохинджа продолжало расти. Так же как и свидетельства того, что на платформе организовывались преступления на почве ненависти, включая убийства мусульманского меньшинства. Хотя компания не хотела предпринимать значительных усилий для решения проблемы преступлений на почве ненависти, это не потому, что ей было наплевать на Мьянму. Когда правительство страны закрыло Facebook, руководители компании немедленно приступили к действиям, опасаясь, что отключение может оттолкнуть часть из двадцати двух миллионов пользователей в стране.

Facebook также удовлетворил требования правительства в 2019 году обозначить четыре этнические организации как "опасные" и запретить их на платформе. Эти сайты, хотя и связаны с этническими сепаратистскими группами, такими как Армия Аракана, Армия независимости Качина и Армия Национального демократического альянса Мьянмы, были одними из основных хранилищ фотографий и других доказательств убийств и других зверств, совершенных армией и экстремистскими буддийскими монахами.

Когда Facebook наконец отреагировал на давление, его решение заключалось в создании "стикеров" для идентификации потенциального языка ненависти. Стикеры позволяли пользователям размещать сообщения, содержащие вредный или сомнительный контент, но предупреждали их: "Подумайте, прежде чем поделиться" или "Не будьте причиной насилия". Однако оказалось, что алгоритм Facebook, подобно тупой версии программы ИИ, одержимой скрепками, был настолько нацелен на максимальное вовлечение, что регистрировал вредные сообщения как более популярные, поскольку люди вовлекались в контент, чтобы отметить его как вредный. Затем алгоритм рекомендовал этот контент более широко в Мьянме, что еще больше усугубляло распространение языка ненависти.

Уроки Мьянмы, похоже, не были хорошо усвоены Facebook. В 2018 году похожая динамика начала разыгрываться в Шри-Ланке: в Facebook появились посты, подстрекающие к насилию против мусульман. Правозащитные группы сообщали о разжигании ненависти, но безрезультатно. По оценке одного исследователя и активиста, "есть подстрекательства к насилию против целых сообществ, а Facebook говорит, что это не нарушает стандарты сообщества".

Два года спустя, в 2020 году, настала очередь Индии. Руководители Facebook проигнорировали призывы своих сотрудников и отказались удалить индийского политика Т. Раджа Сингха, который призывал расстреливать мусульманских иммигрантов рохинья и призывал к разрушению мечетей. Многие из них действительно были разрушены во время антимусульманских беспорядков в Дели в том году, в результате которых также погибло более пятидесяти человек.

Машина дезинформации

Проблемы языка вражды и дезинформации в Мьянме параллельны тому, как Facebook используется в США, и по той же причине: язык вражды, экстремизм и дезинформация вызывают сильные эмоции и увеличивают вовлеченность и время, проведенное на платформе. Это позволяет Facebook продавать более индивидуализированную цифровую рекламу.

Во время президентских выборов в США в 2016 году наблюдался заметный рост числа сообщений с недостоверной информацией или явно ложным содержанием. Тем не менее, к 2020 году 14 процентов американцев рассматривали социальные сети как основной источник новостей, а 70 процентов сообщили, что хотя бы часть новостей они получают из Facebook и других социальных сетей.

Эти истории были не просто побочным явлением. Исследование дезинформации на платформе показало, что "ложь распространялась значительно дальше, быстрее, глубже и шире, чем правда во всех категориях информации". Многие вопиюще ложные сообщения стали вирусными, потому что ими постоянно делились. Но не только пользователи распространяли ложь. Алгоритмы Facebook поднимали эти сенсационные статьи выше, чем менее политически значимые посты и информацию из надежных источников.

Во время президентских выборов 2016 года Facebook был основным каналом распространения дезинформации, особенно для пользователей, придерживающихся правых взглядов. Сторонники Трампа часто заходили на сайты, распространяющие дезинформацию, из Facebook. При этом трафик из социальных сетей в традиционные СМИ был меньше. Хуже того, недавние исследования показали, что люди склонны верить сообщениям с дезинформацией, потому что они плохо помнят, где видели ту или иную новость. Это может быть особенно важно, поскольку пользователи часто получают недостоверную, а иногда и откровенно ложную информацию от своих друзей-единомышленников и знакомых. Они также вряд ли могут столкнуться с инакомыслием в этой среде, напоминающей эхо-камеру.

Эхо-камеры могут быть неизбежным побочным продуктом социальных медиа. Но уже более десяти лет известно, что они усугубляются алгоритмами платформ. Эли Паризер, интернет-активист и исполнительный директор MoveOn.org, в 2010 году в своем выступлении на TED сообщил, что хотя он следит за многими либеральными и консервативными новостными сайтами, через некоторое время он заметил, что все больше и больше попадает на либеральные сайты, потому что алгоритм заметил, что вероятность того, что он кликнет на них, немного выше. Он ввел термин "пузырь фильтров", чтобы описать, как фильтры алгоритмов создают искусственное пространство, в котором люди слышат только те голоса, которые уже совпадают с их политическими взглядами.

Пузыри фильтров имеют пагубные последствия. Алгоритм Facebook с большей вероятностью покажет правый контент пользователям, придерживающимся правой идеологии, и наоборот - левым. Исследователи зафиксировали, что возникающие "пузыри фильтров" усугубляют распространение дезинформации в социальных сетях, поскольку люди находятся под влиянием новостей, которые они видят. Эффект "пузыря фильтров" выходит за рамки социальных сетей. Недавнее исследование, побудившее некоторых постоянных пользователей Fox News смотреть CNN, показало, что воздействие контента CNN оказало сдерживающее влияние на их убеждения и политические взгляды по целому ряду вопросов. Основная причина такого эффекта, по-видимому, заключается в том, что Fox News подавал одни факты в искаженном виде, а другие скрывал, подталкивая пользователей к более правому направлению. Появляется все больше доказательств того, что в социальных сетях этот эффект еще сильнее.

Несмотря на слушания и реакцию СМИ на роль Facebook в выборах 2016 года, к 2020 году мало что изменилось. На платформе множилась дезинформация, часть которой распространялась президентом Дональдом Трампом, который часто утверждал, что бюллетени, отправленные по почте, были поддельными и что иммигранты-неграждане голосовали массово. Он неоднократно использовал социальные сети, чтобы призвать остановить подсчет голосов.

В преддверии выборов Facebook также был вовлечен в споры из-за подделанного видео со спикером Палаты представителей Нэнси Пелоси, которое создавало впечатление, что она пьяна или больна, невнятно говорит и вообще выглядит нездоровой. Фальшивое видео продвигали союзники Трампа, включая Руди Джулиани, и хэштег #DrunkNancy стал трендом. Вскоре видео стало вирусным и собрало более двух миллионов просмотров. Безумные теории заговора, такие как те, что исходили от QAnon, также непрерывно циркулировали в пузырях фильтров платформы. Документы, предоставленные Конгрессу США и Комиссии по ценным бумагам и биржам бывшим сотрудником Facebook Фрэнсисом Хаугеном, показывают,

1 ... 101 102 103 104 105 106 107 108 109 ... 124
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?