Шрифт:
Интервал:
Закладка:
Разные люди с разными целями могут распространять неправду и полуправду в интернете и медиа: квалифицированные врачи и ученые, поддерживающие антинаучные теории; журналисты в поисках взрывающих общественное мнение статей; блогеры в погоне за вирусным контентом; политики, лоббирующие чьи‐то интересы; продавцы и поставщики альтернативной медицины, БАДов и витаминов; и эксперты, получающие процент с этих продаж. Причем денежная заинтересованность может быть не только от прямых продаж: многие лидеры конспиративных теорий получают огромные деньги от продаж книг, лекций и своих услуг.
В распространении некорректной информации принимаем участие и мы с вами – обычные люди, осознанно или нет распространяющие разную информацию в соцсетях, желая поделиться чем‐то, на наш взгляд, интересным [52]. Любимые средства коммуникации: соцсети, WhatsApp и другие мессенджеры – к сожалению, оказались очень уязвимыми в плане распространения мифов. Например, люди делятся некачественной информацией с другими и пишут комментарии, если она вызывает сильные эмоции: страх, отвращение, удивление или восторг [56, 57]. Эмоции, которые сопровождают наши сообщения в соцсетях, неизбежно передаются тем, кто эти сообщения читает, и влияют на их мышление. Ученые называют данный феномен эмоциональным заражением. Если человек, на которого вы подписаны и которого регулярно читаете, фокусируется только на негативных аспектах заболевания или если в группе худеющих все только и жалуются на то, как сложно худеть, это скажется и на вашем отношении к проблеме. Эмоции перенаправляют наше внимание на те или иные аспекты ситуации.
Чтобы противостоять убеждению со стороны, нужно постараться отделять эмоции от фактов и смещать фокус внимания с того, что автор сообщения старается выделить и усилить, на то, что действительно значимо.
Другая причина, почему некорректная информация так легко завладевает нашим вниманием в соцсетях, – мы заходим в соцсети для развлечения, и скучные видео с научными фактами редко привлекают внимание. Хочется что‐то попроще, покороче и поинтереснее. Так, в одном исследовании видеороликов о раке простаты на YouTube ученые четко проследили эту закономерность – чем ниже качество информации, тем выше вовлеченность зрителей [58].
Согласно Докладу Reuters Digital News в 2019 году [59], 14 % взрослого населения в Великобритании, 39 % в Аргентине, 53 % в Бразилии, 50 % в Малайзии, 49 % в Южно-Африканской республике используют WhatsApp в качестве источника новостей, где они не только узнают последние новости, но и могут их обсуждать и делиться ими. Во-первых, в таких сообщениях мы вообще редко видим какие‐то весомые аргументы или ссылки на первоисточники. Во-вторых, нахождение в группе других людей, реальных или виртуальных, сказывается на нашей способности принимать объективные и взвешенные решения и увеличивается вероятность поддаться предвзятости подтверждения. Группа людей – это всегда нечто большее, чем простая сумма составляющих его участников.
«Наша склонность зависеть от других умов лишь усугубляет негативный эффект некорректной информации в соцсетях», – считают Стивен Сломан, профессор Университета Брауна, и Филип Фернбах, профессор Университета Колорадо, авторы книги «Иллюзия знания: почему мы никогда не думаем в одиночку» [61]. Например, если наше мнение по поводу того, нужно ли идти на скрининг или нет, не имеет под собой четких и весомых аргументов, его можно считать безосновательным. Если мы сможем убедить в этом нашего соседа или друга, оно продолжает быть безосновательным, но вдвоем мы гораздо более уверены в нашей точке зрения. Так и в интернете: единомышленники часто объединяются в группы и сообщества, которые укрепляют их уверенность в правоте. Даже если они заблуждаются. А еще в закрытой группе людей с определенным мнением слухи начинают казаться общепринятой истиной, и складывается «иллюзия большинства» [60].
Да, мы склонны верить информации, которую слышим снова и снова. Результаты одного исследования, проведенного в США, показали: в регионах, где сообщения в соцсетях чаще упоминали вакцинацию от гриппа в положительном контексте, больше людей приходило вакцинироваться. Тогда как в регионах с множеством негативных сообщений уровень вакцинации был гораздо ниже. Это то, что психологи называют «эффектом иллюзорной правды» [52], когда мы считаем правдой то, с чем чаще встречаемся или что чаще слышим. Если прибавить к этому алгоритмы соцсетей, которые дают нам то, на что мы обращаем внимание, и информационный пузырь, получится, мы все больше и больше убеждаемся в том, что уже знали, даже если это ошибочно.
2.4 Модерация соцсетей
А почему бы соцсетям не проверять посты и не удалять те, которые не прошли фактчекинг, наподобие того, как Google делает рейтинг страниц в поиске?
Во многих соцсетях посты проходят обязательную проверку, или модерацию. В первую очередь удаляется контент, который может быть социально опасным, например призывы к терроризму и насилию. Отдельные посты тоже анализируются по ключевым словам и некоторые проверяются фактчекерами компании или независимыми организациями. Результаты такой модерации, я думаю, многие из вас заметили в период пандемии COVID‐19, когда посты с любой информацией о вирусе отображались со ссылкой на наиболее актуальные новости на сайте Всемирной организации здравоохранения. Некоторые посты имеют отметку с результатами фактчекинга, а наиболее сомнительные становятся малозаметными и реже появляются в новостной ленте.
Таким образом, соцсети тоже предпринимают шаги в борьбе с некорректной информацией в интернете. Однако часто этого недостаточно. Ведь, кроме упоминания самих фактов, важно то, как эти факты интерпретируются и используются с целью убеждения или манипуляции общественным мнением.
Взять, к примеру, конфликт между «Британским медицинским журналом» (The BMJ) и компанией Meta/Facebook [1], который произошел в ноябре 2021 года.
«Британский медицинский журнал» – один из самых старых и авторитетных журналов по медицине в мире. Каждый месяц сайт журнала посещают 2 700 000 врачей и медицинских работников, его статьи читают, делятся ими и применяют в клинической практике. Помимо научных статей «Британский медицинский журнал» также публикует собственные журналистские расследования, экспертные мнения и комментарии. Одно такое расследование под названием «Covid‐19: ученый предупредил о проблемах с целостностью данных в исследовании вакцины Pfizer» раскрывало подробности серьезных нарушений, зарегистрированных во время тестирования вакцины одной из контрактных организаций, сотрудничавшей с Pfizer [31].
«Компания фальсифицировала данные, расслепляла пациентов