litbaza книги онлайнДомашняяА мне помогло. Как ориентироваться в море информации о здоровье и осознанно принимать решения - Алия Сарманова

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 43 44 45 46 47 48 49 50 51 ... 145
Перейти на страницу:
делились некорректной информацией о вирусе Зика в три раза чаще, чем проверенными постами, – а половина топ‐10 постов по этой теме были некорректными [54]. Еще одно исследование 126 000 постов со слухами о вирусе Зика в Twitter подтвердило: фальшивая информация распространялась быстрее, имела бо́льшие охваты и бо́льшую вовлеченность аудитории, чем правда [55]. В исследовании о связи альтернативной медицины и прогрессированием рака, о котором мы говорили в начале главы, посты с некорректной информацией тоже получили гораздо больше внимания читателей в виде лайков, комментариев и репостов, чем статьи с правдивой информацией [56].

Разные люди с разными целями могут распространять неправду и полуправду в интернете и медиа: квалифицированные врачи и ученые, поддерживающие антинаучные теории; журналисты в поисках взрывающих общественное мнение статей; блогеры в погоне за вирусным контентом; политики, лоббирующие чьи‐то интересы; продавцы и поставщики альтернативной медицины, БАДов и витаминов; и эксперты, получающие процент с этих продаж. Причем денежная заинтересованность может быть не только от прямых продаж: многие лидеры конспиративных теорий получают огромные деньги от продаж книг, лекций и своих услуг.

В распространении некорректной информации принимаем участие и мы с вами – обычные люди, осознанно или нет распространяющие разную информацию в соцсетях, желая поделиться чем‐то, на наш взгляд, интересным [52]. Любимые средства коммуникации: соцсети, WhatsApp и другие мессенджеры – к сожалению, оказались очень уязвимыми в плане распространения мифов. Например, люди делятся некачественной информацией с другими и пишут комментарии, если она вызывает сильные эмоции: страх, отвращение, удивление или восторг [56, 57]. Эмоции, которые сопровождают наши сообщения в соцсетях, неизбежно передаются тем, кто эти сообщения читает, и влияют на их мышление. Ученые называют данный феномен эмоциональным заражением. Если человек, на которого вы подписаны и которого регулярно читаете, фокусируется только на негативных аспектах заболевания или если в группе худеющих все только и жалуются на то, как сложно худеть, это скажется и на вашем отношении к проблеме. Эмоции перенаправляют наше внимание на те или иные аспекты ситуации.

Чтобы противостоять убеждению со стороны, нужно постараться отделять эмоции от фактов и смещать фокус внимания с того, что автор сообщения старается выделить и усилить, на то, что действительно значимо.

Другая причина, почему некорректная информация так легко завладевает нашим вниманием в соцсетях, – мы заходим в соцсети для развлечения, и скучные видео с научными фактами редко привлекают внимание. Хочется что‐то попроще, покороче и поинтереснее. Так, в одном исследовании видеороликов о раке простаты на YouTube ученые четко проследили эту закономерность – чем ниже качество информации, тем выше вовлеченность зрителей [58].

Согласно Докладу Reuters Digital News в 2019 году [59], 14 % взрослого населения в Великобритании, 39 % в Аргентине, 53 % в Бразилии, 50 % в Малайзии, 49 % в Южно-Африканской республике используют WhatsApp в качестве источника новостей, где они не только узнают последние новости, но и могут их обсуждать и делиться ими. Во-первых, в таких сообщениях мы вообще редко видим какие‐то весомые аргументы или ссылки на первоисточники. Во-вторых, нахождение в группе других людей, реальных или виртуальных, сказывается на нашей способности принимать объективные и взвешенные решения и увеличивается вероятность поддаться предвзятости подтверждения. Группа людей – это всегда нечто большее, чем простая сумма составляющих его участников.

«Наша склонность зависеть от других умов лишь усугубляет негативный эффект некорректной информации в соцсетях», – считают Стивен Сломан, профессор Университета Брауна, и Филип Фернбах, профессор Университета Колорадо, авторы книги «Иллюзия знания: почему мы никогда не думаем в одиночку» [61]. Например, если наше мнение по поводу того, нужно ли идти на скрининг или нет, не имеет под собой четких и весомых аргументов, его можно считать безосновательным. Если мы сможем убедить в этом нашего соседа или друга, оно продолжает быть безосновательным, но вдвоем мы гораздо более уверены в нашей точке зрения. Так и в интернете: единомышленники часто объединяются в группы и сообщества, которые укрепляют их уверенность в правоте. Даже если они заблуждаются. А еще в закрытой группе людей с определенным мнением слухи начинают казаться общепринятой истиной, и складывается «иллюзия большинства» [60].

Да, мы склонны верить информации, которую слышим снова и снова. Результаты одного исследования, проведенного в США, показали: в регионах, где сообщения в соцсетях чаще упоминали вакцинацию от гриппа в положительном контексте, больше людей приходило вакцинироваться. Тогда как в регионах с множеством негативных сообщений уровень вакцинации был гораздо ниже. Это то, что психологи называют «эффектом иллюзорной правды» [52], когда мы считаем правдой то, с чем чаще встречаемся или что чаще слышим. Если прибавить к этому алгоритмы соцсетей, которые дают нам то, на что мы обращаем внимание, и информационный пузырь, получится, мы все больше и больше убеждаемся в том, что уже знали, даже если это ошибочно.

2.4 Модерация соцсетей

А почему бы соцсетям не проверять посты и не удалять те, которые не прошли фактчекинг, наподобие того, как Google делает рейтинг страниц в поиске?

Во многих соцсетях посты проходят обязательную проверку, или модерацию. В первую очередь удаляется контент, который может быть социально опасным, например призывы к терроризму и насилию. Отдельные посты тоже анализируются по ключевым словам и некоторые проверяются фактчекерами компании или независимыми организациями. Результаты такой модерации, я думаю, многие из вас заметили в период пандемии COVID‐19, когда посты с любой информацией о вирусе отображались со ссылкой на наиболее актуальные новости на сайте Всемирной организации здравоохранения. Некоторые посты имеют отметку с результатами фактчекинга, а наиболее сомнительные становятся малозаметными и реже появляются в новостной ленте.

Таким образом, соцсети тоже предпринимают шаги в борьбе с некорректной информацией в интернете. Однако часто этого недостаточно. Ведь, кроме упоминания самих фактов, важно то, как эти факты интерпретируются и используются с целью убеждения или манипуляции общественным мнением.

Взять, к примеру, конфликт между «Британским медицинским журналом» (The BMJ) и компанией Meta/Facebook [1], который произошел в ноябре 2021 года.

«Британский медицинский журнал» – один из самых старых и авторитетных журналов по медицине в мире. Каждый месяц сайт журнала посещают 2 700 000 врачей и медицинских работников, его статьи читают, делятся ими и применяют в клинической практике. Помимо научных статей «Британский медицинский журнал» также публикует собственные журналистские расследования, экспертные мнения и комментарии. Одно такое расследование под названием «Covid‐19: ученый предупредил о проблемах с целостностью данных в исследовании вакцины Pfizer» раскрывало подробности серьезных нарушений, зарегистрированных во время тестирования вакцины одной из контрактных организаций, сотрудничавшей с Pfizer [31].

«Компания фальсифицировала данные, расслепляла пациентов

1 ... 43 44 45 46 47 48 49 50 51 ... 145
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?