Шрифт:
Интервал:
Закладка:
"Мы отставали даже тогда, когда все только начиналось, а все остальные регионы становились горячими точками", - говорит Шарлотта Уиллнер, которая возглавляла группу международной поддержки в течение почти трех лет. "Если я хотела нанять кого-то с египетским арабским, мне приходилось отказываться от корейского". Даже на некоторых из крупнейших зарубежных рынков Facebook полностью полагалась на Google Translate, чтобы контролировать пользовательский контент.
Однажды Уиллнер случайно прочитал отчет неправительственной организации, в котором говорилось об использовании Facebook для знакомства и организации встреч с десятками молодых девушек, которых затем похищали и продавали в сексуальное рабство в Индонезии. Цукерберг в то время отрабатывал навыки публичных выступлений и попросил сотрудников задавать ему сложные вопросы. Так, на собрании всех сотрудников Уиллнер спросил его, почему компания выделила деньги на первую в истории телевизионную рекламу - недавно выпущенный девяностосекундный ролик, в котором Facebook уподобляется стульям и другим полезным конструкциям, - но не выделила бюджет на сотрудника, который бы занялся известной ролью своей платформы в похищении, изнасиловании и иногда убийстве индонезийских детей.
Цукерберг выглядел физически больным. Он сказал Уиллнеру, что ему необходимо изучить этот вопрос. В течение недели запрос Уиллнера о численности персонала был профинансирован.
Она не винит лично Цукерберга за такое положение дел. "Не может быть, чтобы Марк думал, что это тот компромисс, на который он хочет пойти, но где-то в этой гигантской цепи кто-то принял такое решение", - сказала она. "Так работают большие организации".
Игра Уиллнер за ресурсы, возможно, и принесла победу, но не стала тревожным сигналом. По словам Уиллнер, к тому времени, когда общее замораживание численности персонала было отменено, компания безнадежно отстала на тех рынках, где, по ее мнению, вероятность злоупотреблений со стороны Facebook была наиболее высока. Уходя из Facebook в 2013 году, она пришла к выводу, что компания никогда не сможет наверстать упущенное.
Летом 2016 года президентские выборы в США были еще на горизонте, когда Кокс созвал очередную рабочую группу из инженеров, социологов, экономистов и специалистов по обработке данных. Его беспокоила поляризация, и главной темой для его новой группы стали "пузыри фильтров".
Это явление было популяризировано несколькими годами ранее в выступлении на TED Элая Паризера, основателя прогрессивной правозащитной группы MoveOn.org. Концепция была проста: по мере того как интернет-компании все больше персонализировали контент, который они рекомендовали пользователям, эти люди получали более узкий взгляд на мир. В то время разворачивалась "арабская весна", и Паризер продемонстрировал идею "пузырей фильтров", рассказав о том, что произошло, когда он попросил друзей набрать в Google "Египет". Результаты одного из друзей были наполнены ссылками на информацию о продолжающемся восстании. Результаты второго друга не содержали информации о восстании, а содержали советы по путешествиям и фотографии пирамид. Выступление Пэризера в 2011 году положило начало дискуссии о том, может ли такая персонализация создать "эхо-камеры", в которых люди будут получать только ту информацию, которая соответствует их мировоззрению.
В 2015 году Facebook опубликовал в престижном журнале Science статью, в которой исследовал, не подвергают ли рекомендации его новостной ленты пользователей более пристрастному питанию, чем они могли бы увидеть самостоятельно. Вердикт, вынесенный на основе анализа новостных лент 10 миллионов пользователей, гласил: "Индивидуальный выбор в большей степени, чем алгоритмы, ограничивает доступ к контенту, меняющему отношение". В пресс-релизе Facebook назвал результаты исследования опровергающими опасения по поводу "пузырей фильтров". Критический обзор в журнале Wired поставил под сомнение методологию исследования, которое стало известно как "исследование Facebook "Это не наша вина"", но работа, тем не менее, собрала тысячи ссылок в будущих исследованиях.
Не меньшее беспокойство вызвал анализ, которым поделилась рабочая группа, относительно особого типа новостных публикаций в Facebook, особенно тех, которые обслуживают оголтелых партизан. Сайты с общими названиями типа 365USANews набирали огромный трафик в Facebook благодаря грамматически и фактически неверным заголовкам.
"Казалось, что безумные экстремистские сайты живут за счет питательных веществ, которые дает им Facebook. Если бы Facebook отключил их, Google и органический трафик не поддержали бы их", - вспоминает один из специалистов по изучению данных, участвовавший в работе. "Это было первое реальное подтверждение этого".
Как бы ни был примечателен этот результат - в разгар предвыборного сезона, - от команды, отвечающей за такие сайты, не требовали немедленных изменений. Работа велась просто для того, чтобы компания могла разобраться в ситуации. "Работа шла относительно медленно, и люди, участвовавшие в ней, были немного более академичны", - вспоминает один из участников, занимавший должность в команде по рейтингу новостной ленты.
Даже если бы члены группы были готовы к действиям, они столкнулись бы с препятствием: Цукерберг лично приказал компании отказаться от всего, что напоминало бы человеческое курирование.
Приказ возник в результате спора вокруг "Трендинговых тем" Facebook, регулярно обновляемого списка самых горячих новостей на сайте. Внедренные в 2014 году в качестве попытки конкурировать с Google News и Twitter, "Трендовые темы" позволили Facebook использовать свои автоматизированные системы для выявления тем, которые набирали популярность. Затем члены небольшой команды кураторов выбирали заслуживающие доверия, репрезентативные новости для продвижения с помощью краткой статьи. Некоторые материалы были связаны с политикой, некоторые - с развлечениями, и все они помещались в небольшое поле в правом верхнем углу сайта. Продукт был второстепенным, принципиально не связанным с основным рейтингом ленты новостей Facebook.
Однако сонный статус этой функции изменился в мае 2016 года, когда Майкл Нуньес, репортер технологического сайта Gizmodo, опубликовал серию статей о ее непрозрачной механике. В первой статье Нуньес взял интервью у людей, редактировавших Trending Topics, и обнаружил группу безработных представителей СМИ из Лиги плюща, нанятых через кадровое агентство и работавших в подвале нью-йоркской штаб-квартиры Facebook (двое из них оказались бывшими соседями Нуньеса по комнате). "Никто толком не знает, как это работает, и компания не рассказывает", - пишет журналист.
Компания, предоставившая лишь беглый комментарий для статьи, впоследствии пожалела, что не стала играть в мяч. Хотя статья вызвала шумиху в медиакругах, она не шла ни в какое сравнение с последующей статьей Нуньеса, опубликованной неделю спустя и озаглавленной "Бывшие сотрудники Facebook: We Routinely Suppressed Conservative News". Взрывное утверждение о политической предвзятости, содержащееся в заголовке, в основном опиралось на одного бывшего сотрудника, который вел журнал популярных среди консерваторов тем, которые, по его мнению, обходили стороной