Среди социологов растут опасения, что алгоритмы персонализированной фильтрации и ранжирования новостных лент, используемые «Фейсбуком» и другими соцсетями, создают так называемые «пузыри фильтров», мешающие людям знакомиться с альтернативными точками зрения. Предполагают, что это искажает восприятие реальности и чревато негативными социально-политическими последствиями, такими как поляризация общества и утрата способности к конструктивному диалогу между людьми, придерживающимися разных взглядов на актуальные проблемы. Анализ данных по структуре «дружеских» связей и сетевой активности 10 млн американских пользователей «Фейсбука» подтвердил, что как либералы, так и консерваторы получают из своих новостных лент в основном информацию, согласующуюся с их политическими взглядами. Впрочем, эта информационная изоляция далеко не абсолютна, а создается она не столько автоматическими фильтрами, сколько сознательным выбором самих пользователей.
Что может быть естественнее, чем дружить с единомышленниками? Вероятно, люди во все времена охотнее контактировали с теми, кто думает так же, как они. Однако до наступления эры электронных социальных сетей исследовать это явление было трудно. Сегодня, когда для многих людей ссылки, которыми делятся с ними «друзья» в соцсетях, стали чуть ли не главным источником сведений об окружающем мире, детальный количественный анализ потоков информации, которой обмениваются друг с другом миллионы людей, стал выполнимой задачей. Особенно если за дело берутся сотрудники исследовательского отдела крупной соцсети, имеющие доступ ко всем данным, необходимым для такого исследования.
Как известно, многие крупные поисковики (такие как Google) и соцсети (такие как Facebook) фильтруют и ранжируют данные, предоставляемые пользователю, пытаясь «угадать» его желания. Догадки строятся, помимо прочего, на прежних действиях пользователя: какие запросы он делал, какие из предложенных ссылок выбирал и т. п. Это бывает удобно, если ваша цель - заказать пиццу или найти интересный (лично вам) фильм.
Рис. 1. График, показывающий поляризацию политических взглядов у пользователей «Фейсбука». По горизонтальной оси - «показатель идеологической приуроченности» материала (alignment score), отражающий усредненные политические взгляды пользователей, поделившихся ссылкой на этот материал. Синий цвет соответствует ссылкам, которыми делились преимущественно либералы, красный - ссылкам, популярным среди консерваторов, серый - ссылкам, не имеющим выраженной идеологической приуроченности. По вертикальной оси - популярность ссылок (сколько раз пользователи поделились ссылками на материалы с данным значением показателя идеологической приуроченности; указана доля в общем числе материалов, которыми пользователи сети делились друг с другом). Учитывались только ссылки на материалы, связанные с политикой, социальными проблемами, международными новостями и т. п. Остальные пояснения в тексте. Рисунок из обсуждаемой статьи в Science
Однако у такого удобства есть и обратная сторона. Допустим, вы пытаетесь объективно оценить спектр мнений по поводу какой-нибудь важной политической новости. Если услужливые алгоритмы будут подсовывать вам лишь те мнения, с которыми вы, скорее всего, согласны, у вас в конце концов сложится искаженная картина реальности (см.:
Пузырь фильтров). Пользователь может оказаться в так называемой
«эхо-камере» (см.:
Echo chamber), то есть в замкнутом сообществе, внутри которого единомышленники обмениваются мнениями, с которыми все они согласны и куда нет доступа альтернативным точкам зрения. В итоге человек начинает думать, что его позиция - единственно верная и никаких других взглядов на данную проблему быть не должно. Некоторые социологи в развитых странах усматривают в этом потенциальную угрозу для демократии, поскольку разделение медийного пространства на замкнутые «пузыри» чревато поляризацией общества и утратой способности к конструктивному диалогу с теми, кто думает иначе.
Группа исследователей - сотрудников «Фейсбука» - попыталась оценить масштабы бедствия на основе анализа большого массива данных по сетевой активности 10 миллионов американцев - пользователей этой крупнейшей соцсети. Учитывались только активные пользователи от 18 лет и старше, прямо указавшие в профиле свои политические взгляды. Авторы проранжировали 500 наиболее распространенных формулировок собственных взглядов, определив для каждого пользователя его балл по пятибалльной либерально-консервативной шкале, где -2 соответствует «крайне либеральным взглядам», 0 - «нейтральным», +2 - «крайне консервативным». Опрос 70 000 пользователей, в ходе которого их просили самостоятельно указать свое место на этой шкале, подтвердил адекватность процедуры автоматического ранжирования.
В исходный массив данных попали 7 миллионов интернет-адресов (URLs), ссылками на которые пользователи поделились за полугодовой период (с 7 июля 2014-го по 7 января 2015-го). Тексты, открывающиеся по ссылкам, исследователи поделили на две группы. В первую попали материалы с политическим оттенком (обсуждения законопроектов, социальных проблем, событий в стране и в мире и т. п.), во вторую - тексты на нейтральные темы: спорт, досуг, путешествия. Тексты классифицировались с помощью большого набора ключевых слов (подробное описание методики можно найти в
дополнительных материалах к обсуждаемой статье).
Для анализа использовались ссылки первой группы («политические»), которыми за изученный период поделились как минимум 20 пользователей. Таких ссылок набралось 226 000. Для каждой из них был вычислен «показатель идеологической приуроченности» (ideological alignment score), представляющий собой среднюю оценку политических взглядов тех пользователей, которые поделились данной ссылкой. Авторы подчеркивают, что показатель отражает не идеологическую направленность самого материала, а лишь идеологию пользователей, поделившихся ссылкой на него (что в большинстве случаев совпадает, но не всегда). Если данный показатель у ссылки отрицательный, это значит, что ей делились преимущественно либералы, если положительный - консерваторы. Затем был построен график, на котором по горизонтальной оси откладывался показатель идеологической приуроченности, а по вертикальной - популярность ссылок с таким показателем (сколько раз пользователи поделились ссылками с данным значением показателя) (рис. 1). Двугорбое распределение, демонстрируемое графиком, отражает поляризацию мнений: люди намного чаще делятся ссылками с сильно выраженной идеологической приуроченностью, чем идеологически нейтральными. При этом либералы активно делятся одними материалами, консерваторы - другими. Для сравнения был построен аналогичный график для ссылок второй группы (не имеющих отношения к политике). Распределение получилось совсем другим, одногорбым: самые популярные из ссылок второй группы оказались в равной мере популярными среди либералов и консерваторов.
Как и следовало ожидать, у либералов в «друзьях» преобладают либералы, у консерваторов - консерваторы. Впрочем, примерно по 20% друзей у тех и других составляют пользователи с противоположными политическими взглядами. Очевидно, что, сознательно выбирая друзей-единомышленников, люди сами ограничивают доступ в свою новостную ленту альтернативным взглядам (в данном случае - ссылкам, популярным у противоположной партии). Но на этом фильтрация данных не заканчивается. Следующий этап отбора осуществляют те самые алгоритмы автоматического ранжирования записей в новостной ленте, которые пытаются «угадать», что интересно пользователю, исходя из его предыдущих действий. Последний, третий этап фильтрации опять осуществляется пользователем, который либо идет по ссылке, которую видит в ленте, либо игнорирует ее.
Авторы располагали всеми необходимыми сведениями, чтобы точно рассчитать, какое количество «идеологически чуждой» информации отсекается на каждом из этапов. В их распоряжении находились данные по 3,8 млрд «потенциальных демонстраций» (случаев, когда друг пользователя поделился ссылкой, которая поэтому могла появиться в ленте пользователя), 903 млн «реальных демонстраций» (случаев, когда ссылка, успешно пройдя процедуру автоматического ранжирования, действительно выводилась на экран пользователя) и 59 млн «кликов» (когда пользователь, заинтересовавшись ссылкой, прошел по ней). Результаты подсчетов показаны на рис. 2.
Рис. 2. Сокращение доли «идеологически чуждой» информации по мере прохождения трех этапов фильтрации. Красная линия - консерваторы, синяя - либералы. Самые левые точки (Random) соответствуют количеству альтернативных (популярных у другой партии) материалов, с которыми пользователи познакомились бы, если бы выбирали ссылки случайным образом у любых пользователей «Фейсбука». Potential from network - доля альтернативных ссылок среди материалов, которыми делятся друзья пользователя. Exposed - то, что реально демонстрируется пользователю в результате работы алгоритмов автоматического ранжирования. Selected - ссылки, выбранные в итоге пользователем для просмотра. Рисунок из обсуждаемой статьи в Science
Рисунок наглядно показывает вклад каждого из трех этапов фильтрации в снижение доли «идейно чуждых» материалов, добирающихся в итоге до пользователя. Если бы люди выбирали ссылки случайным образом у любых пользователей «Фейсбука», то 40-45% получаемой ими информации оказывалась бы не соответствующей их политическим взглядам (разумеется, речь идет только о «политической» информации, материалы про котиков не в счет). За счет того, что люди преимущественно выбирают себе в друзья единомышленников, доля «чуждых» ссылок сокращается до 35% у консерваторов и 24% у либералов (разница связана не с тем, что у консерваторов больше «идейно чуждых» друзей, а с тем, что друзья консерваторов почему-то в среднем чаще делятся «чуждыми» материалами, чем друзья либералов). На следующем этапе в игру вступают алгоритмы автоматического ранжирования. Как выяснилось, они лишь ненамного сокращают долю альтернативных материалов в ленте. На последнем, третьем этапе, пользователь сам выбирает наиболее интересные из показанных ему ссылок, отдавая предпочтение «идейно близким» материалам. В итоге среди материалов, реально просматриваемых консерваторами, «чуждые» составляют 29%, а среди того, что читают либералы, альтернативных материалов примерно 20%.
Таким образом, исследование показало, что информационное пространство «Фейсбука» действительно отчасти подразделено на либеральный и консервативный кластеры. Однако изоляция двух лагерей далеко не абсолютна: изрядное количество «идейно чуждых» материалов все-таки попадает в поле зрения пользователей. Основной вклад в идеологическую фильтрацию материалов вносит сознательный выбор пользователями друзей-единомышленников, на втором месте - выбор, опять-таки сознательный, материалов для чтения из числа представленных в ленте, и только на третьем - алгоритмы автоматического ранжирования, пытающиеся угадать желания пользователя.
Конечно, авторов можно заподозрить в предвзятости, поскольку они - сотрудники «Фейсбука», а компания, естественно, заинтересована в том, чтобы доказать общественную безопасность своих персонализированных фильтров. С другой стороны, выводы авторов могут быть проверены независимыми экспертами. Серьезные исследования соцсетей и их влияния на общественную жизнь только начинаются, и говорить об окончательных выводах пока рано.
В заключение необходимо подчеркнуть, что результаты исследования едва ли приложимы к российским реалиям - хотя бы потому, что классическая американская «либерально-консервативная» шкала политических взглядов имеет крайне мало общего с поляризацией мнений в современном российском обществе.
Источник: Eytan Bakshy, Solomon Messing, and Lada A. Adamic.
Exposure to ideologically diverse news and opinion on Facebook // Science. 2015. V. 348. P. 1130-1132.
Ещё новости о (от) Facebook