Все мы вроде понимаем, что фейсбук формирует наши ленты, сортирует рекламу и списки людей, которых нам нужно добавить в друзья. Но это знание не спасает от ощущения, что вокруг только ужасные новости, а живем мы при этом скучнее всех, на кого подписаны. T&P публикуют отрывок главы из книги научного журналиста Борислава Козловского «Максимальный репост: Как соцсети заставляют нас верить фейковым новостям» о том, почему в этом нельзя винить только коварные соцсети и как мы сами ограждаем себя от альтернативной информации.
В 2012 году психолог и сотрудник Facebook Адам Крамер решил проверить, заразны ли эмоции, - и объектом его эксперимента стали, сами того не зная, 689 003 пользователя соцсети. В начале года Крамер и двое его коллег подвергли френдленты этих пользователей выборочной цензуре: одни подопытные переставали видеть у себя в ленте до 90% записей с «негативным» содержанием, другие - до 90% «позитивных» записей.
Что в этом плохого? Представьте, что вы уехали на неделю в командировку в другой город (эксперимент длился как раз неделю, с 11 по 18 января). За это время вашего хорошего друга избивают в питерском метро и отбирают у него любимую зеркалку со всеми объективами. В такой ситуации каждое слово поддержки не лишнее.
Но если вдруг вы оказались в первой группе подопытных, вы просто ничего не прочтете о неприятностях друга. А если вы, наоборот, в группе, изолированной от «позитива», то мимо вас пройдет запись однокурсника, который давным-давно эмигрировал в Австралию и тут, наконец, собрался прилететь на пару дней в Москву. В итоге вы с ним так и не встретитесь.
Словом, если вы привыкли все самое важное о жизни небезразличных вам людей узнавать из Facebook, и при этом вам не повезло попасть в число 689 003 подопытных, то Facebook неделю держал вас в дураках. Возможно, не без последствий - как в случае с избитым другом и однокурсником из Австралии.
С технической точки зрения ничего особенно ужасного ученые не сделали: Facebook и так постоянно скрывает от нас 80% всего написанного друзьями. Два года назад администраторы соцсети на официальной странице «Facebook для бизнеса» рассказали с цифрами, как это работает: всякий раз, когда среднестатистический пользователь заходит в соцсеть, его поджидают 1500 новых непрочитанных постов, в которых он рискует утонуть с головой.
Умный алгоритм, зная наши предпочтения, выбирает из них 300 - только они отобразятся в ленте, остальные 1200 будут забракованы. Когда алгоритму предстоит тяжелый выбор - показать нам свежее фото со страницы лучшего друга, где помечены вы и ваша девушка, или пост про футбол у человека, с которым вы случайно познакомились в долгой очереди к стоматологу и с тех пор не общались, - алгоритм обычно знает, как поступить.
Но направленное вмешательство - все-таки особый случай, и его постарались сделать как можно безболезненнее: если в разгар эксперимента вы заходили напрямую на страницу друга, там все его спрятанные записи были доступны. И, разумеется, цензура не коснулась личных сообщений.
«Ста человек, каждый из которых проводит в отпуске на море неделю в год, хватит с запасом, чтобы создать во френдленте ощущение непрекращающихся каникул»
«Негатив» от «позитива» специальная программа-фильтр пыталась отличить по ключевым словам-маркерам, которые как-то соотносятся с положительными и отрицательными эмоциями. Реагировать на отдельные слова - это, конечно, не идеальный способ вникать в смысл написанного. Например, сразу понятно, что от программы ускользают ирония и сарказм.
Скажем, фразу «радость-то какая» она просто из-за наличия слова «радость» классифицирует как «позитивную» вне зависимости от контекста. Зато если пожертвовать такими тонкостями, получается быстрее обрабатывать гигантские объемы данных: сквозь фильтр ученые пропустили 3 млн записей, содержащие 122 млн слов; 3,6% слов отнесли к «позитивным» и 1,8% - к «негативным».
Команду Facebook интересовало, как зачистка ленты отразится на поведении подопытных. Для этого ученые снова воспользовались своим излюбленным методом - подсчетом слов. Оказалось, что те, у кого из френдленты поудаляли «позитивные» записи, сами начали писать более мрачные тексты: частота соответствующих слов- маркеров выросла настолько, что с вероятностью 99,3% это нельзя было назвать случайным совпадением.
В научной статье с описанием результатов, которую два года спустя, в марте 2014-го, опубликовал авторитетный журнал Proceedings of the National Academy of Sciences («Вестник Национальной академии наук США»), авторы говорят про «массовое заражение эмоциями через соцсети».
Почему так происходит? Facebook, говорят психологи, работает как кривое зеркало, которое не то чтобы специально врет (у зеркала вообще нет «своей позиции», чтобы врать), а просто искажает пропорции вещей. Чуть ли не всех, кого мы добавили в друзья, соцсеть автоматически превращает в образцы для подражания, объекты зависти и - как следствие - возводит в ранг авторитетов, чьи мнения и чьи эмоции для нас важны.
Психотерапевт Джессика Гроган объясняет в колонке для популярного журнала Psychology Today: Facebook делает чужую жизнь в разы ярче. Люди много пишут про редкое и приятное - путешествия, подарки, рождение детей и праздничные торты. А про рабочую рутину - наоборот, мало (если они не журналисты).
В результате начинает казаться, что праздник у всех друзей, кроме вас. Ста человек, каждый из которых проводит в отпуске на море неделю в год (и активно бомбардирует друзей всю эту неделю фотографиями своего серфинга по утрам и лобстеров на льду вечером), хватит с запасом, чтобы создать во френдленте ощущение непрекращающихся каникул.
Параллельно с этим друзья в Facebook имеют на вас такое влияние еще и потому, что в целом они лучше социализированы. И это уже не иллюзия восприятия (как «непрекращающиеся каникулы»), а математический факт, который называется «парадоксом дружбы».
Первым на него обратил внимание в 1991 году американский социолог Скотт Фельд - и опубликовал статью под заголовком «Почему у ваших друзей больше друзей, чем у вас». Логика его ответа такая: чем популярней кто-нибудь, тем больше шансов, что вы добавите его в друзья. Поэтому те, с кем дружит наугад взятый пользователь, в среднем популярнее его самого.
Спустя двадцать лет, в ноябре 2011 года, несколько специалистов по большим данным из разных американских университетов, которых Facebook пригласил к себе на работу, проверили этот парадокс на всем множестве из 721 млн активных к тому моменту пользователей соцсети, связанных 69 млрд «дружб».
Выяснилось, что у среднестатистического, наугад взятого человека из соцсети 190 друзей, а у каждого из этих 190 друзей в среднем целых 635 друзей. Причем парадокс работает не только «в среднем», но и строго выполняется для 93% аудитории Facebook и 98% аудитории Twitter.
Что из этого следует на практике? Например, что ваши друзья в Facebook - довольно специальная выборка социально успешных людей, а никакие не «все», которых мы то и дело упоминаем. Социологи сказали бы, что выборка нерепрезентативна - и не только в том смысле, что убеждения вашего круга общения отличаются от убеждений страны в целом.
Нам важно знать, что «все» думают и говорят по тому или иному поводу, - и лента Facebook создает иллюзию общественного мнения. «Вся Москва обсуждает колонку Олега Кашина». «Всем ясно, что заявление про террористов - идиотская фальшивка». «Все уехали на Новый год в Индию». Обычно это неправда не только по отношению к обществу в целом, но и применительно к людям одного с вами возраста, положения и убеждений.
Те, у кого друзей за тысячу, имеют понятные причины больше переживать по поводу права свободно высказываться, чем те, у кого друзей пятьдесят. Благодаря «парадоксу дружбы» среди наших друзей больше первых, чем вторых (и эти первые слышней), - поэтому нам и кажется, что ценность свободы слова понятна и самоочевидна всем, кроме редких маргиналов. А результаты опроса ВЦИОМ про 58% сторонников цензуры в интернете представляются внезапными и даже невозможными.
И соцсети, и поисковики активно помогают нам изолировать себя от непохожих мнений - вроде мнений сторонников цензуры. Три года назад вышла книга американского левого активиста Эли Паризера «Пузырь фильтров» с подзаголовком «Как новый персонализированный интернет влияет на то, что мы читаем и что мы думаем».
Когда сосед из квартиры сверху и вы одновременно заходите на главную страницу Google, поисковая выдача по одному и тому же запросу у вас будет разной - начиная с 2009 года Google подстраивает ее под ваши интересы. Например, по слову «Форд» поисковик выдаст вам биографию Генри Форда, а соседу - страницу салона, где торгуют автомобилями.
То же самое, утверждает Паризер, касается и проблемных тем. Если вы параноидально боитесь ГМО, то на первой странице поисковой выдачи будут преобладать сайты про вред «еды Франкенштейна», а если вы биотехнолог - то ресурсы с более рациональным взглядом на вещи.
Тут же выяснилось, что у либералов свои новости, а у консерваторов - свои. Вместо того чтобы обсуждать одни и те же статьи с разных позиций, люди противоположных политических убеждений делают акцент на разных событиях и возмущаются каждый своими несправедливостями.
Условно говоря (если распространить выводы на российский сегмент Facebook), одни больше пишут про «события мая на Болотной», другие - про «жертв мая в Одессе». Само собой, источники цитируются тоже разные: если вы увидели ссылку на FoxNews.com, с вероятностью 80% можно утверждать, что ею поделился консерватор. А на HuffingtonPost.com, наоборот, в 65% случаев ссылаются либералы. И оба потока новостей, «консервативный» и «либеральный», в соцсетях активно фильтруются.
«Если предоставить пользователям полную свободу доступа к информации - мы приложим максимум усилий, чтобы себя дезинформировать»
Исследователи Эйтан Бакши, Соломон Мессинг и Лада Адамич проанализировавшие ленты 10,1 млн пользователей из США, подчеркивают, что в каскаде идеологических фильтров роль алгоритмов не такая уж большая. За невозможностью узнать чужую точку зрения стоит, прежде всего, наша свободная воля.
Что может быть естественнее желания читать единомышленников и нежелания лайкать то, что расходится с устоявшимися взглядами? Получается парадокс: если предоставить пользователям полную свободу доступа к информации - мы приложим максимум усилий, чтобы себя дезинформировать.
В цензуре новостей легко обвинять телевизор. В конце 1960-х теоретики медиа Джордж Гербнер и Ларри Гросс придумали беспощадно критическую по отношению к телевидению гипотезу культивации, которая объясняла, как безо всякой злой воли какого-нибудь комитета по идеологии, который занимался бы дезинформацией, телевизор выращивает («культивирует») в головах у зрителей искаженную картину мира.
Скажем, у сценаристов полицейский - излюбленный герой, а аудитор или пожарный особой популярностью не пользуются - и пропорция между людьми этих профессий на экране совершенно иная, чем в реальности. У каждого отдельного телезрителя недостаточно знакомых пожарных, полицейских и аудиторов, чтобы вывести свою собственную статистику - вот он и проникается убеждением, что полиция - одна из ключевых действующих сил общества.
Социальные сети, казалось бы, полная противоположность ТВ - что смотреть и что читать, выбираем вроде бы мы сами, а не какие-то сценаристы и продюсеры новостных программ. Единственные злые парни в этой ситуации - наши собственные когнитивные ошибки, от стремления идеализировать жизнь других людей до нетерпимости к чужим мнениям.
Коварные манипуляторы из числа штатных сотрудников Google, Twitter или Facebook в этом не виноваты - они просто предоставили нам возможность жить и действовать так, как мы давно хотели. Просто на практике это оборачивается непробиваемым пузырем заблуждений.
«
Theory&Practice»