Оригинал взят у
scinquisitor в
Эпоха постправды? Наука наносит ответный удар! Одна из стратегий современной популяризации науки - разбор мифов и заблуждений с привлечением множества научных исследований и фактов. Этот подход использовал в своих книгах “Мифы об эволюции человека” и “Ученые скрывают” Александр Соколов, Ася Казанцева в книге “В интернете кто-то не прав”, Алексей Водовозов в “Пациенте разумном” ну и я в “Сумме биотехнологии”. Также он лежит в основе многих выступлений на форуме “
Ученые против мифов” и
меморандумов Комиссии по борьбе с лженаукой. Но далеко не все считают, что опровержение мифов - действенная стратегия просвещения. Некоторые даже считают такую деятельность вредной.
В качестве возражения нередко приводятся научные исследования про “эффект обратного действия” (Backfire Effect). Утверждается, что столкнувшись с фактами, противоречащими некоторой первоначальной точке зрения, человек может, наоборот, укрепиться в своих заблуждениях.
“Эффект обратного действия” стал известен прежде всего благодаря работам Брендона Найхена и Джейсона Рейфлера и считается одним из предвестников информационного апокалипсиса, именуемого “эпохой постправды”. Это слово стало настолько модным, что вошло в лексикон
баттл-рэперов (“Ведь батл территория постправды, тут неважно какой факт настоящий. Так какие личности, ***? Тут решает количество панчей”). На эффект ссылаются сотни научных и тысячи журналистских статей.
В
эксперименте Найхена и Рейфлера испытуемые читали один из двух текстов. Первый содержал цитату из выступления Джорджа Буша о том, что существует реальная угроза существования оружия массового поражения в Ираке. Второй текст содержал эту же цитату, но в нем было и опровержение: оружия в итоге не нашли.
Испытуемые указывали степень согласия с утверждением, что в Ираке существовала активная программа производства оружия массового поражения. Оказалось, что консерваторы (изначально более склонные доверять словам Джорджа Буша) еще больше убеждались в существовании оружия, ознакомившись с опровержением. Это и есть “эффект обратного действия”. На либералов (более склонных сомневаться в существовании такого оружия) опровержение действовало в противоположную сторону. Оно подкрепляло их изначальную точку зрения.
В той же статье авторы решили перепроверить наличие эффекта обратного действия теперь уже на трех примерах. Они добавили разоблачение мифа о том, что якобы сокращение налогов увеличивает доходы государства и о том, что Джордж Буш запретил исследования стволовых клеток (на самом деле он лишь ограничил государственное финансирование исследований, использующих некоторые линии клеток). Схема исследования оставалась прежней.
Любопытно, что при повторе эксперимента с опровержением мифа об Ираке, консерваторы все-таки усомнились в существовании оружия массового поражения. То есть эффект не воспроизвелся. Однако на 34 добровольцев, считавших вопрос про Ирак наиболее важным, корректирующая информация впечатления не произвела, поэтому по мнению авторов этот эксперимент скорее подтвердил, чем опроверг “эффект обратного действия”. Хотя вообще вот так рассматривать данные под разными углами и натягивать их на гипотезу в науке считается плохой практикой.
Опровержение второго мифа повысило веру консерваторов в то, что снижение налогов повышает доходы государства. Это аргумент в пользу гипотезы “эффекта обратного действия”, правда эффект был не очень впечатляющий и едва преодолел статистический порог P < 0.05, который
объявлен недостаточно надежным для формирования выводов.
Опровержение третьего мифа привело к снижению доли людей, считающих, что Буш запретил исследования стволовых клеток (впрочем, тут авторы использовали еще менее надежный статистический порог P < 0.1). Ожидалось, что “эффект обратного действия” возникнет у либералов, но политическая идеология вроде и не влияла на изменение мнений (P = 0.14). То есть, если подходить строго, эффекта обратного действия в этом эксперименте не было. Но, подкрутив статистические модели, авторы работы заявили, что эффект направлен “в нужную сторону” и поэтому скорее свидетельствует в пользу их гипотезы.
Как видим, это сомнительная работа и особенно странно, когда ее цитируют люди “продвинутые”, знающие про кризис воспроизводимости в социальной психологии и читавшие Джона Иоаннидиса, автора знаменитой статьи “
Почему большинство опубликованных научных результатов ошибочны”, предостерегавшего об использовании слишком мягких статистических порогов и подгонке гипотез под данные. То, что случилось дальше, было вполне предсказуемо.
В 2016 году другая группа исследователей
попыталась воспроизвести эффект обратного действия для 36 разных мифов. Только для одного из 36 мифов наблюдался эффект обратного действия: про оружие массового поражения в Ираке. Однако когда авторы немного изменили формулировку в опросе, и этот результат не удалось воспроизвести. Получается, что если эффект обратного действия и существует, то для каких-то очень частных вопросов и только если правильно сформулировать задание. Как минимум, нет оснований обобщать и делать вывод, что любые разоблачения вызывают эффект обратного действия.
В 2015 году все те же Найхен и Рейфлер заявили, что эффект обратного действия возникает при разоблачении мифов о вакцинации. Добровольцев опросили, насколько они обеспокоены побочными эффектами прививок, а затем случайным образом разбили на три группы. Одним представили разоблачение заблуждения, что прививка от гриппа вызывает инфекцию. Другим рассказали об опасностях гриппа. Третьим не сообщили ничего. Затем добровольцы отвечали, насколько они согласны, что прививка от гриппа вызывает инфекцию, насколько безопасна эта процедура и планируют ли они вакцинироваться.
Доля людей, считающих, что вакцина вызывает грипп, существенно снизились среди тех, кто ознакомился с разоблачением этого мифа. Даже среди тех, кто был изначально обеспокоен побочными эффектами вакцин. Доверие к безопасности вакцин тоже улучшилось после разоблачения мифа. То есть тут эффекта обратного действия не наблюдалось.
Однако после разоблачения мифа желание вакцинироваться у части испытуемых уменьшилось. Причем только среди тех, кто изначально переживал из-за возможных побочных эффектов. Здесь авторы и увидели эффект обратного действия. Хотя, казалось бы, вмешательство заключалось в разоблачении конкретного мифа, а не в попытке убедить людей в необходимости вакцинироваться. Человек может иметь иные соображения или опасения. Например, считать вакцину от гриппа бесполезной.
Так или иначе, работу попробовала воспроизвести другая группа исследователей и снова с отрицательным результатом. Как и в исходном исследовании Найхена и Рейфлера, разоблачение мифа снизило долю людей, считавших, что вакцина от гриппа вызывает инфекцию. Но уменьшения желания вакцинироваться у добровольцев
отмечено не было, независимо от их первоначальных опасений.
Итак, с одной стороны имеем слабые и плохо воспроизводимые, но ужасно популярные в “эпоху постправды” исследования про эффект обратного действия. А что с другой?
Идея о том, что людей эффективно просвещать, рассказывая им о фактах, мифах и их разоблачении, уже давно используется в листовках о безопасности вакцин центра по контролю заболеваний США. И есть работы, показывающие, что такая листовка
лучше способствует усвоению знаний, нежели альтернативная листовка, где есть только факты.
Об этом же свидетельствует
диссертация одного из самых известных научных видеоблоггеров Дерека Мюллера (
Veritasium). Согласно его исследованию, люди лучше усваивают знания в области физики, если им не просто сообщить факты, а сначала представить мифы, разоблачить их, и рассказать как на самом деле. Мюллер использует этот подход во многих своих роликах, которые набирают миллионы просмотров на youtube.
Воспроизводили такой эффект и в преподавании психологии. Вот и я придерживался такого подхода в этой статье.
Click to view
Кстати, такой подход к борьбес мифами блестяще реализован в фильме “Яйца” (Nuts). Там рассказывается история врача Джона Бринкли, который пересаживал мужчинам яйца козла для лечения импотенции и сколотил на этом состояние. В начале фильм пропагандирует альтернативные методы лечения, убеждает зрителя, что Бринкли - не шарлатан, а потом разоблачает сам себя: зрителю сообщали ложные факты и он в них поверил. Не стоит слишком доверять фильмам.
Click to view
Похожий подход использует ведущий Адам Коновер в передаче “Адам портит все”, посвященной разбору бытовых мифов. Забавно, что в 8 серии 2 сезона Адам устраивает сеанс саморазоблачения: в ней сообщается о допущенных ранее ошибках и упоминается эффект обратного действия, ставящий под сомнение целесообразность всей передачи. Даже Адам не догадался поискать: воспроизводились эти исследования или нет. В данном случае жаль, что "эффект обратного действия" не сработал.
Click to view
Еще один подход, на который возлагают надежды - информирование людей о когнитивных ошибках, склоняющих к ложным выводам. В 2015 году на этому тему вышел хороший
обзор в журнале Frontiers in Psychology. Среди прочего там упоминается
исследование по эффективному обучению критическому мышлению. Используя кучу заумных терминов, группу подростков убеждали в том, что некий новый материал, вступив в контакт с их кожей, улучшает их физические и умственные способности. Затем с ними проводили семинар о научном методе и о том, как понять работает ли некое вмешательство или нет. Наконец, им объясняли, что материал, вопреки сложившемуся у многих впечатлению, на самом деле не работает. По сравнению с контрольной группой, такое вмешательство существенно уменьшало склонность подростков находить причинно-следственные связи там, где их нет (P < 0.001).
Вышеупомянутый обзор содержит еще несколько важных мыслей, имеющих практическое применение в борьбе с мифами. Важно, какая идея окажется в голове у человека первой, ведь люди и правда не любят менять точку зрения. Поэтому о наиболее популярных заблуждениях нужно рассказывать как можно раньше, с убедительным и доступным опровержением.
Многие заблуждения подобны оптическим иллюзиям - им сложно не поддаться, но можно научиться распознавать. Если человек на основе личного опыта полагает, что гомеопатия или иной метод альтернативной медицины работает, приведите примеры людей, у которых та же проблема прошла без лечения. Это может пошатнуть иллюзию.
Люди более склонны выстраивать ошибочные причинно-следственные связи в условиях, когда потенциальная причина или потенциальное следствие встречаются часто. Поэтому пустышками чаще всего лечат то, что часто проходит само. А наиболее популярные пустышки - те, которые надо принимать регулярно (по шарику, каждые два часа). Попробуйте убедить знакомых или родственников пропустить пару приемов фуфломицина, если они не хотят отказываться от него полностью. Людям часто не приходит в голову проверить, не будут ли они чувствовать себя также без препарата-пустышки.
Очень опасна идея, что бесполезные методы альтернативной медицины можно совмещать с нормальными лекарствами. Дело в том, что если пациенту станет лучше, он может решить, что помогло не нормальное лекарство, а пустышка. Впоследствии, он даже может отказаться от реально действующего препарата.
Перечисленное выше - краткое и упрощенное содержание
обзора, который я рекомендую прочитать всем коллегами, занимающимся научно-популярной деятельностью или образованием.
Конечно, люди более склонны искать подтверждение своим взглядам и неохотно признают свои ошибки (хотя Адам Коновер и пытается своим примером показать, что это надо делать с удовольствием, а не с обидой). Но это не значит, что мы живем в “эпоху постправды” и что факты никого не волнуют. Подходы к просвещению, основанные на представлении, что люди глупы и не могут воспринимать рациональные аргументы, пропитаны снобизмом и потому обречены на провал. Поэтому я за то, чтобы было больше меморандумов. И за то, чтобы рассказывать людям о многочисленных способах, которыми наш разум может нас обмануть. Сейчас на эту тему есть книга Даниэля Канемана “Думай медленно, решай быстро”, Майкла Шермера с “Почему люди верят в странные вещи”, Паскаля Буайе “Объясняя религию”, Роба Брозертона “Недоверчивые умы. Чем нас привлекают теории заговоров” и книга Аси Казанцевой “Кто бы мог подумать! Как мозг заставляет нас делать глупости”. Я тоже про это хочу рассказать в моей второй книге, но про другое и по-другому.