События Как поймать мозг на месте преступления или коротко о нашей субъективности

Как поймать мозг на месте преступления или коротко о нашей субъективности

Данная статья является обзором на исследование

Michael Thaler (2024). The Fake News Effect: Experimentally Identifying Motivated Reasoning Using Trust in News. American Economic Journal: Microeconomics 16 (2): 1–38.

Как обычный человек воспринимает новую информацию? Как выбирает чему верить, а чему нет? Что им движет в вопросе доверия? И почему разные люди, получая одни и те же новости в одинаковых условиях, могут считать её как правдивой, так и ложной вне зависимости от качества источника, из которого была получена эта информация?

Исследователи поведенческой экономики выделяют традиционно две причины, отвечающие на поставленный вопрос. Первая причина – люди изначально имеют разные убеждения. Вторая причина – люди формируют свои убеждения на основе «предпочтительных» источников. Это наглядно видно в политическом контексте США: например, демократы и республиканцы часто имеют разные априорные (исходные) убеждения, что ведёт к расхождению их апостериорных оценок. Вдобавок, демократы и республиканцы обычно потребляют разные медиа и могут по-разному оценивать информативность аргументов, схожих с теми, что приводят MSNBC или Fox News.

Но помимо этих двух причин Майкл Талер в 2023 году выявил третью отдельную причину – мотивированное мышление[1]. Простыми словами, это способность анализировать, принимать и интерпретировать информацию с учетом личных мотивов и целей. И, следовательно, различного рода мотивы управляют всеми нашими когнитивными процессами. Особенно ярко мотивированное мышление проявляется у сторонников той или иной политической партии. Они склонны верить информации, которая поддерживает их взгляды, и с недоверием относится к противоположной.

На эту тему Майкл Талер[2] придумал остроумный эксперимент, который позволяет заметить проявление мотивированного мышления.

Смысл эксперимента или как мы не объективны

Весь эксперимент был построен по чёткой схеме, состоявшей из трех этапов.

Сначала участникам задавали вопросы на политизированные темы, требующие числового ответа (например, «Какой процент иммигрантов составляет нелегальное население?»). Но уловка заключалась в том, что их просили не просто назвать цифру, а медиану, то есть по каждому вопросу участник выбирает такой ответ, относительно которого он считает одинаково вероятным, что истинное значение окажется выше или ниже. За точные ответы и правильные интервалы участники получали денежные бонусы для того, чтобы мотивировать их на вдумчивые оценки.

На втором этапе происходило самое интересное. Испытуемый получал лаконичное сообщение, которое могло прийти случайным образом от одного из двух источников: всегда правдивых «Настоящих новостей» или всегда лживых «Фейковых новостей». Сообщение информирует его о том, находится ли правильный ответ выше или ниже выбранной медианы. Если сообщение поступает от True News, оно всегда верно; если от Fake News - всегда ложно. Однако участнику не сообщается, из какого источника пришло сообщение. Наоборот, самого участника просят сделать выводы о достоверности источника на основе полученной информации.

По логике, поскольку сообщения соотносят истинное значение ответа с субъективной медианой участника, байесовский агент посчитал бы, что для каждого источника одинаково вероятно передать любое из двух сообщений. Заметим, что участник заранее заявил, что считает истинный ответ одинаково вероятным быть выше или ниже своей медианы; следовательно, он должен понимать, что вероятность того, что источник True News сообщит, будто ответ выше медианы, равна 50% на 50%, и вероятность того, что источник Fake News сообщит, будто ответ ниже медианы, также равна 50%.

Иными словами, с точки зрения строгой логики подобные сообщения от фейковых и настоящих источников без знания, какой из них фейк, являются абсолютно бессмысленными. Рациональный человек не должен на них реагировать, понимая, что вероятность, что это правда или ложь – 50 на 50. Ведь он изначально допускал оба варианта с равной долей вероятности. Такое сообщение – всё равно, что крикнуть «Орёл!» после подбрасывания монетки, которая уже упала. Оно не несёт новой информации и уж тем более не говорит ничего о правдивости того, кто это сообщение сделал. Но именно это и является гениальной ловушкой для мотивированного мышления: только тот, кто хочет верить в конкретный исход, примет такие бесполезные данные за ценный сигнал. Его оценка источника резко изменится: если сообщение ему приятно, он сочтет его правдивым, если неприятно – лживым.

Таким образом, эксперимент создаёт ситуацию, где у рационального участника нет причин для предвзятой оценки, а у мотивированного человека – есть.

Результаты эксперимента: как мы выбираем источники информации

Представьте, что ваш мозг – это не беспристрастный учёный, а адвокат, который яростно защищает ваши взгляды. Именно это и доказал эксперимент Майкла Талера. И этот доказанный эффект был настолько силен, что люди предпочитали терять наличные деньги (которыми поощрялись за правильные ответы), но не менять своё мнение. Человек с мотивированным мышлением на 9 п.п. чаще считал приятные для себя новости правдивыми, чем неприятные. В то время как для рационального человека такая разность должна быть нулевой. Таким образом, наше доверие к медиа – это часто не рациональный выбор, а лишь инструмент самообороны для защиты собственной картины мира от неудобных фактов. Но самый поразительный результат был не в этом. Оказалось, что наш мозг способен на настоящую акробатику: участники эксперимента начали меньше доверять даже абсолютно правдивому источнику, если он всего лишь однажды сообщил им неприятную правду. Это доказывает, что мотивированное мышление – это подсознательный механизм, который может даже заставить нас отвергать сами основы реальности, если они угрожают нашему внутреннему «Я».

Что дополняет мотивированное мышление?

Одним из самых мощных и распространенных когнитивных искажений, питающих мотивированное мышление, является смещение к подтверждению[1] (confirmation bias). Этот термин был введен психологом Питером Уэйсоном. Он описывает систематическую ошибку, заключающуюся в тенденции людей искать, интерпретировать, отдавать предпочтение и запоминать информацию таким образом, чтобы она подтверждала их уже существующие убеждения или гипотезы. При этом игнорируя или недооценивая противоречащие доказательства.

Важно понимать соотношение этих понятий: смещение к подтверждению – это когнитивное искажение, паттерн ошибки мышления, тогда как мотивированное мышление – это более общий ментальный процесс, который приводит к появлению этого и других смещений. Таким образом, смещение к подтверждению является одним из основных механизмов, через который реализуется мотивированное мышление.

Им движут внутренние мотивы, и его мышление подстраивается под них. Человек самостоятельно фильтрует информацию: выхватывает и перекрывает факты под своё убеждение и напрочь игнорирует любые контраргументы. Этот феномен – краеугольный камень веры в теории заговора.

Как бороться с мотивированным мышлением или «Красная» команда

Результаты показали, какую роль политически мотивированное рассуждение играет в формировании людьми убеждений по прикладным экономическим вопросам, таким, как социальная мобильность доходов, преступность и иммиграция. Они также продемонстрировали, что этот когнитивный перекос может приводить к чрезмерной уверенности в собственных оценках и избыточному доверию ложным новостям. Это объясняет, почему несмотря на рост информационного потока в мире недопониманий в обществе стало больше, а не меньше: каждый выбирает удобный для себя источник информации, глубже уверяясь в том, во что верил. В итоге наличие информации не помогает прийти к взаимопониманию, а наоборот, ввиду мотивированного мышления, только увеличивает поляризацию взглядов разных категорий людей. Так вот, понимание механизма мотивированного мышления и смещения к подтверждению – это первый шаг к поиску способов «защитить» людей от такого искажения и снижению поляризации взглядов.

Однако полностью «избавиться» от подобного рода искажений невозможно – они являются эволюционно сформированными особенностями работы нашего мозга. Но с ними можно и нужно учиться работать, минимизируя их негативное влияние на принятие решений.

Конечно, в первую очередь необходимо работать над собой, простыми словами думать о том, как ты думаешь. Ведь самое сложное и главное – это принять, что вы не объективны. Это позволит перевести мышление из автоматического режима в режим аналитический. Сюда же можно отнести и рассмотрение работы под разными углами и сознательный поиск опровергающей информации.

К коллективным практикам можно отнести «метод красной команды», когда в работе над проектами создаётся специальная команда, которая выявляет слабые места и всегда выстраивает сомнение в предположениях. Это позволяет создать культурную норму, которая учит принимать несогласие коллег и максимально объективно оценивать ситуацию. Например, сейчас этот метод активно используется в оснащении безопасности ИИ для пользователей. Специальная «Красная команда» (Red Team) моделирует реальные кибератаки на цифровую инфраструктуру, которая позволяет выявить «пробои» в системе безопасности.


Комментарии 0