После процедуры «отбора» каждый из студентов слушал одну и ту же магнитофонную запись дискуссии, которая, как ему сообщалось, проходила в группе, к которой он только что присоединился. На самом деле эта запись была приготовлена заранее, и «дискуссия» намеренно делалась как можно более скучной и бессмысленной. Ее участники говорили сбивчиво и с долгими паузами о вторичных половых признаках птиц, в частности об изменениях оперения самцов в период ухаживания и т. п. На записи участники дискуссии хмыкали, говорили невнятно, часто прерывали друг друга, останавливались посередине фразы и так и не заканчивали ее.
Наконец, студенты оценивали дискуссию по ряду критериев. Те, кто прошел легкую процедуру «отбора», реалистично оценили дискуссию как бессмысленную и скучную, а ее участников также сочли неинтересными и скучными. Один из юношей в записи дискуссии, запинаясь и бормоча, признавал, что он не подготовился к обсуждению и не прочитал статью о ритуале ухаживания какого-то редкого вида птиц, и у слушателей, прошедших легкую процедуру отбора, он вызвал раздражение. Что за безответственный идиот! Он даже не прочитал обязательную статью! Он подвел группу! Кто захочет быть в группе вместе с таким человеком? Но те, кто прошел грудную процедуру отбора, оценили дискуссию как интересную и захватывающую, а участников группы посчитали привлекательными и умными. Они простили «безответственного идиота». Его искренность им понравилась! Разве это не замечательно: оказаться в группе вместе с таким честным парнем? Трудно поверить, что все слушали одну и ту же запись. Вот какова сила когнитивного диссонанса.
Этот эксперимент был несколько раз повторен другими учеными, использовавшими разные приемы воздействия и «отбора», начиная с электрошока, заканчивая тяжелыми физическими упражнениями [15]. Результаты были всегда одинаковы: трудная процедура вступительных испытаний приводила к тому, что группа нравилась больше. Эти результаты вовсе не означают, что людям нравятся неприятные ситуации, такие как заполнение налоговой декларации, или какие-то ситуации, связанные с болью. Они показывают, что если человек добровольно проходит сложные или болезненные и неприятные испытания, чтобы достигнуть какой-то цели или получать что-то, то цель или объект его усилий становятся более привлекательными. Если по пути на семинар дискуссионной группы вам на голову из открытого окна упадет цветочный горшок, после этого дискуссионная группа не станет больше нравиться. Но, если вы сами согласитесь на то, чтобы вас стукнули по голове цветочным горшком, чтобы стать участником группы — определенно, группа окажется после этого для вас более привлекательной.
«Я буду искать все новые доказательства, чтобы подтвердить то мнение, которое у меня уже есть».
— лорд Молсон, британский политик (1901–1991 гг.)
Теория когнитивного диссонанса также подорвала льстящую нашему самолюбию идею, будто мы, Homo sapiens, логично анализируем информацию. Если новая информация согласуется с нашими взглядами, мы думаем, что она обоснованная и полезная: «Именно то, что я всегда говорил!». Но если новая информация не согласуется с ними — мы считаем ее предвзятой или глупой: «Что за глупый довод!». Наша потребность в согласованности наших представлений настолько сильна, что, когда людей заставляют рассматривать, противоречащие их взглядам доказательства, они находят способ критиковать, искажать или отбросить, их, чтобы иметь, возможность поддерживать и укреплять свои уже существующие представления. Это интеллектуальное смещение называется «ошибкой подтверждения» [16]. Ленни Брюс, легендарный американский юморист и социальный обозреватель, ярко описал эту тенденцию, когда смотрел в 1960 г. знаменитую дискуссию между Ричардом Никсоном и Джоном Кеннеди — первые в истории США теледебаты кандидатов в президенты:
«Если я смотрел теледебаты вместе со сторонниками Кеннеди, они комментировали их так: „Ну, он просто уничтожил Никсона“. Потом мы шли в какую-то другую квартиру, где собирались сторонники Никсона, и они говорили нам: „Как вам нравится выволочка, которую Никсон устроил Кеннеди?“. А потом я понял, что каждая из групп настолько любила своего кандидата, что парень должен был совершить нечто из ряда вон выходящее, чтобы отношение к нему изменилось, например, глядя прямо в камеру сказать:
„Я — вор, я — мошенник, вы слышите меня? Я — худший кандидат в президенты, которого вы можете выбрать!“ И даже в этом случае его сторонники скажут: „Вот ведь честный человек. Нужно обладать мужеством, чтобы признать такое. Именно такой парень нам нужен в президенты“» [17].
В 2003 г., когда стало абсолютно ясно, что в Ираке не было оружия массового поражения, американцы, поддерживающие войну и обоснование ее необходимости президентом Бушем, начали испытывать диссонанс: Мы верили президенту, но мы (и он) заблуждались. Как разрешить диссонанс? Для демократов, которые поверили, будто у Саддама Хуссейна было оружие массового уничтожения, решение было относительно простым: республиканцы снова были неправы, президент лгал или, по меньшей мере, с готовностью верил ложной информации, как глупо было с моей стороны верить ему. Для республиканцев, однако, диссонанс был острее. Более половины из них разрешили его, отказавшись принять очевидное, и отвечали в опросе, проведенном организацией Knowledge Networks, что верят, будто оружие массового поражения в Ираке было найдено. Руководитель этого опроса сказал: «Желание некоторых американцев поддержать войну может заставить их не воспринимать информацию о том, что оружие массового уничтожения не было найдено. Учитывая огромное количество информации на эту тему и массовый интерес к ней, подобная степень неинформированности предполагает, что некоторые американцы могут избегать таким способом когнитивного диссонанса». Кто бы сомневался [18].
Нейробиологи недавно показали, что эта тенденция нашего мышления встроена в сам способ переработки информации мозгом, и это не зависит от политических взглядов людей. Например, в исследовании, проведенном Дрю Вестен с коллегами, в котором использовалась магнитно-резонансная томография (МРТ), респонденты анализировали информацию о республиканце Джордже Буше или демократе Джоне Керри, которая согласовывалась (консонансная информация) или расходилась (диссонансная информация) с их политическими взглядами. Дрю Вестен с коллегами обнаружили, что мыслительные зоны мозга буквально отключались, когда участники эксперимента сталкивались с диссонансной информацией, а эмоциональные зоны начинали «радостно светиться», когда консонанс восстанавливался [19]. Эти механизмы предоставляют нейрофизиологическое обоснование для известного наблюдения: если мы приняли какое-то решение или придерживаемся каких-то взглядов, нашу позицию трудно изменить.
В самом деле, даже чтение информации, противоречащей вашей точке зрения, может еще больше убедить вас в том, что вы правы. В одном эксперименте исследователи выбирали людей, некоторые из которых были за смертную казнь, а некоторые — против, и просили их прочитать две научные, хорошо аргументированные статьи на эмоциональную тему: предотвращает ли смертная казнь насильственные преступления. В одной статье делался вывод, что предотвращает, а в другой — что нет. Если бы читатели анализировали информацию рационально, они бы, по меньшей мере, поняли, что проблема сложнее, чем они ранее представляли, их позиции по поводу возможного сдерживающего эффекта смертной казни стали бы более умеренными и сблизились. Но теория диссонанса предсказывает, что читатели отыщут способ исказить содержание и аргументацию двух статей. Они найдут причины восхищаться статьей, подтверждающей их точку зрения, расхваливая ее как очень компетентную. Однако читатели будут жестоко критиковать статью, опровергающую их точку зрения, найдут в ней мелкие недочеты и преувеличат их, объявив вескими причинами, по которым на них эта статья повлиять не может. Именно так и произошло. Каждая сторона не только отнеслась с недоверием к аргументам оппонентов, но также еще больше укрепилась в своем мнении [20].
[15] См., например, Harold Gerard and Grover Mathewson (1966), «The Effects of Severity of Initiation on Liking for a Group: A Replication», Journal of Experimental Social Psychology, 2, pp. 278–287.
[16] См. интересный обзор, посвященный этой когнитивной «ошибке подтверждения» и многим примерам ее использования в: Raymond S. Nickerson (1998), «Confirmation Bias: A Ubiquitous Phenomenon in Many Guises», Review of General Psychology, 2, pp. 175–220.
[17] Lenny Bruce (1966), How to Talk Dirty and Influence People. Chicago: Playboy Press and New York: Pocket Books, pp. 232–233.
[18] Steven Kull, директор программы Program on International Policy Attitudes (PIPA) в университете Мэриленда, комментарий результатов исследования PIPA/Knowledge Networks poll, June 14, 2003, «Many Americans Unaware WMD Have Nor Been Found».