Dissonance cognitive

Vous est-il déjà arrivé d'entendre ou de lire des explications sur un phénomène ou un évènement, et d'avoir l'impression qu'on évite le sujet en donnant une explication courte et simple qui coupe court à toute interrogation, du style "c'est le diable" ?

Vous est-il déjà arrivé de poser une question, et d'avoir pour réponse non pas une explication sur l'objet de votre question, mais une remarque sur le fait que vous posiez cette question, du style "tu cherches la polémique" ?

Souvent, l'évènement ou la question met le doigt là où ça fait mal. Et plutôt que d'avoir une attitude ouverte, on vous dit "tu ne peux pas poser ce genre de question" ou "tu manques de foi", etc. Certaines réponses peuvent même être carrément destructives, du style "tu n'es pas des nôtres" ou "tu as été éclairé et tu es retourné aux ténèbres, tu est donc irrécupérable", alors que vous posiez simplement une question, prêt à intégrer la réponse... mais la réponse ne vient pas - ce qui vient, c'est un reproche - ou une attaque directe - sur le fait que vous posiez cette question...

On a ici un phénomène de dissonance cognitive, qui est la tension interne propre au système de pensées, croyances, émotions et attitudes (cognitions) lorsque plusieurs d'entre elles entrent en contradiction l'une avec l'autre. Le terme désigne également la tension qu'une personne ressent lorsqu'un comportement entre en contradiction avec ses idées ou croyances.

Lorsqu'une personne est incohérente avec elle-même, elle entre dans un conflit interne et entre en dissonance cognitive. P.ex. une personne qui dit prendre en compte la Bible dans son entier, jusqu'à chaque virgule, et à laquelle vous démontrez que certaines de ses croyances, ou les statuts de son assemblée, ou sa confession de foi, etc., contiennent des éléments non bibliques, a de fortes (mal)chances d'entrer en dissonance cognitive.

Lorsque nos croyances sur le monde entrent en contradiction avec les faits, ou quand la vision que nous avons de nous-mêmes est en décalage avec nos actes, nous éprouvons une tension mentale qu'il nous faut réduire à tout prix, quitte à réinterpréter la réalité: c'est la dissonance cognitive - tension inconfortable qui survient lorsque l'on considère deux idées contradictoires simultanément.

Avez-vous déjà rencontré des gens qui changent d'avis quand vous leur exposez des faits qui sont contraires à leurs convictions ? C'est très rare - au contraire, les gens semblent renforcer leurs croyances et les défendre avec acharnement quand il y a des preuves accablantes contre elles. L'explication est liée au fait que notre vision du monde nous semble menacée par des preuves factuelles qui ne vont pas dans son sens. Cette emprise de la croyance sur la preuve s'explique par la dissonance cognitive, et aussi par l'effet rebond (backfire).

Dans un ouvrage classique publié en 1956 intitulé "Quand la prophétie échoue", le psychologue Leon Festinger et ses co-auteurs ont décrit ce qui est arrivé à une secte vouant un culte aux ovnis après que le vaisseau-mère extraterrestre attendu pour les sauver de l'apocalypse ne soit pas arrivé à l'heure annoncée. Au lieu d'admettre leur erreur, les membres du groupe ont cherché frénétiquement à convaincre le monde de leurs croyances, et ont prétendu que grâce à leur ferveur, l'apocalypse avait été reportée. Ils ont fait une série de tentatives désespérées pour effacer cette dissonance entre leur croyance et la réalité en faisant de nouvelles prédictions après la prophétie initiale, dans l'espoir que l'une finirait par être la bonne. Fait surprenant, seules deux personnes quittèrent le mouvement suite à ce flop cosmique - les autres virent leur foi redoublée. Ils préférèrent "adapter" la réalité à travers le filtre de leur croyance plutôt que de remettre cette dernière en question. Cette façon de sélectionner les informations qui confirment notre vision du monde fait partie de notre arsenal de défense face aux dissonances...

Dans leur livre "Des erreurs ont été commises (mais pas par moi)", publié en 2007, les deux psychologues sociaux Carol Tavris et Elliot Aronson (un ancien étudiant de Festinger) documentent des milliers d'expériences démontrant comment les gens déforment et sélectionnent les faits pour les adapter à leurs croyances préexistantes et réduire leur dissonance cognitive. Leur métaphore de la "pyramide de choix" illustre comment deux individus ayant des positions proches - côte à côte au sommet de la pyramide - peuvent rapidement diverger et finir au pied de la pyramide sur des faces opposées, avec des opinions inverses, dès lors qu'ils se sont mis en tête de défendre une position.

L'effet rebond (en anglais, backfire) montre que corriger les erreurs factuelles liées aux croyances d'une personne n'est pas seulement inefficace, mais que cela renforce ses croyances erronées, car "cela menace sa vision du monde ou l'idée qu'elle se fait d'elle-même". P.ex. les sujets d'une expérience reçoivent des articles de presse fictifs qui confirment des idées fausses répandues, comme la présence d'armes de destruction massive en Irak. Puis on donne aux participants un article qui démontre qu'aucune arme de destruction massive n'a été trouvée. Résultat: les sujets opposés à la guerre acceptent le nouvel article et rejettent les anciens, alors que ceux qui soutiennent la guerre font le contraire. Pire, ils déclarent être encore plus convaincus de l'existence d'armes de destruction massive après avoir lu l'article montrant qu'il n'y en avait pas, au motif que cela prouve seulement qu'elles ont été cachées ou détruites. En fait, la croyance que l'Irak possédait des armes de destruction massive juste avant l'invasion par les États-Unis a persisté longtemps après que l'administration Bush elle-même ait fini par admettre que ce n'était pas le cas.

Une autre expérience consiste à faire écouter une attaque contre le christianisme enregistrée sur une bande magnétique à deux groupes de cobaye: l'un composé de sujets allant régulièrement à l'église, l'autre composé de sujets athées. Pour corser l'expérience, les psychologues introduisent un crépitement sur l'enregistrement qu'il est possible de réduire en appuyant sur un bouton, rendant le message plus facile à comprendre. Le résultat: les non-croyants tentent d'éliminer l'interférence pour écouter le message, alors que les croyants préfèrent le message qui est plus difficile à entendre. L'expérience a été rejouée plusieurs fois pour montrer toujours des effets similaires, notamment avec des fumeurs à l'écoute d'un discours sur le lien entre le tabagisme et le cancer...

Nous avons tendance à rendre silencieuse la dissonance cognitive en nous imposant à nous-mêmes notre propre ignorance. Si les corrections factuelles ne font qu'empirer les choses, que pouvons-nous faire pour convaincre les gens que leurs croyances sont erronées ?

On peut p.ex. essayer de montrer que changer de vision des faits n'implique pas nécessairement de changer de vision du monde, et surtout discuter et ne pas attaquer (pas d'attaque ad hominem ni de point Godwin). Il est important également (et avant tout) d'écouter attentivement et d'essayer d'analyser la position de notre interlocuteur avec précision, de mettre nos émotions de côté, de montrer du respect en reconnaissant que nous comprenons pourquoi quelqu'un peut soutenir cette opinion, tout en essayant de démontrer avec tact l'incohérence de la personne (et non pas en mettant l'accent sur la personne incohérente).

Ces stratégies ne fonctionnent pas toujours pour convaincre les gens de changer de point de vue, mais en ces temps où il est devenu si courant de s'affranchir de la vérité ("tout est relatif"), cela pourrait au moins aider à réduire les dissensions inutiles.


Sources et pour aller plus loin:

Wikipédia

Les multiples façons dont votre esprit vous manipule

Pourquoi les faits ne suffisent pas à convaincre les gens qu'ils ont tort

Nos décisions en questions


Articles les plus consultés (30 derniers jours)

Libéré(e) du monde!

Les 10 commandements

Miracles