mardi 26 avril 2022

A theory of cognitive dissonance, de Leon Festinger


 

 Pilier de la psychologie sociale, en tout cas de sa partie qui concerne les biais cognitifs, le concept de dissonance cognitive est ici présenté par son créateur, avec un certain nombre de recherches pour le délimiter... forcément datées, puisque le livre date de 1957 (une mise a jour en 1985 est mentionnée, mais un rapide coup d’œil sur la bibliographie permet de voir que ladite mise à jour n'a pas inclus l'addition de nouvelles recherches).

 Le terme sonne un peu technique, mais la dissonance cognitive est aussi présente qu'inévitable au quotidien : il s'agit simplement de l'écart entre des conceptions ou valeur et la réalité, voire entre deux conceptions ou valeurs contradictoires. Par exemple ça peut être le fait de fumer en sachant que c'est dangereux à long terme (cet exemple revient souvent et les diverses stratégies qu'il déclenche et leur enjeu est longuement détaillé), de devoir faire en choix entre des alternatives (achat important, orientation professionnelle) pour lesquelles il est difficile d'arbitrer entre les avantages et les inconvénients, d'avoir une orientation politique mais avoir pour une élection spécifique une préférence pour un·e candidat du camp opposé (ou encore d'être plus en accord avec le·a candidat·e en question qu'avec le·a notre sur certains points particuliers, ...). L'intérêt du concept n'est pas dans ce constat assez évident, mais dans les stratégies que le psychisme, très réticent à la contradiction, va mettre en place pour réduire cette dissonance : l'auteur compare ces mécanismes à la recherche spontanée de nourriture quand on a faim, et si la comparaison a pas mal de limites d'un point de vue social (au quotidien, le fait que ce soit l'heure de manger a souvent plus d'impact que le niveau de satiété), l'aspect économique est en revanche omniprésent. En effet, la stratégie mise en place va souvent, tout simplement, être la moins coûteuse, celle qui impose le moins de compromis, qui demande le moins d'ajustements que ce soit sur les conceptions préexistantes ("oui, fumer c'est mauvais pour la santé, mais les campagnes de prévention exagèrent", "je suis convaincu par le risque présenté dans les campagnes de prévention, mais conduire c'est dangereux aussi, et personne ne vient m'expliquer que conduire c'est dangereux quand je prends ma voiture") ou sur les comportements ("de plus en plus de choses indiquent que mon projet va tomber à l'eau mais j'ai trop investi pour faire marche arrière maintenant, donc je vais plutôt rester optimiste et continuer de m'investir que me lancer dans une analyse bénéfices/risques dont le résultat pourrait bien ne pas m'arranger")  : "la dissonance maximale possible entre deux éléments est égale à la résistance au changement totale de l'élément le moins résistant".

 Par ailleurs, plus le sujet est important, plus les ajustements seront potentiellement drastiques ("la décision d'acheter une voiture plutôt qu'une autre va déclencher plus de dissonance que la décision d'acheter un savon de telle ou telle marque"), jusqu'à parfois provoquer des acrobaties particulièrement spectaculaires. L'auteur donne l'exemple théorique d'une personne qui, sous la pluie, maintient qu'il ne pleut pas. Si elle donne l'explication tirée par les cheveux que l'eau qui tombe est de l'eau poussée par le vent qui s'est accumulée sur les feuilles pendant la pluie précédente, elle va probablement être balayée du revers de la main (l'explication, pas l'eau) par l'interlocuteur·ice... sauf si l'interlocuteur·ice a très envie d'entendre qu'il ne pleut pas. L'envie d'entretenir une croyance a en effet tendance à pousser à s'entourer de personnes qui partagent la même croyance... et le partage des croyances par l'entourage servira alors de preuve! L'auteur observe ce type de mécanisme en étudiant deux mouvements religieux, l'un datant du XVIIIème siècle, l'autre contemporain, qui prédisaient une fin du monde proche, et dont les membres n'ont pas vu leur foi s'effondrer quand ladite fin du monde n'a pas eu lieu. Dans le premier cas, le leader arguait d'une erreur technique (de calcul ou d'interprétation des textes) pour déterminer la date, et repoussait la fin du monde à plus tard. Dans le second, la responsable, pour laquelle les erreurs de calcul étaient exclues parce qu'elle recevait les messages directement des extraterrestres, a après quelques quiproquos (les soucoupes volantes qui devaient aller chercher les disciples avec quelques jours d'avance ne se sont pas présentées), appris que la foi des membres du groupe avait sauvé l'humanité. Dans ce cas précis, s'il n'y a pas eu de changement de croyance (sauf pour... les personnes qui attendaient les soucoupes chez elles, et qui au moment de la dissonance n'ont pas pu chercher collectivement des explications pour entretenir la croyance), il y a eu changement de comportement : le groupe d'élu·e·s qui fuyait les médias (si les gens n'ont pas été contactés par les extraterrestres, après tout, c'est selon toute vraisemblance qu'ils n'en sont pas dignes) s'est mis à faire de l'évangélisation de façon proactive.

 J'ai donné à titre d'exemple l'illustration qui est probablement la plus spectaculaire, mais les expériences recensées, nombreuses, sont souvent bien plus complexes et demandent plusieurs lectures attentives pour vraiment comprendre les mécanismes étudiés. S'il décrit un mécanisme omniprésent au quotidien et qui a des enjeux importants, le livre est probablement plutôt destiné aux chercheur·se·s ou étudiant·e·s, tout en risquant d'être obsolète vu sa date de parution.

Aucun commentaire:

Enregistrer un commentaire