Parfois, notre cerveau est fourbe. [Immortelles théories du complot #2]

Marie Geffroy
7 min readDec 27, 2020

La semaine dernière, j’ai publié un premier article sur le thème du complotisme, abordant la question des croyances et des besoins universels auxquels les théories du complot apportent un semblant de réponse, dans un contexte chaotique tel que celui dans lequel nous nous trouvons actuellement. Mon objectif n’est pas de jeter l’opprobre sur les personnes qualifiées de complotistes, mais de les aider à éventuellement comprendre pourquoi les autres les perçoivent ainsi. C’est aussi, plus généralement, d’aider les un•es et les autres à appréhender les raisons du succès de ces théories, à s’en protéger en cultivant l’esprit critique, et à rester en lien avec des proches séduit•es par le complotisme. Aujourd’hui, je vous propose d’aller visiter notre cerveau, et de faire connaissance avec les biais cognitifs qui s’y nichent.

Cette série d’articles ne propose pas d’analyse des théories les plus répandues en “débunkant” les arguments des personnes qui les défendent, car j’ai pu observer que l’efficacité de cette méthode était limitée. En effet, en matière de croyances, invalider une pseudo preuve altère rarement le postulat d’origine. Par exemple, le fait que l’on ait pu démontrer qu’il existe dans le monde de multiples exemplaires d’une même relique ne diminue pas la foi des chrétien•nes. Les reliques, auxquelles les croyant•es attribuent des pouvoirs surnaturels et la survenue de “miracles”, ont mis en mouvement des foules de pèlerins, phénomène très profitable aux paroisses où elles sont exposées. Grande fût la tentation d’en créer de toutes pièces, dès le Moyen-Age.

Il en va de même pour une théorie du complot, échafaudée comme une pyramide inversée, en équilibre sur sa pointe : une croyance sur laquelle reposent toutes les briques (les arguments) qui visent à corroborer cette dernière. Retirer une brique n’ébranle pas l’édifice. Pire, elle peut être remplacée par un mortier d’arguments justifiant l’inexactitude de cette brique.

Par exemple, si je crois que les cathédrales ont été construites sur des lieux “à fort taux vibratoire”, la géobiologie (pseudo-science), va corroborer cette croyance en parlant de croisement de “courants telluriques” situés sous ces lieux de culte, selon la cartographie du “réseau Hartmann” ou du “réseau Curry”. Ils mesurent les “taux vibratoires” avec leur perceptions corporelles, un pendule et des baguettes… ce qui laisse une sacrée marge d’erreur. L’immense majorité des scientifiques qui se sont penchés sur le sujet considère que les preuves données par les tenant•es de ces théories ne tiennent pas (pas de mesure tangible). Le fait que la science ait démontré que ce ce treillis de lignes est imaginaire et non mesurable ni quantifiable n’altère pas la croyance. Il est très difficile de prouver que quelque chose est faux (prouvez moi que le Père Noël n’existe pas). Mais ce qui est affirmé sans preuve peut être réfuté sans preuve. Et même si l’on parvenait à prouver par des mesures rigoureuses que ces lieux n’étaient pas plus “vibrants” que les alentours, alors les géobiologues pourraient se justifier avec l’idée que les courants ont pu bouger depuis le Moyen-Age par exemple.

Ce type de raisonnement est “anti-sceptique”. En effet, une démarche sceptique consiste en la mise à l’épreuve de fondations, sur lesquelles on va venir poser une à une des briques de preuves solides, afin d’élever une pyramide culminant en une théorie fiable. Une pyramide reposant sur sa base carrée en somme. S’il est prouvé qu’une brique du raisonnement est fausse, la structure même de la pyramide est fragilisée, et il est sage de repartir des fondations pour élaborer un raisonnement s’approchant davantage de la vérité. Le doute est un outil essentiel de la technique sceptique, invitant à vérifier la solidité de chaque élément de construction du raisonnement.

Dans un raisonnement scientifique, je cherche à résoudre une question en partant d’hypothèses que je vais tester par des expériences méthodiques, afin de valider l’une d’entre elles. Et parfois, aucune des hypothèse n’est vérifiée, et de nouvelles hypothèses sont nécessaires afin de réitérer le processus. Si je cherche à justifier ma croyance, je ne vais me fier qu’aux éléments qui vont dans le sens de cette dernière, à l’exclusion des faits qui pourraient la mettre en doute. La nuance est importante.

Ce que l’on pourrait qualifier d’erreur de raisonnement est involontaire. Nous sommes victimes de notre cerveau, soumi•ses à des biais cognitifs, sortes de pièges de la pensée, qui entravent la logique. Le cerveau, qui consomme beaucoup d’énergie, a une forte tendance à fonctionner à l’économie. Il est bien moins coûteux pour lui de suivre automatiquement le même chemin de pensée, que de défricher un sentier à l’aveuglette à chaque nouveau sujet. On peut ainsi persister dans l’erreur. Il est aussi beaucoup plus économe et rapide pour lui de croire à une théorie toute faite que de faire des recherches poussées afin d’élaborer un raisonnement rigoureux. Plus on a envie de croire à quelque chose, plus il est sage de s’en méfier.

Jean-François Le Ny, psychologue spécialisé dans la cognition donne une définition de ce phénomène :

« Un biais est une distorsion (déviation systématique par rapport à une norme) que subit une information en entrant dans le système cognitif ou en sortant. Dans le premier cas, le sujet opère une sélection des informations, dans le second, il réalise une sélection des réponses. »

Je vous propose une liste de quelques biais cognitifs, en général inconscients, qui entrainent des erreurs de perception, d’évaluation et d’interprétation logique. J’ai retenu ceux qui me semblent les plus utiles dans l’analyse du succès des théories du complot et des croyances en général. Une fois qu’on les connait, ils sont assez simples à repérer chez soi et chez les autres… Enfin, si l’on parvient à s’affranchir du biais de tache aveugle à l’égard des préjugés qui entrave la prise de conscience de nos propres biais cognitifs nous influençant dans nos choix et nos jugements.

Tout d’abord, les émotions provoquées par le sujet renforcent mon attention : c’est le biais émotionnel. Ma mémoire est activée par mes émotions et je retiens davantage les informations sensationnelles que les faits présentés avec neutralité. Cela contribue à expliquer que les “fake news” circulent 6 fois plus vite que les autres informations. Le fond et la forme du message sont élaborés pour susciter des émotions fortes.

Je retiens en priorité des informations qui concernent mes centres d’intérêt. Ce biais d’attention est renforcé par les bulles informationnelles sur les réseaux sociaux : les algorithmes identifient les sujets qui me font le plus réagir, et me proposent automatiquement des contenus conformes à mes préférences. Or, plus je suis exposé•e à une thèse, plus j’y adhère, par effet de simple exposition. Ce dernier fonctionne aussi concernant une personne ou une situation : ma perception de ces dernières est plus positive si j’ai déjà été en contact avec elles, surtout si elles m’ont fait une bonne première impression, c’est le biais d’ancrage.

Le biais de confirmation est très fréquent. Je valide mes opinions grâce aux éléments qui les confirment, et je rejette les éléments qui les réfutent. Le biais de congruence renforce cette tendance : je suis réticent•e à tester d’autres hypothèses que la mienne. On parle aussi d’effet de halo pour désigner cette tendance à sélectionner les informations qui vont dans le sens de ma première impression. De manière générale, j’interprète les informations en fonction de mon propre vécu : ma perception est sélective et par nature subjective.

J’avais déjà évoqué en introduction du premier article l’effet Dunning-Kruger, aussi appelé biais de sur-confiance ou biais de supériorité illusoire, selon lequel les moins qualifiés dans un domaine surestiment leur compétence. Il s’appuie notamment sur le biais égocentrique : j’ai un jugement mélioratif de moi-même, et je peine à prendre conscience de mes erreurs. Il est lié au biais d’autocomplaisance : je suis responsable de mes réussites, mais pas de mes erreurs, qui sont dues à des facteurs exogènes. Je peux même être totalement aveugle vis-à-vis de mes erreurs : on parle alors de biais d’immunité à l’erreur.

L’effet retour de flamme rend le “debunk” inefficace : face à des preuves qui la contredisent, ma croyance va paradoxalement être renforcée. Il est en effet très coûteux d’admettre qu’on a tort : on perd un repère, voire une partie de soi, et on peut avoir peur de perdre la face aussi… J’ai tellement “dépensé” pour acquérir cette certitude qu’il m’est presque impossible de faire machine arrière : c’est la notion de coût irrécupérable (ou “sunk cost” en économie comportementale).

On a aussi tendance à juger le message en fonction de la qualité perçue du messager, ou le fond en fonction de la forme : c’est le sophisme génétique. Il s’accorde parfaitement avec le biais d’autorité qui donne plus de crédibilité à la parole d’une personne (re)connue. On pourrait aussi parler ici de “prime au rebelle” : une thèse originale et décalée par rapport au consensus général va sembler plus intéressante, d’autant plus si celui qui la profère est anticonformiste. Alors une blouse blanche émérite avec des cheveux longs, une bague tête de mort, le verbe haut et des opinions à contre courant… Jackpot !

En ce qui concerne notre perception de la probabilité d’un événement, plusieurs principes entrent en œuvre. Je peux être sujet•te à l’illusion des séries, qui me donne l’impression de voir des coïncidences dans une série de données : c’est souvent le cas dans les jeux de hasard. C’est notamment dû à l’oubli de la fréquence de base d’un événement dont on cherche à évaluer la probabilité. Face à la probabilité d’un risque, deux dynamiques paradoxales entrent en jeu : d’une part la maximisation du négatif (je le retiens davantage que le positif), et d’autre part l’optimisme irréaliste selon lequel je suis moins exposé•e au risque qu’autrui.

J’en terminerai pour aujourd’hui en évoquant la notion de pensée dichotomique, ou binaire : tout ou rien, noir ou blanc. Qui a le temps aujourd’hui d’élaborer une pensée complexe, de chercher la nuance ? Il n’est nul besoin de l’union de cerveaux machiavéliques au sein d’un “Nouvel ordre mondial” pour nous diviser, la propension de nos propres cerveaux à la pensée binaire y arrive très bien !

Dans le prochain article, je me concentrerai sur les techniques rhétoriques manipulatoires qui donnent de la crédibilité aux théories du complot.

--

--