Dans le livre «Méfiez-vous de votre cerveau», publié aux éditions 41, l’illustrateur Gilles Bellevaut, et l’enseignant-chercheur en psychologie sociale à l’Université de Fribourg, Pascal Wagner-Egger, réunissent leurs talents respectifs pour mettre l’accent sur les biais cognitifs, et la manière dont ils influencent notre pensée. CNEWS s'est entretenu avec l'universitaire suisse pour en savoir plus.
Une remise en question salutaire. «Quand on voit ce qu’on voit, et qu’on entend ce qu’on entend, on a raison de penser ce qu’on pense», souligne la formule popularisée par Coluche (ou Pierre Dac selon les générations). Cette citation est, un peu, au cœur de l’ouvrage «Méfiez-vous de votre cerveau», publié le 13 octobre dernier aux éditions 41, par l’illustrateur Gilles Bellevaut, et l’enseignant-chercheur en psychologie sociale à l’Université de Fribourg (Suisse), Pascal Wagner-Egger.
© Editions 41
Au gré de ses 152 pages, ce livre passe en revue pas moins de 30 biais cognitifs qui permettent de mieux comprendre les erreurs de jugement dont peut être victime notre cerveau, et auxquels personne ne peut échapper.
Pourquoi sommes-nous tous - la plupart du moins - à ce point convaincus d’avoir un raisonnement logique et rationnel ?
Ce que montre notre ouvrage sur les biais cognitifs, c’est que l’être humain croit toutes sorte de choses – religions, fantômes, extra-terrestres, complots, etc. – trop rapidement, car il lui suffit de quelques éléments – coïncidences, quelques cas frappants ou témoignages, photos et vidéos floues, etc. — pour justifier le fait d’y croire. Alors que pour des scientifiques, il faut beaucoup plus de preuves.
Un exemple serait quelqu’un qui croirait, à partir de quelques coïncidences, qu’il existe un lien entre ses insomnies et la pleine lune, alors que des études scientifiques menées sur des milliers de personnes ne montrent pas de liens entre le sommeil et le cycle lunaire. Ou une personne qui, parce qu’elle a lu sur un site internet alternatif une théorie, va y adhérer parce que c’est bien écrit, et que cela lui paraît plausible.
On voit aussi des gens convaincus par les témoignages de personnes faisant parties de leur entourage que telles ou telles plantes ou vitamines soignent telles maladies. Tout cela constituerait des preuves insuffisantes pour les scientifiques. C’est ce qui fait la différence entre science et croyance, mais la plupart des gens qui croient pensent être logiques et rationnels, alors qu'ils et elles ne le sont pas.
En quoi l’histoire de l’Humanité, et l’évolution de notre espèce à travers les millénaires, jouent-elles un rôle ?
Il y a plusieurs sortes de biais cognitifs. Dans le livre, nous parlons de biais cognitifs qui seraient localisés dans notre cerveau, mais il y a aussi des biais psychologiques qui sont liés à notre identité et à notre rapport aux autres, ainsi que des biais sociaux liés à notre appartenance à des groupes.
Concernant les biais cognitifs qui sont liés à la survie, on peut imaginer qu’il y ait une histoire évolutive. Le but du cerveau est en effet à la base d’assurer la survie de l’organisme, et pas la découverte du Boson de Higgs ou de la théorie des cordes en physique ! Il paraît donc assez vraisemblable que certains mécanismes de pensée très rapides qui peuvent nous aider à survivre — ce qu'on appelle des heuristiques, qui peuvent mener à des biais cognitifs, donc des erreurs de raisonnement — se soient inscrits dans nos cerveaux par la sélection naturelle. C’est-à-dire que les personnes qui n’avaient pas ces systèmes de pensée sont décédés, et n’ont pas eu de descendance. Et nous sommes, nous, les descendantes et descendants des personnes qui ont survécu.
Nous possédons des réflexes très utiles pour la survie, mais pas pour la recherche de la vérité.
Par exemple, une certaine réaction paranoïde – une paranoïa légère – peut être utile pour la survie. Le fait, dans une forêt, d’entendre un bruit dans notre dos, et sans vérifier ce que c’est, d’avoir peur immédiatement, de penser que c’est un prédateur ou un ennemi, cela va nous faire peur et nous amener à fuir sans vérifier la source du bruit. Ce réflexe sera bien sûr très utile pour la survie, mais pas pour la recherche de la vérité. Et c’est l’hypothèse que nous faisons à propos de certains biais cognitifs qui ont aidé nos ancêtres à survivre dans un monde dangereux, mais qui actuellement nous affectent encore, alors que le monde est, pour une partie chanceuse de l'humanité, devenu moins dangereux.
Les biais cognitifs, comment peut-on y remédier et quelle est la meilleure attitude adoptée ?
L'hypothèse du livre, c’est que la simple connaissance des biais cognitifs est déjà un premier pas pour essayer de les combattre. Et on s’aperçoit, en lisant le livre, que nous avons toutes et tous certaines habitudes intellectuelles, héritées du fonctionnement de notre cerveau ou de notre socialisation. Le fait d’en être conscient et de les repérer chez soi, c’est la meilleure façon d’essayer de les éviter et de se dire justement que certains mécanismes de pensée ne sont pas forcément bons, ou qu’on ne dispose souvent pas suffisamment de preuves pour tirer des conclusions.
Quel est le biais cognitif le plus répandu selon vous dans la société actuelle ?
Le biais de confirmation. C’est à la fois un biais cognitif - on peut être individuellement attiré par les données qui confirment ce qu’on pense -, et un phénomène social et collectif : plus le groupe auquel on appartient est militant, plus il va encourager ses membres à trouver des informations confirmatoires et pousser à la radicalisation. En plus, cette tendance à la confirmation est renforcée sur Internet avec les fameuses «bulles de filtre», où l'on s’entoure de gens qui pensent la même chose que nous. Le fait de préférer les gens qui partagent les mêmes opinions que nous existait bien sûr avant Internet, mais la communication digitale a grandement accentué ce phénomène. Il y a aussi les algorithmes des moteurs de recherche, qui vous donnent des résultats en fonction de votre historique. Le risque est de tomber dans une bulle informationnelle dans laquelle vous rencontrez toujours les mêmes contenus. Je dirais qu'avec les phénomènes de désinformation massive politique, scientifique, etc., le biais de confirmation est l'un des plus importants défis de nos sociétés de l'information.
Le biais de confirmation est un danger potentiel pour la démocratie.
C’est même un danger potentiel pour la démocratie. Aux États-Unis, on s’aperçoit que la réalité elle-même devient discutable. Les gens ne parviennent plus à s’accorder sur la vérité. Les «fake news», propagées notamment par Donald Trump, font qu’on ne sait plus ce qui est vrai et ce qui est faux. L’ancien président américain a toujours affirmé qu’il y avait des millions de gens lors de son investiture, alors que les photos montrent le contraire. Ou que les dernières élections étaient truquées alors qu’il n’existe aucune preuve. Tout cela est extrêmement dangereux, et les supporters de Trump vont être convaincus d’avoir raison alors que rien ne le confirme.
Les divergences idéologiques existaient auparavant, mais plutôt dans l’interprétation de la réalité. Aujourd’hui, avec les «fake news» et les théories du complot, il y a une remise en question de la réalité elle-même. Et cela est d’autant plus paradoxal qu’on dispose de plus de moyens d’information, avec les réseaux sociaux où l'on peut voir des vidéos ou des témoignages. Mais on peut aussi plus facilement truquer ces vidéos ou ces témoignages. Nous évoluons dans un monde où il y a à la fois plus de transparence et plus de manipulations possibles. Et c’est cela qui peut poser problème. Connaître nos biais cognitifs est ainsi un outil pour éviter ces manipulations, c'est une sorte de prévention de la pensée.
«Méfiez-vous de votre cerveau», éditions 41, 18,90€.