La psychologie des fake news : pourquoi nous y croyons

Saviez-vous que 76% des Français affirment avoir été confrontés à des informations qu’ils pensaient fausses ou trompeuses au cours du mois précédent? La psychologie des fake news est devenue un champ d’étude crucial dans notre société hyperconnectée. Alors que nous naviguons dans un océan d’informations sans précédent, notre cerveau utilise des raccourcis cognitifs qui, paradoxalement, nous rendent vulnérables à la désinformation. Ce phénomène n’est pas nouveau, mais il a pris une ampleur inédite avec les réseaux sociaux et la polarisation politique que nous observons actuellement dans l’espace francophone et au-delà.

Dans cet article, nous explorerons les mécanismes psychologiques qui nous poussent à croire aux fausses informations, même lorsque nous nous considérons comme des personnes rationnelles et informées. Vous découvrirez pourquoi votre cerveau est naturellement attiré par certains types d’informations, comment les plateformes numériques amplifient ces biais, et surtout, quelles stratégies concrètes vous pouvez adopter pour renforcer votre immunité cognitive face à la désinformation.

Les fondements cognitifs de notre vulnérabilité aux fake news

Pourquoi même les personnes éduquées et critiques peuvent-elles tomber dans le piège des fausses informations? La réponse se trouve dans l’architecture même de notre cognition, façonnée par des millénaires d’évolution.

Le biais de confirmation : notre filtre sélectif d’information

Le biais de confirmation représente notre tendance naturelle à privilégier les informations qui confirment nos croyances préexistantes et à ignorer ou dévaluer celles qui les contredisent. Ce n’est pas un défaut, mais plutôt une caractéristique de notre système cognitif qui nous permet de traiter efficacement l’information dans un monde complexe.

Une étude menée par Quattrociocchi et al. (2016) a analysé plus de 54 millions d’interactions sur Facebook concernant des contenus scientifiques et conspirationnistes. Les résultats sont frappants : les utilisateurs interagissent principalement avec des contenus alignés sur leurs convictions et forment des communautés distinctes et polarisées. Nous avons observé que ce phénomène est particulièrement prononcé dans le contexte francophone, où les débats sur l’immigration, la laïcité ou les politiques économiques sont souvent marqués par une forte polarisation.

Cas d’étude : Les « gilets jaunes » en France

Le mouvement des gilets jaunes illustre parfaitement ce phénomène. Une analyse des groupes Facebook liés à ce mouvement a révélé que les membres étaient exposés à des informations radicalement différentes selon leur orientation politique initiale. Les mêmes événements étaient interprétés de façon diamétralement opposée, renforçant les divisions au lieu de favoriser le dialogue.

Vous êtes-vous déjà surpris à partager un article dont le titre confirmait votre point de vue, sans même l’avoir lu entièrement? Cette question n’est pas anodine, car selon une étude de l’Université Columbia, 59% des liens partagés sur les réseaux sociaux n’ont jamais été ouverts par ceux qui les partagent.

L’effet de familiarité : quand la répétition crée la vérité

Un autre mécanisme fondamental est l’effet de familiarité, parfois appelé « effet de vérité illusoire ». Plus nous sommes exposés à une affirmation, même fausse, plus nous sommes susceptibles de la considérer comme vraie.

Les travaux de Pennycook et Rand (2019) démontrent que la simple exposition répétée à une fausse information augmente significativement la probabilité que nous la jugions crédible, même si elle a été initialement présentée comme douteuse. Ce phénomène s’explique par la façon dont notre cerveau traite la familiarité comme un signal de vérité, un mécanisme qui était adaptatif dans des environnements plus simples mais qui devient problématique dans notre écosystème informationnel complexe.

Cas d’étude : La désinformation sur la 5G en Belgique et en France

En 2020, des rumeurs associant la 5G à la propagation du COVID-19 se sont répandues rapidement dans l’espace francophone. Malgré l’absence totale de fondement scientifique, la répétition constante de ces affirmations sur les réseaux sociaux et dans certains cercles a conduit à des actes de vandalisme contre des antennes en Belgique et en France. Ce cas illustre comment la répétition d’une information, même absurde, peut créer une impression de vérité suffisamment forte pour motiver des actions concrètes.

La charge cognitive et la paresse intellectuelle

Notre cerveau est économe par nature. Face à un flot continu d’informations, il utilise des heuristiques – des raccourcis mentaux – pour trier ce qui mérite notre attention. Cette économie cognitive nous rend particulièrement vulnérables aux fake news, qui sont souvent conçues pour être simples, émotionnelles et faciles à traiter.

Comme l’explique Daniel Kahneman dans son ouvrage « Système 1, Système 2 : Les deux vitesses de la pensée » (2011), nous privilégions naturellement les traitements rapides et automatiques (Système 1) aux analyses lentes et délibérées (Système 2). Cette préférence pour la facilité cognitive est exploitée habilement par les créateurs de désinformation.

Vous sentez-vous parfois submergé par la quantité d’informations à traiter quotidiennement? Cette surcharge informationnelle n’est pas sans conséquence : elle réduit notre capacité à vérifier minutieusement chaque information, nous rendant plus susceptibles d’accepter des affirmations douteuses mais simples à comprendre.

Désinformation réseaux sociaux. Psychologie des fake news.
Désinformation réseaux sociaux. Image: Les Echos

L’écosystème numérique : amplificateur de nos biais

Notre architecture cognitive n’est qu’une partie de l’équation. L’environnement numérique dans lequel nous évoluons aujourd’hui joue un rôle crucial dans l’amplification de nos vulnérabilités face aux fake news.

Les chambres d’écho et les bulles de filtre

Les chambres d’écho désignent ces espaces numériques où nous nous retrouvons principalement exposés à des opinions similaires aux nôtres, tandis que les bulles de filtre résultent des algorithmes qui personnalisent notre expérience en ligne en fonction de nos préférences passées.

Une étude de Del Vicario et al. (2016) publiée dans PNAS a analysé comment l’information se propage sur Facebook et a constaté que les utilisateurs tendent à se regrouper en communautés distinctes, consommant et partageant des informations qui correspondent à leur vision du monde. Ces structures créent un terrain fertile pour la propagation des fake news au sein de groupes déjà prédisposés à les croire.

Cas d’étude : Le débat sur la vaccination en France

Le débat sur la vaccination en France offre un exemple éloquent de ce phénomène. Des analyses de réseaux sociaux ont montré que les communautés pro et anti-vaccination interagissent très peu entre elles, malgré le fait qu’elles discutent du même sujet. Chaque groupe développe son propre « savoir » et ses propres « experts », rendant le dialogue constructif presque impossible.

Le modèle économique de l’attention

Le modèle économique des plateformes numériques repose sur la captation de notre attention. Or, nous avons observé que les contenus émotionnellement chargés, surprenants ou indignants génèrent plus d’engagement – et donc plus de revenus publicitaires.

Une analyse de Vosoughi et al. (2018) publiée dans Science a étudié la diffusion de vraies et fausses nouvelles sur Twitter et a découvert que les fausses informations se propagent significativement plus vite, plus loin et plus largement que les informations vérifiées. Pourquoi? Principalement parce qu’elles suscitent des émotions plus fortes, notamment la surprise et le dégoût.

Avez-vous remarqué combien il est plus facile de s’indigner d’une information choquante que de se réjouir d’une nouvelle positive? Cette asymétrie émotionnelle est exploitée par les algorithmes et les créateurs de fake news pour maximiser l’engagement.

La crise de confiance envers les institutions traditionnelles

La prolifération des fake news s’inscrit également dans un contexte plus large de défiance envers les institutions traditionnelles – médias, gouvernements, experts scientifiques – particulièrement marquée dans l’espace francophone.

Selon le baromètre de la confiance politique du CEVIPOF (2023), seulement 31% des Français font confiance aux médias traditionnels pour relayer fidèlement les informations. Ce vide de confiance crée un espace que les sources alternatives, parfois douteuses, s’empressent de combler.

Cas d’étude : La méfiance envers les médias traditionnels au Québec

Au Québec, une étude du Centre d’études sur les médias (2022) a montré une corrélation entre la méfiance envers les médias traditionnels et la propension à croire et partager des informations non vérifiées provenant de sources alternatives. Ce phénomène s’est particulièrement manifesté durant la crise sanitaire, où des « médias citoyens » ont gagné en influence en se présentant comme des alternatives aux « médias mainstream » supposément à la solde du pouvoir.

Les dimensions sociales et identitaires de l’adhésion aux fake news

Au-delà des aspects cognitifs et technologiques, la croyance aux fake news comporte une importante dimension sociale et identitaire qu’il serait réducteur d’ignorer.

L’appartenance au groupe et la conformité sociale

L’être humain est fondamentalement social. Notre tendance à nous conformer aux normes de notre groupe d’appartenance peut parfois prévaloir sur notre jugement individuel, même face à des informations manifestement erronées.

Les expériences classiques d’Asch sur la conformité sociale nous rappellent que nous pouvons rejeter l’évidence pour éviter de nous démarquer du groupe. Dans le contexte actuel des réseaux sociaux, cette pression conformiste peut s’exercer de façon plus subtile mais tout aussi puissante.

Cas d’étude : Les théories du complot dans les communautés marginalisées

Dans certaines communautés marginalisées en France et en Belgique, notamment dans les quartiers populaires, on observe une plus grande adhésion à certaines théories du complot. Ce phénomène ne s’explique pas par une moindre intelligence ou éducation, mais plutôt par une méfiance historiquement justifiée envers des institutions qui ont pu discriminer ces populations. Adhérer à ces récits alternatifs devient alors un marqueur d’appartenance communautaire et une forme de résistance symbolique.

La dissonance cognitive et le besoin de cohérence

La dissonance cognitive, concept développé par Festinger (1957), désigne l’inconfort psychologique que nous ressentons lorsque nous sommes confrontés à des informations qui contredisent nos croyances. Pour réduire cette dissonance, nous pouvons rejeter l’information contradictoire, même si elle est vraie.

Une étude de Nyhan et Reifler (2010) a mis en évidence « l’effet retour de flamme » (backfire effect) : lorsque des personnes fortement engagées politiquement sont confrontées à des faits qui contredisent leurs croyances, elles peuvent renforcer leurs convictions initiales plutôt que de les réviser.

Vous êtes-vous déjà senti irrité face à une information qui contredisait votre vision du monde? Cette réaction émotionnelle est le signe de la dissonance cognitive à l’œuvre.

L’identité politique et la polarisation

L’identité politique est devenue une composante majeure de l’identité personnelle pour beaucoup d’individus. Cette fusion entre identité personnelle et positionnement politique rend particulièrement difficile la remise en question de certaines croyances.

Les travaux de Kahan et al. (2017) sur le « raisonnement motivé par l’identité » montrent que nos capacités cognitives sont mobilisées non pas pour découvrir la vérité, mais pour protéger notre identité sociale et politique. Plus une personne est cognitivement sophistiquée, plus elle peut être habile à rationaliser des croyances alignées avec son identité politique, même si ces croyances sont factuellement incorrectes.

Cas d’étude : Le débat sur le changement climatique en Suisse

Malgré son image de pays scientifiquement avancé, la Suisse n’échappe pas à la polarisation sur certains sujets. Le débat sur le changement climatique y révèle comment l’identité politique peut influencer l’acceptation ou le rejet d’informations scientifiques. Les citoyens plus conservateurs tendent à minimiser la gravité du phénomène non pas par ignorance, mais parce que les solutions proposées (régulation, taxation) entrent en conflit avec leurs valeurs fondamentales.

Bulle de filtre médias. Image: Radio France

Comment lutter contre notre vulnérabilité aux fake news?

Face à ces mécanismes profondément ancrés dans notre psychologie, quelles stratégies pouvons-nous développer pour renforcer notre résistance à la désinformation?

Développer une littératie médiatique critique

La littératie médiatique ne se limite pas à savoir utiliser les outils numériques, mais implique une compréhension critique de l’écosystème informationnel.

Les signaux d’alerte d’une fake news

  • Titre sensationnaliste suscitant des émotions fortes (indignation, peur, surprise extrême).
  • Absence de sources clairement identifiées ou sources impossibles à vérifier.
  • Fautes d’orthographe ou de grammaire nombreuses (indice de manque de professionnalisme).
  • URL imitant des sites d’information légitimes avec de légères modifications.
  • Date de publication absente ou ancienne partagée comme une actualité.
  • Images manipulées ou sorties de leur contexte (vérifiables par recherche d’image inversée).
  • Absence de l’information sur d’autres sources médiatiques réputées.
  • Appel à partager massivement sans vérification.

Des programmes d’éducation aux médias ont été développés dans plusieurs pays francophones. En France, le CLEMI (Centre pour l’éducation aux médias et à l’information) forme les élèves à l’analyse critique de l’information. En Belgique, le Conseil supérieur de l’éducation aux médias propose des ressources similaires. Ces initiatives montrent des résultats encourageants quant à la capacité des jeunes à identifier les informations douteuses.

Pratiquer la métacognition et la réflexion lente

La métacognition – la capacité à réfléchir sur nos propres processus de pensée – est un outil puissant contre la désinformation. Prendre conscience de nos biais et ralentir notre processus de traitement de l’information peut significativement améliorer notre discernement.

Une étude de Bago et al. (2020) a montré que le simple fait d’encourager les participants à réfléchir plus longuement avant de juger de la véracité d’une information améliorait considérablement leurs performances, indépendamment de leur orientation politique.

Exercice pratique de métacognition face à une information potentiellement fausse:

  1. Prenez conscience de votre réaction émotionnelle initiale. Une forte émotion (surtout négative) devrait déclencher votre vigilance.
  2. Interrogez-vous sur la congruence avec vos croyances. Si l’information confirme parfaitement votre vision du monde, redoublez de prudence.
  3. Identifiez l’origine précise de l’information et évaluez sa crédibilité.
  4. Recherchez des sources multiples et diversifiées sur le même sujet.
  5. Accordez plus de poids aux sources primaires qu’aux commentaires.
  6. Acceptez l’incertitude comme partie intégrante d’un jugement nuancé.

Diversifier ses sources d’information

La diversification de nos sources d’information est un antidote efficace contre les chambres d’écho et les bulles de filtre.

Une étude de Guess et al. (2018) a montré que les personnes exposées à des points de vue politiques divers sont moins susceptibles de croire et partager des informations fausses. Cette exposition à la diversité semble stimuler l’esprit critique et la vigilance épistémique.

Actions concrètes pour diversifier ses sources:

  • Suivez délibérément des médias et des commentateurs aux orientations politiques diverses.
  • Utilisez des agrégateurs de nouvelles comme AllSides ou Ground News qui présentent différentes perspectives sur les mêmes événements.
  • Sortez régulièrement de votre zone de confort intellectuel en lisant des analyses qui challengent vos convictions.
  • Échangez respectueusement avec des personnes aux opinions différentes des vôtres.
  • Consultez des médias internationaux pour obtenir des perspectives extérieures sur les événements nationaux.

Cultiver l’humilité intellectuelle

L’humilité intellectuelle – la reconnaissance de nos limites cognitives et de notre faillibilité – constitue un rempart efficace contre la désinformation.

Les travaux de Porter et Schumann (2018) suggèrent que les personnes faisant preuve d’humilité intellectuelle sont plus ouvertes à réviser leurs croyances face à des preuves contradictoires et moins susceptibles de s’engager dans un raisonnement motivé par des considérations identitaires.

Cas d’étude : L’humilité intellectuelle chez les fact-checkers professionnels

Une étude ethnographique menée auprès des équipes de fact-checking de grands médias francophones (Le Monde, Libération, RTBF) a révélé que ces professionnels cultivent délibérément une forme d’humilité intellectuelle dans leur pratique quotidienne. Cette posture les conduit à vérifier systématiquement même les informations qui leur paraissent intuitivement vraies et à rester ouverts à la révision de leurs conclusions face à de nouvelles preuves.

Vérification information psychologie. Image: La Clinique e-Santé

Le défi collectif face aux fake news

La lutte contre la désinformation ne peut se limiter à des stratégies individuelles. Elle requiert également des approches collectives impliquant différentes parties prenantes de notre société.

Le rôle des plateformes numériques

Les géants du numérique ont un rôle crucial à jouer dans la limitation de la propagation des fake news. Après des années de réticence, ces plateformes ont commencé à mettre en place diverses mesures pour freiner la désinformation, avec des résultats mitigés.

Principales mesures adoptées par les plateformes:

  • Algorithmes de détection automatique de contenus suspects.
  • Partenariats avec des fact-checkers indépendants.
  • Étiquetage des contenus douteux ou contestés.
  • Déclassement des sources régulièrement identifiées comme trompeuses.
  • Transparence accrue sur les publicités politiques.

Ces mesures soulèvent cependant des questions légitimes sur la censure et la liberté d’expression. Qui décide de ce qui est « vrai » ou « faux »? Cette question n’est pas triviale et mérite un débat démocratique approfondi.

L’éducation comme rempart collectif

L’éducation formelle et informelle à l’esprit critique et à la littératie médiatique représente notre meilleur espoir à long terme contre la désinformation.

En Finlande, souvent citée comme exemple, l’éducation aux médias est intégrée dans le programme scolaire dès le plus jeune âge. Le pays figure régulièrement parmi les moins vulnérables à la désinformation en Europe.

Dans l’espace francophone, des initiatives similaires se développent. Au Québec, le programme « 30 secondes avant d’y croire » forme des milliers d’élèves chaque année. En France, la « Semaine de la presse et des médias dans l’école » sensibilise annuellement plus de 4 millions d’élèves.

Cas d’étude : L’initiative « Détecteurs de Rumeurs » au Québec

L’Agence Science-Presse du Québec a développé les « Détecteurs de Rumeurs », un programme qui forme des adolescents à devenir des fact-checkers dans leurs propres établissements scolaires. Cette approche par les pairs s’est révélée particulièrement efficace pour développer l’esprit critique des jeunes et créer une culture de vérification des faits.

Vers une écologie de l’information

Le concept d’écologie de l’information propose de considérer notre environnement informationnel comme un écosystème dont nous devons prendre soin collectivement.

Cette approche implique une responsabilité partagée entre:

  • Les médias, qui doivent privilégier la qualité à la rapidité.
  • Les plateformes numériques, qui doivent repenser leurs modèles économiques basés sur l’attention.
  • Les décideurs politiques, qui doivent élaborer des régulations équilibrées.
  • Les citoyens, qui doivent adopter des comportements informationnels responsables.

La législation européenne sur les services numériques (Digital Services Act) représente une tentative ambitieuse de créer un cadre réglementaire favorisant cette écologie de l’information, en imposant plus de transparence et de responsabilité aux plateformes.

Controverses et débats actuels

La recherche sur la psychologie des fake news continue d’évoluer et certains points font l’objet de débats importants au sein de la communauté scientifique.

L’efficacité réelle du fact-checking

Une controverse significative concerne l’efficacité du fact-checking. Si certaines études montrent des effets positifs de la vérification des faits sur les croyances des individus (Walter et al., 2020), d’autres suggèrent que son impact est limité, particulièrement auprès des personnes les plus polarisées politiquement (Nyhan et al., 2019).

Certains chercheurs, comme Danielle Citron et Ethan Zuckerman, avancent que le fact-checking pourrait même avoir des effets contre-productifs en augmentant la visibilité des fausses informations (effet de l’attention négative) ou en renforçant le sentiment de persécution chez certains groupes.

Cette controverse souligne la complexité du phénomène et la nécessité d’approches multidimensionnelles qui ne se limitent pas à la simple correction factuelle.

La tension entre modération et liberté d’expression

Un autre débat fondamental concerne l’équilibre entre la nécessaire modération des contenus problématiques et la préservation de la liberté d’expression.

Ce débat est particulièrement vif dans l’espace francophone, où la tradition républicaine française de liberté d’expression se heurte aux préoccupations croissantes concernant les discours haineux et la désinformation. Des intellectuels comme Gilles Kepel et Caroline Fourest ont exprimé leurs inquiétudes quant aux risques de censure excessive, tandis que d’autres comme Tristan Mendès France soulignent la nécessité de réguler un espace numérique devenu toxique.

Cette tension se reflète également dans les différences d’approche réglementaire entre pays francophones: la France et la Belgique ont adopté des législations plus interventionnistes contre la désinformation, tandis que le Canada et la Suisse ont privilégié des approches plus centrées sur l’éducation aux médias.

Chambres d'écho numérique
Chambres d’écho numérique. Imagen: Internet Matters

Conclusions et perspectives

La psychologie des fake news nous révèle que notre vulnérabilité à la désinformation n’est pas une anomalie, mais le résultat prévisible de l’interaction entre notre architecture cognitive, l’environnement informationnel contemporain et nos dynamiques sociales.

Face à ce constat, une approche uniquement technique ou uniquement éducative serait insuffisante. Nous avons besoin d’une stratégie holistique qui:

  • Reconnaît les limites de notre cognition sans culpabiliser les individus.
  • Repense l’architecture de nos plateformes numériques pour qu’elles amplifient moins nos biais.
  • Investit massivement dans l’éducation critique dès le plus jeune âge.
  • Encourage la diversité des perspectives dans notre consommation médiatique.
  • Développe une éthique de la responsabilité informationnelle à tous les niveaux.

Si la montée en puissance des fake news peut sembler décourageante, elle nous offre aussi une opportunité précieuse: celle de mieux comprendre nos processus cognitifs et de développer collectivement une relation plus mature à l’information.

Dans un monde où l’intelligence artificielle générative rend la production de faux contenus toujours plus facile et convaincante, ces compétences critiques ne sont plus optionnelles – elles deviennent essentielles à l’exercice même de notre citoyenneté.

Que pouvez-vous faire, dès aujourd’hui, pour améliorer votre hygiène informationnelle? La prochaine fois que vous serez tenté de partager une information choquante ou confirmant parfaitement votre vision du monde, prenez un moment pour vérifier sa source, chercher des perspectives alternatives, et réfléchir à votre motivation profonde. Ce simple geste peut sembler insignifiant, mais multiplié par des millions de citoyens, il a le pouvoir de transformer radicalement notre écosystème informationnel.

Car en définitive, la meilleure défense contre les fake news n’est pas technologique, mais humaine: c’est notre capacité collective à cultiver le doute méthodique, l’humilité intellectuelle et la curiosité authentique.

FAQ – Questions fréquemment posées

Q: Les personnes éduquées sont-elles moins vulnérables aux fake news? R: Pas nécessairement. Les recherches montrent que l’éducation formelle n’immunise pas contre la désinformation, surtout quand celle-ci confirme nos convictions politiques. Les personnes plus éduquées peuvent même être plus habiles à rationaliser des croyances erronées alignées avec leur identité.

Q: L’intelligence artificielle va-t-elle résoudre ou aggraver le problème des fake news? R: Les deux. L’IA offre des outils puissants pour détecter la désinformation, mais facilite également la création de faux contenus ultra-réalistes (deepfakes). L’impact net dépendra largement de nos choix collectifs concernant la régulation et l’utilisation éthique de ces technologies.

Q: Le fact-checking est-il efficace contre la désinformation? R: Son efficacité est variable. Le fact-checking peut corriger certaines croyances erronées, surtout pour les informations peu politisées et auprès d’audiences non polarisées. Cependant, il est moins efficace face à des croyances fortement liées à l’identité politique ou intégrées dans des récits conspirationnistes.

Références bibliographiques

Bago, B., Rand, D. G., & Pennycook, G. (2020). Fake news, fast and slow: Deliberation reduces belief in false (but not true) news headlines. Journal of Experimental Psychology: General, 149(8), 1608–1613. https://doi.org/10.1037/xge0000729

Del Vicario, M., Bessi, A., Zollo, F., Petroni, F., Scala, A., Caldarelli, G., Stanley, H. E., & Quattrociocchi, W. (2016). The spreading of misinformation online. Proceedings of the National Academy of Sciences, 113(3), 554–559. https://doi.org/10.1073/pnas.1517441113

Festinger, L. (1957). A Theory of Cognitive Dissonance. Stanford University Press. https://doi.org/10.1515/9781503620766

Guess, A., Nyhan, B., & Reifler, J. (2018). Selective Exposure to Misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign. European Research Council. https://www.dartmouth.edu/~nyhan/fake-news-2016.pdf

Kahan, D. M., Peters, E., Dawson, E. C., & Slovic, P. (2017). Motivated numeracy and enlightened self-government. Behavioural Public Policy, 1(1), 54–86. https://doi.org/10.1017/bpp.2016.2

Kahneman, D. (2011). Système 1, Système 2 : Les deux vitesses de la pensée. Flammarion.

Nyhan, B., Porter, E., Reifler, J., & Wood, T. J. (2019). Taking Fact-checks Literally But Not Seriously? The Effects of Journalistic Fact-checking on Factual Beliefs and Candidate Favorability. Political Behavior, 42, 939–960. https://doi.org/10.1007/s11109-019-09528-x

Nyhan, B., & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32(2), 303–330. https://doi.org/10.1007/s11109-010-9112-2

Pennycook, G., & Rand, D. G. (2019). Lazy, not biased: Susceptibility to partisan fake news is better explained by lack of reasoning than by motivated reasoning. Cognition, 188, 39–50. https://doi.org/10.1016/j.cognition.2018.06.011

Porter, T., & Schumann, K. (2018). Intellectual humility and openness to the opposing view. Self and Identity, 17(2), 139–162. https://doi.org/10.1080/15298868.2017.1361861

Quattrociocchi, W., Scala, A., & Sunstein, C. R. (2016). Echo Chambers on Facebook. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.2795110

Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559

Walter, N., Cohen, J., Holbert, R. L., & Morag, Y. (2020). Fact-Checking: A Meta-Analysis of What Works and for Whom. Political Communication, 37(3), 350–375. https://doi.org/10.1080/10584609.2019.1668894

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut