Combattre les fake news ?
Depuis un certain temps, les fake news, les fausses idées et les incompréhensions inondent les réseaux sociaux et les médias en général.
On peut essayer de s'approcher le plus de "la vérité scientifique", bien que ce terme soit sujet à débats (philosophiques surtout). Cependant, c'est rarement ce qui est fait et certains domaines ne s'y prêtent simplement pas : la politique est un exemple facile, il est toujours possible de dire qu'une personne n'a pas compris l'intention d'un message ou l'a mal compris, l'a interprété d'une façon peu charitable. Si le rôle du journaliste est de vérifié les faits, les informations politiques, on pourra toujours l'accuser de déformer les propos ou de tordre la vérité dans un autre but politique.
Concernant les autres "faits", les informations qui sont vérifiées et vraies. Jusqu'à nouvel ordre, la science est le seul moyen que l'humain a développé pour produire de telles connaissances. Des consensus sur lesquels tous les experts s'accordent et sur lesquels la technologie est créée.
Pourtant, si la science a produit des consensus forts, ils sont largement ignorés du public voire rejetés. Une des causes possibles c'est que désormais, plus personne ne peut être à jour sur tout ce que la science produit. Même les scientifiques qui se spécialisent dans un domaine. Cet état sur le statut des informations provoque une confusion que les médias récents (surtout vu l'ampleur qu'internet a pris dans ce domaine) exacerbent en propageant des fake news, des fausses idées. Ces erreurs sur l'état des connaissances scientifiques ne sont pas toujours innocentes ni même de bonne foi et si elles ne sont pas commises par les journalistes eux mêmes, bien souvent les fausses informations (de toute nature) proviennent des sphères politiques et s'inscrivent dans des narrations communes. A titre d'exemple, on pourrait entendre dans une sphère de droite que la majorité des crimes sont commis par des migrants ou que les pauvres ne veulent pas travailler parce qu'ils sont paresseux. Dans une sphère écologiste on pourrait plus facilement entendre que la production d'électricité par le nucléaire nuit à la santé et à l'environnement. Ces affirmations sont fausses. Pourtant, elles sont largement relayées par les politiques.
Les scientifiques, certains journalistes et autres communicateurs sont régulièrement amener à "debunker", à démentir et corriger ces fausses idées, fake news et intox. Cependant, on peut se demander, est ce que cette approche de "debunkage" est efficace ? Est ce qu'elle a un impact sur l'opinion publique ?
Je n'avais pas vraiment d'avis ni d'idée sur cette question jusqu'à avoir lu cette revue de littérature que je vais essayer de décortiquer grossièrement ici. En bref, l'auteur de la revue compile les recherches récentes sur la question et donne quelques pistes sur comment combattre efficacement les idées reçues en science et en politique.
Why the backfire effect does not explain the durability of political misperceptions
L'effet retour de flamme
Cette review compile les résultats de la littérature récente sur les idées reçues en politique. Un des grands résultats de la recherche sur les fausses idées est que les informations fournies pour corriger l'idée reçue peuvent parfois avoir un "backfire effect" (un retour de flamme). Le backfire effect a lieu quand les personnes qui ont une idée fausse sur un fait scientifique (par exemple, ils ne croient pas que le réchauffement climatique est causé par l'activité humaine) sont soumises à une correction de l'information erronée mais à la place de changer d'opinion, les individus renforcent leur croyance de base et erronée.
La découverte de cet effet a provoqué des débats car à quoi bon corriger si les personnes croient encore plus à l'idée fausse après correction ? Les debunkages, décodages et autres "désintox" sont donc contre-productifs et risquent de provoquer l'inverse de ce qu'ils cherchent à provoquer, à savoir le changement des opinions, la correction des idées fausses.
Cependant, ce résultat est principalement basé sur une grosse étude mais ce n'est pas suffisant pour démontrer qu'il tient. La science a produit d'autres études à fin de préciser le résultat. Est ce qu'il tient la route ? Afin de répondre à la question, il faut d'abord un peu de contexte.
Les croyances dans des idées fausses sont liées à l'identité des personnes
Beaucoup de fausses idées circulent sur beaucoup de sujets, par exemple, les OGMs, le réchauffement climatique ou l'efficacité des mesures prises contre la propagation des maladies infectieuses. Ces croyances sont souvent liées à l'identité politique, au système de croyance d'une personne. Par exemple, les idées reçues qui circulent ne sont pas les mêmes chez des partisans d'extrême-droite que celles qui s'invitent chez des partisans d'extrême-gauche (et pas besoin d'aller dans les extrêmes pour trouver de fausses croyances, tout le monde en a). Ces croyances sont problématiques car si elles se répandent suffisamment, elles vont changer la politique publique. C'est pourquoi, les communicateurs et les scientifiques sont motivés de corriger les fausses idées. Cependant, vu qu'une croyance erronée est liée à l'identité d'une personne, s'attaquer à cette croyance en essayant de corriger l'idée reçue, c'est s'attaquer à son identité et on risque de polariser encore plus la personne visée par la correction. Il a d'ailleurs été démontré que plus la personne visée s'identifie à la croyance, plus elle aura tendance à être sceptique, ou à "raisonner" (à transformer) cette nouvelle information jusqu'à retomber sur une conclusion déjà acceptée.
La persistance des fausses informations
La recherche semble démontrer que les fake news, croyances infondées et les fausses idées sur la réalité du monde sont liées à l'identité de groupe. Il apparait aussi que les élites et les leaders des groupes sont les plus grand diffuseurs de ces fausses informations. Et c'est cohérent avec le résultat précédent, si l'identité de groupe défini une bonne partie des fausses croyances alors les leaders de ces groupes ont une influence toute particulière sur leur propagation.
Par exemple, après les élections de 2016 aux États Unis, les services de renseignements informent que la Russie est impliquée dans la création et la diffusion de fake news sur les réseaux américains dont le but est d'aider le parti républicain (celui de Donald Trump) à gagner l'élection. Ces informations ne sont pas vérifiées (à l'époque) et donc il n'est pas possible pour le commun des citoyens américains de savoir si elles sont véridiques. Pourtant, un sondage a montré que 82% des démocrates (dans l'opposition) sont d'accord avec cette information alors que seulement 29% des républicains (vainqueurs de l'élection de 2016) y croient (toujours sans vérification).
Ces erreurs et croyances infondées sont persistantes, parfois elles restent ancrées dans l'esprit des gens pendant des années voire des décennies malgré les réfutations.
Le consensus sur la correction
Un premier élément de réponse possible serait l'absence de "fact-checking" agressif. Les diffuseurs de ces fausses idées ont bien souvent trop facile de sortir une fausse information (volontairement ou par erreur de bonne foi) sans que celle ci ne soit directement vérifiée, corrigée et invalidée. Les médias et les journalistes sont souvent passifs sur les questions factuelles et au lieu de vérifier l'information et de rapporter des faits, ils se cachent derrière des tournures de phrases trop neutres : "M. untel a dit que ...". Cette approche passive de l'information permet d'offrir le même statut à un fait scientifique qu'à une rumeur.
Pour s'assurer que cette approche de vérification agressive permet d'éviter que la persistance des fake news dans le débat public, les auteurs réfèrent plusieurs études dont les résultats sont en fait mitigés. Certaines de ces études montrent que ça semble fonctionner un peu : apporter une contradiction permet de réduire la persistance des fake news mais cela ne fonctionne vraiment que si la correction va dans le sens qui convient déjà à la cible de la correction. Autrement dit, la correction n'est vraiment efficace que si la fausse information va à l'encontre des convictions de la personne. A l'inverse, d'autres études montrent qu'une correction peu renforcer la croyance de départ au lieu de la réduire ou de la corriger, c'est le "backfire effect". Parmi toutes les études mentionnées, d'autres concluent qu'il n'y a simplement pas d'effet correctif ni de backfire. Finalement, les auteurs de la revue concluent que s'il semble bien y avoir un risque de "backfire", il semble que cet effet n'est pas suffisant pour expliquer pourquoi les fausses idées persistent.
Je tiens à dire ici que ce sont des résultats très contre-intuitifs : la correction des fake news ne semble pas vraiment aider à combattre les fake news... Heureusement l'histoire ne s'arrête pas là, beaucoup de ces études ont été répliquées à plus grande échelle et le consensus général est le suivant :
Le backfire effect existe mais il est rare en pratique. La correction n'est pas inutile car elle permet souvent d'améliorer la précision des croyances surtout si elle se fait sous plusieurs formes (des graphiques par exemple) ou si elle propose une explication causale alternative crédible (une autre histoire). Finalement, la correction semble être modérément efficace quand elle concerne des questions factuelles mais elle devient moins efficace quand elle concerne la politique.
Comment expliquer la persistance ?
Il n'y a pas de réponse tranchée, cependant, il y a plusieurs éléments qui semblent important.
D'abord, la façon dont on étudie les croyances dans les fausses informations se base beaucoup sur des sondages. Il est possible que les personnes ne répondent pas sérieusement aux sondages ou ne répondent pas sincèrement ce qu'ils croient. Il y a plusieurs façon de contrôler pour ces facteurs dans la façon de faire les sondages et en général les études qui appliquent ces contrôles trouvent moins de polarisation des opinions et une meilleure adéquation entre les croyances et les faits. Cela dit, il est encore un peu difficile de savoir pourquoi on retrouve moins les effets décrits plus haut avec des sondages mieux contrôlés. Il se peut que dans la vie de tous les jours les gens agissent comme ils agissent face à des sondages non-contrôlés mais que quand on leur demande de vraiment bien réfléchir à la question, ils deviennent plus prudent et donc moins affirmatifs.
Ensuite, les études mesurent souvent l'effet des corrections juste après l'exposition à la fake news ou à l'idée fausse. Ils ont mesurer que l'effet de la correction peut durer plusieurs semaines mais a tendance à s'atténuer avec le temps. Les sondés ont alors tendance à revenir à leur croyance de départ. De plus, l'effet inverse s'y cumule : les personnes politisées reçoivent souvent un flot continu de messages qui proviennent d'un groupe partisan et ne sont plus soumis à la correction depuis un certain temps.
La persistance des croyances dans la sphère publique peut aussi venir d'un problème dans le ciblage des informations. Les personnes qui croient fermement à une fausse information ne sont pas toujours ciblée par les corrections de cette information. En d'autres termes, l'audience qui va recevoir la correction n'est pas celle qui a reçu la fausse information au départ.
Finalement, un dernier point soulevé par les auteurs serait l'effort cognitif à fournir lorsqu'on est face à une information. En bref, plus l'information est courte et facile à retenir, plus elle risque d'être facilement ancrée alors qu'une correction demande souvent plus d'effort et de temps à fournir. Un exemple simple est la fréquence à laquelle on peut lire des titres courts et racoleurs pour certains articles tels que : "AstraZeneca: pourquoi les deux décès probablement liés au vaccin n'inquiètent pas les autorités". Une personne normale va lire le titre, ou le voir passer dans son fil d'actualité sur Facebook mais ne va pas forcément faire l'effort d'aller lire l'article associé. Il faut noter que le titre est presque trompeur car l'article de très bonnes raisons et les études ont démontré que le vaccin est inoffensif mais un titre aussi simple va être facile à retenir et ne convoie pas forcément son contenu ni même l'état des connaissances scientifiques. De plus, le fait qu'il soit un peu choquant et touche un sujet sensible qui est déjà sujet à une vaste désinformation générale va d'autant plus renforcé cet effet.
Les études au sujet de l'effort cognitif montrent que :
- Les gens sont victimes de fausses informations à cause de biais cognitifs et de difficultés à s'engager dans un effort de traitement d'une information (vérifier qu'elle est fiable, raisonnable, cohérente, etc)
- La familiarité avec une fausse information la rend plus facile à comprendre et donne un sentiment qu'elle est plus vraie
- Etre moins souvent engager dans des débats nous rend plus susceptible de croire aux fausses informations : plus d'effort cognitif aide à détecter les fausses informations
Combattre les fausses informations
La recherche semble indiquer que la correction de l'information peut être un peu efficace mais parfois risque de provoquer l'effet inverse à celui désiré. Mais ça ne veut pas dire qu'on ne peut rien faire pour combattre les fausses informations. Il existe des approches alternatives au "debunkage".
Réduire la désinformation provenant des leaders et des partisans
Comme nous l'avons vu, les élites et les leaders des groupes partisans sont les plus grands diffuseurs de fausses informations, ils sont aussi ce qui lie les fausses informations à l'identité de groupe. Les messages des leaders politiques envers leurs partisans (surtout chez les extrêmes) sont capables d'augmenter les fausses croyances car la provenance de sources de confiance réduit la vérification des informations chez les partisans. Autrement dit, si un partisan reçoit une information d'un leader de son groupe, il aura moins tendance à vérifier l'information que s'il le reçoit d'une autre source.
Une façon de combattre les fausses informations en découle, lorsqu'il existe un consensus scientifique sur une question, par exemple sur le fait que le réchauffement climatique est causé par l'activité humaine, alors lorsque les médias relaient cette information, ils ne devraient relayer que les sources expertes du sujet et pas l'opinion des leaders politiques (ou autres) sur la question. Le fait d'ajouter des opinions politiques sur ces questions va non seulement diminuer la crédibilité de l'expertise scientifique mais encourager l'audience à prendre parti sur un sujet qui devrait faire consensus.
Se concentrer sur les élites
Les personnes qui souhaitent corriger les fausses informations doivent se concentrer sur les diffuseurs : les élites politiques, les leaders de groupe de partisans. Une première stratégie importante est d'augmenter le coût de diffuser des fausses informations en sanctionnant les élites de façon plus sévère. Les élus sont par exemple très sensible au risque d'avoir une couverture médiatique négative. Par conséquent, appliquer un regard très critique sur les discours de ces personnes pourrait les forcer à être plus prudent dans leurs affirmations. Une étude a vérifié cet effet en mesurant la quantité de fausses informations diffusées par des élus américains après avoir reçus des rappels des risques que les "fact-checkers" posent pour leur réputation (en leur montrant des statistiques sur les ré-elections suites à des dégâts de leur réputation). Ces politiciens étaient ensuite moins susceptibles de faire de fausses affirmations dans leurs discours comparés aux élus qui n'ont pas reçu ces rappels. Une autre façon de faire serait d'avoir une vérification des affirmations en direct lors des débats politiques publics.
Faire parler les sources intermédiaires
Il semble que certaines personnes ont une crédibilité accrue lorsqu'il s'agit de parler d'un sujet ou d'un autre. Lorsqu'il s'agit de science en général, des partisans d'un groupe qui ont une formation scientifique sont de bons intermédiaires pour relayer les corrections aux fausses croyances car ils sont aussi partisans du groupe visé. Une étude en particulier a montré que les corrections provenant des personnes ayant entretenu une fausse croyance et qui l'ont abandonnée ensuite a plus d'effet auprès du public cible. En pratique, ils ont étudié l'impact des arguments pour les OGMs quand ils sont diffusés par un ancien activiste anti-OGM et ils ont montré que sa parole semble plus crédible du fait qu'il avait cette croyance auparavant. (Je tiens à dire ici que le consensus scientifique actuel est que les OGMs ne posent pas plus de risques pour l'environnement ou la santé que les cultures conventionnelles).
Conclusion
Les fausses informations sont partout dans le discours public et malheureusement les corrections ne sont pas toujours efficaces voire peuvent empirer la situation. L'état actuel de la recherche sur ce sujet semble indiquer que même si le backfire effect est rare et que les informations correctives sont un peu efficaces, l'approche générale de "debunkage" des fausses croyances n'est pas très efficace. Les auteurs suggèrent plusieurs approches qui semblent plus efficaces pour réduire la présence des fausses informations dans le discours public. La plupart de ces approches se concentrent sur les intermédiaires du discours scientifiques, les leaders de groupes partisans et les sources qui ont la confiance du public cible.
Comments powered by CComment