Une boîte à outils pour lutter contre la désinformation

Qu’est-ce que le contre-discours dans le contexte de la lutte contre la désinformation ? 

Dans le contexte de la lutte contre la désinformation, le contre-discours peut se définir comme une communication proactive ou réactive qui cherche à rectifier les informations erronées, à mettre en évidence des informations fiables et à renforcer la résilience face aux récits trompeurs. 

L’utilisation de contre-discours pour lutter contre la désinformation peut se situer à deux niveaux. 

Premièrement, les communautés, les plateformes, les organisations et les autorités peuvent s’engager dans une pratique active de contre-discours. Elles peuvent réfuter les informations fallacieuses qui sont en circulation en vérifiant les faits et les sources (ce qu’on désigne souvent en français par les termes de ‘fact-checking’). Ces entités peuvent également encourager ce qu’on appelle le ‘prebunking’ (qu’on peut traduire par ‘réfutation anticipée’), c’est-à-dire qu’elles peuvent diffuser des conseils pratiques expliquant aux utilisateurices comment identifier la désinformation et vérifier les faits avant même de se voir exposé.es à de fausses informations. 

Ensuite, les individus peuvent adopter des formes passives de contre-discours. En étant attentifs et en développant leur prise de conscience à l’égard de la désinformation, les individus peuvent en entraver passivement la propagation en s’abstenant d’y adhérer et de la transmettre. Les utilisateurices peuvent également s’engager dans des pratiques actives de contre-discours en ne partageant que des nouvelles exactes et fiables sur des événements en cours. Parfois, des utilisateurices bien intentionné.es partagent activement des informations erronées dans le but délibéré de les tourner en ridicule. Toutefois, cette forme active de contre-discours peut s’avérer contre-productive, car d’autres utilisateurices peuvent par la suite garder en mémoire la fausse information tout en oubliant le fait qu’elle est erronée. 

Qu’est-ce que la désinformation ? 

On entend par désinformation la création et la diffusion délibérées d’une information fausse dans l’intention de tromper ou d’induire en erreur. Elle se caractérise par la production délibérée de fausses informations ou la manipulation d’informations existantes pour produire un récit mensonger. L’intention qui anime la désinformation est le plus souvent de causer un dommage, de semer la confusion, d’inciter au conflit ou d’influencer l’opinion publique ou les comportements.  

Il existe de nombreux exemples de désinformation. On a souvent constaté que les émeutes ethniques étaient précédées de la diffusion de fausses informations relatives aux autres groupes ethniques, en ce compris des allégations relatives à la violence à l’égard des enfants et des femmes. Parmi les exemples politiques marquants de désinformation, on peut citer l’affirmation selon laquelle l’élection présidentielle américaine de 2020 aurait été remportée au moyen de fraude électorale. De nombreux exemples de désinformation ont également pu être observés pendant la pandémie de COVID-19, notamment en ce qui concerne les effets secondaires des vaccins ou les traitements alternatifs. 

Études de cas d’utilisation du contre-discours dans la lutte contre la désinformation  

L’une des principales approches en matière d’utilisation du contre-discours dans la lutte contre la désinformation est la réfutation ou la vérification des faits (le ‘fact-checking’). Il s’agit d’une collaboration entre les vérificateurices de faits et les entreprises de réseaux sociaux, dans le cadre de laquelle des journalistes ou d’autres vérificateurices de faits identifient qu’une information en circulation est fausse ou trompeuse, et les entreprises de réseaux sociaux signalent ou étiquettent ensuite cette information comme étant erronée. La vérification de faits fonctionne, en ce sens qu’elle réduit la croyance dans les fausses informations, mais il a été montré que les effets en restent quelque peu limités et éphémères. En outre, il se pose un problème pratique, car il y a davantage de désinformation potentielle en circulation que ce qu’il est possible de vérifier. Dans le même temps, les recherches suggèrent que la crainte de voir les institutions médiatiques vérifier leurs allégations joue un rôle important dans la responsabilisation des hommes politiques.  

Étant donné l’importance des ressources nécessaires à la réalisation et à la diffusion de la vérification de l’information, une attention croissante est accordée à la nécessité de compléter le travail de réfutation de la désinformation par des initiatives qui vivent à renforcer les capacités du public en ligne à travers des interventions de prebunking 

L’une des formes de prebunking est l’incitation (nudging).1 Cette stratégie repose sur la prémisse que les gens sont déjà motivés à ne croire et ne partager que des informations exactes, et l’incitation opère un simple rappel de cette motivation lorsque l’utilisateur navigue sur les réseaux sociaux. Par exemple, ces “incitations à l’exactitude” prennent la forme de questions qui surgissent pendant la navigation (pop-up) et demandent aux gens s’ils pensent qu’une information est vraie ou s’il est important de ne partager que des informations exactes. Plusieurs études ont démontré que les incitations à l’exactitude fonctionnent dans de nombreux contextes culturels différents, mais aussi que leurs effets sont limités. Par ailleurs, ces incitations se traitent rapidement et sont faciles à mettre en œuvre sur les plateformes de réseaux sociaux. Il s’agit là d’un avantage considérable. 

Une autre forme de prebunking est l’inoculation par le biais d’interventions ludiques.2 Alors que l’incitation à l’exactitude se concentre sur la motivation des utilisateurices, le jeu s’intéresse à l’autonomisation des utilisateurices par le renforcement de leurs compétences. L’idée sous-jacente est qu’en se trouvant placés dans le rôle d’un producteur de désinformation, les gens peuvent apprendre les stratégies typiques de fabrication de fausses nouvelles. Plusieurs jeux de ce genre ont été développés, y compris des jeux axés sur des sujets spécifiques tels que le changement climatique et le covid-19. La recherche montre que les compétences développées à travers le jeu peuvent aider les gens à identifier les fausses informations tant en laboratoire que sur les plateformes de réseaux sociaux réelles, et que les utilisateurices conservent les compétences acquises pendant plusieurs mois. Cependant, ces formes d’inoculation par le jeu requièrent davantage de temps pour être terminées et s’avèrent donc plus difficiles à administrer dans l’environnement en ligne en dehors du contexte spécifique de sessions de formation (par exemple, dans les écoles ou sur les lieux de travail). 

Une dernière forme de prebunking, les interventions d’éducation aux médias numériques3, est également orientée vers le renforcement des compétences. Tandis que les interventions basées sur le jeu développent les compétences de manière indirecte lorsque l’utilisateur joue à un jeu, les interventions d’éducation aux médias numériques fournissent des instructions plus directes sur la manière de repérer les fausses informations en ligne, et visent au fond à transformer l’utilisateurice en vérificateurice de faits. Vous trouverez ci-dessous un exemple frappant de conseils pratiques fournis par Facebook à ses utilisateurices, à la fois directement sur sa plateforme4 ainsi que dans des publicités publiées dans des journaux aux États-Unis, au Royaume-Uni, en France, en Allemagne, au Mexique et en Inde.  

  • Méfiez-vous des titres. Les fausses actualités ont souvent des titres accrocheurs tout en majuscules avec des points d’exclamation. Si les affirmations du titre semblent invraisemblables, elles le sont probablement. 
  • Examinez attentivement l’URL. Une URL frauduleuse conçue pour ressembler à une autre peut être le signe d’un site de fausses informations. De nombreux sites de fausses informations imitent de vraies sources d’actualité en apportant de légères modifications à l’URL. Vous pouvez accéder au site pour comparer l’URL aux sources reconnues. 
  • Effectuez des recherches sur la source. Vérifiez que l’actualité a été rédigée par une source de confiance reconnue pour son exactitude. Si l’actualité provient d’un organisme inconnu, consultez la section À propos pour en savoir plus. 
  • Faites attention aux mises en forme inhabituelles. De nombreux sites de fausses informations contiennent des fautes d’orthographe ou une présentation incohérente. Lisez avec prudence si vous voyez de tels signes. 
  • Tenez compte des photos. Les fausses actualités contiennent souvent des images ou des vidéos retouchées. Il arrive parfois que la photo soit authentique, mais qu’elle ait été sortie de son contexte. Vous pouvez rechercher la photo ou l’image afin de vérifier sa provenance. 
  • Contrôlez les dates. Les fausses actualités contiennent parfois des chronologies incohérentes ou des dates d’événements qui ont été modifiées. 
  • Vérifiez les preuves apportées. Vérifiez les sources de l’auteur pour vous assurer qu’elles sont exactes. Le manque de preuves ou la référence à des experts anonymes peuvent être le signe d’une fausse actualité. 

Des recherches ont montré d’une part que l’exposition à ces publicités – et à des interventions similaires – rend effectivement les gens plus susceptibles d’identifier les fausses informations, et d’autre part que l’ampleur de ces effets est relativement importante. Il semble que l’efficacité des interventions d’éducation aux médias numériques s’explique au moins en partie par le fait qu’elles renforcent le sentiment de capacité individuelle et créent de la sorte un sentiment d’autonomisation. Toutefois, certains éléments indiquent qu’une certaine compétence préalable en matière de littératie numérique est requise pour tirer parti de ce type de conseils numériques. En outre, de nombreuses interventions d’éducation aux médias numériques sont relativement complexes et nécessitent donc un contexte spécifique de formation.

Les éléments à prendre en compte 

Lorsque l’on s’engage dans une pratique de contre-discours pour lutter contre la désinformation, par exemple en concevant des interventions visant à autonomiser les utilisateurices, il y a plusieurs aspects importants à prendre en compte. 

Tout d’abord, plusieurs études indiquent que de nombreuses interventions qui aident les gens à identifier les fausses informations provoquent également un scepticisme plus général, de telle sorte que les gens commencent à se méfier également des informations fiables, même si l’effet est plus fort relativement aux informations fausses qu’en ce qui concerne les informations crédibles. L’un des principaux objectifs du contre-discours en matière de lutte contre la désinformation devrait donc être de promouvoir une attitude d’humilité intellectuelle plutôt que le scepticisme. Alors qu’il a été démontré que le scepticisme et la méfiance en général étaient en corrélation directe avec le partage de la désinformation (par exemple, les contenus liés aux théories conspirationnistes), il a été montré au contraire de façon constante que l’humilité intellectuelle diminuait la motivation à partager de la désinformation. L’un des moyens utilisés pour développer l’humilité intellectuelle consiste à montrer des exemples de la faillibilité cognitive de l’utilisateurice. 

Ensuite, certaines formes de contre-discours cherchent à mettre fin à la diffusion de la désinformation, tandis que d’autres s’attachent à donner aux gens les moyens de développer leur capacité à ne pas se laisser tromper par la désinformation. Il peut être particulièrement important de mettre l’accent sur la résistance cognitive. La recherche a montré que la plupart des gens ne partagent que très rarement des informations sur les réseaux sociaux, qu’il s’agisse d’informations crédibles ou mensongères. En matière de désinformation, le problème le plus courant réside dans la confusion et la distraction qu’elle provoque chez les personnes qui y sont exposées de manière fortuite. 

En troisième lieu, il est souvent important de tenir compte, lors de leur conception, de l’évolutivité et de la reproductibilité des interventions visant à renforcer l’autonomie des utilisateurices. L’intervention la plus efficace exige souvent un contexte explicite de formation ou des instructions formelles requérant une durée d’au moins 5 à 10 minutes. La stratégie la plus viable et la plus efficace est donc probablement celle qui associe une formation explicite visant à renforcer les compétences (par exemple, une combinaison d’instructions formelles en matière d’éducation aux médias numériques et de répétition sous forme ludique), des rappels en ligne fréquents visant à maintenir un niveau élevé de motivation (par exemple, par des incitations à l’exactitude) et, lorsque cela s’avère possible, de la vérification directe de faits. 

Quatrièmement, la désinformation est détectable parce qu’elle porte souvent des signatures particulières. Au fur et à mesure que l’intelligence artificielle se développe, il est probable que la désinformation se révèle plus difficile à détecter, car les fausses informations en viennent à imiter de plus en plus fidèlement les informations fiables (par exemple, grâce à l’utilisation de vidéos qui, bien qu’elles soient créées artificiellement, sont très réalistes). Dans ces circonstances, la vérification des faits par les institutions médiatiques revêt une importance accrue en dépit de son coût élevé. Cependant, pour faire leur travail de façon efficace, les institutions médiatiques ont besoin de la confiance du public. Toute personne préoccupée par la désinformation doit donc s’attacher à mettre en place et à soutenir des institutions médiatiques libres, indépendantes et dotées de ressources suffisantes.  

Ressources (en anglais) 

 Ressources (en français) 

Bio 

ENG  

I’m a researcher and consultant in the fields of international Human Rights Law and Internet and media law and policy. My work has focused on the protection of freedom of expression in the changing context of contemporary media landscapes. My professional experience covers policy development and implementation in complex political environments and dealing with public authorities and private stakeholders (industry actors and civil society groups) on issues of internet and media regulation, the preparation and delivery of expertise and training missions for international institutions, research and development of policy documents, advocacy, the management of legal cases, communication, programme management and staff management. My publications include a volume on the evolution of media regulation in the age of convergence, a book on comparative free speech law (US-ECHR), and numerous articles on the protection of human rights in digital and offline contexts.  

FRA 

Je suis chercheur et consultant dans les domaines du droit international des droits humains et du droit et de la régulation de l’internet et des médias. Mon travail s’est centré sur la protection de la liberté d’expression dans le contexte changeant des paysages médiatiques contemporains. Mon expérience professionnelle couvre l’élaboration et la mise en œuvre de politiques dans des environnements politiques complexes, les relations avec les autorités publiques et les parties prenantes privées (acteurs du secteur et groupes de la société civile) sur les questions de régulation de l’internet et des médias, la préparation et la réalisation de missions d’expertise et de formation pour des institutions internationales, la recherche et l’élaboration de documents politiques, la défense d’intérêts, la gestion d’affaires juridiques, la communication, la gestion de programmes et la gestion du personnel. Mes publications comprennent un volume sur l’évolution de la réglementation des médias à l’ère de la convergence, un ouvrage sur le droit comparé de la liberté d’expression (US-ECHR), et de nombreux articles sur la protection des droits humains dans les contextes numériques et hors ligne. 

Pour le FFS, il a effectué la traduction en français de la boîte à outils sur l’utilisation des contre-discours pour lutter contre la haine en ligne.  

Remarques finales 

Le FFS remercie le professeur Michael Bang Petersen pour la création de cette boîte à outils.  

Le FFS remercie les institutions suivantes pour leur soutien dans la réalisation de cette boîte à outils. 

 

Pour plus d’information sur le FFS, veuillez consulter le site : https://futurefreespeech.org/ 

Pour les contacts presse, veuillez vous adresser au directeur exécutif du FFS, Jacob Mchangama, à l’adresse suivante : jacob@futurefreespeech.org.