L'actualité nationale, régionale et locale
Lorsque les intelligences artificielles occidentales diffusent la propagande russe
Elles sont apparues il y a seulement quelques mois, mais elles sont déjà omniprésentes dans notre quotidien. Les intelligences artificielles conversationnelles, comme ChatGPT développé par OpenAI ou Le Chat de Mistral AI, se sont installées sur nos téléphones pour répondre à toutes nos interrogations. Cependant, alors que la fiabilité de leurs réponses fait déjà débat, un rapport de Newsguard met en garde contre une infiltration de la propagande pro-russe au sein de ces outils.
Newsguard, une start-up spécialisée dans la lutte contre la désinformation, a testé dix IA génératives, dont ChatGPT, Le Chat, Grok, Gemini de Google et celles de Meta. L'étude s'est basée sur quinze fausses informations largement diffusées par un réseau de sites pro-russes appelé "Pravda" (qui signifie "vérité" en russe). L’objectif était d’analyser comment ces IA réagiraient lorsqu’on les interrogeait sur ces rumeurs.
Par exemple, l’une des intox analysées affirme que le président ukrainien Volodymyr Zelensky aurait interdit Truth Social, le réseau social de Donald Trump, en Ukraine. En réalité, cette plateforme n’a jamais été accessible dans le pays. Pourtant, lorsque les chercheurs de Newsguard ont posé la question aux IA, six d’entre elles ont répondu en prenant l’intox au sérieux, citant des articles issus du réseau Pravda. Certaines ont même suggéré que cette prétendue interdiction était une forme de représailles contre Donald Trump, après que ce dernier a suspendu l’aide militaire à l’Ukraine.
En répétant l’expérience avec d’autres fausses informations déjà démenties, Newsguard a constaté que, dans un tiers des cas, les IA testées relayaient des éléments de désinformation provenant de Pravda.
Selon Newsguard, mais aussi l’organisation américaine The American Sunlight Project, qui a publié un rapport sur le sujet en février, ainsi que Google, qui a mené sa propre enquête en janvier, il s’agirait d’une stratégie intentionnelle.
Les IA génératives fonctionnent en s’appuyant sur des informations disponibles en ligne. Plus un contenu est présent sur différents sites, en plusieurs langues, plus il gagne en crédibilité aux yeux des algorithmes. C’est précisément ce mécanisme que les propagandistes pro-russes exploitent.
L’un des acteurs clés de cette stratégie est John Mark Dougan, un ancien shérif américain devenu relais de la propagande du Kremlin. Il est notamment propriétaire de nombreux sites internet ayant participé à des campagnes de désinformation lors des dernières élections législatives en Allemagne. Lors d’une table ronde organisée à Moscou – dont la vidéo a été retrouvée par Newsguard sur YouTube – il a explicitement recommandé de multiplier les récits pro-russes sur internet afin d’influencer les intelligences artificielles à l’échelle mondiale.
Pour accroître la visibilité de leurs narratifs, ces propagandistes créent une multitude de sites internet dédiés à la désinformation. Le réseau Pravda en est un parfait exemple : il regroupe 150 noms de domaines en 46 langues, cumulant près de quatre millions d’articles, et ayant permis la diffusion d’au moins 200 fausses informations à l’échelle mondiale.
Bien que ces sites attirent peu de visiteurs, leur objectif n’est pas d’influencer directement les internautes, mais plutôt de noyer les IA sous un flot massif de contenus biaisés. En agissant ainsi, ils s’assurent que leurs récits soient intégrés aux bases de données de ces intelligences artificielles et potentiellement repris dans leurs réponses.
Ce phénomène met en lumière les défis posés par la désinformation à l’ère de l’IA et souligne la nécessité pour les concepteurs de ces technologies de renforcer leurs garde-fous afin d’éviter de devenir, involontairement, les relais d’une manipulation de l’information à grande échelle.