×

Quand l’intelligence artificielle devient un relais involontaire de la propagande du Kremlin

Quand l’intelligence artificielle devient un relais involontaire de la propagande du Kremlin

De l’assistant vocal à la recherche web automatisée, l’intelligence artificielle (IA) s’immisce chaque jour davantage dans nos usages numériques. Mais à mesure que ces systèmes se généralisent, des experts alertent sur leur capacité à amplifier, parfois malgré elles, des campagnes de désinformation venues de Moscou. Les IA de la vie courante, si correctement sollicitées, peuvent courtoisement répercuter des messages façonnés par les organes de propagande russes.\n\nDes assistants personnels aux chatbots conversationnels, ces outils puisent leur savoir dans d’immenses bases de données – dont une bonne part provient d’Internet. Or, dans la masse colossale d’articles, de vidéos ou de posts, circulent aussi bien des analyses sérieuses que de fausses informations, soigneusement distillées au fil des ans par des réseaux d’influence. Parmi eux, la Russie fait figure de pionnière, usant depuis longtemps des armes de la désinformation numérique pour servir ses intérêts géopolitiques et influencer l’opinion publique internationale.\n\nDes spécialistes en cybersécurité et en analyse de l’information ont conduit plusieurs expérimentations : en interrogeant de grands modèles de langage qui alimentent aujourd’hui la plupart des applications IA populaires (de ChatGPT à la recherche Google ou Bing), ils se sont aperçus que celles-ci sont capables de relayer, parfois mot à mot, des récits orchestrés par les médias d’État russes ou leurs relais anonymes. Un phénomène qui ne manifeste pas forcément une intention malveillante de la part des développeurs, mais qui révèle la difficulté de filtrer efficacement des contenus manipulatoires dans un océan de données.\n\nLe problème est d’autant plus sérieux que nombre d’utilisateurs occidentaux accordent spontanément confiance aux réponses de l’IA, perçues comme impartiales et fondées sur une expertise encyclopédique. Or, derrière cette objectivité apparente, il persiste un risque de répétition mimétique : si la propagande russe inonde suffisamment le web avec certains récits (sur la guerre en Ukraine, par exemple), les IA finissent parfois par reprendre ces éléments de langage. Les algorithmes sont sensibles à la « fréquence » de certains contenus. C’est cet effet de miroir qui inquiète les analystes : une désinformation répétée, même réfutée, se fraye un chemin dans l’inconscient collectif, d’autant plus aisément si elle bénéficie de la caution technologique d’une IA dernier cri.\n\nFace à cette réalité, plusieurs pistes sont à l’étude. Certains fabricants travaillent à renforcer les filtres de modération, à identifier et neutraliser lorsque c’est possible les biais et contenus douteux. Mais ces mesures se heurtent à la difficulté de distinguer dans certains cas la frontière ténue entre critique politique légitime et fausse information. Par ailleurs, la rapidité avec laquelle évoluent tant la technologie que les techniques de manipulation empêche l’émergence de solutions durables.\n\nCette problématique s’inscrit plus largement dans le grand défi de l’ère numérique : garantir la fiabilité des outils qui sculptent nos opinions sans tomber dans la censure arbitraire. Un enjeu crucial, à l’heure où l’IA, loin d’être seulement une révolution technique, façonne aussi la fabrique du débat démocratique – avec tous les risques que cela implique.

Laisser un commentaire