Journal des Futurs #171 – Quand l’information devient une arme

Désinformation : à l’approche de la présidentielle, la France entre dans la zone de danger

À l’occasion de la publication du 4e rapport de l’EEAS (Service européen pour l’action extérieure) sur les menaces FIMI (Foreign Information Manipulation and Interference), au moment même où la France range le dossier des élections municipales pour ouvrir le grand livre de la présidentielle, élargissons la focale sur ce sujet de la désinformation. Rappelons-le : la manipulation de l’information est sans doute le plus vieux métier du monde dans la sphère politique. Des fausses nouvelles colportées dans les cours royales aux rumeurs fabriquées pendant les guerres du XXe siècle, l’intoxication de l’opinion a toujours été une arme. Ce n’est pas le sujet. Le sujet, c’est le déluge de ces produits informationnels contrefaits. Et les dégâts qu’ils produisent sur les démocraties et les peuples qui les habitent.

Tout commence, ou plutôt tout bascule, en mars 2018 avec Cambridge Analytica. Pour beaucoup, c’est un scandale. Pour d’autres, c’est un prototype. La révélation que les données personnelles de 87 millions d’utilisateurs Facebook ont été exploitées à des fins d’influence électorale massive — au Royaume-Uni pour le Brexit, aux États-Unis pour la première élection de Donald Trump — n’est pas seulement un abus technologique. C’est l’avènement d’une nouvelle forme de guerre : silencieuse, reproductible à l’infini, pas cher et tenez-vous bien, rentable. Depuis lors, ce qui était expérimental est devenu industriel. Ce qui était marginal est devenu géopolitique.

Soyons osé : la troisième guerre mondiale est déjà déclarée. Elle ne se joue pas sur des champs de bataille conventionnels mais dans le monde dématérialisé de tous les types de médias — dans les fils d’actualité, les groupes Telegram, les plateformes algorithmiques qui décident de ce que vous voyez et de ce que vous ressentez. Cette guerre n’a pas de front visible, pas de déclaration officielle, pas de traité de paix possible à court terme. Elle a en revanche des belligérants identifiés, des budgets en hausse et des victimes réelles : les opinions publiques des démocraties libérales.

L’EEAS vient de publier en mars 2026 son 4e rapport annuel sur les menaces FIMI. Ces techniques désignent l’ensemble des actions coordonnées, souvent pilotées par des acteurs étatiques ou para-étatiques, visant à manipuler l’information afin d’influencer les opinions publiques et les processus démocratiques. Elles combinent production de contenus trompeurs, amplification artificielle et ciblage stratégique des audiences. Les chiffres donnent le vertige : 540 incidents documentés en 2025, 10 500 canaux mobilisés, plus de 100 pays touchés. La Russie est responsable de 29% des incidents attribués, la Chine de 6%. Mais 65 % restent non attribués — ce qui alimente précisément un déni plausible au cœur du système. Ce n’est pas de la désinformation artisanale. C’est une chaîne de valeur complète : production de contenus, amplification coordonnée, légitimation via de faux médias, ciblage démographique précis. Il s’agit d’une industrie.

Et comme toute industrie, elle a besoin de financement. C’est ici qu’intervient un élément souvent négligé du débat public. En novembre 2025, une enquête de Reuters révèle que Meta aurait généré environ 16 milliards de dollars de revenus publicitaires liés à des contenus frauduleux en 2024 — soit 10% de son chiffre d’affaires annuel. Dont 7 milliards provenant d’annonces classées « à haut risque » via son propre système de « penalty bids ». Concrètement, comment cela est-il possible ? Prenons l’exemple d’un site de désinformation qui publie un article anxiogène sur Facebook. Meta détecte que le contenu est « à risque ». Il le laisse toutefois circuler sur la plateforme car son algorithme comprend qu’il va générer de l’engagement, tout en appliquant une pénalité financière. Des publicités de marques respectables s’affichent à côté du contenu. Au final, l’annonceur paie, Meta encaisse, le site de désinformation touche sa part. Meta se dédouane en appliquant une pénalité. Cette amende n’empêche en rien la fausse info de contaminer les esprits. De surcroît, elle rapporte. La publicité programmatique irrigue donc directement l’écosystème de la désinformation. Les plateformes ne sont pas seulement des vecteurs passifs : elles en sont, structurellement, des financeurs involontaires — ou consentants.

L’intelligence artificielle a changé l’échelle du problème de façon radicale. Le rapport EEAS le documente : en 2025, 27% des incidents FIMI impliquent des outils d’IA, soit une hausse de 259% par rapport à 2024. Textes générés en masse, voix clonées, vidéos deepfakes, images synthétiques — l’IA permet de produire du contenu manipulatoire à un coût marginal quasi nul, dans toutes les langues, pour toutes les audiences. Plus inquiétant encore : certains réseaux russes pratiquent désormais le « grooming » des grands modèles de langage. Cette technique consiste à inonder internet de fausses informations pour contaminer les données d’entraînement des IA et influencer leurs futures réponses. La manipulation ne cible plus seulement les humains. Elle cible les machines qui nous informent.

La France n’est pas spectatrice de cette guerre. Elle en est la deuxième cible européenne, avec 107 incidents documentés en 2025, derrière l’Ukraine. Les élections allemandes, moldaves, polonaises ont servi de laboratoires à un mode opératoire russe désormais parfaitement rodé : délégitimation des dirigeants pro-européens plusieurs mois avant le scrutin, exploitation des fractures sociétales pendant la campagne, sabotage de la crédibilité du processus électoral dans les derniers jours. Ce même mode opératoire se déploie déjà en Arménie à l’approche des législatives de juin 2026, avec des similitudes frappantes avec la campagne moldave. Plus proche de chez nous, à quelques mois des municipales de 2026, Reporters sans frontières et TF1 Info ont documenté la prolifération de faux sites imitant la presse locale française, au cœur d’une vaste opération de désinformation pro‑russe visant le scrutin.  La répétabilité est la signature du système.

L’Union européenne a construit un cadre de dissuasion — sanctions, régulation des plateformes via le DSA (Digital Services Act), coopération avec Europol. C’est nécessaire. Ce n’est pas suffisant.

D’autres pays ont compris avant nous qu’une réponse institutionnelle ne suffit pas — et agissent. La Suède a créé une Agence de défense psychologique dont la mission est de rendre l’ensemble de la société résiliente face aux influences étrangères, en coordonnant administrations, collectivités, entreprises et citoyens autour d’un mandat explicite de formation et d’exercices — en temps de paix comme en cas de conflit. Dans les pays Baltes, la Lituanie a fait de la résilience informationnelle une priorité nationale : l’initiative Civic Resilience Initiative réunit forces armées, développeurs de jeux vidéo et éducateurs pour former les jeunes à détecter la désinformation, y compris via des exercices en réalité augmentée où des lycéens chassent de fausses informations dans leur environnement urbain réel. L’Estonie, elle, a tiré les leçons de la cyberattaque russe de 2007 : la menace informationnelle y est depuis lors traitée comme une composante à part entière de la défense nationale. À Taïwan, le fact-checking est entré dans les programmes scolaires — les lycéens sont entraînés à vérifier des sources en direct pendant des débats présidentiels. Le gouvernement a formalisé une doctrine en trois temps — détecter, démystifier, contenir — doublée d’une stratégie culturelle originale : contrer les récits anxiogènes par des contenus décalés générant un engagement émotionnel positif s’est révélé plus efficace que le seul démenti factuel. Ces pays ont en commun d’avoir traité la résilience informationnelle non comme un sujet de niche réservé aux experts, mais comme une composante de la culture civique. La France n’a pas encore emprunté ce chemin même si elle s’est saisie du sujet. Elle s’est déjà dotée en 2021 du service VIGINUM (Service de vigilance et de protection contre les ingérences numériques étrangères), rattaché au SGDSN, qui reste le cœur opérationnel de la lutte contre les manipulations de l’information étrangères.

La France entre dans sa précampagne présidentielle. Tout candidat, tout parti, toute institution qui sous-estimerait le risque FIMI commettrait une faute politique grave. Non par naïveté, mais par négligence. Les pouvoirs publics ont une responsabilité claire : protéger les citoyens face à des opérations conçues pour semer la confusion, la peur et la défiance.

À force d’étendre la souveraineté à tous les domaines, nous en oublions peut-être l’essentiel : elle commence dans l’esprit des citoyens.

Une démocratie n’est pas seulement un système d’institutions. C’est une capacité collective à percevoir, hiérarchiser et juger. Ernest Renan insistait sur le caractère volontaire et quotidien de l’appartenance nationale, « une envie de vivre ensemble (…) un plébiscite de tous les jours » Lorsque ces perceptions sont orientées, fragmentées, instrumentalisées à grande échelle, c’est l’autonomie même du jugement qui vacille.

La souveraineté cognitive est devenue un enjeu de sécurité nationale. La prochaine élection présidentielle ne se jouera pas uniquement sur des programmes ou des bilans, mais sur la capacité à préserver un espace mental commun qui ne soit ni fragmenté, ni saturé, ni instrumentalisé. Faute de quoi, ce ne sont pas seulement des scrutins qui seront contestés, mais la possibilité même de décider ensemble.

Jacky Isabello

Fondateur du cabinet Parlez-moi d’Impact et conseiller en analyse stratégique de la communication de l’Institut Synopia.

Partager cet article :

IMG 5104 scaled Synopia

Journal des Futurs #172 – L’Europe ne protégera sa liberté qu’en redevenant un empire

08/04/2026
Thème de réflexion Défense & Sécurité Europe
08. JDF Democratrie sociale Synopia

Journal des Futurs #170 – Démocratie sociale, quel avenir ?

20/03/2026
Thème de réflexion Démocratie & Institutions
Affrontement sur la plage dechainee Synopia

Journal des Futurs #169 – De 2002 à aujourd’hui : quand l’argument moral cesse de faire barrage

20/03/2026
Thème de réflexion Démocratie & Institutions
ChatGPT Image 18 mars 2026 16 05 01 Synopia

Journal des Futurs #168 – Pendant que SHEIN s’est esquivée, l’indignation française ne fait pas recette

18/03/2026
Thème de réflexion Économie
ChatGPT Image 10 mars 2026 17 02 09 Synopia

Journal des Futurs #167 – Crise démocratique ou crise d’efficacité publique?

09/03/2026
Thème de réflexion Démocratie & Institutions
Capture decran 2026 03 03 a 13.42.44 Synopia

Journal des Futurs #166 – Le bien-être à l’épreuve du changement : un enjeu collectif!

03/03/2026
ChatGPT Image 3 mars 2026 11 35 11 Synopia

Journal des Futurs #165 – Le crépuscule des faibles. Anatomie d’un nouvel ordre mondial post-occidental

03/03/2026
Thème de réflexion Europe Monde
Journal des futurs 164 1 Synopia

Journal des Futurs #164 – La France peut-elle encore assurer sa souveraineté alimentaire ?

19/02/2026
Thème de réflexion Souveraineté
Journal des futurs 163 Synopia

Journal des Futurs #163 – Le rapt de Nicolás Maduro : quelles conséquences ? 

15/01/2026
Thème de réflexion Europe Monde
Image article jmd Synopia

Journal des Futurs #162 – Prospective : quand la promesse remplace la question, alors commencent les dérives !

08/01/2026
Thème de réflexion Démocratie & Institutions Énergies
JDF 161 Synopia

Journal des Futurs #161 – Rapport américain « National Security Strategy » : ayons peur de ce qu’il refuse de nommer !

19/12/2025
Thème de réflexion Démocratie & Institutions Cohésion Monde
image 159 Synopia

Journal des Futurs #160 – Le pays… Mon pays

09/12/2025
Thème de réflexion Démocratie & Institutions Défense & Sécurité Cohésion