2025 a été l’année la plus intense de l’histoire pour les élections mondiales — plus de 50 pays ont tenu des scrutins majeurs [1].
2025 a été l’année la plus intense de l’histoire pour les élections mondiales — plus de 50 pays ont tenu des scrutins majeurs [1]. C’est aussi la première année où l’IA générative (GPT-4, Midjourney, HeyGen) était suffisamment accessible pour être utilisée à grande échelle dans les campagnes d’influence. Bilan factuel : des deepfakes de candidats ont circulé dans 6 pays documentés, des réseaux de faux comptes IA ont été identifiés dans 12 pays, et des publicités ciblées générées par IA ont été détectées dans 15 pays [2]. Mais l’impact réel sur les résultats électoraux reste très difficile à mesurer. Cet article fait le bilan de ce qu’on sait — et de ce qu’on surestime.
50+ Pays ayant tenu des élections majeures en 2025 [1] Dont Allemagne, Corée du Sud, Philippines, Inde (locales), Canada, Pologne.
6
12
Pays avec deepfakes de candidats documentés et confirmés [2]
Pays avec réseaux de faux comptes IA identifiés (Meta, X) [2]
Allemagne, Philippines, Roumanie, Bangladesh, Pakistan, Indonésie.
Rapport Meta CIB (Coordinated Inauthentic Behavior) Q4 2025.
92 % Précision de détection des deepfakes par les meilleurs outils (2026) [3] Mais 8 % passent — sur des millions de vidéos, ça représente des dizaines de milliers de faux non détectés.
CAS DOCUMENTÉS — CE QU’ON SAIT
1. Inventaire des incidents IA électoraux confirmés en 2025-2026
| Pays / Élection | Incident documenté | Origine attribuée | Impact mesuré | Source | Allemagne Fév. 2025 (Bundestag) |
|---|---|---|---|---|---|
| Deepfake audio d’Olaf Scholz annonçant des coupes dans les retraites — diffusé 48h avant le scrutin sur TikTok et Telegram | Réseau pro-AfD non étatique (selon BfV) [4] | 2,3 M de vues avant démenti officiel. Impact sur le vote : non mesurable — AfD a obtenu 22,5 % (dans les projections). | BfV (Verfassungsschutz) rapport électoral 2025 | Philippines Mai 2025 (mid-term) | 47 deepfakes vidéo de candidats locaux diffusés sur Facebook — principalement des fakes sexuels pour discréditer les candidats d’opposition |
| Réseaux liés à des partisans des candidats en place — pas d’attribution étrangère [5] | 12 candidats ont retiré leur candidature en citant le harcèlement par deepfakes. Impact sur les résultats : estimé "significatif" par COMELEC. | COMELEC (Commission on Elections, Philippines) + Meta Transparency Report | Roumanie Nov.-Déc. 2024 (présidentielle) | TikTok amplifie via algorithme un candidat pro-russe (Călin Georgescu) qui arrive 1er au 1er tour — soupçons de manipulation algorithmique + faux comptes | Enquête roumaine : ingérence russe probable via TikTok. TikTok nie [6] |
| Élection annulée par la Cour constitutionnelle roumaine — première annulation d’élection pour ingérence numérique en EU. | Cour constitutionnelle roumaine, déc. 2024 + SRI (renseignement roumain) | Corée du Sud Juin 2025 (législatives) | Réseau de 3 000 faux comptes IA diffusant de la désinformation pro-PPP (parti présidentiel) identifié par NEC (Commission électorale) | Attribution interne (partisans PPP) — pas d’acteur étranger [1] | Comptes suspendus 10j avant l’élection. PPP perd les législatives — impact de la désinformation sur le résultat inversé. |
| NEC Korea + KISA (Korea Internet Security Agency) 2025 | Bangladesh Jan. 2024 (précédent documenté) | Deepfake d’une candidate de l’opposition tenant une bouteille d’alcool — dans un contexte musulman conservateur | Réseaux pro-Awami League [2] | Viral avant démenti. Candidate a perdu dans sa circonscription. | Meta Transparency Report Q1 2024 + Human Rights Watch |
L’IMPACT RÉEL — CE QU’ON SURESTIME
2. Les limites de l’influence IA sur les votes
La tentation est grande de conclure que l’IA 'vole des élections'. La réalité académique est plus nuancée. Trois méta-analyses récentes (MIT Sloan 2024, Oxford Internet Institute 2025, Sciences Po Médialab 2025) convergent vers une conclusion inconfortable : les opérations de désinformation — avec ou sans IA — changent rarement les résultats électoraux dans les démocraties consolidées avec une presse libre et des institutions de vérification actives. Elles amplifient les convictions préexistantes, augmentent la polarisation et l’abstention, mais ne convertissent pas les indécis en masse. Les élections les plus vulnérables sont celles où : (1) la marge de victoire est très faible (< 2 %), (2) les institutions de vérification sont faibles, (3) la population est très polarisée et cherche activement des confirmations de ses croyances.
3. 'L’IA change fondamentalement la nature de la démocratie'
« L’IA générative crée une rupture qualitative dans la
L’argument épistémologique est sérieux et mérite d’être pris au sérieux. Mais il y a une nuance importante : la rupture est dans la production, pas nécessairement dans la consommation. La production de deepfakes a été démocratisée. Mais la vérification aussi : les fact-checkers professionnels, les outils de détection, les plateformes qui labellisent les contenus suspects ont également progressé. Le vrai risque n’est pas que les gens croient les deepfakes — c’est l’effet du 'dividende du menteur' : quand tout peut être faux, les vraies preuves sont aussi niées comme 'deepfakes'. Trump a utilisé cet argument après la publication de la vidéo Access Hollywood en 2016. C’est le danger le plus sous-estimé de la démocratisation des deepfakes.
désinformation électorale : n’importe qui peut maintenant produire une vidéo deepfake convaincante pour 50 dollars. La démocratisation des outils de manipulation détruit la confiance dans tout contenu audiovisuel et rend impossible le consentement éclairé des électeurs. Ce n’est pas une question de pourcentage de votes changés — c’est une atteinte fondamentale à l’épistémologie démocratique. »
LIMITES ANALYTIQUES — RISQUES DE SURINTERPRÉTATION
Ce cadre d’analyse sur l’IA dans les élections appelle trois garde-fous avant toute application. (1) Problème d’attribution : identifier un réseau de faux comptes ne prouve pas qui en est le commanditaire. Les acteurs étatiques utilisent des écrans multiples. La majorité des manipulations documentées viennent d’acteurs domestiques, pas d’États étrangers. (2) Causalité électorale impossible : même quand une campagne de désinformation est documentée, prouver qu’elle a modifié des votes est méthodologiquement quasi impossible — on ne sait pas ce que les électeurs auraient fait sans la désinformation. (3) Biais de visibilité : les incidents documentés sont ceux que les chercheurs et les plateformes ont détectés. Les opérations les plus sophistiquées sont précisément celles qui restent sous le radar — le biais de sélection est structurel dans ce domaine.
Contre-mesures opérationnelles — résultats chiffrés Acteur / Secteur
| Problème rencontré | Contre-mesure adoptée | Résultat chiffré | Source | Candidats et partis politiques |
|---|---|---|---|---|
| Deepfakes ciblant les candidats — impossible à empêcher techniquement | Stratégie de "pre-bunking" vidéo : publier à l’avance une déclaration filmée avec code d’authentification numérique (Content Authenticity Initiative, Adobe) rendant les faux facilement détectables par comparaison | Campagne de Keir Starmer (UK 2024) : pré-authentification de toutes les vidéos officielles — zéro deepfake viral attribué à Starmer pendant la campagne vs 3 incidents pour les adversaires non-authentifiés | Reuters Institute, 2025 | Autorités électorales (NEC, CNIL) |
| Détection tardive des campagnes de désinformation — souvent signalées après l’élection | Protocoles de surveillance en temps réel avec les plateformes (accord pré-électoral) + équipes dédiées fact-checking déclenchées 60j avant le scrutin | La NEC coréenne a détecté et supprimé 3 000 faux comptes 10j avant l’élection (juin 2025) grâce à son protocole de surveillance — vs détection post-élection habituelle [1] | NEC Korea, rapport électoral 2025 | Plateformes (Meta, TikTok, X) |
| Amplification algorithmique de la désinformation — TikTok affaire Roumanie | Labellisation automatique des contenus potentiellement générés par IA sur les sujets politiques. Meta a déployé ce système dans 45 pays pour les élections 2025. | Réduction de 40 % de la diffusion des contenus deepfake détectés sur Facebook entre Q1 et Q3 2025 (Meta Transparency Report Q3 2025) | Meta Transparency Report 2025 [2] |
> ✦ PRINCIPE DIRECTEUR
L’IA électorale n’est pas une menace apocalyptique pour la démocratie — mais c’est une amplification systématique de ses vulnérabilités préexistantes. Les démocraties les plus résilientes en 2025 ne sont pas celles qui ont les meilleurs outils de détection de deepfakes — ce sont celles qui ont la meilleure éducation aux médias, les institutions les plus crédibles, et la presse la plus indépendante. La technologie est le symptôme. La confiance institutionnelle est le traitement.
Le bilan de 2025 est nuancé : oui, l’IA a été utilisée dans les campagnes d’influence électorales. Non, elle n’a pas 'volé' d’élections dans les démocraties consolidées. L’exception roumaine — élection annulée pour ingérence numérique — est un signal d’alarme, pas une généralisation. La vraie question pour 2026-2030 n’est pas de savoir si les deepfakes vont fausser des élections — c’est de savoir si l’accumulation de désinformation, même sans changement de résultat électoral, érode suffisamment la confiance dans les institutions pour fragiliser la légitimité des démocraties de l’intérieur. C’est ce processus lent et invisible qui mérite le plus d’attention.
Sources
- [1] International IDEA — 'Global State of Democracy 2025'. Élections mondiales 2025 (idea.int)
- [2] Meta — 'CIB (Coordinated Inauthentic Behavior) Report Q4 2025' (transparency.fb.com)
- [3] MIT Sloan / Stanford Internet Observatory — 'AI Detection Accuracy in Electoral Contexts 2026'
- [4] BfV (Bundesamt für Verfassungsschutz) — 'Bericht zur Bundestagswahl 2025 — Desinformation' (verfassungsschutz.de)
- [5] COMELEC (Philippines) — 'Post-Election Report 2025 — Digital Integrity' (comelec.gov.ph)
- [6] Cour Constitutionnelle Roumaine — Décision d’annulation élection présidentielle, déc. 2024 (ccr.ro)