LIVE
FLASHIran · Négociations nucléaires à Genève — position iranienne durcie, compte à rebours activé
· ÉDITION STRATÉGIQUE
ACCÈS LIBRE
© 2026 Sentinelle Pulse · Analyse Géopolitique
Accueil
DéfenseSentinelle Pulse S3 · N°21IA...

IA Offensive — La Machine de Guerre Autonome est Déjà Là

25 mars 202610 min de lectureAxel Coudassot-Berducou
AC
Axel Coudassot-Berducou
Fondateur & Directeur, Sentinelle Pulse

L'intelligence artificielle militaire offensive n'est plus science-fiction. En 2023-2024, l'armée israélienne a utilisé un système baptisé 'Lavender' pour générer 37 000 listes de cibles — avec un taux d'erreur accepté de 10 % [1].

MISE À JOUR19 avril 2026
🟡 DOSSIER ACTIF — 19 avril 2026 : L'Ukraine a revendiqué 17 frappes de drones Palianytsia (IA embarquée) contre des positions russes en mars 2026, dont 3 ont détruit des systèmes S-400. La Chine a présenté son drone de combat furtif GJ-11B lors de l'exercice "Épée Orientale 2026". Les États-Unis ont commencé à livrer les premiers systèmes Collaborative Combat Aircraft (CCA) à la US Air Force.

L'intelligence artificielle militaire offensive n'est plus science-fiction. En 2023-2024, l'armée israélienne a utilisé un système baptisé 'Lavender' pour générer des listes de cibles parmi les militants du Hamas — avec un taux d'erreur accepté de 10 % [1]. Les États-Unis développent des essaims de drones autonomes (LOCUST, Perdix) capables d'opérer sans intervention humaine [2]. La Corée du Nord et la Chine avancent rapidement sur des systèmes létaux autonomes [3]. Le droit international humanitaire n'a pas évolué pour répondre à ces réalités.

Cent dix-neuf pays ont participé aux négociations sur les LAWS (Lethal Autonomous Weapons Systems) à l'ONU [4]. Résultat : zéro traité contraignant adopté. Malgré dix ans de négociations, les grandes puissances bloquent toute convention internationale. La raison est stratégique : les États qui investissent massivement dans l'IA militaire n'ont aucun intérêt à se lier les mains via un traité que leurs adversaires pourraient violer.

IA OFFENSIVE — SYSTÈMES ET ENJEUX ÉTHIQUES

1. Cartographie des systèmes d'armes autonomes

SystèmePaysCapacitéNiveau d'autonomieProblème éthique
LavenderIsraëlGénération de listes de cibles HamasSemi-autonome (validation humaine 20 sec)Taux d'erreur 10 % = 3 700 cibles erronées potentielles
LOCUSTUSAEssaims de 100+ drones autonomesAutonome en essaimDiscrimination civils/combattants impossible en essaim
SGR-A1 Sentry GunCorée du SudDétection et neutralisation périmètre DMZAutonome (mode auto non activé)Machine létale sans intervention humaine possible
Kargu-2TurquieDrone loitering munitionAutonome — reconnaissance facialeRapport ONU 2021 : possible première utilisation autonome en Libye
HARPYIsraëlAnti-radar autonomeFully autonomousCherche et détruit les radars sans opérateur

LE DILEMME ÉTHIQUE-STRATÉGIQUE

2. Le glissement vers l'autonomie létale

Le système Lavender illustre un glissement qui se produit dans toutes les armées : l'IA ne remplace pas le jugement humain, elle l'accélère jusqu'à le vider de sens. Un officier qui valide une cible en 20 secondes sur la base d'une recommandation algorithmique n'exerce pas un "meaningful human control" — il valide une décision qu'il n'a pas eu le temps d'évaluer. La doctrine du DoD (Directive 3000.09) exige un contrôle humain "approprié" sur les décisions létales — mais 'approprié' est un terme délibérément vague qui laisse la porte ouverte à l'interprétation.

L'avantage militaire de l'autonomie est réel : un essaim de 1 000 drones autonomes peut saturer n'importe quelle défense point. Les systèmes autonomes ne fatiguent pas, ne paniquent pas, et décident en microsecondes. Dans un conflit US-Chine ou OTAN-Russie, l'armée qui aura renoncé à l'autonomie létale sera désavantagée contre celle qui ne l'aura pas fait. C'est le dilemme fondamental : la contrainte éthique peut devenir un désavantage militaire face à des adversaires sans scrupules.

⚡ Objection

« L'IA militaire réduit les victimes civiles en améliorant la précision — c'est plus éthique que les bombes non guidées des guerres précédentes. »

✓ Réponse analytique

La précision améliorée de l'IA ne résout pas le problème éthique central : qui est responsable quand une machine tue un civil ? Dans le droit international humanitaire, la responsabilité est personnelle — il doit y avoir un humain qui prend la décision létale et qui peut être jugé. Un algorithme ne peut pas être jugé pour crime de guerre. Le système Lavender illustre le glissement : un officier qui valide une cible en 20 secondes sans vérification réelle n'exerce pas un "meaningful human control" — il rubber-stamp une décision algorithmique. La précision de l'IA peut d'ailleurs être manipulée : un ennemi qui comprend l'algorithme peut le tromper, créant de nouvelles asymétries que les systèmes non-autonomes n'ont pas.

ACTEURS CLÉS — LES NATIONS ET ENTREPRISES DE L'IA MILITAIRE

3. Cartographie des acteurs de la course aux LAWS

ActeurPaysInvestissement IA militairePosition sur la réglementationSystème emblématique
DARPA / DoDUSA+3,7 Md$ IA militaire en 2025Directive 3000.09 : contrôle humain "approprié"LOCUST, Perdix, Project Maven
PLA — Armée populaireChineObjectif : leadership IA militaire mondial 2030Oppose tout traité contraignantCH-5 autonome, système de ciblage IA
Forces armées israéliennesIsraëlClassification — évalué à >500 M$/anUtilisation opérationnelle sans traitéLavender (ciblage), HARPY (anti-radar)
Kalashnikov / MoD russeRussieBudget opaque — estimation >1 Md$Oppose toute restriction — utilise en UkraineKUB-BLA loitering munition autonome
MBDA / Leonardo (EU)EuropeProgramme FCAS, MGCS — composante IAFavorable à un cadre éthique (position FR/DE)Systèmes en développement — pas encore déployés
Human Rights WatchONG internationaleCampagne "Stop Killer Robots" — traité contraignantRapport annuel LAWS
CICRInternationalFavorable à des règles contraignantesRapport 2021 : CONTROL nécessaire
GGE LAWS — ONUMultilatéralNégociations depuis 2014 — zéro traitéRapport annuel sans accord

4. Le paradoxe de la régulation asymétrique

Les démocraties occidentales font face à un dilemme structurel : adopter des règles éthiques sur les LAWS revient à se lier les mains face à des adversaires qui ne le feront pas. La Directive 3000.09 du DoD exige un "contrôle humain approprié" — mais cette formulation délibérément floue a été maintenue telle quelle lors de sa révision en 2023, permettant précisément les systèmes comme Lavender. L'Union européenne, via son AI Act (juin 2024), a tenté d'introduire des restrictions sur les applications militaires de l'IA — mais les systèmes défense ont été explicitement exemptés du périmètre de la loi, sous pression des ministères de la Défense français et allemand.

CHRONOLOGIE DU DÉBAT INTERNATIONAL SUR LES LAWS

DateÉvénementSignification
2013HRW publie "Losing Humanity" — lancement de la campagne Stop Killer RobotsPremier rapport international structuré sur les LAWS
2014Création du GGE LAWS à l'ONU — premières réunions d'expertsDébut des négociations multilatérales — déjà 10 ans sans accord
2016DoD publie la Directive 3000.09 — "meaningful human control"Standard américain volontairement vague
2019Première démonstration publique du DF-17 chinois (parade militaire)Signal stratégique : la Chine déploie sans attendre un cadre international
Avril 2021Rapport ONU : le Kargu-2 turc aurait attaqué de manière autonome en LibyePremier incident documenté possible d'arme totalement autonome
Octobre 2023Conflit Gaza : utilisation du système Lavender révélée par +972 MagazineCas concret de "meaningful human control" réduit à 20 secondes de validation
Juin 2024EU AI Act adopté — exemption militaire incluseL'Europe renonce à réguler les LAWS dans son cadre civil
Novembre 2024GGE LAWS — session annuelle sans accord, blocage USA-Chine-RussieConstat d'échec institutionnalisé
2025DoD déploie Project Maven IA pour l'analyse ISR en temps réelL'IA de ciblage intégrée aux opérations courantes
2026-2030Horizon critique : essaims autonomes sans opérateur humain prévuPoint de basculement technologique et éthique

SCÉNARIOS IA MILITAIRE 2026-2035

ScénarioProb.Raisonnement défenduSignal déclencheurImpact
Course aux LAWS sans réglementation~45 %Les grandes puissances (USA, Chine, Russie, Israël) continuent à développer des LAWS sans convention internationale. Chaque incident est minimisé. La technologie avance plus vite que la diplomatie.Pas d'accord GGE ONU. Nouveau conflit utilisant des LAWS de manière documentée.IA militaire létale normalisée. Prolifération vers États moins scrupuleux.
Autorégulation des démocraties~25 %USA, UK, EU adoptent des règles internes sur les LAWS (contrôle humain significatif) sans traité international. Avantage éthique mais possible désavantage militaire face à la Chine.DoD Directive 3000.09 révisée et contraignante. Accord OTAN sur les LAWS.Standard de facto occidental. Chine et Russie hors du cadre.
Incident majeur et pression internationale~20 %Un incident documenté (essaim autonome tue des civils) déclenche une pression internationale suffisante pour des négociations sérieuses. Précédent : mines antipersonnel (Ottawa 1997).Rapport ONU documentant une utilisation autonome létale non ambiguë.Négociations accélérées. Convention LAWS partielle possible.
Convention contraignante~10 %Accord international sur les LAWS similaire à la Convention sur les armes chimiques. Improbable à court terme vu les intérêts des grandes puissances.Catastrophe humanitaire majeure liée aux LAWS + volonté politique.Limitation de la course aux LAWS. Mais vérification très difficile.

"

L'IA militaire pose la question la plus fondamentale du droit international depuis les Conventions de Genève : qui décide de donner la mort ?

La réponse 'l'algorithme' n'est pas acceptable en droit. Mais les États militairement puissants n'ont aucune incitation à adopter des contraintes que leurs adversaires ignoreront. L'absence de traité sur les LAWS n'est pas un oubli — c'est un choix. La course à l'IA militaire est engagée et irréversible. La vraie question est de savoir si les démocraties vont adopter des règles pour leurs propres systèmes, même si leurs adversaires ne le font pas. C'est le dilemme éthique-stratégique de la décennie.


SOURCES

  • [1] +972 Magazine / Local Call — "Lavender: The AI Machine Directing Israel's Bombing Spree", avril 2024
  • [2] DARPA — "LOCUST Program: Low-Cost UAV Swarming Technology" (darpa.mil)
  • [3] ICRC — "Autonomous Weapons Systems: Technical, Military, Legal and Humanitarian Aspects", 2014 (icrc.org)
  • [4] Groupe d'experts gouvernementaux ONU (GGE LAWS) — Rapports 2021-2024 (un.org/disarmament)
  • [5] Human Rights Watch — "Stopping Killer Robots", 2024 (hrw.org)