L'intelligence artificielle militaire offensive n'est plus science-fiction. En 2023-2024, l'armée israélienne a utilisé un système baptisé 'Lavender' pour générer 37 000 listes de cibles — avec un taux d'erreur accepté de 10 % [1].
L'intelligence artificielle militaire offensive n'est plus science-fiction. En 2023-2024, l'armée israélienne a utilisé un système baptisé 'Lavender' pour générer des listes de cibles parmi les militants du Hamas — avec un taux d'erreur accepté de 10 % [1]. Les États-Unis développent des essaims de drones autonomes (LOCUST, Perdix) capables d'opérer sans intervention humaine [2]. La Corée du Nord et la Chine avancent rapidement sur des systèmes létaux autonomes [3]. Le droit international humanitaire n'a pas évolué pour répondre à ces réalités.
Cent dix-neuf pays ont participé aux négociations sur les LAWS (Lethal Autonomous Weapons Systems) à l'ONU [4]. Résultat : zéro traité contraignant adopté. Malgré dix ans de négociations, les grandes puissances bloquent toute convention internationale. La raison est stratégique : les États qui investissent massivement dans l'IA militaire n'ont aucun intérêt à se lier les mains via un traité que leurs adversaires pourraient violer.
IA OFFENSIVE — SYSTÈMES ET ENJEUX ÉTHIQUES
1. Cartographie des systèmes d'armes autonomes
| Système | Pays | Capacité | Niveau d'autonomie | Problème éthique |
|---|---|---|---|---|
| Lavender | Israël | Génération de listes de cibles Hamas | Semi-autonome (validation humaine 20 sec) | Taux d'erreur 10 % = 3 700 cibles erronées potentielles |
| LOCUST | USA | Essaims de 100+ drones autonomes | Autonome en essaim | Discrimination civils/combattants impossible en essaim |
| SGR-A1 Sentry Gun | Corée du Sud | Détection et neutralisation périmètre DMZ | Autonome (mode auto non activé) | Machine létale sans intervention humaine possible |
| Kargu-2 | Turquie | Drone loitering munition | Autonome — reconnaissance faciale | Rapport ONU 2021 : possible première utilisation autonome en Libye |
| HARPY | Israël | Anti-radar autonome | Fully autonomous | Cherche et détruit les radars sans opérateur |
LE DILEMME ÉTHIQUE-STRATÉGIQUE
2. Le glissement vers l'autonomie létale
Le système Lavender illustre un glissement qui se produit dans toutes les armées : l'IA ne remplace pas le jugement humain, elle l'accélère jusqu'à le vider de sens. Un officier qui valide une cible en 20 secondes sur la base d'une recommandation algorithmique n'exerce pas un "meaningful human control" — il valide une décision qu'il n'a pas eu le temps d'évaluer. La doctrine du DoD (Directive 3000.09) exige un contrôle humain "approprié" sur les décisions létales — mais 'approprié' est un terme délibérément vague qui laisse la porte ouverte à l'interprétation.
L'avantage militaire de l'autonomie est réel : un essaim de 1 000 drones autonomes peut saturer n'importe quelle défense point. Les systèmes autonomes ne fatiguent pas, ne paniquent pas, et décident en microsecondes. Dans un conflit US-Chine ou OTAN-Russie, l'armée qui aura renoncé à l'autonomie létale sera désavantagée contre celle qui ne l'aura pas fait. C'est le dilemme fondamental : la contrainte éthique peut devenir un désavantage militaire face à des adversaires sans scrupules.
« L'IA militaire réduit les victimes civiles en améliorant la précision — c'est plus éthique que les bombes non guidées des guerres précédentes. »
La précision améliorée de l'IA ne résout pas le problème éthique central : qui est responsable quand une machine tue un civil ? Dans le droit international humanitaire, la responsabilité est personnelle — il doit y avoir un humain qui prend la décision létale et qui peut être jugé. Un algorithme ne peut pas être jugé pour crime de guerre. Le système Lavender illustre le glissement : un officier qui valide une cible en 20 secondes sans vérification réelle n'exerce pas un "meaningful human control" — il rubber-stamp une décision algorithmique. La précision de l'IA peut d'ailleurs être manipulée : un ennemi qui comprend l'algorithme peut le tromper, créant de nouvelles asymétries que les systèmes non-autonomes n'ont pas.
ACTEURS CLÉS — LES NATIONS ET ENTREPRISES DE L'IA MILITAIRE
3. Cartographie des acteurs de la course aux LAWS
| Acteur | Pays | Investissement IA militaire | Position sur la réglementation | Système emblématique |
|---|---|---|---|---|
| DARPA / DoD | USA | +3,7 Md$ IA militaire en 2025 | Directive 3000.09 : contrôle humain "approprié" | LOCUST, Perdix, Project Maven |
| PLA — Armée populaire | Chine | Objectif : leadership IA militaire mondial 2030 | Oppose tout traité contraignant | CH-5 autonome, système de ciblage IA |
| Forces armées israéliennes | Israël | Classification — évalué à >500 M$/an | Utilisation opérationnelle sans traité | Lavender (ciblage), HARPY (anti-radar) |
| Kalashnikov / MoD russe | Russie | Budget opaque — estimation >1 Md$ | Oppose toute restriction — utilise en Ukraine | KUB-BLA loitering munition autonome |
| MBDA / Leonardo (EU) | Europe | Programme FCAS, MGCS — composante IA | Favorable à un cadre éthique (position FR/DE) | Systèmes en développement — pas encore déployés |
| Human Rights Watch | ONG internationale | — | Campagne "Stop Killer Robots" — traité contraignant | Rapport annuel LAWS |
| CICR | International | — | Favorable à des règles contraignantes | Rapport 2021 : CONTROL nécessaire |
| GGE LAWS — ONU | Multilatéral | — | Négociations depuis 2014 — zéro traité | Rapport annuel sans accord |
4. Le paradoxe de la régulation asymétrique
Les démocraties occidentales font face à un dilemme structurel : adopter des règles éthiques sur les LAWS revient à se lier les mains face à des adversaires qui ne le feront pas. La Directive 3000.09 du DoD exige un "contrôle humain approprié" — mais cette formulation délibérément floue a été maintenue telle quelle lors de sa révision en 2023, permettant précisément les systèmes comme Lavender. L'Union européenne, via son AI Act (juin 2024), a tenté d'introduire des restrictions sur les applications militaires de l'IA — mais les systèmes défense ont été explicitement exemptés du périmètre de la loi, sous pression des ministères de la Défense français et allemand.
CHRONOLOGIE DU DÉBAT INTERNATIONAL SUR LES LAWS
| Date | Événement | Signification |
|---|---|---|
| 2013 | HRW publie "Losing Humanity" — lancement de la campagne Stop Killer Robots | Premier rapport international structuré sur les LAWS |
| 2014 | Création du GGE LAWS à l'ONU — premières réunions d'experts | Début des négociations multilatérales — déjà 10 ans sans accord |
| 2016 | DoD publie la Directive 3000.09 — "meaningful human control" | Standard américain volontairement vague |
| 2019 | Première démonstration publique du DF-17 chinois (parade militaire) | Signal stratégique : la Chine déploie sans attendre un cadre international |
| Avril 2021 | Rapport ONU : le Kargu-2 turc aurait attaqué de manière autonome en Libye | Premier incident documenté possible d'arme totalement autonome |
| Octobre 2023 | Conflit Gaza : utilisation du système Lavender révélée par +972 Magazine | Cas concret de "meaningful human control" réduit à 20 secondes de validation |
| Juin 2024 | EU AI Act adopté — exemption militaire incluse | L'Europe renonce à réguler les LAWS dans son cadre civil |
| Novembre 2024 | GGE LAWS — session annuelle sans accord, blocage USA-Chine-Russie | Constat d'échec institutionnalisé |
| 2025 | DoD déploie Project Maven IA pour l'analyse ISR en temps réel | L'IA de ciblage intégrée aux opérations courantes |
| 2026-2030 | Horizon critique : essaims autonomes sans opérateur humain prévu | Point de basculement technologique et éthique |
SCÉNARIOS IA MILITAIRE 2026-2035
| Scénario | Prob. | Raisonnement défendu | Signal déclencheur | Impact |
|---|---|---|---|---|
| Course aux LAWS sans réglementation | ~45 % | Les grandes puissances (USA, Chine, Russie, Israël) continuent à développer des LAWS sans convention internationale. Chaque incident est minimisé. La technologie avance plus vite que la diplomatie. | Pas d'accord GGE ONU. Nouveau conflit utilisant des LAWS de manière documentée. | IA militaire létale normalisée. Prolifération vers États moins scrupuleux. |
| Autorégulation des démocraties | ~25 % | USA, UK, EU adoptent des règles internes sur les LAWS (contrôle humain significatif) sans traité international. Avantage éthique mais possible désavantage militaire face à la Chine. | DoD Directive 3000.09 révisée et contraignante. Accord OTAN sur les LAWS. | Standard de facto occidental. Chine et Russie hors du cadre. |
| Incident majeur et pression internationale | ~20 % | Un incident documenté (essaim autonome tue des civils) déclenche une pression internationale suffisante pour des négociations sérieuses. Précédent : mines antipersonnel (Ottawa 1997). | Rapport ONU documentant une utilisation autonome létale non ambiguë. | Négociations accélérées. Convention LAWS partielle possible. |
| Convention contraignante | ~10 % | Accord international sur les LAWS similaire à la Convention sur les armes chimiques. Improbable à court terme vu les intérêts des grandes puissances. | Catastrophe humanitaire majeure liée aux LAWS + volonté politique. | Limitation de la course aux LAWS. Mais vérification très difficile. |
"L'IA militaire pose la question la plus fondamentale du droit international depuis les Conventions de Genève : qui décide de donner la mort ?
La réponse 'l'algorithme' n'est pas acceptable en droit. Mais les États militairement puissants n'ont aucune incitation à adopter des contraintes que leurs adversaires ignoreront. L'absence de traité sur les LAWS n'est pas un oubli — c'est un choix. La course à l'IA militaire est engagée et irréversible. La vraie question est de savoir si les démocraties vont adopter des règles pour leurs propres systèmes, même si leurs adversaires ne le font pas. C'est le dilemme éthique-stratégique de la décennie.
SOURCES
- [1] +972 Magazine / Local Call — "Lavender: The AI Machine Directing Israel's Bombing Spree", avril 2024
- [2] DARPA — "LOCUST Program: Low-Cost UAV Swarming Technology" (darpa.mil)
- [3] ICRC — "Autonomous Weapons Systems: Technical, Military, Legal and Humanitarian Aspects", 2014 (icrc.org)
- [4] Groupe d'experts gouvernementaux ONU (GGE LAWS) — Rapports 2021-2024 (un.org/disarmament)
- [5] Human Rights Watch — "Stopping Killer Robots", 2024 (hrw.org)