Pour l'auteur, l’« autonomie » militaire des « robots-tueurs » est un mythe : les robots agissent par programmation humaine. L’enjeu est d’automatiser des fonctions précises (navigation, détection) tout en gardant le contrôle humain, pour une efficacité maîtrisée.
En finir avec le mythe de l’autonomie : repenser la robotique militaire armée par les niveaux d’automatisation (T 1755)
En 2022, VAB, robots terrestres et drones aériens avaient la mission de reconnaissance. © Arnaud Woldanski/armée de Terre/Défense
Debunking the Myth of Autonomy: Rethinking Military Robotics Armed with Levels of Automation
For the author, the military "autonomy" of "killer robots" is a myth: the robots act through human programming. The challenge is to automate specific functions (navigation, detection) while maintaining human control, for controlled efficiency.
Le concept d’autonomie militaire, incarné par les « robots tueurs » ou machines dites « autonomes », suscite autant de fascination que d’inquiétude. Depuis la campagne Stop Killer Robots en 2013, le terme « autonome » s’est largement répandu, alimentant de nombreuses confusions. Pourtant, l’autonomie totale demeure une illusion : aucun système robotisé ne possède d’autonomie au sens philosophique, tous agissent selon une programmation humaine précise. La réalité réside plutôt dans l’automatisation ciblée de fonctions spécifiques : navigation, visée, communication, etc. Il est donc plus pertinent d’analyser les systèmes selon leur degré d’automatisation fonctionnelle plutôt que par la simple opposition téléopéré, semi-autonome ou autonome. L’enjeu n’est pas de courir après une autonomie absolue, mais de renforcer la maîtrise humaine par l’automatisation – pour des forces plus efficaces et contrôlées.
Le mirage de l’autonomie : un concept flou et trompeur
Le terme autonomie appliqué aux systèmes militaires sans équipage est source d’ambiguïtés. Dans son sens philosophique, être autonome signifie agir selon ses propres règles – définition qu’aucune machine n’atteint. En tant qu’arme ou outil, cela n’a donc guère de sens : les machines programmées par l’homme sont par nature hétéronomes, exécutant des instructions prédéfinies sans volonté propre. Parler de « robot autonome » relève davantage de la métaphore ou du slogan, qui confère un vernis quasi magique à des systèmes en réalité très déterministes. La différence entre un système automatique (qui suit un enchaînement d’actions programmées) et un système dit autonome (capable d’adapter ses actions à la situation) tient uniquement à la complexité de sa programmation, non à une prise de décision libre. Concrètement, tout dépend de la qualité des données, de la méthode d’apprentissage, des capteurs et de la puissance de calcul. L’« autonomie » revendiquée relève ainsi surtout d’un récit technologique, utile pour séduire, obtenir des financements ou intimider l’adversaire.
Dans les faits, les doctrines militaires ont longtemps classé les systèmes en téléopérés, semi-autonomes et autonomes ; ces catégories sont pourtant incomplètes. Que recouvre réellement le « semi-autonome » ? Cela peut désigner aussi bien un simple pilote automatique (par exemple, un drone suivant un plan de vol) qu’un engin capable de sélectionner une cible et d’attendre une confirmation humaine avant de tirer. Regrouper des capacités si disparates entretient la confusion. De même, qualifier un système de « pleinement autonome » est discutable : aucune armée ne déploie aujourd’hui de robot sans supervision humaine totale. Cela impliquerait d’avoir créé un agent artificiel doté d’une autonomie absolue – un concept par essence subjectif et relatif. Le cadre conceptuel actuel de l’autonomie suggère une rupture technologique souvent exagérée, masquant le véritable continuum des capacités. Plutôt que d’opposer téléopéré et autonome, il faut adopter une approche plus fine, centrée sur les différentes fonctions et leur niveau d’automatisation. C’est dans cette gradation que se situe le progrès réel des robots militaires.
Des limites technologiques et opérationnelles bien réelles
L’utopie du robot-guerrier totalement autonome reste hors de portée, d’abord à cause de limites techniques. Malgré les progrès des algorithmes et de l’intelligence artificielle, aucune machine ne sait appréhender son environnement comme le ferait un humain en situation de combat complexe et imprévisible. La guerre implique des variables infinies – terrains changeants, cibles camouflées, réactions adverses – qui échappent aux algorithmes dès qu’on s’éloigne d’un scénario strictement défini. L’art de la guerre ne se réduit pas à des variables mathématiques. L’autonomie relative est toutefois atteignable, les systèmes les plus aboutis dans leurs automatisations en seront dotés. Elle suppose pour le système quatre fondamentaux nécessaires :
– Une capacité à évoluer dans un environnement déstructuré.
– Une capacité à évoluer dans un environnement dynamique.
– Une capacité à interagir avec cet environnement.
– Une capacité à exploiter son propre retour d’expérience en temps réel.
Les systèmes dits « intelligents » excellent sur des tâches ciblées (détection d’objets, pilotage sur trajectoire balisée…), mais échouent face à l’imprévu. Les armées doivent donc se contenter d’automatismes partiels qui assistent le soldat sans le remplacer.
Au-delà de la technique, les contraintes opérationnelles limitent aussi l’autonomisation. Les champs de bataille modernes regorgent de contre-mesures : brouillage GNSS, leurres, obstacles inattendus… Un véhicule incapable de gérer une perte de signal radio ou un simple imprévu ne saurait être autonome. Les systèmes de reconnaissance automatique d’image, souvent entraînés sur des bases annotées par des humains, sont vulnérables à des camouflages ou à des conditions dégradées (fumée, pluie, luminosité) que l’œil humain interprète, en acceptant le doute et en croisant les sources.
Enfin, des limites doctrinales et stratégiques freinent l’autonomie totale. Les forces armées rechignent à déléguer complètement la décision létale à une machine, par crainte d’erreurs fatales ou d’actions incontrôlées. Cela n’empêche pas certaines armées, comme l’Ukraine, d’envisager des formes d’automatisation plus poussées. L’automatisation est toutefois mieux acceptée dans des domaines restreints et défensifs : les systèmes antimissiles ou antiaériens automatisés sont largement utilisés, car ils opèrent dans un cadre précis, avec des règles strictes. Les systèmes coréens SGR-A1 ou Super Aegis II, bien qu’équipés pour détecter et tirer automatiquement, fonctionnent en réalité avec une validation humaine avant tir – choix doctrinal de ne pas laisser la machine décider de la vie ou la mort.
Recentrer l’analyse sur les niveaux d’automatisation par fonction
Un système d’arme n’est jamais monolithique : il comporte des sous-systèmes – mobilité, capteurs, traitement des données, communication, activation des armes, etc. – qui peuvent être plus ou moins automatisés indépendamment les uns des autres. Un drone, par exemple, peut très bien avoir une navigation automatique extrêmement avancée (pilotage par GNSS ou par caméras, évitement d’obstacles, retour à la base seul) tout en conservant une décision de tir entièrement humaine. Parler d’un engin « semi-autonome » sans préciser sur quelles fonctions porte l’automatisation revient donc à mélanger des capacités hétérogènes. Autrement dit, il faut passer d’une logique d’état (téléopéré vs autonome) à une logique de profil fonctionnel.
Comment décrire ces niveaux d’automatisation par fonction ? Des référentiels existent déjà. Certains chercheurs ont proposé des échelles à plusieurs dimensions (comme le degré de contrôle humain vs la complexité de l’environnement) pour situer un système dans un espace d’autonomie (1) ; des nomenclatures plus ou moins internationales existent aussi (2). Plus récemment, un chercheur français, Thierry Berthier (3), a travaillé sur une grille à six niveaux (L0 à L5) appliqués aux systèmes d’armes, en définissant pour chaque fonction clé ce que fait la machine par rapport à l’homme. C’est en dépassant ce travail salutaire, que nous pouvons toucher encore plus précisément ce que peut être l’autonomie relative. On peut ainsi distinguer, du niveau le plus bas au plus élevé :
• Niveau 0 Opération humaine directe – La machine comme simple relais tactique : l’automate télécommandé.
Au niveau L0, le système armé n’est qu’un prolongement mécanisé de l’humain. Aucune fonction interne au système ne participe à la décision ou à l’exécution : toutes les opérations dépendent exclusivement de l’opérateur humain, qui contrôle chaque geste en temps réel. Le système ne perçoit pas son environnement ; il reçoit les ordres par commande. Cela suppose une connexion permanente, et une attention sur l’interface opérateur. L’efficacité opérationnelle est ici strictement liée à l’architecture de la plateforme et aux capacités cognitives, sensorielles et tactiques de l’humain, qui reste seul maître. C’est un modèle saturé cognitivement et contreproductif dans un contexte difficile ou en absence de connectivité.
• Niveau 1 Exécution guidée par l’humain – La machine miroir : l’opérateur augmenté mais indispensable.
Le L1 introduit un premier niveau de médiation entre l’action humaine et l’exécution. Le système peut reproduire certains gestes humains ou assister à la formulation de tâches simples, mais n’interprète pas la situation par lui-même. Il réplique, suggère, ou adapte légèrement l’action selon les paramètres humains (par exemple, reproduit une trajectoire, stabilise un viseur, ou trie des communications prérédigées). L’humain reste le seul agent décisionnel dans la boucle ; la machine lui sert d’appui limité, pas de substitut. Le système n’a pas d’intention propre, mais commence à structurer un espace technique de dialogue entre l’homme et l’automate. L’efficacité dépend toujours de l’architecture du système et davantage de l’IHM.
• Niveau 2 Automatisation fonctionnelle limitée – Le sous-traitant numérique : la délégation conditionnelle de fonctions.
Avec L2, le système commence à automatiser certaines fonctions spécifiques, de manière segmentée et dépendante de paramètres fournis en amont. Il peut par exemple choisir un itinéraire optimisé, détecter automatiquement des objets, proposer une distribution énergétique basique. Toutefois, il ne comprend pas encore la finalité de sa mission : il applique des règles, sans capacité d’arbitrage tactique ou de recomposition en cas d’imprévu. L’humain reste l’architecte de la logique d’action, mais la machine gagne en vélocité fonctionnelle. Ce niveau est typique des systèmes qui fonctionnent par règles d’engagement strictes, avec une interdiction de tirer ou d’identifier sans validation humaine. Il optimise les chaînes logistiques ou sensorielles, mais reste aveugle au contexte global.
• Niveau 3 Automatisation supervisée – Le co-acteur indépendant : interprétation locale, supervision humaine.
Le L3 marque une bascule : la machine devient capable de percevoir, d’interpréter et de proposer des options, dans plusieurs fonctions critiques (analyse tactique, détection, coordination d’essaim, gestion de l’énergie). Elle peut formuler des hypothèses, les tester, et les transmettre à l’humain pour validation. L’opérateur n’est plus chef d’orchestre mais relecteur tactique : il accepte, modifie ou rejette des propositions faites par le système. Ce modèle permet un gros gain de réactivité, tout en gardant l’humain dans la boucle pour les décisions sensibles. Il repose toutefois sur une infrastructure de contrôle robuste et un degré élevé de confiance homme-système. Le L3 n’est pas un seuil d’autonomie, mais un niveau d’automatisation pivot où l’humain n’agit plus en temps réel, mais en validation périodique.
• Niveau 4 Exécution indépendante conditionnelle – L’exécutant tactique : autonomie sous conditions.
Le niveau 4 permet à la machine de conduire quasi seule l’exécution de la mission, dans des cadres opérationnels et juridiques prédéfinis. Elle comprend l’objectif assigné, les limites d’engagement, les zones d’opération, et peut adapter sa trajectoire, ses cibles ou son énergie sans sollicitation humaine. Elle ne demande plus validation pour chaque action, mais peut être arrêtée. Cette architecture repose sur des modèles prédictifs, des scénarios d’entraînement massifs, et des couches décisionnelles internes. On parle ici de systèmes capables de comprendre la situation locale, de se coordonner avec d’autres entités similaires ou de niveaux différents, et de prioriser des effets. Ce niveau est critique, car il déplace le centre de gravité décisionnel, de l’homme vers l’algorithme, tout en gardant une possibilité de désactivation humaine.
• Niveau 5 Mission avec délégation totale – Le système agent du champ de bataille : l’autonomie relative.
Le L5 est un idéal, souvent fantasmé, encore jamais observé dans un cadre opérationnel réel mais qui sert de but pour certains, et de seuil limite pour d’autres, servant à fixer les limites à ne pas franchir. Il suppose un système capable de formuler sa propre séquence d’action tactique à partir d’un simple énoncé de mission. Plus aucun humain n’est impliqué dans le processus de décision après le lancement. Le système peut créer ses propres règles d’engagement, établir une boucle de raisonnement autonome, collaborer avec d’autres unités, sélectionner et détruire une cible sans supervision. Il s’agit ici d’un acteur machine total, capable de rivaliser avec des boucles décisionnelles humaines. En réalité, ce modèle n’existe pas encore pour tous les freins mentionnés en amont. Alors que la récupération ou le contrôle par l’homme demeurent possibles, la machine ne serait pas pour autant privée du devoir et de la nécessité de rendre compte. Un système L5 serait un SAAR, système armé à l’autonomie relative.
Cette approche par fonctions et niveaux offre un cadre d’analyse beaucoup plus robuste que le triptyque traditionnel. D’une part, elle reflète la réalité technique : un système d’armes moderne est forcément hybride, combinant des fonctions automatisées et d’autres sous contrôle humain. D’autre part, elle permet d’identifier précisément les capacités et lacunes. La plupart des drones armés de reconnaissance sont aujourd’hui L4 en navigation (voler et revenir à la base de façon automatique), L3 en détection (alerte et identifie automatiquement les cibles potentielles via capteurs et intelligence embarquée), mais seulement L1 en engagement (aucun tir sans commande explicite du télépilote humain). À l’inverse, les drones collisionneurs sont pratiquement L5 sur la fonction acquisition/engagement de cible – ils verrouillent leur cible et continuent leur progression jusqu’à impact sans intervention humaine pour s’affranchir du brouillage ou des pertes de communication dans les derniers mètres – mais ils sont L0 dans de nombreux autres domaines. Pour ce qui est des robots terrestres, ils sont actuellement dans un mix L0-L3 avec toutes les combinaisons possibles. Ces distinctions montrent bien qu’il est vain de qualifier un système d’autonome et un autre de téléopéré de façon binaire : chacun possède un profil d’automatisation spécifique, résultant avant tout d’un choix de mission.
Enfin, adopter la grille des niveaux par fonction offre un langage commun plus opérationnel. Les états-majors peuvent définir des exigences claires : par exemple, demander qu’un futur véhicule soit L3 en conduite mais L1 en tir. Cela facilite aussi l’évaluation des progrès : on peut suivre l’évolution d’un système fonction par fonction (améliorer d’un niveau la détection automatique plutôt que de chercher un hypothétique saut vers l’autonomie générale). En somme, on remplace le rêve d’un robot omnipotent par le pilotage pragmatique de l’automatisation maîtrisée des tâches.
De l’« autonomie » à la maîtrise de l’automatisation : quel enjeu pour les armées ?
Placer les niveaux d’automatisation fonctionnelle au cœur de la réflexion n’est pas qu’un exercice théorique : c’est une nécessité pour guider le développement et l’emploi des robots militaires de façon sûre et efficace. Pour les armées, l’objectif ne doit pas être de courir après l’illusion d’un système entièrement autonome, mais bien d’augmenter graduellement la performance tout en conservant la maîtrise. Cela passe par plusieurs axes concrets.
D’abord, fixer des exigences opérationnelles précises en termes de fonctions automatisées. Plutôt que de demander un robot autonome dans l’absolu, un commandement devrait énoncer par exemple : capacité de navigation tout temps sans GNSS (L3 minimum en navigation), ou désignation automatique de cibles multiples avec discrimination des non-combattants (niveau L3 en acquisition de cible), etc. Ces spécifications orientent la R&D vers des avancées tangibles et vérifiables, et évitent les malentendus. Un cadrage par fonctions et niveaux rend la communication plus claire entre ingénieurs, opérationnels et décideurs, en démystifiant l’emploi du mot autonome et demeure ainsi au service de l’opérationnel.
Ensuite, préserver l’humain dans la boucle aux bons endroits. La grille d’automatisation sert aussi à décider où le contrôle humain est indispensable et où il peut s’alléger. Il s’agit d’implémenter ce que les Anglo-Saxons appellent Meaningful Human Control de manière concrète. Par exemple, on pourra choisir de toujours garder une validation manuelle pour le tir (pas au-delà de L3 en conduite de tir) tant que la fiabilité de discrimination de cibles n’atteint pas 100 %. En revanche, on peut viser un niveau L4 ou L5 en logistique et maintenance (un robot qui gère seul son ravitaillement, ses diagnostics et éventuellement ceux de ses coéquipiers robots). Ce faisant, on ne sacrifie pas l’efficacité : au contraire, on déleste le soldat des tâches subalternes (conduite, surveillance continue, réglages techniques) pour lui permettre de se concentrer sur le décisionnel ou la plus-value humaine. La maîtrise de l’automatisation, c’est de savoir jusqu’où pousser la délégation aux machines pour optimiser l’ensemble homme-système ou système-système.
Par ailleurs, penser en niveaux fonctionnels incite à développer des systèmes modulaires et évolutifs. On pourra faire progresser un niveau indépendamment des autres. Par exemple, améliorer l’algorithme de reconnaissance d’images d’un drone (passer de L0 à L2 en détection) sans avoir à redévelopper tout le drone ni toucher à son mode de pilotage ou de tir. Cette modularité est déjà recherchée – l’Ukraine, par exemple, conçoit des modules d’intelligence artificielle (IA) plug-and-play pouvant être ajoutés à diverses plateformes pour augmenter ponctuellement telle ou telle fonction. C’est la dissociation hardware/software. Pour les planificateurs, c’est la garantie de pouvoir adapter rapidement les capacités en fonction des besoins, au lieu d’attendre un hypothétique « super robot » révolutionnaire.
Enfin, cette approche clarifie les défis restants et oriente la coopération internationale. En identifiant que, par exemple, le goulot d’étranglement se situe au niveau L2/L3 en analyse de situation (comment faire comprendre le contexte tactique à une IA), les efforts de recherche peuvent converger. Cela permet aussi de mieux cibler les discussions éthiques et juridiques : au lieu de débattre abstraitement des robots autonomes depuis des années et à codifier quelque chose qui n’existe pas et qui ne sera jamais partagé par tout le monde, nous pouvons discuter de l’emploi d’un niveau 5 sur telle fonction et en mesurer les implications pratiques. Cela rejoint l’idée de certains juristes qui plaident pour réguler non pas une chimère d’autonomie générale, mais les fonctions critiques (ciblage, tir), lorsqu’automatisées au-delà d’un certain degré. Pour le militaire, l’important est que ces débats soient informés par la réalité technico-opérationnelle et la réalité de l’évolution des conflits modernes où nous voyons l’avènement de l’ultra-humain (4) qui bouleverse tous les codes de la guerre.
Conclusion
Replacer les niveaux d’automatisation au centre de l’analyse permet de sortir du piège conceptuel tendu par le mythe de l’autonomie. Non, les armées ne disposeront pas demain de robots génériques conscients et imprévisibles – et c’est tant mieux. En revanche, elles disposent d’une palette grandissante d’automatismes spécialisés qu’il faut combiner intelligemment. La véritable révolution en cours est celle de la collaboration homme-machine optimisée : donner aux machines assez d’initiative pour accélérer l’action et décupler la performance, tout en gardant l’homme aux commandes des choix décisifs. Cet équilibre passe par une compréhension fine des capacités de chaque fonction automatisée. L’autonomie n’est pas une fin en soi – c’est un slogan qu’il convient de dépasser. La finalité, pour les forces, c’est la supériorité opérationnelle reposant sur la fiabilité technique. À l’ère de l’IA, gagner ne signifie pas avoir un robot sans laisse, mais savoir jusqu’où l’allonger sans la lâcher. En parlant désormais de niveaux d’automatisation plutôt que d’autonomie tout court, les armées se donneraient les moyens conceptuels de poursuivre cette avancée de façon lucide, maîtrisée et efficace.
Vers l’autonomie relative, un « framework from military to militaries » pour automatiser la machine
(1) Kaim Markus et Rühlig Tim, « System Intelligence —Autonomy in Weapon Systems: Definitions, Debates, and Proposals », IFSH (Institute for Peace Research and Security Policy), IFAR Research Paper, n° 1, 2022 (https://ifsh.de/).
(2) Le cadre ALFUS (Autonomy Levels for Unmanned Systems) proposé par le NIST définit par exemple plusieurs niveaux pour évaluer le degré d’autonomie d’un drone ou robot terrestre, en tenant compte de facteurs comme la complexité de la tâche, l’environnement et l’assistance humaine requise. Dans le domaine civil automobile, la Société des ingénieurs de l’automobile (SAE) a popularisé une échelle de 0 à 5 pour les véhicules autonomes.
(3) Berthier Thierry, « Systèmes armés semi-autonomes : que peut apporter l’autonomie ? », RDN, n° 820, mai 2019, p. 74-80 (https://www.defnat.com/e-RDN/vue-article.php?carticle=22043&cidrevue=820).
(4) Rieutord Dylan, Pour une géopolitique de l’ultra-humain : défis et enjeux de l’introduction de systèmes de combat automatisés et autonomes dans les armées contemporaines, IEGA, janvier 2022, 45 pages.