Connexion
  • Mon espace
RDN Association loi 1904, fondée en 1939 RDN Le débat stratégique depuis 1939
  • Panier - 0 article
  • La Revue
  • e-RDN
    • Tribune
    • e-Recensions
    • Cahiers de la RDN
    • Débats stratégiques
    • Florilège historique
    • Repères
    • Brèves
  • Boutique
    • Abonnements
    • Crédits articles
    • Points de vente
    • Conditions générales de vente
  • Bibliothèque
    • Recherche
    • Auteurs
    • Anciens numéros
  • La RDN
    • Présentation
    • Comité d'études
    • L'équipe
    • Contact
    • Lettre d'infos
    • Agenda
  • Liens utiles
  • Mon espace
  • Connexion
  • Connexion

    Email :

    Mot de passe :

  • La Revue
  • e-RDN
    • Tribune
    • e-Recensions
    • Cahiers de la RDN
    • Débats stratégiques
    • Florilège historique
    • Repères
    • Brèves
  • Boutique
    • Abonnements
    • Crédits articles
    • Points de vente
    • Conditions générales de vente
  • Bibliothèque
    • Recherche
    • Auteurs
    • Anciens numéros
  • La RDN
    • Présentation
    • Comité d'études
    • L'équipe
    • Contact
    • Lettre d'infos
    • Agenda
  • Liens utiles
  • Accueil
  • e-RDN
  • Revue n° 791 Juin 2016
  • Les systèmes d’armes létaux autonomes : en avoir (peur) ou pas ?

Les systèmes d’armes létaux autonomes : en avoir (peur) ou pas ?

Julian Fernandez, « Les systèmes d’armes létaux autonomes : en avoir (peur) ou pas ?  » Revue n° 791 Juin 2016 - p. 133-141

Les Systèmes d’armes létaux autonomes (Sala) posent de nombreuses questions quant à leur emploi et aux règles à appliquer. N’excluant pas la responsabilité des utilisateurs et du commandement, il convient de ce fait de poursuivre les réflexions au niveau international pour mieux encadrer ce type d’armement nouveau.

Lethal Autonomous Weapon Systems: to have (Fear) it or not?

The Lethal Autonomous Weapon Systems (LAWS) bring out numerous questions as for their usage and rules to apply. Not excluding the responsibility of the users and the command, it agrees to continue to the reflections at international level to better supervise such type of new weapon.

Les « robots tueurs » n’existent pas. Et les systèmes d’armes létaux autonomes (SALA) – selon la formulation consacrée – ne devraient faire leur apparition sur le champ de bataille ni demain ni dans un futur proche. Si la perspective de « robots tueurs » est très improbable, c’est d’ailleurs moins en raison des limites actuelles de l’intelligence artificielle que de l’absence de volonté des États intéressés d’investir dans des créatures qui échapperaient à une supervision minimale (1). Mais le sujet est à la mode. La société civile a fait de l’interdiction des SALA une nouvelle cause à défendre. Les militants, d’abord, avec la campagne « Stop Killer Robots » initiée par Human Rights Watch et portée par une coalition d’ONG (2). Les savants, ensuite, avec la lettre-pétition signée par plusieurs milliers de personnalités, dont Noam Chomsky ou Stephen Hawking, et appelant à la régulation de telles armes (3). Même les gouvernements s’engagent dans de premières discussions, avec l’organisation, depuis 2014 et à l’initiative de la France, de réunions informelles d’experts dans le cadre de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques (CCAC) (4). Bref, que de mobilisations pour un sujet qui demeure à l’âge spéculatif !

Les débats sont certes nourris par les avancées réelles de la science, mais aussi par des représentations faussées. Des avancées réelles, avec l’arrivée d’outils robotisés, parfois « algorythmisés », dans le domaine civil (de l’aspirateur à la voiture) comme militaire (plus de trente États, par exemple, possèdent des systèmes défensifs autonomes contre des missiles ou chasseurs ennemis comme les modèles Patriot ou Phalanx). On sait également que la recherche en intelligence artificielle et particulièrement en « Deep Learning » fait l’objet d’investissements considérables dans nombre d’États ou de firmes multinationales (chez Google, Apple, Facebook ou Amazon, notamment). Des représentations faussées cependant, par nos angoisses que des processeurs surpassent l’homme, et ce, plus seulement aux échecs ou au jeu de go, et par notre inquiétude que des robots agissent sous l’empire de sentiments humains (la jalousie, l’envie, la prédation, etc.). La littérature ou le septième art reflètent ainsi notre crainte que des machines nous trahissent et nous menacent. Les œuvres de Philip K. Dick (5) ou des films comme 2001 : l’odyssée de l’espace (6) ou la série des Terminator (7) renvoient au mythe de Frankenstein appliqué aux robots (8). Est-ce bien raisonnable ? La science peut-elle engendrer des modèles pleinement autonomes et indépendants, entendus comme ayant une capacité d’action sans l’intervention de l’homme, mais aussi une capacité de protection contre ses ingérences. Peut-on dépasser les systèmes d’armes actuels dans lesquels l’opérateur humain est encore « dans la boucle » ? Rien n’est moins sûr. Les technologies nécessaires ne devraient pas être disponibles avant au mieux plusieurs décennies et on peut se demander de toute façon ce qui pousserait l’homme à inventer de tels systèmes (9). Mais nombreux sont ceux qui évoquent déjà une troisième révolution militaire et stratégique, après l’invention de la poudre et de l’arme nucléaire, sinon une nouvelle menace à la paix et à la sécurité internationales.

Dans ces conditions, il convient déjà de bien s’entendre sur les objets concernés comme sur les enjeux moraux, opérationnels et juridiques qu’ils posent, avant d’adopter une position qui ne peut être aujourd’hui que mesurée.

Il reste 88 % de l'article à lire

 

Plan de l'article

Une identification incertaine

Des interrogations plurielles

Le débat moral

Le débat opérationnel

Le débat juridique

Une interdiction prématurée

 
 

L'article a bien été ajouté au panier.

Mon panierContinuer mes achats

Partagez...

  • Accéder au sommaire du numéro

Mai 2025
n° 880

Océans, des défis pour la France

Je participe au débat stratégique


À vos claviers,
réagissez au dossier du mois

 

Actualités

05-05-2025

La DGA présente son bilan d’activités 2024

30-04-2025

Camerone – 1863

29-04-2025

La Marine nationale teste en pleine mer un drone offensif sur une cible réelle

29-04-2025

Lancement réussi du 4e Vega C – Succès de la mise en orbite de Biomass

28-04-2025

Signature du contrat Rafale Marine pour l’Inde

22-04-2025

Disparition d'Odile de Vasselot

Adhérez au CEDN

et bénéficiez d'un statut privilégié et d'avantages exclusifs (invitations...)

Anciens numéros

Accéder aux sommaires des revues de 1939 à aujourd’hui

Agenda

Colloques, manifestations, expositions...

Liens utiles

Institutions, ministères, médias...

Lettre d'infos

Boutique

  • Abonnements
  • Crédits articles
  • Points de vente
  • CGV
  • Politique de confidentialité / Mentions légales

e-RDN

  • Tribune
  • e-Recensions
  • Cahiers de la RDN
  • Florilège historique
  • Repères

Informations

La Revue Défense Nationale est éditée par le Comité d’études de défense nationale (association loi de 1901)

Directeur de la publication : Thierry CASPAR-FILLE-LAMBIE

Adresse géographique : École militaire,
1 place Joffre, Paris VII

Nous contacter

Tél. : 01 44 42 31 90

Email : contact@defnat.com

Adresse : BP 8607, 75325 Paris cedex 07

Publicité : 01 44 42 31 91

Copyright © Bialec Tous droits réservés.