ThucyDoc n° 24 – Compte rendu : Table ronde sur les systèmes d’armes létaux autonomes à l’Assemblée nationale le 11 avril 2019

Le 5 avril dernier, la ministre des Armées Florence Parly dévoilait sa feuille de route concernant le développement de l’intelligence artificielle (IA) dans le domaine militaire, et annonçait un investissement de 100 millions d’euros par an jusqu’en 2025[i].

La ministre des Armées soutenait néanmoins, quelques jours après la clôture de discussions onusiennes quelque peu houleuses sur la question des systèmes d’armes létaux autonomes (SALA) qu’il n’était pas dans l’intention de la France de développer ces types d’armements et que « Terminator ne défilera pas le 14 juillet ».

Elle annonçait également la création d’un comité éthique ministériel pour la défense, visant à traiter des questions posées par les technologies émergentes et leur emploi par l’homme dans le domaine de la défense. Dans la lignée de ces futurs travaux ministériels s’est tenue, au sein de l’Assemblée nationale, et plus particulièrement de la Commission pour la défense et les forces armées, une table ronde organisée par le député Fabien Gouttefarde (LREM) le 11 avril dernier[ii].

Durant cette table ronde, juristes, militaires, philosophes et avocats se sont s’intéressés à la problématique suivante : « Enjeux liés aux SALA : demain une guerre sans soldat ? ». La réunion, malgré quelques imperfections, constitue une première tentative intéressante d’instaurer un dialogue français sur le sujet des systèmes d’armes létaux autonomes (SALA).

Le colonel Marc Espitalier (bureau Plan de l’état-major de l’armée de Terre) s’est d’abord interrogé sur la difficulté liée aux combats dans une zone terrestre, pour les SALA, allant de l’interaction avec les populations locales, à la détermination des dommages collatéraux, mais aussi aux problèmes liés à l’intelligence artificielle elle-même (modélisation du terrain, rassemblement des informations).

Dans un second temps, la réflexion sur le cadre d’action militaire a nécessité de se pencher sur l’éthique du combat dont est empreinte toute la structure militaire. En effet, le colonel a souligné que tout soldat engagé agit dans un emboitement de règles et son action est contrôlée par une chaîne de commandement. Nécessairement le robot devrait également s’y conformer. Cependant, un système autonome au sens étymologique du terme qui définit ses propres règles dérogerait aux exigences de contrôle hiérarchique inhérentes à l’armée française. Pour lui ainsi, l’intérêt principal de ces types d’armement, du moins pour l’armée de Terre, serait limité à la prolongation de l’action militaire. Le robot devrait être un équipier, le militaire saurait comment l’employer, où l’employer, pour une durée et une action déterminée.

Il conclut en reprenant les termes de Florence Parly, disant que pour l’armée de Terre, il faut disposer d’une « intelligence artificielle performante, robuste, et maitrisée pour ne jamais être dépassé par l’ennemi et que notre Armée soit plus forte ».

Marie-des-Neiges Ruffo de Calabre, docteur en philosophie de l’Université de Namur, a orienté sa présentation sur les contraintes techniques, juridiques et éthiques d’une plus grande autonomie des robots militaires vis-à-vis de l’éthique militaire.

L’intervenante a ainsi souligné l’impossibilité d’accepter, au point de vue éthique, qu’un système d’armes puisse prendre la décision de choisir une cible ainsi que de l’engager. De même, elle affirme la présence d’une « ligne rouge » : doter un robot d’une personnalité juridique. Ainsi, selon elle, « dire que le robot est responsable, c’est dédouaner la chaine de commandement ».

Julien Ancelin, docteur en droit public a quant à lui proposé une présentation sur la position française sur l’autonomie des systèmes d’armes dans les échanges internationaux. Ainsi il a rappelé la difficulté principale pour les juristes : pouvoir donner une réalité technique à l’autonomie.

L’autonomie peut se définir comme une capacité qu’aurait une chose à évoluer indépendamment d’une autre chose. Lorsque l’on s’y penche, on peut ainsi différencier les systèmes d’armes automatiques (dont les actions sont prévisibles et se déroulant dans un environnement prédéterminé) des systèmes autonomes pouvant s’adapter à un environnement non structuré.

Les premières définitions des SALA, américaines et onusiennes, apparaissent entre 2012 et 2013 et présupposent que les SALA sont des armes qui « une fois déployées, peuvent sélectionner et engager une cible sans intervention humaine ». Néanmoins, le consensus est loin d’être acquis pour les Etats au regard de cette définition. Globalement, trois schémas sont différenciés pour caractériser le rôle de l’humain vis-à-vis de ces nouveaux systèmes : dans la boucle décisionnelle, sur la boucle, ou en dehors de la boucle.

Selon M. Ancelin, alors que la France rejette de principe l’utilisation des systèmes dits out of the loop, où l’humain ne serait plus responsable à partir du moment où le système serait déployé, elle adopte une position plus ambivalente sur les systèmes à autonomie partielle, en ne définissant pas l’étendue du contrôle humain nécessaire à leur déploiement.

Finalement, Maîtres Didier Gasagne et Alix Desies de Lexing Besoussan Avocats sont revenus sur la genèse de l’autonomie dans le domaine militaire pour conclure sur un état des lieux des négociations onusiennes.

Ils ont souligné avec justesse que la recherche sur l’autonomie et l’intelligence artificielle au sein des institutions militaires n’est pas un projet récent, mais s’inscrit au contraire dans un processus historique de longue date. En effet, le développement de l’IA est un enjeu majeur pour les puissances militaires, et semble pouvoir offrir une supériorité stratégique à ceux qui la détiendront. Ainsi des pays comme la Chine ou la Russie voient dans le déploiement de systèmes autonomes sur le terrain une opportunité stratégique de taille, même si de nombreuses voix s’élèvent pour en souligner les limites.

Cela explique qu’au sein des Nations unies, les Etats, bien que d’accord sur le maintien de la responsabilité humaine ou la pertinence du droit international humanitaire, se déchirent sur la notion de contrôle humain, les mesures normatives à entreprendre ainsi que leur étendue.

Conclusions : Malgré quelques points intéressants et l’aspect novateur de cette réunion au sein de l’Assemblée nationale, on peut regretter plusieurs choses. D’une part, les questions ont rapidement coupé court à tout véritable débat sur le fond pour s’orienter sur deux points clivants et contradictoires : la nécessité de déployer des SALA pour lutter contre « l’ennemi » et la nécessité de les interdire. De plus, malgré quelques mentions à l’opérationnel et aux problèmes juridiques que ces systèmes peuvent poser, les intervenants ainsi que les participants n’ont pas su dépasser ce débat binaire et s’intéresser plus largement aux questions de fond.

Le traitement d’un sujet aussi large que l’introduction de l’autonomie sur le terrain fait intervenir de nombreuses questions : morale, éthique, droit, opportunité militaire, politique et stratégie. Il serait intéressant que l’ébauche d’approche pluridisciplinaire proposée par la table ronde du 11 avril donne lieu à un véritable effort de réflexion sur le sujet au sein de la Commission pour la défense et les forces armées.

Joanne KIRKHAM
8 mai 2019

[i] NOISETTE Thierry, « Terminator ne défilera pas au 14 Juillet », promet Florence Parly, in Nouvel Obs, Paris, 5 avril 2019 [voir en ligne]

[ii] Programme de cette table ronde [cliquer ici]