ThucyBlog n° 48 – Systèmes d’armes létaux autonomes : analyse de l’ambivalence française

Partager sur :

Par Joanne Kirkham, le 25 juin 2020

Selon la définition proposée par la mission permanente de la France auprès de la Conférence du désarmement des Nations Unies à Genève, les systèmes d’armes létaux autonomes (SALA) sont des « systèmes pleinement autonomes, c’est-à-dire des systèmes capables de définir ou d’altérer le cadre de leur mission sans validation humaine, et de recourir à la force létale sans aucune forme de contrôle ou de supervision humaine »[1].

Depuis 2013 et l’impulsion française pour la tenue de réunions au sein des Nations Unies d’un Groupe d’experts gouvernementaux s’intéressant aux défis juridiques posés par les SALA, la France a eu l’opportunité de préciser cette définition tout en contribuant au débat, défendant une position qu’elle qualifie de « réaliste »[2].

Limpide ?

Celle-ci peut se résumer simplement : les systèmes d’armes autonomes n’existent pas à ce jour et une interdiction préventive ne permettrait pas de répondre adéquatement aux défis posés par eux. De fait, la position française n’évolue pas, que ce soit en interne ou à l’international. La ministre des Armées Florence Parly a ainsi souligné lors de son discours du 5 avril 2019 que la France refuserait de confier la décision de vie ou de mort à une machine qui agirait de façon autonome et échapperait à un contrôle humain, tout en concluant sur ces propos : « Terminator ne défilera pas au 14 juillet »[3].

Tout semble ici assez limpide. En effet, puisque les SALA disposeraient d’une autonomie telle qu’ils ne seraient pas soumis aux ordres, les déployer contreviendrait aux principes gouvernant l’action des armées françaises, et plus largement au droit des conflits armés. Il apparaît également que ces systèmes ne présenteraient, en toute hypothèse, qu’un intérêt opérationnel limité eu égard à l’impossibilité pour le commandement humain de les contrôler[4].

Dès lors, considérant leur inefficacité, leur dangerosité, ainsi que les questionnements moraux qu’ils suscitent, une interdiction préventive ne serait donc pas la seule solution ?

Ambigü

Néanmoins, c’est là que se découvre l’ambiguïté de la position « à la française », ou plus largement, le dilemme partagé par toutes les grandes puissances militaires s’agissant de ces nouveaux armements[5]. D’un côté, les capacités autonomes suscitent de grandes inquiétudes au niveau éthique et juridique, exprimées notamment par la société civile, et de l’autre, ces mêmes capacités font miroiter un avantage stratégique majeur, poussant les États à engager des moyens militaires et financiers dans la recherche d’une autonomie grandissante.

Ainsi, du programme Scorpion lancé en 2005 visant à développer certains systèmes autonomes et le combat collaboratif homme-machine, à l’investissement de 100 millions d’euros par an prévu pour permettre de privilégier le développement de l’intelligence artificielle dans les armées françaises, ainsi qu’avec le développement de véhicules pouvant opérer en autonomie totale comme le eRider du groupe Safran[6], la France semble prendre pleine part à la réorientation de ses armées vers la recherche d’une autonomie robotique de plus en plus poussée.

Cette ambiguïté se traduit à Genève par une position en demi-teinte de la France qui, tout en reconnaissant les risques potentiels liés à ces systèmes, refuse en l’état l’établissement d’un texte normatif prévoyant leur interdiction préventive.

Lors de la clôture des réunions onusiennes en 2019, la délégation française a ainsi maintes fois souligné le risque posé par la négociation d’un instrument contraignant déconnecté de la réalité industrielle et des capacités techniques des États, qui n’aurait aucune force et n’apporterait aucun bienfait à l’humanité.

Une position franco-allemande

L’apparente nécessité de trouver un consensus robuste entre les États a cependant motivé la France à publier en 2017 une déclaration conjointe avec l’Allemagne proposant plusieurs modalités d’évolution des réunions, notamment l’adoption d’une déclaration politique affirmant l’application du droit international humanitaire pour le développement et le déploiement des SALA, la nécessité d’un contrôle humain suffisant et le refus de déléguer la prise de décision létale à une machine[7].

L’objectif affiché par cette déclaration politique proposée par les deux délégations est d’améliorer la transparence et la confiance entre les États, tout en la conciliant avec la possibilité de développer un code de conduite politiquement contraignant sur le développement et le déploiement de ces systèmes sur les champs de bataille[8].

En parallèle, le 22 janvier 2019, Patrice Caine, président-directeur général du groupe Thalès, a souligné l’urgence pour la communauté internationale d’adopter une interdiction préventive des « robots tueurs ». Il a également affirmé que l’entreprise ne recourra pas à l’intelligence artificielle dans les domaines relatifs à la létalité afin de ne pas donner à une machine la possibilité de tuer[9]. Cette position du groupe français fait écho aux réticences du géant Google qui annonce en 2018 se retirer du projet Maven (Algorithmic Warfare Cross-Functional Team) financé par la défense américaine, à la suite d’une levée de boucliers de ses employés[10].

Cette apparente dichotomie entre la position des entreprises et la position officielle de la France illustre bien l’impact qu’ont l’opinion publique et la société civile sur l’industrie. Cela pourrait résulter à terme dans une position difficile à tenir pour la France qui, à l’instar de la Defense Advanced Research Projects Agency (DARPA) du département de la défense américain, pourrait bénéficier plus difficilement de l’aide des grandes entreprises pour poursuivre la course aux armements autonomes.

[1] Déclaration de la délégation de la France lors des réunions d’août 2019 du Groupe d’experts gouvernementaux aux Nations Unies sur la question des SALA dans le cadre de la Convention sur certaines armes classiques.

[2] Rapport de la Task Force sur l’intelligence artificielle de septembre 2019, p. 9.

[3] Discours de Madame Florence Parly, ministre des Armées, au sujet de l’intelligence artificielle et de la défense, à Saclay le 5 avril 2019, disponible en ligne.

[4] Ibid.

[5] Observation du chercheur Thierry Berthier dans l’article « Armes létales autonomes : les doctrines des États », France Culture, le 22 novembre 2018, disponible en ligne.

[6] Safran, Robotique autonome et combat collaboratif, « Ce véhicule tactique piloté, disposant de capacités d’autonomie partielle ou totale, est entièrement configurable. En mode autonome, il a vocation à appuyer et soutenir des missions de logistique et de convoyage, de protection périmétrique, de renseignement ou encore de reconnaissance en zone urbaine ».

[7] Déclaration conjointe de l’Allemagne et de la France sur l’évolution des travaux sur les SALA au sein de la Convention sur certaines armes classiques, Genève, le 15 novembre 2017, disponible en ligne.

[8] Ibid.

[9] Le Figaro, Thalès appelle à interdire les robots tueurs équipés d’intelligence artificielle, 24 janvier 2019, disponible en ligne.

[10] Washington Post, Google to drop Pentagon AI contact after employee objections to the « business of war », 2 juin 2018, disponible en ligne.