ThucyDoc n° 32 – Note d’actualité : Les principes du Département de la Défense américain pour un usage éthique de l’intelligence artificielle, un outil normatif et stratégique

Dr. Eric Schmidt, ancien PDG de Google, à présent Directeur du Comité consultatif sur l'innovation de défense (DIB) du Département de la Défense américain

Partager sur :

Le 31 octobre 2019, le Comité consultatif sur l’innovation de défense (DIB) du Département de la Défense (DoD) des États-Unis a publié un document intitulé « Les principes de l’IA : recommandations pour un usage éthique de l’intelligence artificielle par le Département de la Défense ». Posant cinq principes accompagnés de douze recommandations, ce document constitue une pierre supplémentaire à l’édifice d’une régulation de l’intelligence artificielle (IA) militaire tant nationale qu’internationale. À ce titre, c’est la première fois qu’un ministère de la défense formalise des principes éthiques pour la conception, le développement et le déploiement de systèmes d’IA.

La nécessité d’une IA militaire éthique

Il y a plus d’un an, le DoD a demandé au DIB de développer des principes éthiques qui pourraient s’appliquer à ses projets IA. Durant quinze mois, le DIB a rencontré une centaine d’experts afin d’obtenir une vision complète des enjeux éthiques de l’IA militaire. À l’issue de ce processus ont émergé cinq grands principes qui ont pour objectif de guider les actions du DoD dans le développement et l’usage de l’IA militaire[1] :

  • Une IA responsable : « les humains doivent faire preuve de discernement et rester responsables du développement, du déploiement, de l’utilisation et des résultats produit par systèmes d’IA ».
  • Une IA impartiale : « prendre des mesures pour éviter tout biais involontaire dans le développement et le déploiement de systèmes d’IA au combat ou non, susceptibles de causer des dommages à des personnes par inadvertance ».
  • Une IA traçable : « l’ingénierie de l’IA doit être suffisamment avancée pour que les experts techniques comprennent bien la technologie, les processus de développement et les méthodes opérationnelles de ces systèmes d’IA, incluant des méthodologies transparentes et vérifiables, les sources des données et la documentation des procédures de conception ».
  • Une IA fiable : « les systèmes d’IA devraient avoir un domaine d’utilisation explicite, bien défini et la sûreté, la sécurité et la robustesse de tels systèmes devraient être testées et assurées tout au long de leur cycle de vie dans ce domaine d’utilisation ».
  • Une IA gouvernable: « les systèmes d’IA doivent être conçus et construits pour remplir la fonction voulue, tout en permettant de détecter et d’éviter les dommages et les perturbations imprévus, et de désengager ou désactiver les systèmes déployés qui présentent un comportement d’escalade involontaire ou d’autres comportements. »

Si ces principes éthiques sont bienvenus, on perçoit qu’ils sont également un outil normatif qui contribue au développement de la stratégie américaine sur l’IA et qui sert les intérêts du pays tant dans ses relations avec ses partenaires que ses concurrents.

Des principes à la portée stratégique plurielle

Bien que ces principes proviennent d’un organe consultatif et qu’ils ne soient pas contraignants, ils s’inscrivent dans une stratégie de défense amorcée en 2018 par un document clé sur l’IA militaire qui appelait justement à la création d’un code de règles éthiques relatif à l’IA. Cette stratégie se concentre sur l’accélération du développement de l’IA, notamment au regard des progrès des concurrents des États-Unis en la matière : la Chine et la Russie.

La place et le rôle des règles éthiques élaborées par le DIB sont particulièrement intéressants dans ce contexte de « course à l’IA ». On décèle un glissement d’une compétition sur les plans technique, économique et stratégique vers un plan idéologique. Les États-Unis sont conscients que la compétition internationale se situe aussi sur le plan normatif. La commande de ces principes exprime donc une volonté politique et stratégique qui peut avoir un poids dans les fora internationaux relatifs à la régulation des usages militaires de l’IA[2]. Ces principes sont ainsi un outil au service d’une course à la régulation de l’IA militaire et, selon les États-Unis, d’une concurrence entre normes démocratiques et autoritaires[3]. La Chine a toutefois récemment produit deux séries de principes sur l’IA, les principes de Beijing et les principes de gouvernance pour une IA responsable, qui ont chacun une dimension éthique. D’aucuns considèrent qu’il s’agit là d’une ouverture chinoise au dialogue au vu des récentes tensions économiques avec les États-Unis. Des actes devront cependant suivre cette inflexion concernant un pays régulièrement critiqué pour son usage de l’IA comme moyen de surveillance.

La Chine se distingue par la relation qu’elle entretient avec ses entreprises, bien différente de celle des États-Unis. Alors qu’il existe en Chine un partenariat civilo-militaire renforcé entre la sphère publique et privée pour le développement de l’IA militaire, les États-Unis n’ont pas des relations évidentes avec les GAFAM (Google, Apple, Facebook, Amazon, Microsoft), pourtant leaders mondiaux en IA. Par exemple, Google a récemment dû se retirer du projet Maven, une IA capable d’analyser les images des drones du Pentagone, en raison des protestations de la part de ses employés. En effet, les GAFAM développent une sensibilité, intéressée ou non, aux conséquences éthiques de l’IA. À l’instar des principes éthiques du DIB, des entreprises, comme Microsoft ou Google, ont développé des principes pour une IA éthique. Les principes de ces entreprises se recoupent avec ceux du DIB, mettant en avant des impératifs de responsabilité, robustesse ou d’intelligibilité. Les principes du DIB sont une façon de rassurer de futurs partenaires et de montrer qu’il y a un alignement possible entre le monde civil et militaire sur l’éthique en IA.

Il est toutefois possible de questionner le but uniquement éthique de tels principes. Des organisations non gouvernementales (ONG) et d’autres acteurs alertent régulièrement l’opinion publique sur les dérives possibles des usages de l’IA, en particulier dans le domaine de la défense[4]. Une pression s’exerce ainsi sur les entreprises et les gouvernements, d’autant plus que ces ONG ont à leur tour élaboré des principes éthiques pour montrer la voie à suivre[5]. On discerne dès lors l’intérêt pour le DoD ou les GAFAM d’édicter des chartes éthiques qui assurent que l’usage de l’IA ne se fera pas au détriment de certaines valeurs et garanties.

*  *  *

Si des principes éthiques relatifs à l’IA émergent de la part d’acteurs variés depuis quelques années, ceux d’un organe du DoD américain ne sont pas anodins. Par l’adoption et la mise en œuvre de ces principes, le DoD pourraient donc avancer un pion de plus dans la course internationale à l’IA, assainir ses relations avec les entreprises leaders dans le domaine et rassurer l’opinion publique sur son usage de cette technologie. Il demeure que les principes et recommandations du DIB ne s’imposent pas au DoD et ne trouveront une réelle effectivité que dans la façon dont ils seront mis en œuvre par ce dernier.

Louis PEREZ
28 novembre 2019

[1] Traduction libre.

[2] Les États-Unis et la Chine sont deux acteurs incontournables aux visions antagonistes sur ces questions, voir : https://www.unog.ch/80256EE600585943/(httpPages)/8FA3C2562A60FF81C1257CE600393DF6.

[3] « AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense – Supporting Document », DIB, 2019, p.7.

[4] Par exemple https://www.stopkillerrobots.org/?lang=fr

[5] Par exemple : « Toronto Declaration », Amnesty International, 2018 ou « Asilomar AI Principles», Future of Life Institute, 2017.