Article de 726 mots ⏱️ 4 min de lecture

Le gouvernement ambitionne d’adopter une approche « ambitieuse, sûre et responsable » dans l’intégration de l’intelligence artificielle (IA) à la défense, mais la réalité semble encore loin de répondre à ces attentes.

Introduire l’IA dans le domaine de la guerre via des systèmes d’armes autonomes (SAA) pourrait transformer radicalement la technologie militaire. Cependant, le gouvernement doit développer et utiliser ces systèmes de manière éthique et conforme au droit, tout en assurant des avantages stratégiques et tactiques essentiels.

L’expression « ambitieuse, sûre et responsable » doit désormais se traduire en mesures concrètes.

Le gouvernement doit notamment rechercher, établir et maintenir la confiance populaire et le soutien démocratique concernant le développement et l’usage de l’IA, en particulier pour les systèmes d’armes autonomes.

Cela passe par une meilleure compréhension publique de l’IA et des armes autonomes, un renforcement du rôle du Parlement dans les décisions relatives à ces technologies, ainsi que par la préservation de la confiance citoyenne à leur égard.

Ce sont quelques-unes des conclusions majeures d’un rapport publié par le Comité de la Chambre des Lords sur l’intelligence artificielle dans les systèmes d’armes, intitulé « Procéder avec prudence : l’intelligence artificielle dans les systèmes d’armes ».

Les principales recommandations du Comité sont les suivantes :

  • Le gouvernement doit jouer un rôle de premier plan dans l’engagement international pour la régulation des SAA. Les discussions pourraient déboucher sur un traité juridiquement contraignant ou sur des mesures non contraignantes clarifiant l’application du droit international humanitaire. Un enjeu clé consiste aussi à diriger les efforts visant à interdire l’usage de l’IA dans le commandement, le contrôle et les communications nucléaires.
  • Le gouvernement doit adopter une définition opérationnelle du système d’armes autonome. Le Comité a été surpris que le gouvernement n’en dispose pas encore et estime qu’il est possible d’élaborer une définition adaptable sur le long terme, facilitant ainsi l’élaboration de politiques claires et la participation active à des discussions internationales.
  • Le gouvernement doit assurer un contrôle humain à toutes les étapes du cycle de vie d’un système d’armes autonome. Le contrôle humain est essentiel, à la fois pour garantir la responsabilité morale et la conformité juridique. Cet impératif doit refléter un engagement national absolu envers les exigences du droit international humanitaire.
  • Le gouvernement doit veiller à ce que ses processus d’approvisionnement soient adaptés à l’univers de l’IA. Le Comité a entendu que les procédures du ministère de la Défense (MoD) souffrent d’un déficit de responsabilité et d’une bureaucratie excessive, ainsi que d’un manque de compétences en matière de logiciels et de gestion des données, des domaines cruciaux pour l’IA. Cela pourrait nécessiter une réforme radicale, et le Comité avertit : « si c’est le cas, qu’il en soit ainsi, mais le temps est compté. »

Lord Lisvane, président du Comité sur l’intelligence artificielle dans les systèmes d’armes, a déclaré :

« L’intelligence artificielle s’est infiltrée dans de nombreux aspects de la vie, et la défense ne fait pas exception. Son potentiel à révolutionner la technologie militaire est l’un des usages les plus controversés de l’IA aujourd’hui. On perçoit de plus en plus que l’IA influencera lourdement l’avenir de la guerre, et la question de la conformité des armes autonomes au droit international humanitaire est largement débattue.

Dans notre rapport Procéder avec prudence : l’intelligence artificielle dans les systèmes d’armes, nous saluons la reconnaissance par le gouvernement du rôle d’une IA responsable dans ses capacités futures de défense. L’IA peut offrir des avantages stratégiques et opérationnels majeurs, mais nous proposons que le gouvernement aborde son développement et son utilisation avec précaution. Il doit intégrer des principes éthiques et juridiques à toutes les phases — conception, développement et déploiement — tout en gagnant l’adhésion publique et un soutien démocratique. La technologie doit être utilisée lorsqu’elle est avantageuse, mais jamais au prix d’un coût moral inacceptable pour le Royaume-Uni. »