Article de 1053 mots ⏱️ 5 min de lecture

L’association de l’intelligence artificielle à la robotique progresse rapidement, ouvrant la voie à l’émergence de nouvelles armes puissantes. L’intégration des robots dans les opérations de sécurité, de police et militaires suscite un intérêt croissant depuis plusieurs années, tant en Amérique du Nord qu’en Europe.

L’utilisation des robots dans ces domaines peut être comparée à celle des chiens dans les forces armées et policières du XXe siècle. Ces derniers ont souvent été employés comme gardiens, sentinelles, transmetteurs de messages ou détecteurs de mines.

Les robots utilitaires, conçus pour appuyer l’homme, reprennent non seulement la forme mais aussi certaines fonctions de ces compagnons quadrupèdes. Équipés de technologies de surveillance et capables de transporter du matériel, des munitions ou d’assurer la logistique, ils permettent de réduire considérablement les risques pour les soldats en opération.

Cependant, l’ajout de systèmes d’armes à ces robots utilitaires change radicalement leur nature. Ils deviendraient alors l’équivalent terrestre des drones MQ-9 Reaper actuellement utilisés par l’armée américaine.

En 2021, la société Ghost Robotics a présenté un robot quadrupède, le Q-UGV, équipé d’un fusil d’assaut spécialisé. Cette démonstration mettait en avant la perspective de la robotisation armée.

Il est essentiel de noter que le fonctionnement du robot et de son armement se distingue : si le robot peut opérer en mode semi-autonome et être contrôlé à distance, l’arme elle-même ne dispose d’aucune capacité autonome et reste entièrement sous contrôle humain.

En septembre 2023, les Marines américains ont réalisé un test de concept impliquant un robot utilitaire quadrupède chargé d’utiliser un lance-roquettes léger M72 pour « identifier et neutraliser des cibles ».

Cette expérimentation relance le débat éthique autour de l’utilisation des systèmes d’armes automatisés ou semi-automatisés dans les conflits. L’intégration de capacités d’intelligence artificielle pour la détection des menaces et l’acquisition de cibles représenterait une étape supplémentaire, d’autant que des systèmes de ciblage de ce type sont déjà disponibles sur le marché civil.

Vidéo : test d’un lance-roquettes léger monté sur un robot quadrupède par les Marines américains.

En 2022, une douzaine d’entreprises leaders en robotique ont signé une lettre ouverte publiée par Boston Dynamics, constructeur du robot quadrupède Spot, pour s’opposer à la militarisation des robots commercialisés.

Cependant, le texte précise qu’elles n’ont pas d’objection aux technologies actuellement utilisées par les États et leurs agences pour assurer leur défense et appliquer la loi. Cette nuance souligne que la généralisation de la robotisation armée est déjà enclenchée, les systèmes intégrant l’IA étant déjà employés en combat.

Par ailleurs, Boston Dynamics a récemment diffusé une vidéo montrant l’intégration de ChatGPT, un chatbot à intelligence artificielle, à son robot Spot. Celui-ci est capable de répondre aux questions d’un ingénieur en adoptant divers « personnages », comme un majordome anglais. Le robot articule les réponses fournies par le chatbot.

Vidéo : Boston Dynamics équipe son chien robot Spot du chatbot ChatGPT.

Cet ajout marque une avancée technique notable. Si Boston Dynamics respecte son engagement de ne pas armer ses robots, d’autres industriels ne partagent pas nécessairement cette position. La tentation d’un usage malveillant, qu’il soit étatique ou individuel, reste une menace constante. Comme le souligne la lettre ouverte, les entreprises veillent à examiner rigoureusement les usages prévus par leurs clients afin de limiter les risques de militarisation.

Position du Royaume-Uni

Le Royaume-Uni s’est déjà positionné sur la question de la robotisation armée à travers sa Stratégie nationale sur l’intelligence artificielle en défense, publiée en 2022. Ce document affiche l’ambition d’intégrer rapidement l’IA dans les systèmes du ministère de la Défense afin de renforcer la sécurité et moderniser les forces armées.

Un annexe spécifique à cette stratégie reconnaît les défis posés par les systèmes d’armes autonomes létaux. Par exemple, les données réelles utilisées pour « entraîner » ou améliorer les IA peuvent transmettre des biais ou préjugés, menant à des réponses inadéquates ou disproportionnées. Aussi, la sélection des données d’entraînement pour ces systèmes doit être rigoureusement étudiée, à la lumière des impératifs d’une guerre éthique.

En 2023, la Chambre des Lords a créé un comité dédié à l’IA dans les systèmes d’armes. Sa mission est d’examiner comment tirer parti des progrès technologiques tout en minimisant les risques par des garde-fous techniques, juridiques et éthiques, ainsi que d’évaluer la pertinence des politiques britanniques et internationales.

Si les chiens robots ne visent pas encore leurs adversaires avec des armes létales, tous les ingrédients sont réunis pour que cela devienne une réalité si cette évolution reste sans contrôle. La rapidité des avancées en robotique et en intelligence artificielle conjuguée crée une situation propice à l’apparition d’armes nouvelles et redoutables.

Le récent sommet sur la sécurité de l’IA organisé à Bletchley Park a produit des résultats positifs concernant la régulation de cette technologie au Royaume-Uni et à l’international. Toutefois, ce sommet, qui visait à définir l’IA, évaluer ses capacités et ses limites, et à bâtir un consensus éthique mondial via une déclaration volontaire, semble diverger sur certains points avec les objectifs du comité sur l’IA dans les armes.

Ce dernier cherche à intégrer clairement et rapidement l’IA dans les systèmes d’armes tout en respectant l’éthique, les régulations et le droit international. Les engagements pris lors du sommet, qualifiés de « garde-fous », demeurent volontaires. De son côté, le Premier ministre britannique Rishi Sunak a recommandé de ne pas précipiter la régulation.

La noblesse de ces discours s’estompe face à l’enthousiasme de certains acteurs pour la militarisation de cette technologie.