Article de 1207 mots ⏱️ 6 min de lecture

Déployer des technologies d’intelligence artificielle de pointe — telles que l’apprentissage automatique et les modèles de langage étendus — au sein des organisations de défense, pour les enfermer ensuite dans des systèmes clos et cloisonnés, avec une interopérabilité réduite, limite considérablement leur potentiel. Ces systèmes fermés, souvent dépendants de données propriétaires et dont le fonctionnement reste opaque, empêchent d’exploiter pleinement la puissance collective de l’IA. Si ces applications peuvent répondre efficacement à des tâches isolées, leur incapacité à interagir et partager des données entrave la résolution de défis plus complexes et stratégiques. Sans un passage aux standards et protocoles ouverts, la promesse complète de l’IA pour les forces armées américaines restera un potentiel inexploité, nous laissant vulnérables face aux défis futurs.

Un agent IA est une entité logicielle autonome capable d’exécuter des tâches, de prendre des décisions, d’apprendre de ses expériences et d’interagir avec son environnement. Ces agents peuvent aller du simple bot à des systèmes complexes capables de résoudre des problèmes sophistiqués. Pour exploiter pleinement leurs capacités, les agents IA doivent pouvoir communiquer et collaborer entre eux. C’est là que les standards et protocoles ouverts deviennent essentiels : ils permettent aux agents IA de partager des données, de coordonner leurs actions, et de résoudre ensemble des problématiques qui dépassent les capacités d’un agent isolé. De plus, les standards ouverts apportent la transparence nécessaire pour instaurer la confiance, à l’image de la compréhension exigée d’un algorithme IA. Sans ces cadres partagés, l’efficacité et la fiabilité de l’IA pour offrir des solutions globales restent largement limitées.

Un exemple concret de l’apport des agents IA est leur rôle dans la lutte contre les essaims de drones.

Imaginons qu’un conflit éclate soudainement entre les États-Unis et la Chine. Sur une base militaire située sur la première chaîne d’îles, les forces américaines préparent des frappes de précision contre des cibles ennemies positionnées dans les airs, en mer et sur terre.

Cependant, simultanément, des essaims de drones aériens et maritimes contrôlés par une IA impitoyable se dirigent vers la base en provenance de plusieurs directions. Le personnel de sécurité chargé de contrer cette menace est équipé de l’application Tactical Assault Kit sur leurs appareils mobiles, offrant une image commune partagée de la situation et facilitant une compréhension rapide et efficace de l’environnement. Cette application, dont j’ai été un des développeurs originaux et que je continue à faire évoluer chez Booz Allen, permet à des utilisateurs non spécialistes d’avoir une conscience situationnelle accrue et de commander des systèmes connectés.

Face à la rapidité et à la complexité des attaques de drones autonomes, les forces américaines auront besoin de leur propre IA capable d’agir avec la même rapidité pour contrer cette menace. C’est ici que les agents IA deviennent particulièrement précieux.

Ces agents IA ne se contentent pas d’analyser les informations, ils travaillent aussi en fonction des objectifs des commandants, comme la destruction d’un essaim de drones. Ils peuvent « orchestrer » d’autres IA, en enchaînant, par exemple, des modèles d’apprentissage automatique pour détecter des motifs dans les données des capteurs indiquant une attaque imminente, alors même que les drones sont encore au large. Ils peuvent aussi utiliser des modèles de langage étendus pour anticiper l’armement et les tactiques des essaims, notamment leurs stratégies d’évitement face aux défenses anti-drones de la base.

Tous ces renseignements seraient consolidés sur les appareils équipés du Tactical Assault Kit pour les défenseurs de la base. Les agents IA pourraient ainsi présenter une image opérationnelle claire et recommander des actions tactiques. En coordination avec d’autres utilisateurs de l’application, ils contribueraient à l’organisation des tirs conjoints, en priorisant les cibles et en identifiant les opérateurs les mieux positionnés ainsi que les armes à utiliser. Ce type de défense, très dynamique et cinétique, nécessite une approche sur mesure et multicouche, conçue selon une logique de système de systèmes, intégrant diverses solutions et fournisseurs pour neutraliser efficacement les menaces.

Mais cette défense multicouche portée par des agents IA ne peut fonctionner que si ces derniers communiquent entre eux.

Dans un système fermé et propriétaire, un ensemble de modèles d’apprentissage automatique pourrait identifier un essaim de drones dans les données sensorielles, mais sans pouvoir partager cette information avec d’autres IA pour une défense coordonnée. Il reviendrait alors aux opérateurs de recouper manuellement ces données avec les informations issues d’autres agents IA et de transmettre des options aux commandants. De même, un modèle de langage étendu pourrait prédire les tactiques ennemies, mais les opérateurs devraient seuls déterminer comment relier ces prédictions aux autres analyses IA, une démarche chronophage et risquée.

Or, dans une situation d’attaque imminente de drones d’un adversaire de même niveau technologique, le personnel de la base aura bien moins de temps pour procéder à ces assemblages manuels. Ils auront impérativement besoin de leurs propres agents IA pour une défense rapide et coordonnée, ce qui requiert une interopérabilité totale entre les systèmes de la base.

Les organisations de défense doivent donc favoriser une interopérabilité IA en adoptant des plateformes ouvertes plutôt que des systèmes fermés. Cela permettra un échange fluide des informations entre les systèmes, offrant la possibilité aux IA de fonctionner de manière collective et cohérente pour atteindre les objectifs des commandants.

Avec des plateformes et standards ouverts, il devient facile d’intégrer et de connecter de nouvelles technologies pour dépasser les adversaires sophistiqués. De plus, cela rend possible l’intégration de formes d’intelligence artificielle émergentes dans des systèmes comme le Tactical Assault Kit, afin d’améliorer les capacités de combat.

Une fois l’interopérabilité IA acquise, les organisations pourront exploiter l’intelligence artificielle avancée dans des applications innovantes : ciblage permanent, adaptation tactique en temps réel, tirs non habités conjoints, gestion des émissions, formation et préparation opérationnelle.

L’intelligence artificielle avancée pour le combattant est à la fois l’avenir et le présent. Les systèmes fermés et cloisonnés, qui pouvaient suffire autrefois, ne sont plus adaptés aux exigences actuelles.

Todd Krokowski est un cadre technologique reconnu, avec près de vingt ans d’expérience dans l’innovation au croisement de la sécurité nationale, des technologies émergentes et de la stratégie produit commerciale. Co-développeur clé du Tactical Assault Kit, il dirige chez Booz Allen Hamilton la conception de solutions logicielles et matérielles de nouvelle génération pour l’armée américaine.