Le processus d’acquisition militaire américain est souvent décrit comme défaillant, non en raison d’une quelconque incompétence ou malveillance, mais parce qu’il est lent, complexe, excessivement bureaucratique et fondamentalement décalé par rapport aux besoins opérationnels des soldats sur le terrain. Cette inadéquation entre conception et usage est particulièrement problématique pour l’intégration des systèmes d’intelligence artificielle (IA) dans les forces armées.
Si le Département de la Défense ne réforme pas en profondeur son approche de l’acquisition, les innovations en matière d’IA risquent de suivre la trajectoire des nombreux programmes précédents : extrêmement sophistiqués, coûteux, mais peu utilisés et peu impactants sur le terrain. La confiance envers l’IA militaire demeure une question centrale et pourtant rarement posée dans son acception même : qui décide de ce qui rend une IA « fiable » ?
Trois visions de la fiabilité, trois futurs possibles
Selon la perspective adoptée, la définition d’une IA militaire digne de confiance varie grandement :
- Les ingénieurs et scientifiques : Ils se concentrent sur la rigueur technique. Leur priorité est de créer une IA résistante aux attaques informatiques, notamment au « data poisoning », et de développer des infrastructures sécurisées de déploiement et de validation. Cette approche produit des systèmes élégants et sûrs, mais susceptibles d’être fragiles dans les scénarios imprévus du combat. Elle peut également conduire à des investissements importants qui ne débouchent jamais sur un déploiement opérationnel complet.
- Les combattants et opérateurs : Pour eux, la fiabilité s’évalue à l’aune de l’adoption réelle sur le terrain. Un système fiable est simple à utiliser, robuste dans des environnements dégradés, et capable de réduire la charge cognitive des soldats. Cette confiance se construit par des tests itératifs en situation réelle. C’est sans doute la définition la plus difficile à atteindre, compte tenu des mécanismes d’acquisition actuels, mais aussi la seule qui importe véritablement en conditions de guerre, quand la vie des victimes est en jeu.
- Les juristes et décideurs politiques : Leur conception privilégie la transparence, la possibilité d’explication des décisions algorithmiques, la présence d’un humain dans la boucle, ainsi que l’interopérabilité technique au sein des alliances. Ces éléments sont essentiels pour la responsabilité et la conformité, mais peuvent freiner l’adoption de l’IA par les combattants, faute d’attention suffisante à son utilité opérationnelle.
Ces trois définitions, loin d’être exclusives, s’opposent souvent dans la réalité du Pentagone où la lourdeur bureaucratique prime sur la pertinence tactique.
Un problème ancien qui mérite une solution claire
Le hiatus entre exigences militaires et produits livrés est connu depuis longtemps : systèmes de ciblage complexes difficilement déployables, logiciels logistiques inefficaces en conditions réelles, radios qui surchauffent sur le terrain malgré des tests réussis en laboratoire. Ces échecs partagent une cause commune : leur conception est dictée par des logiques contractuelles et administratives, non par la confiance des utilisateurs finaux.
En matière d’IA et de guerre, cette confiance ne peut se définir par des critères abstraits, mais doit être validée par l’opérateur, qui doit décider en temps réel de s’appuyer sur un algorithme ou un protocole classique. Pour rompre ce cercle vicieux, le Département de la Défense doit placer la confiance des utilisateurs au cœur de sa stratégie d’acquisition.
Cette confiance « opérateur-centrée » peut être mesurée de façon pragmatique en répondant notamment aux questions suivantes :
- L’IA fonctionne-t-elle dans des contextes perturbés, à bande passante limitée ou intermittente ?
- Diminue-t-elle la charge cognitive des soldats ?
- Est-elle facilement intégrable aux systèmes existants sans compétence technique élevée ?
- En cas de défaillance, celle-ci est-elle gérée de manière contrôlée ou catastrophique ?
Si la réponse n’est pas positive, aucun label d’accréditation ne garantit la fiabilité du système.
Mettre en œuvre la confiance centrée sur l’opérateur
Il ne suffit pas d’introduire cette notion dans une nouvelle charte éthique. Le changement doit être institutionnel et législatif :
- Le secrétaire à la Défense devrait nommer un « arbitre de confiance » à l’échelle conjointe, avec un pouvoir réel pour arbitrer les compromis entre fiabilité technique, cadre légal et exigences opérationnelles. À ce jour, aucune entité ne détient la responsabilité globale de la confiance dans les systèmes d’IA militaires, ce qui dilue la prise de décision.
- Le Congrès doit inscrire une évaluation de la confiance des opérateurs dans la prochaine loi d’autorisation de la défense nationale, en tant qu’étape obligatoire avant tout déploiement ou production. Actuellement, il est possible d’avancer dans le processus d’acquisition sans consultation significative des utilisateurs finaux.
- Les autorités d’acquisition doivent être flexibilisées afin de permettre aux unités opérationnelles de tester, adapter et faire évoluer les capacités d’IA sur le terrain avec autonomie et financements dédiés. La confiance se construit durant les exercices et les combats, non dans les bureaux.
Un cycle à casser pour ne pas être dépassé stratégiquement
Les difficultés relevées ne sont pas propres à l’IA. Mais le moment est propice pour corriger les défaillances structurelles d’un système d’acquisition vieux de plusieurs décennies : responsabilité diffuse, peur du risque masquée par la recherche d’une rigueur formelle excessive, et processus privilégié au détriment du résultat.
Sans une réorientation volontaire vers une confiance opérateur centrée, les systèmes d’IA militaire suivront la trajectoire habituelle : promesses ambitieuses, produits trop complexes à utiliser et sous-employés. Mais cette fois, les conséquences seront stratégiques. Si les troupes américaines ne font pas confiance aux systèmes reçus, les adversaires moins prudents, prêts à innover à la pointe technologique, prendront l’ascendant.
À l’inverse, s’il impulse cette réforme, le Pentagone peut libérer le potentiel de l’IA pour les opérations militaires américaines pendant des décennies, transformant en profondeur l’ensemble du processus d’innovation : formulation des besoins, justification budgétaire, collaboration avec les fournisseurs, évaluation des étapes clés et intégration opérationnelle. En somme, il pourrait enfin offrir à ses combattants un système d’acquisition à la hauteur de leurs exigences.
Morgan C. Plummer est directeur principal de la politique chez Americans for Responsible Innovation, organisation américaine de défense publique. Il a été professeur à l’Académie de l’Air Force, expert en défense chez Boston Consulting Group, et officier de l’Armée américaine avec plusieurs déploiements en Irak.