Sur une piste désertée, des essaims de drones autonomes s’élèvent dans le ciel — une illustration de la vision du Pentagone pour la guerre de demain. La Marine américaine a même démontré sa capacité à mettre à jour un logiciel de combat en plein déploiement, soulignant ainsi la transition vers des arsenaux pilotés par l’intelligence artificielle, définis par logiciel et acquis très rapidement. Ces avancées promettent une révolution dans la défense américaine, mais à mesure que l’innovation s’accélère, les commandants se posent une question cruciale : qu’est-ce qui fonctionnera réellement en combat, et qu’est-ce qui ne fonctionnera pas ?
Depuis des décennies, l’Office du Directeur des Tests et Évaluations Opérationnels (DOTE) constitue un filet de sécurité pour le Pentagone, rapportant de manière indépendante les résultats concernant des systèmes d’armes non éprouvés ou inefficaces. Pourtant, nombre de ses testeurs civils expérimentés et de ses sous-traitants de soutien sont progressivement écartés. Avancer à marche forcée dans l’innovation tout en réduisant la supervision risque de laisser les forces interarmées avec des équipements neufs mais inaptes au combat. Pour consolider des fondations solides, le Département de la Défense doit réinvestir dans une organisation de tests modernisée, augmentée par la technologie, qui combine outils émergents et expertise humaine éprouvée — garantissant que les capacités de nouvelle génération soient opérationnelles avant d’être engagées sur le terrain.
Nous écrivons forts de notre longue expérience au carrefour de l’innovation logicielle, de l’acquisition de défense et des tests opérationnels. Nous avons été les deux derniers directeurs des tests et évaluations opérationnels au Pentagone, ainsi que titulaires de postes stratégiques au sein du Département de la Défense et de l’industrie de défense. Ensemble, nous avons constaté à la fois les promesses des systèmes définis par logiciel et les risques liés à leur déploiement sans évaluation rigoureuse.
Une révolution dans la manière dont le Pentagone développe la technologie
Les forces armées américaines traversent d’importantes transformations technologiques qui bouleversent leurs méthodes de conception, d’acquisition et d’utilisation des outils de combat. Ces changements se produisent simultanément sur plusieurs fronts. Voici trois exemples illustrant cette révolution.
Développement assisté par intelligence artificielle
L’intelligence artificielle transforme déjà la façon dont l’armée conçoit et construit ses systèmes. Le programme expérimental « A.I. Flow » de l’Armée de Terre peut moderniser du code ancien et générer automatiquement des documents d’acquisition en quelques minutes, là où cela prenait auparavant des semaines. Les flux de travail assistés par IA révèlent aussi des interdépendances cachées, créent des scénarios de tests, tracent les exigences et signalent rapidement les écarts de conformité.
Guerre définie par logiciel
Le combat évolue d’une approche statique, centrée sur du matériel lourd, vers des systèmes cyber-physiques agiles pouvant être mis à jour à la vitesse du logiciel. La victoire dépendra moins d’une poignée d’équipements coûteux et sophistiqués que de flottes adaptables — navires, armements et essaims de systèmes autonomes à faible coût — capables de surpasser et submerger l’ennemi. L’intelligence artificielle et les tactiques définies par logiciel offriront à la fois la puissance de feu brute et l’agilité requises pour s’imposer dans un espace de bataille en perpétuelle innovation. Imaginez des essaims de drones aveuglant les défenses aériennes adverses ou des groupes de mini-sous-marins autonomes chassant des sous-marins ennemis — preuve qu’à l’ère numérique, la quantité gagne son avantage par le code.
Acquisition accélérée et approvisionnement agile
Le Département de la Défense ne se contente pas de poursuivre les percées technologiques, il réinvente aussi ses méthodes d’achat et de déploiement. L’ancienne chaîne d’acquisition, qui pouvait s’étendre sur plusieurs années, ne suit plus le rythme effréné de l’innovation actuelle. Pour combler ce fossé, les responsables s’appuient sur des démarches spécifiques à l’acquisition de logiciels, des contrats accélérés et des outils assistés par IA qui compriment les délais allant de plusieurs années à quelques mois. Mais la rapidité ne suffit pas : l’armée américaine doit pouvoir faire confiance à la fiabilité de ces systèmes dans le chaos impitoyable du combat.
Déployer plus vite requiert des résultats de tests plus rapides
La transformation militaire doit s’accompagner d’une évolution des méthodes de test. L’été dernier, un rapport du Defense Science Board alertait sur les défis majeurs rencontrés dans les tests et évaluations face à la progressivité rapide des technologies, notamment celles apportant des capacités révolutionnaires.
Garantir que les systèmes de défense fonctionnent ensemble dans des conditions dures et imprévisibles est une tâche ardue. Les nouvelles plateformes doivent se prouver non seulement isolément, mais également comme éléments intégrés d’une force interconnectée, ce qui rend les essais à grande échelle complexes, coûteux et longs. Plutôt que de s’appuyer uniquement sur de massifs essais suivis de longs ajustements, il faut adopter des méthodes plus intelligentes pour anticiper les interactions dès les phases précoces. La guerre est assez chaotique sans qu’on découvre trop tard qu’un drone ne peut pas communiquer avec un navire ou qu’un guidage IA échoue face au brouillage ennemi.
Réductions dans l’équipe de testeurs
Depuis longtemps, l’Office des tests et évaluations opérationnels était le garant indépendant du Pentagone, assurant que les armes soient testées dans des conditions réalistes et évaluées objectivement. Petit par la taille mais puissant par son mandat, il offrait une supervision critique des grands programmes de défense pour maintenir leurs standards. Ce fut un choc lorsque le secrétaire à la Défense a ordonné récemment une réorganisation radicale réduisant ses moyens de 80 %, annulant nombre de réformes et suscitant de sérieuses interrogations quant à l’indépendance des tests.
Les évaluations indépendantes du Directeur et ses rapports annuels destinés aux bureaux de programmes, au secrétaire à la Défense et au Congrès garantissent que seuls les systèmes efficaces, adaptés et survivables sont déployés. Des outils émergents — automatisation, intelligence artificielle, modélisation, simulation et jumeaux numériques — peuvent renforcer cette mission, en reliant tests en laboratoire et réel champ de bataille tout en maximisant des ressources rares comme le personnel et le temps de tir. Cependant, l’intégration de l’automatisation et de l’IA dans les tests demande à la fois de repenser les systèmes et de reconnaître leurs limites, ce que l’industrie de défense maîtrise encore imparfaitement. L’ingénierie basée sur modèles des systèmes complexes s’améliore mais commence déjà à apporter des avantages. Le secteur automobile, où des sociétés comme Applied Intuition prospèrent, utilise couramment les tests virtuels pour les « véhicules définis par logiciel ».
Cependant, le contexte de la défense est très différent. Si les automobiles, bien que complexes, font face à des défis d’intégration limités, les systèmes de défense doivent intégrer de multiples sous-traitants, technologies et profils de mission tout en restant adaptatifs face à un adversaire imprévisible. Certains projets exploitent avec succès des tests automatisés, mais rares sont ceux qui disposent d’une véritable évaluation opérationnelle dans un environnement dynamique et multi-domaines utilisant des méthodes basées sur modèles.
Les plateformes définies par logiciel nécessitent une nouvelle approche de test pour gérer la complexité, l’évolution des exigences et l’intégration massive. Les algorithmes peuvent aider mais ne peuvent pas remplacer l’expérience approfondie des testeurs humains. Passer rapidement du prototype à un système prêt pour le combat exige des investissements importants, une collaboration étroite et du temps. Réduire les effectifs de testeurs avant que des outils automatisés fiables ne soient disponibles, c’est risquer de se retrouver sans personnel ni technologie aptes à évaluer les systèmes de nouvelle génération intégrant l’IA.
La rapidité tue-t-elle ?
Se précipiter dans la guerre technologique sans comprendre les limites des systèmes expose à l’échec des missions et à des pertes humaines. L’atout américain réside dans sa doctrine et sa technologie — mise en réseau, précision et coordination pour compenser l’ampleur des forces adverses. Mais cet avantage disparaît dès que les systèmes défaillent ou sont contrés.
Imaginez une mission compromise parce qu’un drone ne peut pas se connecter au réseau dans une circonstance donnée — une faille non détectée lors des tests. À cet instant, un « réseau de destruction » composé de capteurs et de plateformes d’attaque peut s’effondrer, transformant une stratégie visant à exploiter les faiblesses adverses en défaite. Sans validation exhaustive et coordonnée entre les armées dans des conditions réalistes, de petites incompatibilités se métamorphosent en échecs catastrophiques. Le Pentagone déploie certes rapidement de nouveaux outils, mais leur interopérabilité à grande échelle reste un défi majeur et urgent à relever.
Un autre danger est la confiance excessive : croire qu’une arme est révolutionnaire alors qu’elle masque une faiblesse majeure. Une démonstration spectaculaire ou un rapport flatteur d’un fournisseur peuvent donner l’apparence d’un système prêt, alors que les tests indépendants ont souvent révélé des défauts critiques passés inaperçus. Sans un bureau dédié à ces essais, ces failles ne risquent d’être découvertes qu’en situation de combat.
Un paradoxe existe aussi autour de la confiance : réduire les tests ralentit en réalité l’adoption de nouvelles technologies. Les commandants hésitent à s’appuyer sur des systèmes dont les limites et spécificités restent inconnues. Les programmes bien testés fournissent des rapports clairs sur ce qui a fonctionné, ce qui a échoué, et les points à surveiller, instaurant ainsi la confiance nécessaire et définissant les conditions d’emploi en combat. Sans ce contrôle, les doutes persistent sur le terrain.
La question est encore plus sensible avec l’intelligence artificielle. Contrairement aux systèmes classiques, l’IA peut se comporter de manière imprévisible, évoluer avec les données ou présenter des résultats erronés avec assurance. Sans tests rigoureux et transparents, les utilisateurs peuvent douter de l’IA même quand elle fonctionne, ou lui accorder une confiance excessive à tort. Bâtir cette confiance exige de démontrer la performance dans des conditions réalistes, d’expliquer les mécanismes de décision, de révéler les modes de défaillance et de fixer des limites claires. Ce n’est qu’ainsi que les commandants sauront quand s’appuyer sur l’IA et quand privilégier le jugement humain.
Sécuriser la révolution
Tout cela soulève une question centrale : comment le Pentagone peut-il mener sa révolution technologique tout en garantissant que les nouvelles capacités soient éprouvées, sûres et intégrées ? Avec des investissements et une rigueur adéquats, il est possible d’allier innovation rapide et validation rigoureuse.
Lors de notre direction des tests et évaluations, nous avons fait progresser des stratégies visant à intégrer les nouvelles technologies, à développer des tests intégrés et continus, à améliorer progressivement les systèmes pilotés par logiciel et à investir dans l’automatisation. Le bureau de tests aujourd’hui réduit doit s’appuyer sur ces bases — et en créer de nouvelles — pour transformer la supervision. Le succès nécessitera un investissement constant dans des gains à court terme, en collaboration avec les agences de recherche et les laboratoires pour faire passer les outils prometteurs du stade prototype au déploiement opérationnel.
Faire progresser la technologie des tests ne sera ni simple ni peu coûteux. L’automatisation doit être mise en œuvre de manière responsable, servant à compenser la réduction des effectifs tout en faisant partie intégrante de la solution. Les outils de test eux-mêmes doivent être validés en profondeur. Aucun algorithme dit « boîte noire » ne devrait valider un système d’arme sans jugement humain.
La récente réduction a dilué une grande partie de l’expertise des testeurs du Pentagone. Préserver ce qui reste exigera une collaboration délibérée entre agences, armées, universités et industrie. Des groupes de travail inter-agences et des forums d’experts pourraient se concentrer sur les systèmes prioritaires, partager les bonnes pratiques et capitaliser sur les leçons tirées pour éviter de repartir de zéro à chaque nouveau programme intégrant l’IA.
L’intelligence artificielle elle-même pourrait aider en orchestrant intelligemment les tests, coordonnant des agents automatisés à travers des laboratoires et installations répartis géographiquement, permettant des scénarios multi-systèmes à grande échelle impossibles à gérer manuellement. Avec ces nouvelles approches, une communauté de test plus légère pourrait réinventer la manière d’atteindre une évaluation complète, avec l’aide conjointe de l’industrie et du milieu académique.
Le logiciel moderne s’appuie sur l’intégration continue, testant chaque modification au fur et à mesure. L’armée pourrait adopter une démarche comparable pour le matériel et l’intelligence artificielle : déployer des mises à jour incrémentales, laisser les opérateurs les éprouver face à des scénarios générés par l’IA, et déployer prudemment les prototypes parallèlement aux systèmes éprouvés. Les unités en première ligne deviendraient ainsi des bancs d’essai vivants — apprenant en pratiquant, mais toujours de manière contrôlée et réversible.
La révolution numérique du Pentagone et la crise des tests sont les deux faces d’une même pièce. Au fur et à mesure que les systèmes autonomes, la gestion de combat pilotée par IA et les armes en réseau progressent, la question demeure : qui teste les testeurs ? Qui garantit que les innovations fonctionnent comme prévu et que les défauts sont révélés avant que des vies ne soient engagées ?
Au final, les hommes et femmes en uniforme doivent pouvoir combattre en ayant confiance dans leur équipement. Pour cela, le Pentagone doit reconstruire son filet de sécurité en matière de tests, sous peine de bâtir une révolution militaire sur des bases fragiles. L’avenir de la guerre américaine pourrait dépendre non seulement de la rapidité de l’innovation industrielle et gouvernementale, mais aussi de la qualité de la validation et de la preuve des résultats.
Douglas C. Schmidt est doyen de la School of Computing, Data Sciences & Physics à William & Mary, après plus de 20 ans de carrière en tant que professeur d’informatique à l’université de Vanderbilt. Il a récemment occupé le poste de directeur des tests et évaluations opérationnels au Pentagone. Ancien gestionnaire de programmes à la DARPA et directeur technologique au Software Engineering Institute de Carnegie Mellon University, il est l’auteur de nombreuses publications sur les sujets liés aux logiciels.
Nickolas H. Guertin cumule plus de 30 ans d’expérience en acquisition et tests de défense. Il a été secrétaire adjoint à la Marine pour la recherche, le développement et l’acquisition, supervisant un portefeuille de 130 milliards de dollars et 130 000 personnes. Avant cela, il a également dirigé les tests et évaluations opérationnels du Pentagone. Ancien civil de la Marine et sous-marinier, il est reconnu pour ses contributions nationales dans les stratégies d’acquisition, l’architecture à systèmes ouverts et les tests opérationnels, et continue d’influencer l’innovation en défense par des rôles de recherche et de conseil.