Article de 2665 mots ⏱️ 13 min de lecture

Chaque fois que la communauté américaine de la sécurité nationale s’inquiète d’une nouvelle technologie « transformationnelle », le scénario se répète invariablement. Les experts avertissent que les États-Unis risquent de perdre leur avance sans investissements supplémentaires substantiels. Les responsables militaires et civils du Département de la Défense insistent pour que la doctrine s’adapte au nouveau caractère émergent de la guerre. Les collaborateurs du Congrès interpellent le Pentagone sur sa lenteur à agir. Rapidement, l’ensemble de l’appareil de défense se persuade qu’une révolution est en marche, inévitable et nécessaire.

L’intelligence artificielle (IA) pourrait bien constituer le dernier acte de ce récit récurrent. Nombreux sont ceux qui affirment que l’IA redéfinira fondamentalement la guerre, en permettant, par exemple, des essaims autonomes de drones obscurcissant le ciel, un ciblage en temps réel à tous les niveaux du champ de bataille, ou encore des plateformes sous-marines autonomes, capables de rendre les océans transparentes et d’opérer indéfiniment. Si les États-Unis adoptent cette vision d’une guerre dominée par l’IA, une seule conclusion rationnelle s’impose : le Pentagone doit s’engager dans une refonte de ses forces, mettre à jour doctrines et concepts opérationnels, et repenser en profondeur l’armée américaine autour de l’IA. À défaut, le pays risque d’être distancé par des adversaires et concurrents plus rapides à exploiter pleinement le potentiel de l’IA dans leurs formations militaires.

Mais cette vision manichéenne est à la fois contre-productive et simpliste. D’un côté, on trouve une adoption évolutive, fondée sur la modernisation progressive des capacités – intelligence, logistique, ou administration – qui caractérisent de grandes bureaucraties comme le Pentagone. De l’autre, une refonte révolutionnaire du système national de sécurité partant du postulat que l’IA a déjà transformé la nature même de la guerre. Comme souvent, la réalité est bien plus nuancée. L’IA possède indéniablement un potentiel révolutionnaire, mais le Département de la Défense peut se rassurer : en pratique, elle n’est pas encore à ce stade. L’histoire montre que lorsque le Pentagone mise son design de forces et sa doctrine sur des technologies jugées transformatrices, il finit généralement par sur-réagir. Ces erreurs, souvent coûteuses et déstabilisantes, sont difficiles à corriger. Ainsi, la démarche actuelle du Pentagone, que l’on pourrait qualifier de « lent et régulier », résulte sans doute en partie d’une inertie bureaucratique naturelle, mais ce n’est pas un défaut : c’est plutôt ce qui le protège de son propre enthousiasme.

Le cimetière des révolutions défensives américaines

Si le Département de la Défense n’est pas précisément un précurseur, son histoire récente est parsemée d’exemples où il a réorganisé ses forces autour de technologies censées révolutionner la guerre, pour découvrir ensuite que les hypothèses initiales étaient erronées ou largement exagérées. L’exemple le plus instructif et le plus alarmant reste celui de l’armée Pentomic des années 1950.

Née de la doctrine de la Guerre froide, la Pentomic Army avait entièrement remanié l’Armée de terre américaine autour de la conviction que la distribution et l’emploi de l’arme nucléaire tactique redéfiniraient le prochain conflit. Le système traditionnel fondé sur les régiments fut supprimé au profit de cinq groupes de bataille « prêts pour l’atome », optimisés pour la dispersion et la survie. Les relations de commandement furent révisées, les systèmes logistiques entièrement repensés, et le concept de guerre remodelé pour intégrer la technologie nucléaire tactique. Le problème, évidemment, était que cette technologie n’a jamais pu produire sur le champ de bataille les effets escomptés. Heureusement, les armes nucléaires tactiques se sont avérées politiquement inemployables, stratégiquement incohérentes et opérationnellement complexes, ce qui conduit rapidement à leur abandon. L’armée considéra un temps conserver sa nouvelle organisation mais réalisa vite son impossibilité : les groupes de bataille étaient trop petits pour soutenir des opérations prolongées et les postes de commandement trop éclatés pour diriger efficacement les unités. En résumé, l’Armée avait sacrifié une capacité de combat essentielle au profit d’un avenir imaginé. Ce chantier, géré au travers du processus « Planning, Programming, Budgeting, and Execution », a duré près d’une décennie, au cours de laquelle l’armée fut moins apte à répondre aux missions réelles. Les lacunes provoquées durant cette période conditionnèrent les débats sur la conception des forces terrestres jusque longtemps après, durant la guerre du Vietnam.

Mais l’histoire de la Pentomic Army n’est pas un cas isolé. Plusieurs décennies plus tard, la « révolution dans les affaires militaires » des années 1990 promettait de révolutionner la guerre avec un passage du capteur au tireur inédit. Si les munitions guidées de précision ont bel et bien permis des frappes ciblées, les concepts opérationnels précoces reposant sur ces technologies ont dû être abandonnés. De nouveau, au début des années 2000, l’armée amorça d’importants changements de design des forces avec son projet Future Combat Systems prévoyant des formations automatisées et sans pilote. Cette technologie ne s’est jamais maturée et l’abandon de ce programme entraîna des pertes de plusieurs dizaines de milliards de dollars et un vide conceptuel qui, selon certains, persiste encore aujourd’hui. Même la doctrine Air-Land Battle, pourtant parmi les révisions les plus réussies, reposait sur des hypothèses uniques liées à un théâtre d’opérations spécifique et demeura souvent théorique, figée dans des schémas PowerPoint élaborés, sans traduction effective sur le champ de bataille.

Ces exemples ont tous un point commun : ils reposaient sur des technologies perçues comme révolutionnaires mais dont l’utilité concrète fut décevante. Le risque aujourd’hui n’est pas que le Pentagone ignore l’IA – au contraire, toutes les preuves indiquent une adoption grandissante – mais plutôt que le Département de la Défense succombe une fois de plus à la tentation d’organiser prématurément ses forces autour d’un avenir technologique encore incertain.

Une refonte révolutionnaire exige une confiance révolutionnaire

Pour justifier une réorganisation des forces américaines autour de l’IA, les plus hauts responsables du Pentagone doivent disposer d’une confiance exceptionnelle. Cette confiance devrait reposer à la fois sur le potentiel révolutionnaire indiscutable de l’IA et sur sa fiabilité opérationnelle à court terme en conditions de guerre. Or, cette assurance n’existe pas aujourd’hui au plus haut niveau de la défense américaine. Et ce n’est pas surprenant.

Les modèles d’IA actuels présentent une fragilité préoccupante à la fois sur le plan tactique et opérationnel. Les grands modèles linguistiques, largement diffusés au sein du Département de la Défense, sont connus pour produire des « hallucinations » avec un étonnant degré d’assurance. Les systèmes de vision par ordinateur échouent fréquemment face à de simples camouflages adverses. Lors d’un test, des marines progressant en se cachant dans une simple boîte en carton sont passés inaperçus pour un système d’arme autonome. Ces systèmes requièrent une fidélité extrême des capteurs et une qualité irréprochable des flux de données, deux exigences irréalisables sur n’importe quel champ de bataille. Même les IA commerciales, bénéficiant d’une puissance de calcul en cloud abondante et de données propres dans des environnements contrôlés, subissent des défaillances inadmissibles en contexte militaire.

Pour les observateurs extérieurs, l’adoption rapide de l’IA dans le secteur privé est souvent présentée comme la preuve que le Pentagone est à la traîne, qu’il doit accélérer et intégrer ces nouveaux outils qui amélioreraient considérablement ses missions de combat. Mais l’adoption commerciale démontre surtout que l’IA est efficace dans des environnements prévisibles, riches en données proprement alimentées, où les erreurs se traduisent par des pertes de temps ou de revenus. Le combat moderne, lui, est très différent. Les données sont souvent incomplètes ou brouillées, la tromperie par les capteurs est une pratique courante et maîtrisée en art, et toute défaillance peut avoir des conséquences mortelles. Dans ce contexte, le scepticisme des dirigeants militaires quant à la transposition directe de technologies conçues pour l’analyse commerciale ou l’optimisation publicitaire aux chaînes de tir et systèmes de contrôle des armes se comprend tout à fait.

Il ne fait aucun doute que l’IA accélérera l’analyse du renseignement, la prévision logistique et les flux administratifs dans le Pentagone comme sur le terrain. Ces progrès, bien que significatifs, restent évolutifs. Ils ne justifient pas de nouvelles structures de forces ni la remise en cause des cultures profondément ancrées des armées qui guident la conception et la doctrine actuelles. Une réorganisation audacieuse ne se justifiera que si l’IA devient une technologie fiable, mature et décisive sur le champ de bataille, au point où refuser cette évolution serait une faute stratégique. D’ici là, la technologie a besoin de temps supplémentaire pour mûrir. Paradoxalement, ce délai peut s’avérer être un atout précieux pour les États-Unis.

Transformer le temps en avantage stratégique

Le Département de la Défense doit s’approprier l’IA avec détermination là où elle est opérationnellement viable, et avancer prudemment quand ce n’est pas encore le cas. Pour cela, le Pentagone devra aller au-delà des discours sur une adoption responsable ou les principes éthiques pour l’achat. L’armée américaine a besoin de décisions législatives, structurelles et bureaucratiques qui visent à préparer une révolution de l’IA plutôt qu’à la précipiter.

Dans la prochaine loi d’autorisation de la défense nationale, le Congrès devrait créer un programme durable dédié à la modernisation de l’architecture informatique du Département de la Défense en vue de l’intégration de l’IA. Plus qu’une simple mesure spectaculaire, il s’agit d’un travail indispensable de remplacement des systèmes informatiques rigides et cloisonnés incapables d’héberger des modèles avancés. Si une révolution de l’IA devait survenir, elle ne pourra pas s’implanter sur des ordinateurs principaux datant des années 1970 ni sur des réseaux fragmentés qui dominent encore l’informatique du Pentagone. Un Fonds d’intégration et de préparation à l’IA devrait garantir des financements pluriannuels pour éviter que les projets ne soient retardés par des changements de priorité ou de dirigeants.

Par ailleurs, le Congrès doit exiger des certifications de sécurité et sûreté par conception pour tout système d’IA acquis par le Département de la Défense, intégrées à la prochaine loi de défense. Ces certifications, élaborées en consultation avec des experts industriels, devraient inclure des protocoles de tests standardisés, répétables, et pertinents en conditions contestées. Cela inclut des tests de résilience à la tromperie opérationnelle, aux brouillages électroniques et à la cyber-résilience. Aucun système d’IA ne devrait être intégré à une chaîne de tir sans avoir subi une évaluation indépendante, sous forme de exercice de red team visant à déjouer le modèle envisagé.

Enfin, l’administration devrait renforcer les expérimentations sur le terrain et les tests par les opérateurs des systèmes d’IA au sein des forces armées et des commandements combatants. Ces expérimentations serviront à aider les combattants à anticiper les évolutions doctrinales à venir si la révolution de l’IA se réalise, tout en révélant les modes de défaillance avant que ne soient prises des décisions d’acquisition fondées sur des promesses non vérifiées. Dans l’intervalle, les ministres de la Défense et des armées doivent temporiser toute proposition de réorganisation des forces autour de l’IA jusqu’à ce qu’une confiance réelle et une familiarité suffisante avec ces outils nouveaux soient établies.

Dans un climat où l’opinion dominante prône « plus d’IA, tout le temps », ces mesures peuvent paraître conservatrices. Elles sont pourtant sages et prudentes. Elles permettent de gagner le temps nécessaire pour se préparer à un futur où l’IA révolutionnera la guerre moderne, tout en reconnaissant que la ressource la plus précieuse de l’armée n’est pas la nouveauté technologique mais la fiabilité opérationnelle. L’adoption de l’IA ne doit s’accélérer que lorsque les infrastructures seront prêtes, l’adhésion des combattants acquise et la technologie suffisamment fiable. D’ici là, beaucoup reste à faire pour préparer la révolution qui n’est pas encore là.

Lent est fluide, et fluide est rapide

L’armée Pentomic n’est pas un simple vestige historique, mais un avertissement. Leçons des nombreuses révolutions défensives ratées montrent qu’en cas de précipitation à construire une révolution technologique, les États-Unis se trompent généralement soit dans le calendrier, soit dans les concepts – souvent dans les deux. La méthode lente et régulière n’écarte pas la promesse de l’IA, elle vise à s’y préparer avec rigueur.

En attendant la révolution tant promise, le Département de la Défense doit utiliser l’IA là où elle est preuves à l’appui : analyse du renseignement, optimisation logistique, formation, gestion administrative. Ce sont les domaines où l’IA a déjà démontré son utilité dans le civil et où son adoption au Pentagone est la plus pertinente. Ces progrès évolutifs renforceront désormais les capacités opérationnelles tout en permettant à la technologie de mûrir jusqu’à ce que les changements révolutionnaires deviennent à la fois possibles et indispensables.

Mais quand la révolution IA surviendra, ce sera selon son rythme propre – pas celui des présentations PowerPoint des états-majors. La mission du Congrès et des hauts responsables du Département de la Défense est de garantir qu’à ce moment-là, l’armée américaine sera prête. Cette préparation ne viendra pas d’une réorganisation précipitée, mais d’une préparation judicieuse. La politique de l’IA est complexe, mais la préparation à son adoption au sein du Département de la Défense peut rester simple. Comme le rappelle un ancien adage des forces spéciales américaines : Slow is smooth, and smooth is fast – lent est fluide, et fluide est rapide. Jusqu’à l’arrivée de la révolution, cette sagesse doit guider les décisions des décideurs et praticiens.

Morgan C. Plummer est vice-président d’Americans for Responsible Innovation, un groupe de plaidoyer public basé à Washington. Il a précédemment été professeur à l’Académie de l’US Air Force, expert en défense au Boston Consulting Group, et haut fonctionnaire au Département de la Défense. Ancien officier de l’US Army, il a servi dans divers postes de commandement, d’état-major et au Pentagone, avec plusieurs déploiements en Irak.