Accepteriez-vous de mettre en jeu des milliers de vies sur une stratégie qui, selon toute votre formation et expérience, semble vouée à un échec catastrophique ?
En 1863, alors que la campagne de Vicksburg était enlisée, le major-général Ulysses S. Grant conçut un plan qui poussa le major-général William Tecumseh Sherman à prévoir une défaite : l’armée de l’Union du Tennessee devait s’enfoncer profondément en territoire ennemi, coupant ses propres lignes d’approvisionnement pour attaquer la ville par l’arrière. Sherman, vétéran aguerri, jugea cette manœuvre téméraire — un piège dans lequel « l’ennemi serait ravi de manœuvrer pendant un an pour coincer Grant ». Ce plan défiait toute l’orthodoxie militaire de l’époque, qui insistait sur la sécurité des lignes de ravitaillement, une base d’opération sûre et la concentration des forces. Grant fit exactement le contraire : il rompit avec ses dépôts, traversa son armée entre deux forces ennemies et chercha à franchir le Mississippi sans disposer d’une ligne de retraite protégée. Pourtant, Sherman suivit les ordres et joua son rôle. L’audace incompréhensible de Grant fonctionna et Vicksburg tomba.
Cette tension incarnée par le scepticisme de Sherman à Vicksburg — où une évaluation classique et rationnelle entre en conflit avec une approche non conventionnelle, risquée mais brillante — semble trouver un étrange parallèle dans la guerre moderne. L’intelligence artificielle avancée proposera sans doute des stratégies tout aussi étrangères aux commandants que le plan de Grant l’était pour Sherman : opaques, contre-intuitives, mais potentiellement décisives.
Cela crée un dilemme entre l’IA et la chaîne de commandement, soulevant une question cruciale : comment les chefs militaires peuvent-ils développer une confiance justifiée envers ces oracles extraterrestres dont le raisonnement demeure incompréhensible ? Ce défi de la confiance s’enracine dans trois dynamiques propres à une IA stratégiquement créative : l’acuité stratégique, la relation inverse entre créativité et compréhension humaine, et les limites de l’IA explicable.
Cette analyse inverse en quelque sorte la problématique souvent évoquée concernant les agents autonomes létaux d’intelligence artificielle exécutant des ordres humains. Ici, le cœur du défi s’adresse aux commandants eux-mêmes, devenant les agents d’un système d’IA avancé générant des stratégies peut-être brillantes mais incompréhensibles.
Acuité stratégique
La prise de décision assistée par l’IA est une caractéristique inévitable de la guerre future. La vitesse et la complexité des opérations militaires augmentent, sous l’impulsion de la robotisation croissante ainsi que de l’importance du cyberespace et de la guerre électronique — des domaines qui requièrent des actions rapides et coordonnées. Pour conserver un avantage compétitif, les forces militaires américaines devront intégrer des systèmes d’IA avancés dans la prise de décision aux niveaux opérationnel et stratégique. Cela implique de confronter un défi inédit : adopter des recommandations décisives que les êtres humains auront souvent du mal à comprendre.
C’est là le premier principe : les systèmes d’IA avancés posséderont une acuité stratégique élevée, capables de formuler des jugements d’une créativité et d’une efficacité exceptionnelles, surpassant largement les capacités humaines dans certains domaines complexes. Cette acuité découle d’avantages technologiques fondamentaux, qui permettent à l’IA de traiter l’information, d’apprendre et de concevoir des stratégies d’une manière différente — et à bien des égards supérieure — à la cognition humaine. Parmi les caractéristiques actuelles notables :
- Reconnaissance de motifs à grande échelle : les modèles d’apprentissage profond peuvent analyser et identifier des schémas complexes au sein de vastes ensembles de données — des millions de simulations, de flux de capteurs ou d’expériences historiques —, percevant des interdépendances subtiles et des implications à long terme indétectables pour un humain.
- Apprentissage autonome et exploration : grâce à des techniques d’apprentissage par renforcement et d’auto-jeu répétitif, les IA avancées développent et optimisent des stratégies sans intervention humaine, libres de tout biais ou référence historique. AlphaZero, par exemple, a atteint en quelques heures une performance surhumaine aux échecs, au shogi et au Go, créant des stratégies créatives et inattendues qui ont redéfini les standards.
La relation inverse entre compréhension et créativité
Cette acuité stratégique aboutit au second principe : plus un jugement stratégique de l’IA est créatif et non évident, moins il est immédiatement compréhensible pour les commandants humains. Les mécanismes qui permettent à l’IA de délivrer des solutions novatrices et supérieures rendent souvent ces solutions opaques à la compréhension humaine.
Contrairement aux humains qui s’appuient sur des heuristiques apprises, parfois biaisées, les IA fonctionnent selon des heuristiques émergentes, trans-humaines, optimisées uniquement pour la performance sans souci d’interprétabilité humaine. Le fameux coup 37 d’AlphaGo, initialement jugé gratuit voire erroné par les maîtres du Go, s’est révélé déterminant et exact stratégiquement. Ce type d’optimisation contre-intuitive se retrouve aussi dans d’autres jeux complexes comme StarCraft II, où les stratégies d’AlphaStar ont été qualifiées d’« incroyablement inhabituelles » par les meilleurs joueurs humains.
Les commandants, habitués à des explications fondées sur des axiomes clairs, des analogies historiques et des causalités évidentes, auront du mal à appréhender ou à faire confiance à ces solutions générées par l’IA. Plus l’IA sera innovante, plus le fardeau cognitif pour comprendre ses recommandations dépassera les capacités d’intuition humaines.
Les limites pratiques de l’explicabilité
En raison de leur acuité stratégique et de cette relation inverse entre créativité et compréhension, les systèmes d’IA avancés seront intrinsèquement difficiles à expliciter en temps réel aux décideurs humains.
Exiger une explication totalement compréhensible pour chaque décision — surtout les plus novatrices — se heurte à des limites pratiques : les calculs complexes qui guident une décision peuvent être incompatibles avec une logique interprétable par l’homme. L’IA peut fournir une rationalisation post hoc qui semble plausible mais ne reflète que partiellement, voire de façon erronée, son cheminement réel. Tout comme un parent explique la magie des cadeaux de Noël avec une histoire rassurante mais fausse, une IA peut générer une explication convaincante mais déconnectée des faits, induisant une illusion de compréhension et une confiance mal placée.
Même les cadres bien conçus pour une intelligence artificielle explicable peinent à résoudre cette tension fondamentale entre précision et compréhensibilité. Dans un contexte de guerre, où la pression temporelle est extrême et la charge cognitive intense, analyser ou valider ces explications complexes reste inaccessible.
Former les utilisateurs militaires à une méfiance plus avisée vis-à-vis de l’IA ne suffit pas à résoudre le problème. Cette méfiance entre en conflit avec le besoin impératif d’agilité décisionnelle. Une étude de 2024 simulant une crise à Taïwan a révélé que les dirigeants hésitaient à agir sur des recommandations IA, ralentissant leur prise de décision en cherchant à comprendre la logique sous-jacente. Une piste évoquée est le développement d’une « nouvelle forme d’intuition » pour savoir quand faire confiance à l’IA et quand douter de ses résultats. Mais que faire si les sauts stratégiques d’une IA dépassent totalement cette intuition ?
Gérer le dilemme entre IA et commandement
Face à ces dynamiques, les commandants devront faire un choix difficile : accepter et agir selon des recommandations qu’ils ne comprennent pas totalement ou rejeter ces jugements et risquer d’être dépassés par un adversaire doté d’IA. Comme le souligne Erik Lin-Greenberg, les armées qui intégreront efficacement l’IA seront mieux armées pour contrer les menaces, tandis que celles qui se laisseront paralyser verront leur efficacité diminuer sur le terrain. Les systèmes d’IA futurs devront donc être conçus non seulement pour l’excellence technique, mais aussi en prenant en compte la psychologie humaine et la prise de décision sous pression. Il s’agit de développer des IA capables de gérer les risques, de communiquer des niveaux de confiance et d’accompagner les commandants dans leurs choix face aux recommandations déroutantes.
Le défi central reste : comment produire une confiance justifiée dans une IA avancée malgré l’absence d’explicabilité ? Si la guerre assistée par IA évolue à la vitesse escomptée, la supervision humaine en temps réel ne pourra suivre le rythme. Vérifier la validité des recommandations les plus créatives s’avérera difficile, voire impossible.
Une proposition pour résoudre ce dilemme s’inspire des principes militaires éprouvés dans la gestion de systèmes complexes à haut risque, comme le contrôle indépendant des tirs d’artillerie. Plutôt que d’expliquer chaque décision, la confiance justifiée viendrait d’une vérification croisée des résultats cohérents produits par plusieurs IA indépendantes. Ce système repose sur deux filtres automatisés à vitesse machine :
- Calibration par consensus : plusieurs agents IA, avec des algorithmes ou données de formation différents, analysent le même problème. À l’image de l’artillerie où les solutions de tir sont validées seulement quand elles convergent, une recommandation IA gagne en fiabilité si différentes IA concordent.
- Calibration par divergence : analogue à l’ajustement de tir, la conflictualité entre recommandations IA sert de signal diagnostique. Les divergences mettent au jour biais cachés ou anomalies, déclenchant une intervention humaine pour corriger le tir. Ainsi, la confiance naît non pas d’une transparence illusoire, mais d’un processus observable et vérifiable d’ajustements.
Les mécanismes internes des IA individuelles importent moins que les effets observables et fiables du système multi-agents : les erreurs cachées sont révélées par les divergences, et seules les recommandations ayant passé ce contrôle rigoureux sont retenues.
La confiance militaire se fonde historiquement sur les résultats : la campagne audacieuse de Grant à Vicksburg paraissait risquée, mais Sherman faisait confiance à son supérieur. De même, les stratégies décisives de l’IA défieront souvent la logique humaine. La clé pour bâtir une confiance justifiée dans ces oracles opaques réside dans une calibration rigoureuse et une confiance acquise par l’expérience, non par une explicabilité complète. Pour dominer les champs de bataille complexes de demain, les armées, dont les forces américaines, doivent développer ces méthodes de calibration afin que les commandants puissent exécuter rapidement et en confiance les plans générés par l’IA, même si leur génie reste un mystère.
Andrew A. Hill, DBA, est titulaire de la chaire General Brehon Burke Somervell en gestion à l’U.S. Army War College.
Dustin Blair est officier de l’armée américaine, actuellement chef des feux au U.S. Army Cyber Command. Diplômé de l’U.S. Army War College, il a été déployé à plusieurs reprises en Afghanistan et en Irak.
Les opinions exprimées dans cet article sont celles des auteurs et ne reflètent pas les positions officielles du U.S. Army Cyber Command, de l’U.S. Army War College, de l’armée américaine, du Département de la Défense ou du gouvernement des États-Unis.
Image : Midjourney