Les États-Unis doivent-ils investir dans davantage de destroyers, ou leur budget serait-il mieux utilisé pour développer des bases, des munitions ou des logiciels ? Chaque année, le Département de la Défense est confronté à ce type de question lors de l’élaboration de son budget. Pourtant, le processus du Pentagone manque encore d’une méthode claire pour répondre à la question la plus fondamentale : quelle structure de force offre le meilleur effet stratégique pour chaque dollar dépensé ? Et tout aussi important : comment le Pentagone doit-il collaborer avec l’industrie pour générer les concepts, les données et les prototypes nécessaires à cette évaluation ?
Ce défi ne résulte pas d’un manque d’attention, mais de la manière dont l’armée américaine a traditionnellement mesuré la performance. Les forces armées ont tendance à comparer les plateformes selon leurs caractéristiques (portée, charge utile, vitesse, furtivité). Ces critères ont une importance tactique, mais ils ne mesurent pas souvent la contribution réelle de la capacité aux résultats globaux d’une campagne ou aux objectifs nationaux. Ce n’est pas par manque de compétences des planificateurs de la défense, mais parce que les interdépendances au niveau campagne sont trop complexes pour être évaluées sans modèles robustes. Le processus de conception des forces est ainsi optimisé pour la performance tactique plutôt que pour le retour sur investissement stratégique.
À mesure que les débats sur la préparation stratégique évoluent, déplaçant l’attention des métriques au niveau unité vers les objectifs stratégiques à long terme, la notion de coût par effet applique cette même logique à la conception des forces. En théorie, le coût par effet devrait offrir une méthode unifiée pour relier les dépenses aux résultats. En pratique, cependant, le Département de la Défense ne dispose pas d’un cadre analytique capable d’évaluer à grande échelle les structures de force. Les modèles de campagne à haute fidélité permettent d’examiner quelques options en détail, mais ils sont trop lents et rigides pour explorer la vaste gamme de décisions que la conception des forces impose. Ce qui fait défaut, c’est une méthodologie standardisée et hiérarchisée de coût par effet — intégrant des modèles exploratoires rapides et des simulations détaillées, tout en instaurant de nouveaux mécanismes de collaboration avec l’industrie pour produire des alternatives crédibles et testables dès les premières phases.
Pourquoi coût et effet sont difficilement définissables
Au cœur, la notion de coût par effet pose la question : combien faut-il dépenser pour obtenir un résultat donné ? En pratique, ni le coût ni l’effet ne sont simples à définir. Le « coût » peut désigner plusieurs choses, des dépenses d’acquisition à celles liées au cycle de vie complet d’une capacité (opération, maintenance, soutien). Même de petites décisions analytiques — comment traiter les coûts indirects, prendre en compte le remplacement de systèmes hors production ou considérer les coûts irrécupérables — peuvent modifier profondément le résultat.
De même, la notion « d’effet » est tout aussi complexe. Les effets peuvent aller d’un résultat tactique précis aux résultats cumulatifs d’une campagne multi-domaines. Parce que les effets globaux sont plus difficiles à mesurer, les discussions se limitent souvent au plus bas niveau : la comparaison directe entre systèmes. Si cette approche facilite la quantification de la performance, elle apporte peu sur ce qui détermine réellement le succès opérationnel. Par exemple, un missile 10 % plus létal dans un combat tactique peut ne pas améliorer substantiellement la performance au niveau opérationnel si le vrai facteur limitant est le capteur d’un avion et non pas le missile.
C’est pourquoi l’analyse significative du coût par effet doit être menée au niveau campagne, où l’ensemble des interactions opérationnelles et des contraintes détermine les résultats. Toutefois, le coût par effet n’est pas une solution miracle. Il vise à identifier les structures de forces les plus efficaces face à un conflit futur, sans dicter la manière dont ces forces seront construites, maintenues ou employées dans la durée. Par ailleurs, lorsque les effets deviennent plus flous — comme la dissuasion ou l’influence politique — leur mesure se dégrade rapidement. Comment comparer un avion à un porte-avions en matière de dissuasion ? Dans ces cas, l’analyse quantitative doit être complétée par le jugement humain. Heureusement, les grands programmes d’acquisitions militaires ciblent principalement des capacités de combat, où le coût par effet demeure un outil d’analyse puissant et pertinent.
Un exemple simple : furtif contre non-furtif
La guerre du Golfe en 1991 illustre bien ce point. Sur le papier, les chasseurs anciens paraissaient bien moins coûteux que les F-117 furtifs. Mais le coût par effet renverse cette idée. Il fallait une formation de 41 avions non furtifs pour frapper huit cibles, tandis que 20 F-117 pouvaient en atteindre 28 dans le même temps. Si l’on compare avions par avion, la version non furtive semble plus économique. Mais prise au niveau opérationnel, cette force nécessite des escorteurs, des brouilleurs et d’autres plateformes pour survivre à la mission. Le coût additionnel de ces mesures montre que, même plus cher à l’achat, le F-117 demeure celui avec le meilleur coût par effet.
Cependant, cette analyse ne portait que sur une mission. Une opération comporte parfois des centaines de missions, et une campagne des milliers d’entre elles se déroulant simultanément dans les domaines air, terre, mer, espace et cyber. Bien que la mission unique soit aisée à comparer, le nombre d’interactions au niveau campagne explose au point où aucun humain ne peut toutes les analyser méthodiquement. Ces questions dépassent vite les capacités humaines, imposant des modélisations sophistiquées.
Le Pentagone doit se doter d’une architecture modulaire de modélisation coût-par-effet
Tous les quelques années, le Département de la Défense élabore des scénarios de planification pour anticiper les conflits futurs et orienter le développement des forces. L’un des objectifs est d’évaluer quelles structures sont les plus à même de remporter la victoire. Pour cela, le Bureau du secrétaire à la Défense et l’état-major interarmées, en collaboration avec les services de prospective et d’analyse, doivent pouvoir explorer rapidement et systématiquement une vaste gamme de combinaisons de forces.
Or, les outils actuels se situent à deux extrêmes : des modèles haute-fidélité, très détaillés mais lents, qui ne peuvent analyser que peu de cas, et des modèles low-fidelity qui négligent les interdépendances au niveau campagne. Il manque un système à plusieurs niveaux — une architecture modulaire passant des outils rapides d’exploration à des validations à haute confiance.
Cette architecture serait composée de trois couches complémentaires :
Premier niveau : exploration rapide
Ce niveau sert à explorer l’ensemble des choix possibles dans la conception des forces. Les organisations de planification, via leurs équipes analytiques internes ou en partenariat avec des organismes comme l’Office of Cost Assessment and Program Evaluation ou la Direction de la structure des forces de l’état-major interarmées, utiliseraient des modèles exploratoires rapides pour examiner des millions de combinaisons de forces. Le Combat Forces Assessment Model de l’US Air Force est un exemple. Ce modèle n’analyse pas chaque engagement, mais utilise l’optimisation pour explorer un large éventail de structures et repérer celles les plus prometteuses. Ce niveau ne fournit pas une décision finale, mais une liste classée des options possibles.
Deuxième niveau : validation
Une fois quelques structures identifiées, ces mêmes organismes développent la simulation la plus réaliste disponible, le Synthetic Theater Operations Research Model. C’est une simulation de campagne à haute fidélité qui reproduit en détail les interactions inter-domaines. Cependant, ces simulations nécessitent beaucoup de temps et de ressources pour être conçues et exécutées. Elles sont donc utilisées à bon escient pour valider les options les plus prometteuses dégagées précédemment.
Troisième niveau : innovation en structure de force
Les deux premiers niveaux ne peuvent explorer intégralement la complexité de la guerre moderne. Ce troisième niveau vise à étendre ces limites. Par exemple, le modèle Strategic Chaos Engine développé par la Defense Advanced Research Projects Agency (DARPA) exploite l’intelligence artificielle pour aider les commandants à évaluer des scénarios dans un environnement de bataille dynamique, allant bien au-delà des capacités des modèles actuels. Ce type de modèle devrait être mis à disposition de toutes les organisations de planification militaire, leur servant de terrain d’expérimentation à différents niveaux de la guerre.
Ces trois niveaux forment ensemble un écosystème cohérent et évolutif de coût par effet. Lorsque les résultats divergent entre niveaux, la décision revient aux hauts responsables interarmées, dont le rôle est de dépasser les intérêts particuliers. Ce cadre est conçu pour éclairer le jugement, non pour s’y substituer.
Conséquences pour l’industrie
Un système de coût par effet modulaire ne transforme pas seulement la manière dont le Pentagone analyse la conception des forces, il change aussi la façon dont l’industrie y prend part. Plutôt que de freiner l’innovation, cette approche offre aux entreprises des problématiques plus précises à résoudre, des retours plus rapides et un cheminement plus prévisible du concept à l’acquisition.
Premièrement, le coût par effet pousse le Pentagone à émettre des exigences centrées sur le problème à résoudre, plutôt que sur une plateforme à développer. Aujourd’hui, les industriels sont souvent sollicités pour construire une plateforme déjà choisie, par exemple un nouveau chasseur, un destroyer ou un missile. Le coût par effet inverse ce schéma : en définissant l’effet recherché — des tirs longue portée survivables, une capacité d’établissement de bases robustes, une logistique contestée — l’armée libère les entreprises pour proposer un éventail plus large de solutions. Ces idées matérielles ou immatérielles peuvent être testées dès le niveau 1 dans les modèles exploratoires, donnant à l’industrie une meilleure visibilité sur les problèmes prioritaires et leurs contributions possibles à la campagne.
Deuxièmement, ce concept offre un retour d’informations plus rapide en créant une demande pour les données industrielles et des espaces d’itération précoce. L’analyse de campagne ne réussit que si les entreprises fournissent des données de performance pour alimenter les modèles. En retour, elles voient comment leurs systèmes se comportent dans des scénarios réalistes, réduisant ainsi l’incertitude des analystes et le risque pour les fabricants. À l’image des hackathons ou des wargames, le Pentagone peut proposer des environnements sécurisés pour tester des concepts sans dévoiler d’informations sensibles, tout en permettant de travailler avec des plages de performances plutôt que des spécifications précises, préservant ainsi la compétition.
Enfin, le coût par effet offre un lien analytique plus clair avec les processus d’acquisition. Actuellement, les analyses demeurent souvent cloisonnées dans les bureaux d’évaluation, peinant à influencer directement les choix de programmes ou budgétaires. Avec cette méthodologie, les résultats des modélisations sont intégrés à la rédaction des exigences et à l’élaboration du budget, assurant ainsi une meilleure transparence des liens entre performance démontrée et décisions de financement.
Pourquoi cette approche n’a jamais été mise en œuvre
Si la modélisation est si puissante, pourquoi le coût par effet n’est-il pas devenu le pilier de la conception des forces ? La réponse courte tient à un cloisonnement analytique au sein du Pentagone et à la recherche excessive de la perfection qui bride l’avancement.
Bien que le Département de la Défense présente un budget unifié, les analyses sont réalisées séparément par les différentes armées, avec leurs propres modèles, hypothèses et priorités. L’analyse des coûts est traitée dans un bureau, l’analyse opérationnelle dans un autre, et les décisions de programmation dans un troisième. Cette fragmentation complique la création d’un cadre commun reliant coûts et effets en un seul processus décisionnel.
Un second obstacle est culturel. Tous les modèles sont imparfaits, mais la crainte de se tromper peut dissuader les analystes d’utiliser des outils exploratoires rapides, suffisamment bons pour orienter la conception des forces. Ils préfèrent s’appuyer sur des modèles longs et détaillés, certes précis, mais trop lents pour éclairer les premières décisions. Or, là où les dirigeants appellent à prendre des risques calculés, cette exigence doit aussi s’appliquer à l’analyse. La vraie question du coût par effet n’est pas la perfection du modèle, mais son amélioration par rapport à la situation actuelle.
Concevoir la force future grâce au coût par effet
Pour que le coût par effet guide efficacement la conception des forces, l’analyse doit porter sur le niveau stratégique, et non tactique, au risque d’acheter des armes efficaces isolément mais peu contributives à la victoire globale. Une architecture modulaire permet de comparer des milliards de combinaisons de forces et d’identifier des options innovantes que les méthodes traditionnelles ne détecteraient pas.
Autre avantage, cette approche intègre l’industrie de façon plus ciblée et constructive. Des énoncés de problèmes plus clairs et une intégration précoce autorisent les entreprises à tester leurs idées face à de réels défis opérationnels, au lieu de répondre à des exigences limitées à une plateforme. Au lieu de deviner ce que le Pentagone souhaite, l’industrie bénéficierait d’un flux analytique continu indiquant ce qui importe réellement.
Chaque année, les armées élaborent leur program objective memorandum — un plan de dépenses à cinq ans définissant l’allocation de plusieurs milliards de dollars publics. Une méthodologie robuste de coût par effet viendrait compléter ce processus, fournissant une base analytique pour évaluer les propositions des services. En pratique, cela nécessiterait une responsabilité clairement établie au sein du Bureau du secrétaire à la Défense, doté d’autorité pour harmoniser hypothèses, arbitrer entre services et garantir que les résultats analysés orientent réellement les exigences et les budgets. Ainsi, les services ne pourraient plus financer des projets sans apport aux objectifs nationaux. Le Département de la Défense serait alors en mesure d’expliquer au Congrès non seulement ses achats, mais aussi pourquoi ces investissements procurent le meilleur rendement quantitatif en capacité militaire. Cette méthode aiderait aussi à identifier des programmes dont les coûts dépassent les bénéfices, afin de réallouer les ressources vers des solutions plus efficaces.
Au final, le coût par effet paraît simple en théorie, mais il est extrêmement complexe à bien mettre en œuvre. Sans outils standardisés et rapides pour mesurer ce ratio, le Pentagone risque de répéter ses erreurs habituelles : juger la valeur des armes à leur prix plutôt que leur utilité stratégique. Or, bien appliqué, ce concept permettrait de bâtir une force non seulement létale, mais aussi réellement rentable dans un contexte budgétaire contraint et face à des menaces croissantes.
Erik Schuh est officier dans l’US Air Force et analyste en recherche opérationnelle. Les opinions exprimées sont personnelles et ne reflètent pas la position officielle du gouvernement américain, du Département de la Défense, de l’US Air Force ou de l’US Space Force.