L’intelligence artificielle générative est désormais présente, mais son intégration efficace reste incertaine. Dans les secteurs industriel et militaire, l’enthousiasme a souvent devancé les résultats concrets. De nombreuses entreprises abandonnent des projets d’IA, tandis que les institutions de défense évoquent fréquemment la notion d’avantage décisionnel sans proposer de méthode claire pour l’intégrer. La réussite dépend rarement d’aspects techniques, mais plutôt de la capacité des organisations à adapter leurs structures et processus pour exploiter ces nouveaux outils.
Le processus de planification conjointe de l’armée américaine illustre bien ce défi. Conçu avant l’essor de l’IA générative, ce cadre doctrinal vise à élaborer des solutions logiques à des problèmes complexes. Sans ajustements volontaires, il risque de cantonner ces technologies puissantes à un rôle marginal. Des expérimentations récentes menées au Collège de Commandement et d’État-Major des Marines, où les étudiants ont intégré un modèle linguistique avancé dans plusieurs exercices de planification, ont permis d’éclairer comment ces outils peuvent influencer l’analyse de mission, la collaboration d’équipe et la mobilisation des expertises.
Pour expliquer cette expérience, nous décrivons d’abord l’usage effectif de l’IA générative dans la planification, ainsi que ses impacts les plus significatifs. Ensuite, nous tirons des enseignements sur les moments où l’IA favorise la pensée créative et ceux où elle est éclipsée par la dynamique de groupe ou les connaissances spécialisées. Enfin, nous proposons des recommandations concrètes pour réorganiser les équipes de planification opérationnelle : conception de nouveaux flux de travail, élaboration de modèles de requêtes, mise en place de formations, et intégration de points de contrôle garantissant que l’IA dépasse le stade d’outil optionnel. Pour exploiter pleinement l’IA générative, il faut transformer l’équipe elle-même.
Durant l’année académique 2024-2025, le Marine Command and Staff College a conduit cinq exercices de planification. Dans quatre d’entre eux, un petit groupe d’étudiants a eu accès à un modèle linguistique avancé, indépendant de la plateforme utilisée. Cet accès leur a permis de se familiariser avec l’usage des grands modèles de langage dans la planification opérationnelle et à l’école d’étudier les meilleures modalités d’intégration de l’IA dans le programme pédagogique. Dans cet article, un professeur et un diplômé partagent les enseignements tirés de ces questions : comment les étudiants devraient-ils intégrer l’outil dans leur travail ? Comment la faculté peut-elle inclure l’IA dans le cursus de planification ?
Grâce à des enquêtes d’auto-évaluation et à un suivi des taux d’utilisation fourni par le fournisseur du logiciel, il apparaît que les membres des équipes de planification ont utilisé l’outil principalement au début du processus conjoint, surtout lors de l’étape d’analyse de mission. Bien que l’usage ait diminué lors des étapes ultérieures, ceux qui continuaient à s’en servir ont signalé une meilleure qualité de leurs réponses. Cela indique qu’un sous-groupe persévérant dans l’usage de l’outil obtenait des résultats supérieurs.
Enseignements clés
Une équipe de planification opérationnelle réunit temporairement officiers et spécialistes issus de diverses fonctions (opérations, renseignement, logistique, communication, etc.) pour résoudre une problématique spécifique. Leur mission est d’analyser la mission, développer des options d’action, comparer celles-ci et formuler des recommandations pour le commandant. En somme, ce sont des groupes ad hoc mobilisant des expertises variées afin de concevoir et affiner un plan d’opération. Le principe fondamental qui sous-tend nos observations est clair : pour maximiser l’efficacité de l’IA dans ces équipes, il faut remodeler leur organisation.
Leçon 1 : La valeur des grands modèles linguistiques est la plus marquée lors de la pensée divergente
La créativité implique deux modes complémentaires : la pensée divergente, qui produit de nouvelles idées, et la pensée convergente, qui les organise en catégories cohérentes. Ce concept est intégré dans les publications doctrinales du Corps des Marines et dans le Joint Officer Handbook. La pensée divergente domine lors de l’analyse de mission, où les nouvelles idées sont échafaudées avant d’être structurées dans les phases suivantes (développement et analyse des options).
Au Marine Command and Staff College, les étudiants ont utilisé davantage l’outil d’IA durant cette phase d’analyse de mission, en lien direct avec la pensée divergente, qu’aux étapes suivantes.
Ce constat s’articule intimement avec le suivant, que nous présentons avant de proposer une recommandation valable pour les deux premières leçons.
Leçon 2 : La valeur ajoutée de l’IA est évidente en dehors du domaine d’expertise d’un membre
Les limites des grands modèles linguistiques — notamment leurs tendances à “halluciner” ou produire des erreurs factuelles — sont bien connues. Les étudiants en étaient conscients et utilisaient l’outil davantage lorsqu’ils intervenaient en dehors de leur spécialité. Par exemple, un officier d’artillerie affecté temporairement à la planification logistique ou informationnelle se montrait plus enclin à recourir à l’outil, estimant que l’IA fournirait une connaissance générale plus fiable dans ces domaines non familiers que dans son propre champ d’expertise avancée.
Lors des premiers exercices, les effectifs restreints ont conduit certains étudiants à occuper des postes ne correspondant pas à leur spécialité. Dans le plus grand scénario final, le personnel plus nombreux a permis d’aligner mieux les affectations et la nécessité d’utiliser l’IA pour des précisions techniques ou points de vue externes s’est réduite ; dans ce cas, les résultats générés étaient plutôt jugés redondants.
Cette observation concourt avec des études extérieures au domaine militaire qui montrent que les grands modèles de langage sont plus performants sur des connaissances générales que sur des spécialisations pointues. Un expert tire moins de nouveaux enseignements dans son domaine que ne le ferait un novice utilisant l’outil pour une base d’information générale.
Ce phénomène n’est pas un échec des outils mais souligne l’importance de cadrer leur usage.
Il s’ensuit qu’un leadership éclairé doit définir des cas d’utilisation précis où l’IA offre des avantages clairs, par exemple en accélérant le consensus, élargissant le champ des options ou révélant des analogies historiques méconnues.
En réponse aux leçons 1 et 2, il convient de structurer les équipes pour que les membres confrontent systématiquement leurs analyses aux propositions générées par l’IA à chaque phase. Les chefs d’équipes peuvent préconiser des modèles de requêtes types pour guider cette évaluation. Sans cadre contraignant pour les prompts, les outils les plus avancés seront sous-exploités.
Leçon 3 : L’enthousiasme seul ne suffit pas sans expérience
Nombre de participants montraient une curiosité réelle pour l’IA générative. Pourtant, faute de maîtrise préalable du logiciel ou de la technologie, ils peinaient à obtenir des résultats probants. L’intérêt initial s’émoussait face à l’absence de méthode claire reliant une requête à un produit utile.
Ce lien entre manque de compétences et mauvaise implantation de l’IA est bien documenté dans l’industrie. La simple acquisition des outils et leur mise à disposition ne garantissent pas le succès. Un déploiement efficace dépend davantage d’un développement continu des compétences et du renforcement de la confiance au sein des effectifs.
Ainsi, pour pallier cette limite, il est conseillé d’accompagner les outils d’un programme structuré d’intégration, basé sur des scénarios pratiques et du mentorat entre pairs. Cette approche permet progressivement d’évoluer vers un usage plus intuitif.
En l’absence de spécialistes IA dans une organisation, les responsables doivent envisager la formation poussée d’une minorité au sein de l’équipe, chargée par la suite de transmettre ce savoir.
Leçon 4 : La dynamique des petits groupes influence les comportements
Une observation marquante est que la collaboration directe entre étudiants limitait souvent le recours à l’IA. Ils préféraient s’appuyer sur leurs échanges pour résoudre les questions, débattre des options et affiner les productions. Ceci confirme qu’il faut intégrer l’IA dans le processus collaboratif rudement établi, et non le laisser comme un simple ajout optionnel.
Dans le jargon de l’innovation, ce constat illustre la nécessité d’une innovation structurelle — c’est-à-dire l’organisation et l’alignement des talents et ressources — qui doit accompagner l’innovation technologique. Sans cette intégration organique, les relations humaines et les procédures existantes dominent, freinant l’adoption des nouvelles capacités.
Il est recommandé de concevoir des modèles de planification et des guides d’animation incluant des points de contrôle obligatoires pour intégrer les productions de l’IA, notamment lors de l’analyse de mission, la comparaison des options d’action et l’évaluation des risques, pour en faire un acteur incontournable de la démarche.
Conclusion
Au Marine Command and Staff College, le succès de l’outil IA n’était pas mesuré à l’aune de plans parfaits mais par la capacité des étudiants à s’approprier un nouvel outil, à apprendre de leurs erreurs et à percevoir ce que l’IA générative peut apporter à l’art de la planification. La découverte la plus importante ne concernait pas tant les limites techniques que la capacité même de l’équipe à évoluer.
Un simple accès à un modèle IA apporte des éclairs d’idées, mais ceux-ci s’effacent si le groupe ne se restructure pas pour en tirer parti.
Cette réorganisation dépasse l’enthousiasme : elle nécessite d’intégrer des modèles de requêtes dès les premières étapes, d’enseigner aux étudiants à développer compétences et confiance dans l’outil, et d’instaurer des points de contrôle où l’IA est requise pour tester les hypothèses et affiner les réflexions. Ces ajustements, s’ils sont modestes, annoncent une évolution majeure : l’équipe de planification devient un système souple, capable de se réinventer pour une ère de collaboration entre humains et machines.
Le message est clair : l’IA ne transforme pas la planification en elle-même, mais elle transforme les équipes disposées à changer leur mode de travail. Les dirigeants qui souhaitent dépasser le stade des expérimentations doivent se préparer à redessiner les équipes afin que le jugement humain et l’intelligence artificielle se renforcent mutuellement. Sans ce remaniement
, l’IA générative demeurera une curiosité en marge de la doctrine. Mais avec une restructuration réfléchie, les équipes pourront exploiter pleinement les enseignements offerts par l’IA.
Joseph O. Chapa est officier dans l’US Air Force, titulaire d’un doctorat en philosophie d’Oxford. Il a publié à plusieurs reprises dans des revues spécialisées et le New York Times. Son ouvrage Is Remote Warfare Moral? a été publié chez PublicAffairs en 2022. Il anime également une newsletter hebdomadaire sur la philosophie et la technologie.
Sofia Cantu est officier dans l’US Army, spécialiste de la défense aérienne tactique et de la planification d’état-major. Elle est titulaire d’un master en études militaires de la Marine Corps University, où sa thèse portait sur les systèmes d’aide à la décision assistée par IA, l’intégration des effectifs et les enjeux éthiques liés à la modernisation de l’armée américaine.
Les opinions exprimées ici reflètent uniquement celles des auteurs et ne représentent pas nécessairement celles de l’US Air Force, de l’US Army, du Département de la Défense ou d’une quelconque entité gouvernementale américaine.
Illustration : Gunnery Sgt. Daniel Wetzel via U.S. Marines