Face à la montée en puissance de l’intelligence artificielle (IA), les établissements d’enseignement militaire professionnel ne peuvent plus se demander s’ils doivent intégrer cette nouvelle technologie, mais plutôt comment le faire afin de préparer efficacement leurs élèves aux défis du futur. Le défi consiste à insérer l’IA dans la formation militaire tout en préservant le développement intellectuel, pierre angulaire de leur mission. Certains experts, bien intentionnés, prennent le risque de proposer une approche qui pourrait laisser les États-Unis vulnérables face à leurs adversaires. Il est nécessaire de trouver une voie médiane.
Parmi les défenseurs les plus engagés de l’intégration de l’IA figure James Lacey, de la Marine Corps University. Dans son article d’avril 2025 intitulé Peering into the Future of Artificial Intelligence in the Military Classroom, il argue que, plutôt que d’interdire l’usage de l’IA, les institutions devraient pleinement l’adopter en tant qu’outil capable de « dramatiquement améliorer la pensée critique en fournissant une analyse sophistiquée des données, la visualisation de concepts complexes, la génération de perspectives diverses, la remise en question des hypothèses, la facilitation d’un engagement approfondi, et l’identification des biais ».
James Lacey illustre son propos en mentionnant des exemples où les étudiants ont utilisé l’IA pour rédiger des dissertations, créer des présentations PowerPoint, et même, de manière particulièrement impressionnante, pour prédire les questions posées lors des examens oraux à la Marine Corps University.
En tant que passionné de technologie ayant adopté dès l’Apple IIe toutes les innovations électroniques, je salue l’effort d’intégration de l’IA dans l’enseignement militaire professionnel. En réalité, les étudiants utilisent déjà l’IA en cours. Tenter de leur interdire cet outil serait à la fois irréaliste et risquerait de les désarmer face à un monde dominé par cette technologie émergente.
Cependant, si James Lacey souligne à juste titre les avantages potentiels, son approche présente un biais majeur : il semble réduire l’usage de l’IA à une alternative binaire, soit une adoption permissive, soit des interdictions sévères. Or, il minimise les risques liés à un usage encouragé sans maîtrise préalable des compétences de base. Notre capacité à tirer parti de l’IA repose sur des décennies d’expérience et de savoir. Permettre aux étudiants de sauter des étapes intellectuelles pourrait alors se traduire par une incapacité à collaborer efficacement avec l’IA sur des problèmes complexes. Pire encore, sans un jugement affûté, ils pourraient être victimes d’IA manipulées par des adversaires étrangers.
Entre l’interdiction totale et l’usage irréfléchi, il existe un juste milieu où l’éducation militaire professionnelle apprend aux élèves à exploiter l’IA sans y devenir dépendants. À l’image de l’obligation d’apprendre les mathématiques élémentaires avant d’utiliser une calculatrice, il est indispensable que les étudiants acquièrent des compétences fondamentales – lecture, écriture, recherche, raisonnement – sans recourir à l’IA. Sans cette expérience autonome, ils risquent une dépendance handicaps. Pour que l’IA soit un véritable partenaire dans la résolution de problèmes, il faut que les étudiants comprennent ses limites. L’apprentissage du raisonnement autonome demeure essentiel.
Mon Découverte de l’Intelligence Artificielle
À l’instar de James Lacey, j’ai découvert le potentiel de l’IA par l’expérimentation directe. Malgré la lecture d’articles et de débats académiques, rien ne remplace l’immersion. Depuis deux ans, j’explore notamment une catégorie d’IA dite des « grands modèles linguistiques ». Cette expérience m’a révélé à la fois des potentialités fascinantes et des limites troublantes. Contrairement à toutes les innovations technologiques précédentes – ordinateurs personnels, e-mails, internet, objets mobiles, cloud computing, visioconférences – l’IA peut à la fois accélérer la réflexion intellectuelle des chercheurs aguerris et compromettre le processus pédagogique des étudiants en formation.
J’ai découvert cette IA grand public (grands modèles linguistiques) à l’été 2022 lors d’un briefing du colonel Chris Wheaton de l’U.S. Army War College. Utilisant une version primitive de ChatGPT, il démontrait que, à la différence d’un moteur de recherche classique, on peut poser des questions inédites à l’IA et comprendre son cheminement logique. J’ai commencé par lui demander des synthèses de controverses académiques dans mon domaine, des référencements de chercheurs sur les idéologies, ou encore des descriptions de missions d’ONG. Progressivement, je l’ai testé avec des questions abstraites, voire absurdes : qui gagnerait un conflit militaire entre le Liberia et le Mexique ? Que se passerait-il si Rembrandt utilisait de l’azote liquide pour peindre ? Et si le personnage principal de 1984 était remplacé par Gumby ?
Ce type de questions visait à vérifier si l’IA pouvait dépasser la simple répétition d’articles et construire un raisonnement original basé sur les faits. Sans réponses justes ou fausses, les modèles ont pourtant proposé des réflexions créatives, plausibles et parfois pertinentes. J’ai été surpris par cette capacité apparente à « penser » créativement. Toutefois, en approfondissant ces essais, j’ai perçu des limites majeures, surtout dans les mains d’étudiants manquant des connaissances et du recul nécessaires pour un usage critique de l’outil.
L’Illusion Dangereuse d’Objectivité
Pour mieux comprendre le fonctionnement de ces modèles, j’ai multiplié les échanges avec ChatGPT sur des questions controversées, non pas pour débattre, mais pour observer comment l’IA pèse des questions normatives et justifie ses conclusions. Dans une discussion sur la moralité des bombardements atomiques sur le Japon, ChatGPT a d’abord présenté un exposé neutre des arguments pour et contre, soulignant la complexité et la subjectivité du sujet. Il a évoqué les Conventions de Genève en affirmant que les États-Unis doivent protéger les civils « quelle que soit la conduite adverse » et que « les normes humanitaires s’appliquent universellement et sans condition ».
En lui posant la question plus précise :
Affirmez-vous que si une partie nie complètement la Convention de Genève et tue délibérément des millions de civils, l’autre partie est néanmoins tenue de la respecter ?
ChatGPT a répondu :
Oui, même si une partie viole totalement la Convention de Genève et commet des atrocités, l’autre partie doit respecter les limitations de la Convention et les principes du droit humanitaire international.
Cette affirmation d’absence de condition de réciprocité m’a semble erronée. La Convention exige, par exemple, que les États contractants appliquent ses dispositions pour bénéficier de ses protections. Un État ne signataire n’est pas protégé. Un État signataire violant la Convention à grande échelle pourrait, selon le droit, s’attendre à ce que son adversaire respecte toujours strictement les règles. Même si certains juristes défendent cette vision, ChatGPT ne la présentait pas comme une opinion mais comme un fait établi, ce qui est trompeur.
Face au manque de preuves textuelles, il s’est appuyé sur l’esprit de la Convention, prônant une adhésion universelle aux normes, indépendamment de la réciprocité. J’étais surpris qu’une machine ignore ainsi l’écrit pour miser sur une interprétation normative.
Finalement, après une longue discussion, ChatGPT a admis que de graves violations entraînent des conséquences juridiques affectant les obligations des parties, ce qui lui a permis de discuter plus rationnellement de l’usage des armes nucléaires. Cette réflexion poussée a demandé beaucoup d’efforts, même pour un chercheur expérimenté. Imaginez donc la difficulté pour un étudiant confronté à une réponse séduisante mais biaisée, qui pourrait le persuader sans qu’il en ait les moyens critiques. J’ai constaté que les élèves étaient souvent fascinés, voire impressionnés, par la prétendue objectivité de l’IA, ne percevant pas toujours comment celle-ci oriente subtilement le débat.
Un Positionnement Équilibré Face à l’IA
Je partage l’idée de Lacey : le recours à l’IA est irréversible et les étudiants l’utiliseront dans leur apprentissage. La différence d’approche tient à la manière d’intégrer cette technologie dans la pédagogie militaire. Tandis que Lacey insiste sur l’usage intensif de l’IA, l’enseignement militaire professionnel doit également apprendre à vivre sans elle. Cette dualité demande une intégration réfléchie qui limite la dépendance à la machine. En enseignant à la fois les fondamentaux indépendamment de l’IA et les méthodes pour l’exploiter efficacement, on forme des leaders capables de collaborer avec cette technologie plutôt que d’en devenir esclaves.
Pour réussir cette synthèse, les établissements doivent appliquer trois principes clés :
1. Sensibiliser les étudiants à l’imperfection inhérente de l’IA
Il est vital que les étudiants comprennent que les systèmes d’IA ne sont pas des oracles infaillibles. Enseigner un regard critique envers l’IA réduit le risque d’une dépendance excessive pour résumer des lectures, rédiger des travaux ou résoudre des problèmes complexes.
Ayant étudié les biais idéologiques en éducation supérieure, je sais que le scepticisme informé aide les étudiants à résister à l’adoption passive des jugements d’autorités. Alors que les professeurs ont parfois des biais politiques perçus, les étudiants développent une résilience intellectuelle face à ces influences. Mais cette capacité critique semble moindre face à l’IA, perçue comme experte dans tous les domaines. L’IA présente un faux équilibre, exposant plusieurs points de vue sans forcément révéler ses propres partis pris, ce qui peut tromper les étudiants peu avertis.
Les enseignants doivent donc consacrer du temps dans le cursus à étudier les dysfonctionnements de l’IA, ses limitations par rapport à la cognition humaine, et montrer des exemples où elle se trompe (comme un avocat ayant soumis un document juridique avec des sources inventées par l’IA). Mettre en lumière ces failles créé un réflexe de scepticisme indispensable à une collaboration homme-machine efficiente. Il faut toujours encourager les étudiants à interroger, comparer, critiquer la production d’une IA, comme ils le feraient d’un interlocuteur humain.
2. Sensibiliser aux choix et valeurs invisibles du programmeur
Les étudiants doivent comprendre que les réponses de l’IA dépendent des règles établies par ses concepteurs, qui traduisent des jugements subjectifs sur ce qui est socialement acceptable ou nuisible. Par exemple, l’IA aidera pour des problèmes scolaires, mais refusera de conseiller sur la fabrication de substances illicites. Elle pourra défendre un point de vue dans un contexte, et adopter un autre dans un contexte différent (comme la justification morale de l’usage d’armes atomiques aux États-Unis versus leur usage en Ukraine).
Ce changement d’attitude est délibéré, fruit du « pouce sur la balance » des programmeurs. Si souvent bénéfique, cela peut aussi être utilisé à mauvais escient par des adversaires. Les étudiants doivent apprendre à détecter ces influences cachées en testant diverses IA sur des dilemmes éthiques, comme les problèmes du tramway (trolley problems), qui n’ont pas de réponse universelle mais révèlent les choix moraux tacites du système.
Comprendre que les décisions sur des questions subjectives sont guidées par des règles créées par des humains rend les étudiants plus aptes à porter un jugement indépendant. Ils devront aussi prendre conscience que leur collaboration avec l’IA s’inscrit dans un cadre normatif programmé, très éloigné d’une machine « neutre ».
Par exemple, en corrigeant cet article, l’IA s’est refusée à modifier un passage évoquant le conflit entre Israël et le Hamas, justifiant ce refus par la sensibilité politique du sujet, ce qui montre l’impact concret des paramètres imposés par les programmeurs.
3. Apprendre à travailler sans recourir à l’IA
Malgré l’intégration indispensable de l’IA, les institutions doivent mettre en place des incitations à maîtriser le savoir sans assistance numérique. Cela ne signifie pas interdire l’IA, mais prévoir des évaluations où l’étudiant doit démontrer son autonomie intellectuelle, sans aide technologique. Connaître cette exigence encourage l’engagement réel et évite les raccourcis intellectuels.
Cette méthode n’est pas nouvelle dans l’enseignement supérieur. J’ai moi-même exigé à mes étudiants la réalisation de calculs statistiques à la main pour mieux comprendre les modèles avant d’utiliser des logiciels. De même, l’examen oral, traditionnel depuis des générations et pratiqué à l’Army War College, oblige les élèves à répondre directement à un jury – un outil particulièrement efficace pour vérifier la connaissance réelle et combattre la dépendance à l’IA.
Cependant, un examen en fin d’année ne suffit pas. Un suivi régulier avec des examens sans IA (QCM, dissertations, discussions) doit être instauré pour garantir le rythme d’apprentissage. Ces évaluations ne s’opposent pas à des travaux exploitant l’IA, mais créent un socle solide de compétences essentielles.
Conclusion
L’article de James Lacey secoue légitimement le milieu militaire professionnel, le tirant de sa complaisance pour lui faire intégrer l’IA. Sa proposition d’« adoption totale » met en lumière un choix binaire qui ne rend pas justice à la complexité du défi. Accepter que l’IA écrive les travaux des étudiants revient à fragiliser l’ensemble de l’institution éducative. En revanche, conjuguer les méthodes traditionnelles – lectures, exercices, échanges, examens – à une pédagogie adaptée à l’IA permet de préserver les fondamentaux intellectuels tout en tirant profit de l’innovation.
Une telle approche médiane n’a rien de révolutionnaire. Les enseignants ont déjà confronté l’arrivée de machines en salle de classe, du rapporteur aux calculatrices. Quarante ans après leur généralisation, les enfants doivent toujours maîtriser les mathématiques de base avant d’utiliser la technologie. Dans mes cours de statistiques, j’ai imposé à mes étudiants des calculs manuels pour mieux les préparer à l’analyse assistée par ordinateur. Ce même principe doit s’appliquer avec l’IA : la maîtrise des bases conditionne l’usage intelligent de la technique.
La vision « tout IA » de James Lacey va jusqu’à utiliser ces technologies pour concevoir des programmes, préparer des supports, faire des recherches, ou rédiger des textes – autant d’usages complexes où l’expérience des enseignants demeure cruciale pour naviguer entre enjeux pratiques et éthiques. Le défi est d’adopter l’IA sans sacrifier la formation intellectuelle. Lâcher les étudiants dans cet univers sans encadrement les exposerait à une dépendance contreproductive. Si l’armée favorise cette dépendance au détriment du raisonnement autonome, l’avenir appartient alors non pas à l’homme mais à la machine.
Matthew Woessner, Ph.D., est doyen de la faculté et des programmes académiques au College of International Security Affairs de la National Defense University. Il a enseigné à l’Army War College et à Penn State Harrisburg. Les opinions exprimées sont personnelles et ne reflètent pas nécessairement celles de la National Defense University ou du gouvernement américain.
Illustration : Midjourney