Il est presque devenu un cliché, mais cela reste vrai : les plateformes américaines dotées d’intelligence artificielle (IA) ne sont aussi performantes que la qualité des données qu’elles reçoivent.
Au sein des forces armées, ces systèmes révolutionnent l’analyse des menaces, le ciblage et la planification opérationnelle. Qu’il s’agisse du Maven Smart System de Palantir ou de diverses initiatives propres aux différentes armées, ces outils promettent une rapidité et une précision inédites dans le traitement de vastes volumes de données militaires. Cette révolution technologique bouleverse profondément les modes de pensée, de planification et d’action des forces armées.
Cependant, la majorité des données et des analyses alimentant ces systèmes sont centrées sur un seul objectif : comprendre les forces ennemies. L’armée américaine construit une machine d’une sophistication extrême pour analyser les capacités militaires adverses, suivre leurs mouvements et élaborer des options de frappes cinétiques.
Ce qu’elle ne développe pas, en revanche, c’est un système capable d’appréhender l’intégration des adversaires dans le terrain humain où s’exercent concurrence et conflit, ni de saisir comment les actions militaires résonnent à travers des systèmes sociaux, culturels et politiques complexes, ou pourquoi certaines populations peuvent réagir de manière inattendue à ces actions.
Parallèlement, les capacités émergentes d’IA agentique risquent de transformer l’environnement numérique, source majeure de données contextuelles pour le militaire, en un hall des miroirs corrompu et déformé. Cette transformation s’opérera par une automatisation et une accélération radicale de la production de contenus synthétiques et de « fake news » à une échelle et une vitesse sans précédent.
Il est urgent de mettre en œuvre une réponse à double volet face à ce défi.
La première consiste en un système « machine contre machine » : déployer les capacités d’IA agentique de l’armée américaine pour détecter et contrer les attaques adverses. Cette démarche vise à identifier les contenus synthétiques ou manipulés, démanteler les réseaux de bots et générer des contre-messages à la vitesse de l’IA.
Le second volet est profondément humain. À mesure que les contenus « slop » créés par l’IA – c’est-à-dire des productions générées automatiquement, de plus en plus sophistiquées, convaincantes et omniprésentes – se multiplient en ligne, la valeur des informations recueillies directement sur le terrain par des humains grimpera en flèche. Si l’armée veut comprendre ce nouvel écosystème informationnel, en ligne et hors ligne, elle doit ancrer ses analyses dans des données vérifiables issues du terrain, en alimentant son système central intelligent avec des données humaines structurées et cohérentes.
Sans ce double effort, la révolution de l’IA pourrait déclencher une augmentation des opérations militaires cinétiques qui ne sera pas fondée sur une réelle compréhension des impacts concrets au sol.
La guerre des machines : la déferlante d’IA agentique et de « fake news »
L’IA agentique représente un saut fondamental par rapport aux IA traditionnelles. Contrairement aux systèmes classiques qui répondent à des requêtes ou traitent des données, ces IA peuvent fixer des objectifs, élaborer des stratégies et exécuter des opérations complexes en plusieurs étapes avec un minimum de supervision humaine. Elles fonctionnent en continu, apprenant et s’adaptant en temps réel, tout en naviguant dans des environnements numériques complexes.
La Chine s’est particulièrement distinguée comme un utilisateur précoce et agressif de l’IA agentique pour ses opérations d’influence. Ces derniers mois, des acteurs étatiques chinois ont lancé des attaques sophistiquées reposant sur l’IA agentique, multipliant à grande échelle des opérations jusque-là très consommatrices de main-d’œuvre. Là où des fermes de bots exigeaient auparavant des équipes humaines pour créer du contenu, gérer les comptes et coordonner les messages, l’IA agentique automatise désormais l’ensemble du processus. Ces systèmes peuvent générer des personas synthétiques avec un historique de publication cohérent, créer des contenus adaptés à différents contextes et langues, engager des conversations naturelles avec de vrais utilisateurs et coordonner des campagnes sur des dizaines de plateformes simultanément.
Le volume est sans précédent. Une seule IA agentique peut gérer des milliers de comptes synthétiques aux caractéristiques et aux modes de publication uniques. Ces systèmes surveillent les sujets tendance en temps réel, identifient les voix influentes et conçoivent des réponses ciblées pour amplifier des récits clivants ou censurer des vérités gênantes. Ils détectent rapidement quand certains comptes ou messages gagnent en visibilité et déploient automatiquement des vagues coordonnées d’engagement synthétique pour les renforcer ou les affaiblir.
Le point le plus préoccupant reste leur capacité d’opérations micro-ciblées. L’IA agentique permet en effet de mener des campagnes simultanément à différents niveaux : des narratifs macro visant des cohortes démographiques entières jusqu’aux opérations ultra-précises ciblant des individus clés. Les opérations d’influence chinoises ont ainsi montré qu’elles pouvaient dresser des profils détaillés de militaires, décideurs politiques ou journalistes, avant de déployer des campagnes personnalisées via plusieurs points de contact. Une personne ciblée peut ainsi croiser, sur différentes plateformes, des contenus apparemment sans lien, mais qui renforcent subtilement une même narrative sans qu’elle ne perçoive la nature coordonnée de ce dispositif.
La technologie rend aussi possible la création de contenus multimédias synthétiques d’un réalisme jamais vu. Ces IA peuvent produire images, vidéos et sons convaincants, adaptés à des contextes précis. Elles fabriquent de fausses actualités avec des sources et citations inventées, des images satellites synthétiques suggérant des déploiements militaires fictifs, ou montages vidéo truqués présentant des événements inexistants. De plus en plus, ces productions synthétiques se mêlent de façon transparente à du contenu authentique, compliquant la tâche même des utilisateurs expérimentés pour distinguer le vrai du faux. Le résultat est un environnement où la provenance et la véracité de l’information deviennent fondamentalement incertaines.
Pour l’armée américaine, cette évolution représente un défi existentiel pour l’une de ses sources d’intelligence les plus cruciales : l’environnement d’information open source. Les planificateurs militaires s’appuient de plus en plus sur les réseaux sociaux, la presse en ligne et les communications digitales pour comprendre les populations civiles, suivre les narratifs adverses et capter l’opinion publique. Or, devant l’inondation de contenus synthétiques quasi indiscernables de la réalité, le rapport signal/bruit s’effondre, et il devient impossible de savoir si une information reflète la réalité ou constitue une manipulation.
Ce n’est pas un danger hypothétique, c’est une réalité actuelle. L’armée doit d’urgence déployer ses propres systèmes d’IA agentique pour trier ce flot massif. Les capacités humaines seront rapidement dépassées face à l’ampleur et à la vitesse du déluge d’informations, rendant l’intervention mécanique indispensable. Sans cela, ses plateformes d’analyse basées sur l’IA, elles-mêmes alimentées par des données issues d’un environnement de plus en plus corrompu, risquent de produire des recommandations fondées sur des réalités synthétiques divergentes des faits concrets, avec des conséquences potentiellement catastrophiques.
La vérité du terrain : une nécessité pour la compréhension
La compétition à venir entre machines pour détecter et filtrer les contenus synthétiques est indispensable pour gérer ce problème. Mais elle ne suffira pas. Pour établir une réalité fiable dans l’environnement informationnel et en tirer du sens, l’armée américaine doit pouvoir accéder directement à la vérité du terrain.
Depuis vingt ans, la relation de l’armée américaine avec les analyses du contexte social, culturel, économique et politique a été complexe. Au cœur des opérations de contre-terrorisme et de contre-insurrection au Moyen-Orient et ailleurs, la sagesse dominante affirmait que « la population est le centre de gravité ». Le manuel FM 3-24 sur la contre-insurrection soulignait ainsi la priorité d’une compréhension approfondie du terrain humain.
Cependant, comme l’ont souligné plusieurs études, ces principes n’ont jamais été systématiquement appliqués. Sur le terrain, l’armée a fait preuve d’un simple discours de façade sur ces doctrines, tout en concentrant principalement ses efforts sur la cartographie et le ciblage direct des réseaux ennemis. En s’appuyant sur des plateformes d’intelligence avancée de l’ère pré-IA, elle considérait ses adversaires comme de simples molécules – des collections de nœuds et de liens à démanteler par des frappes précises. Cette approche donna des résultats tactiques impressionnants, mais échoua à produire un succès stratégique durable.
L’échec était de nature structurelle. L’architecture du renseignement distinguait clairement l’analyse centrée sur l’ennemi des tentatives de compréhension des environnements civils et informationnels. Les réseaux ennemis étaient étudiés isolément, comme des entités suspendues dans une boîte de Petri, plutôt que comme des extensions organiques des sociétés où ils évoluaient. En éliminant les réseaux, on laissait intactes leurs racines sociales, pourtant essentielles à leur résilience.
Au sein des forces, les capacités dédiées à l’étude des contextes sociaux et culturels avaient un mandat quasi impossible : comprendre toutes les dimensions civiles et informationnelles avec une fraction des ressources, de la formation et du personnel réservés au renseignement principal. Les cadres analytiques imposés par la doctrine étaient simplistes et peu adaptés. Surtout, aucun résultat clair ni produit analytique structuré n’étaient exigés de ces services.
Ces difficultés persistent aujourd’hui. Globalement, l’armée américaine n’a jamais pleinement accepté de confier à ses personnels sur le terrain le rôle d’interpréter ce qu’ils observent. Ces derniers sont vus comme un réseau de capteurs destinés à collecter des données. Le slogan « chaque soldat est un capteur » reflète cet état d’esprit : l’armée calibrant ses capteurs pour recueillir des données, pas pour en analyser le sens.
Un changement de paradigme s’impose dans l’emploi des hommes et femmes sur le terrain. Ceux ayant un accès direct à la réalité doivent être habilités non seulement à collecter des données, mais aussi à produire des analyses structurées alimentant directement le système nerveux central intelligent de l’armée. Cela nécessite le développement de cadres analytiques cohérents, la formation des personnels à leur application et la définition d’outputs standards que les unités devront produire.
La communauté académique liée au secteur militaire a aussi un rôle clé à jouer, mais doit réinventer son fonctionnement. Si l’armée investit depuis longtemps dans un large écosystème de recherche universitaire, malgré des réductions budgétaires récentes, ces travaux ne sont pas toujours orientés vers la prise de décision opérationnelle en temps réel et manquent souvent de structuration.
Ces recherches académiques privilégient la publication théorique au détriment de leur utilité opérationnelle immédiate. Cela doit évoluer. Les forces ont besoin de partenaires académiques déployés sur le terrain contesté, capables de travailler auprès des unités de première ligne et de fournir des analyses structurées, opportunes et directement exploitables par les systèmes d’IA. Ces chercheurs ne devraient plus être de simples théoriciens distants, mais des analystes intégrés renforçant le travail d’investigation des militaires. Ce partenariat pourrait générer un moteur performant et professionnel pour la production d’insights au sein de l’armée.
Cette approche intégrée, combinant observation humaine tactique, rigueur académique et puissance de traitement assistée par IA, constitue une étape indispensable pour compenser la saturation croissante de l’environnement numérique par des contenus synthétiques. Face à des IA capables de générer en masse des productions réalistes, des réseaux de bots simulant des mouvements populaires ou des images satellites truquées suggérant des déploiements inexistants, seule l’observation humaine de la vérité du terrain peut couper à travers le bruit.
Quelle suite?
Sans un flux direct et structuré fournissant en masse des données vérifiées du terrain, les systèmes d’intelligence artificielle de l’armée ne pourront que traiter les données à leur disposition, reproduisant les erreurs des vingt dernières années, où l’armée excellait dans le processus de ciblage mais enchaînait les défaites stratégiques. Ces outils deviendront extrêmement performants pour identifier des nœuds, cartographier des réseaux et élaborer des frappes, tout en produisant l’illusion convaincante d’une compréhension approfondie. Le volume, la rapidité de traitement et la qualité visuelle des rapports donneront l’impression aux décideurs qu’ils maîtrisent la situation.
Mais cette maîtrise apparente masquera une ignorance croissante du contexte et des significations réelles. Les décideurs ne pourront plus recouper les analyses générées par la machine avec une compréhension humaine solide des faits. La fiabilité des données numériques alimentant ces systèmes dépasse même l’environnement informationnel et affecte directement le processus de ciblage, où la qualité des données incertaines et la contamination par des données adverses (data poisoning) deviennent des préoccupations majeures.
Au sein de cet environnement numérique, les IA agentiques américaines devront lutter pour distinguer contenus authentiques et manipulations synthétiques. Mais, même en cas de succès, ces systèmes peineront à expliquer pourquoi certains réseaux ciblés se régénèrent en quelques mois, à anticiper comment une action locale pourra engendrer des effets secondaires sociaux ou économiques dans d’autres régions, ou à identifier pourquoi certaines populations résistent ou au contraire cèdent à des influences adverses.
Ce type d’analyse est précisément celui qui doit être fourni par les militaires et leurs partenaires académiques – mais uniquement s’ils sont habilités, formés, répartis et rendus responsables de cette mission.
L’armée américaine est à un tournant décisif. Une voie mène à l’excellence des opérations militaires améliorées par l’IA, fondée sur la vérité du terrain et une compréhension authentique des contextes et conséquences : cycles de ciblage plus rapides, opérations plus efficaces, meilleure protection des forces, effets cinétiques optimisés, le tout soutenu par une compréhension situationnelle alimentée par des analyses humaines structurées et cohérentes.
L’autre voie mène à une performance tactique brillante grâce à l’IA, combinée à une cécité stratégique : une machine parfaitement optimisée pour remporter des batailles tout en perdant des guerres, générant des effets létaux tout en restant sourde à leurs répercussions dans la société et à travers le temps. Le choix n’est pas binaire entre la rapidité et l’échelle offertes par l’IA et l’acuité du regard humain. La vraie question est celle de l’investissement dans la fusion des deux, ou du risque de voir cette nouvelle capacité se transformer en un dangereux facteur de vulnérabilité.