Article de 1304 mots ⏱️ 6 min de lecture

En 2022, Vincent Carchidi écrivait que l’intelligence artificielle (IA) est souvent perçue à travers un prisme anthropomorphique, biais qui conduit à de nombreuses mécompréhensions. Trois ans plus tard et à l’heure des progrès majeurs de l’IA, il revient sur ses analyses pour en mesurer l’évolution, notamment dans le cadre de la formation militaire.

Dans votre article de 2022, « L’intelligence artificielle est-elle façonnée à l’image de l’humanité ? Leçons pour une éducation militaire en IA », vous souteniez que la formation militaire rigoureuse en IA devait impérativement intégrer l’étude des sciences cognitives humaines. Trois ans après, comment cette éducation a-t-elle évolué ? Quel rôle joue désormais l’enseignement des sciences cognitives dans la formation militaire en 2025 ?

Avec l’association quasi exclusive de l’« IA » aux modèles de langage large de type transformeur, les organisations de défense ont rapidement dû adapter leur approche pour comprendre ces modèles, interpréter convenablement leurs résultats et intégrer leurs usages de manière efficace.

Le Chief Digital and Artificial Intelligence Office (CDAO) a notamment créé en 2023 la Task Force Lima à cet effet, recommandant une approche fondée sur l’éducation comme clé d’une adoption réussie de l’IA. Cette task force a depuis été intégrée à une cellule permanente, la AI Rapid Capabilities Cell, en partenariat avec la Defense Innovation Unit, visant à accélérer l’adoption des capacités d’IA au sein du Department of Defense. Par ailleurs, le plan d’action sur l’IA de la Maison Blanche de juillet 2025 prescrit plusieurs initiatives éducatives, notamment des programmes de développement des talents, une plateforme virtuelle d’expérimentation de systèmes autonomes et la création de pôles de recherche et formation dans les grandes écoles militaires.

Le rôle des sciences cognitives dans ces programmes varie selon les initiatives, mais leurs bénéfices sont particulièrement notables dans les cursus traditionnels, comme ceux des établissements militaires d’élite. Plus spécifiquement, la compréhension des systèmes autonomes en bénéficie grandement, car l’humain reste le seul exemple avec un comportement pleinement autonome identifié et étudié. Il est donc essentiel d’intégrer cette expertise dans la formation des opérateurs et développeurs.

L’IA a connu des progrès rapides, offrant des capacités bien plus avancées qu’en 2022. En quoi ces évolutions modifient-elles votre constat selon lequel l’IA souffre d’un biais anthropomorphique ? Ce biais est-il aujourd’hui plus fort ou plus faible ?

En 2022, l’IA n’était pas encore presque exclusivement associée aux grands modèles de langage. À l’époque, la crainte portait sur le fait que, malgré des performances apparemment humaines sur certains plans, ces modèles restaient fortement dépendants des données sur lesquelles ils avaient été entraînés, ce qui les rendaient vulnérables et fragiles lorsqu’on les confrontait à des situations très éloignées de leurs données d’apprentissage. Ce biais découle du fait que l’IA est évaluée comme si elle était humaine, ce qui conduit souvent à des simplifications excessives.

Les grands modèles de langage ont indéniablement progressé sur plusieurs critères, parfois de manière spectaculaire. Pourtant, cette tendance à juger l’IA à l’aune de l’intelligence humaine pousse même les chercheurs à attribuer aux modèles des fragilités qui pourraient être similaires à celles de certains humains, justifiant ainsi la direction déjà prise dans la recherche. En réalité, les améliorations mesurées sont souvent mal interprétées comme anthropomorphiques.

Cette fragilité demeure le talon d’Achille des modèles, qui, confrontés à des scénarios éloignés de leur formation, montrent leurs limites, ce qui entrave leur capacité à généraliser de façon robuste.

Les récents contrats passés avec OpenAI, Google, Anthropic et xAI, visant à développer des « capacités d’IA de pointe prototypes » pour des usages militaires voire organisationnels, posent question dans ce contexte. Ces financements restent modestes, mais l’objectif de ces projets mérite vigilance, en particulier pour ce qui touche aux modèles de langage.

Vous écriviez également que « la tendance à simplifier à l’extrême la cognition humaine et à surestimer l’IA est interculturelle », citant les États-Unis et la Chine. Est-ce toujours le cas en 2025 ? Comment les réflexions autour de l’IA ont-elles divergé entre ces deux puissances ?

Cette tendance s’est renforcée, malgré les critiques, notamment venant des sciences cognitives. Le biais anthropomorphique demeure un problème majeur : si on suppose à tort qu’un modèle de langage simule exactement le cerveau humain, les choix de recherche et d’allocation des ressources en découleront. Or, si cette hypothèse est fausse, la recherche risque d’« percuter un mur » dans les domaines où l’on cherche une intelligence comparable à celle de l’humain.

Dans le domaine de la défense, cet effet se manifeste aussi. Une grande partie de l’enthousiasme autour des « agents » d’IA repose sur une analogie avec un assistant humain, alors que certaines applications spécifiques, comme l’utilisation de l’IA dans la simulation de conflits, peuvent s’avérer utiles si elles sont bien adaptées. Les prédictions évoquant une profonde transformation des structures militaires sous l’effet des agents d’IA relèvent pour partie de ce biais anthropomorphique.

Sur la scène internationale, c’est toujours OpenAI qui impulse le rythme de la recherche en IA. Par exemple, les modèles chinois comme le R1 de DeepSeek n’auraient probablement pas vu le jour sans l’orientation donnée fin 2023 par OpenAI vers l’innovation post-entraînement plutôt que le simple accroissement de la taille des modèles.

Cependant, quelques différences persistent. La Chine montre une plus grande ouverture et acceptation de l’IA dans son opinion publique comparée aux États-Unis, où l’IA est plus souvent perçue comme une menace. L’industrie chinoise est aussi davantage incitée à développer des méthodes efficaces en calcul, notamment à cause des restrictions américaines à l’exportation, un sujet en constante évolution. Aux États-Unis, cet effort se retrouve plus dans le milieu académique que dans le secteur industriel.

Avec le recul, que modifieriez-vous à vos arguments initiaux ?

Je reviens d’abord sur ma réserve concernant la coopération homme-machine, que je mettais en doute à cause des défis liés à la fiabilité. Cette critique reste valable à long terme, mais j’ai depuis changé d’avis en adhérant au concept promu par la Defense Advanced Research Projects Agency (DARPA) de symbiose homme-machine. Il s’agit de faire du système une véritable partenaire intelligent du combattant, plutôt qu’un simple outil d’accélération. Cette approche, structurée en trois phases progressives, ambitionne qu’à terme les systèmes puissent raisonner contextuellement et s’adapter, une étape encore à atteindre. Orienter les efforts de recherche pour répondre à ces exigences de troisième génération me paraît essentiel, avec la coopération homme-machine incluse dans cette vision plus large.

Ensuite, bien que je maintienne l’importance de la science cognitive dans la formation à l’IA, j’aurais dû mettre en garde contre les applications trop ambitieuses ou mal adaptées de ses concepts, qui peuvent brouiller plus qu’ils n’éclairent, surtout lorsqu’on confond la création d’une intelligence avec la construction d’un outil utile. C’est une des raisons pour lesquelles la démarche de la DARPA prônant une évolution graduelle vers la symbiose vaut d’être suivie attentivement.

***

Vincent J. Carchidi est analyste du secteur de la défense chez Forecast International. Ses propos sont personnels et ne reflètent pas ceux de son employeur.