Article de 2168 mots ⏱️ 10 min de lecture

Le philosophe écossais David Hume observait que « l’humanité a universellement tendance à concevoir tous les êtres à son image… on voit des visages dans la lune, des armées dans les nuages ». Depuis toujours, les hommes ont une propension à l’anthropomorphisme, c’est-à-dire à attribuer des traits humains à ce qui ne l’est pas. Psychologues, philosophes et anthropologues considèrent cette tendance comme un trait évolutif et cognitif adaptatif, notamment dans le cadre des religions théistes. Certains chercheurs supposent qu’au cours de l’évolution, les premiers hominidés, comme les grands singes, interprétaient des formes ambigües telles que des nuages ou des rochers comme des visages ou des corps, afin d’améliorer leurs chances de survie face aux prédateurs — un phénomène désigné sous le terme d’« animisme ». Il vaut mieux pour un chasseur confondre un rocher avec un ours que l’inverse. Cette propension à l’anthropomorphisme a des implications majeures pour l’intelligence artificielle (IA) militaire.

L’intégration de l’IA dans les systèmes militaires est déjà en cours. Des armes autonomes capables d’attaquer sans intervention humaine ont déjà appuyé les pilotes dans divers scénarios, allant du ravitaillement en vol à l’escorte de bombardiers pesants en passant par le rôle de leurres absorbant le feu ennemi. De nombreuses machines dotées d’IA sont conçues pour imiter l’apparence et le comportement humains. Afin que des équipes hybrides homme-machine fonctionnent efficacement, elles doivent partager les mêmes qualités que les unités humaines : confiance, acceptation, tolérance, et lien social. Si les limites technologiques de l’IA dans les interactions homme-machine sont aujourd’hui bien documentées, l’impact psychologique et motivationnel de notre tendance naturelle à anthropomorphiser ces agents intelligents demeure peu exploré. Comment cette tendance influence-t-elle les opérations conjointes humains-IA ? Quelles en sont les conséquences possibles ?

L’anthropomorphisme dans l’IA : un choix de conception

La perception que les utilisateurs ont de leurs interactions avec les systèmes IA dépend en partie de choix délibérés des concepteurs. Depuis la représentation des premières machines de calcul d’Alan Turing jusqu’aux célèbres chatbots de modèles de langage massif—comme ChatGPT d’OpenAI, Copilot de Microsoft, ou Gemini de Google—, les chercheurs utilisent souvent des traits humains et des concepts comme « compréhension », « apprentissage » ou « intelligence » pour souligner les ressemblances entre humains et algorithmes. Les créateurs ont ainsi imaginé des machines (robots, assistants numériques, avatars, bots sociaux) aux traits humains qui suscitent des réponses psychologiques familières, notamment la confiance, la fiabilité et un sentiment de contrôle. Cependant, la culture populaire et les médias ont tendance à exagérer les qualités humaines attribuées à l’IA, suggérant à tort qu’elle serait émotionnelle, consciente ou éthique. Cette représentation est source de malentendus, conduisant à croire à tort que l’IA comprend le monde à l’instar de l’homme, par intuition, perception ou raisonnement.

Le succès de certains systèmes d’armes autonomes a renforcé l’idée selon laquelle l’anthropomorphisme est à la fois nécessaire et inévitable dans les interactions homme-machine actuelles. Cependant, concevoir une IA anthropomorphique efficace est loin d’être simple : la complexité des interactions humaines repose non seulement sur la psychologie, mais aussi sur les dimensions culturelles et sociales. Par ailleurs, la diversité neurologique humaine rend tout effort d’imitation purement cognitive particulièrement complexe.

Les interactions militaires homme-machine dans les équipes hybrides tactiques

L’augmentation par l’IA pourrait améliorer de nombreuses capacités opérationnelles : véhicules sans pilote sous-marins, terrestres ou aériens, robots quadrupèdes, assistants numériques pour la décision de commandement, reconnaissance faciale et vocale pour interpréter les intentions ennemies, etc. Boeing et l’US Air Force collaborent par exemple sur le projet « Loyal Wingman », un drone autonome supersonique capable d’évoluer en formation avec des chasseurs F-35 de cinquième génération. Ces agents intelligents navigueront et s’adapteront à leur environnement en défendant les avions lors d’attaques conjointes autonomes.

Les récents réseaux d’apprentissage profond non supervisés ont été testés sur des véhicules autonomes pour résoudre des problèmes non linéaires complexes dans le monde réel. Cependant, ces approches restent peu fiables dans des environnements critiques pour la sécurité. Les études montrent que l’efficacité des équipes hybrides augmente lorsque le comportement et les intentions des IA sont perçus, anticipés et communiqués avec précision aux pilotes humains. Des indices anthropomorphiques et un vocabulaire adapté favorisent cette compréhension. Par exemple, des recherches en robotique sociale révèlent que la réussite des interactions dépend en grande partie de la perception par l’homme de l’expertise, de l’engagement émotionnel et des réactions perceptives des agents non-humains. Des études récentes montrent aussi que les assistants numériques et avatars anthropomorphiques paraissent plus intelligents et crédibles aux yeux des utilisateurs.

L’anthropomorphisme peut aussi amplifier les tactiques de tromperie et de manipulation informationnelle, notamment via des technologies comme les chatbots, les deep fakes ou les attaques adversariales améliorées par IA. Par exemple, les drones de combat autonomes type Loyal Wingman pourraient être entraînés, ou finir par apprendre de façon autonome, à exploiter ou supprimer certains signaux anthropomorphiques dans des opérations d’opérations sous fausse bannière ou de désinformation. Cela représenterait un avantage tactique inédit, en particulier dans des contextes d’asymétrie informationnelle. Décrypter l’état mental d’un combattant humain via ses gestes et expressions faciales est plus aisé que dans le cas des drones ou assistants numériques, qui cachent ces signaux. Comprendre les mécanismes de l’anthropomorphisme aidera donc à évaluer dans quelles conditions ces effets s’avéreront les plus déterminants. La conception d’agents IA pour les équipes hybrides doit ainsi prendre en compte les effets psychologiques positifs et négatifs liés à l’anthropomorphisme.

Les conséquences de l’anthropomorphisme dans l’IA militaire

Attribuer des caractéristiques humaines à une IA en situation de guerre soulève de lourdes questions éthiques, morales et normatives tant pour les utilisateurs que pour les machines elles-mêmes. Cette attribution peut exposer les soldats à des risques physiques et psychologiques considérables.

Considérations éthiques et morales

Employer des termes anthropomorphes comme « éthique », « intelligent » ou « responsable » au sujet de machines peut induire en erreur en faisant croire que ces agents inanimés seraient capables de raisonnements moraux, de compassion, d’empathie ou de clémence, et donc qu’ils pourraient se comporter plus humainement que les soldats. Cette illusion peut entraîner un glissement de l’IA, vue comme simple outil, vers une source de légitimité morale. Le groupe européen de pilotage des systèmes d’aviation sans pilote a ainsi souligné que « les citoyens attendent des drones qu’ils adoptent un comportement éthique comparable à celui des humains, respectant des règles communément admises ». Or, la notion d’éthique appliquée à une IA en contexte de guerre est très différente de l’éthique humaine. Il est facile de confondre le comportement éthique fonctionnel d’une machine (selon sa programmation) avec l’usage éthique qu’en font les humains en opérations.

Dans un récent rapport sur les armes autonomes, le Defense Science Board du Département américain de la Défense a averti que « traiter les systèmes sans pilote comme s’ils avaient une réelle capacité d’autonomie morale détourne l’attention de la nécessité de concevoir des règles d’engagement appropriées et d’assurer une moralité opérationnelle ». Prêter à l’IA une autonomie éthique équivalente à celle des humains conduit à abandonner le contrôle humain dans la prise de décisions morales, ce qui soulève un obstacle majeur à la gestion responsable de cette technologie.

Confiance et responsabilité

Si les militaires perçoivent l’IA comme plus compétente qu’elle ne l’est réellement (biais d’automatisation), ils risquent de développer une forme de « désengagement social » ou complaisance lors des tâches collaboratives (acquisition de cibles, renseignement, évaluation de la situation). Par exemple, des conducteurs équipés de systèmes antiblocage freinent moins et conduisent plus près des autres que ceux sans ces aides. Ce risque est encore plus élevé avec l’IA, notamment en raison du « problème de la boîte noire », c’est-à-dire la difficulté à comprendre les processus de décision de l’IA. Certains risques peuvent toutefois être atténués par une surveillance adaptée, un design réfléchi et une formation adéquate.

Quand les performances des IA rivalisent ou surpassent l’humain, la tendance est forte d’établir à tort un lien intrinsèque entre traits humains et machines. Les utilisateurs se sentent souvent moins responsables en cas d’échec, reportant la faute sur la machine. Mais paradoxalement, si les décisions des IA de combat semblent « humaines », la responsabilité perçue des concepteurs ou opérateurs humains augmente. Les progrès dans l’autonomie et l’intelligence artificielle impliquent en réalité un besoin accru d’intervention humaine pour gérer les imprévus échappant aux algorithmes.

La déshumanisation de la guerre

Cette tendance à attribuer ou non des qualités humaines aux agents IA éclaire aussi la manière dont les combattants perçoivent leur ennemi. L’usage d’armes autonomes peut éloigner physiquement et psychologiquement les soldats du champ de bataille, risquant de les habituer à considérer l’adversaire comme un objet inanimé, dénué de valeur morale. Si ce « désengagement émotionnel » facilite la décision tactique, il compromet l’empathie et favorise la déshumanisation.

Traiter les machines comme des partenaires fiables peut aussi entraîner des attachements affectifs inappropriés. Une étude récente sur les chatbots sociaux en période de pandémie a montré que face au stress, à la peur ou à la solitude, les utilisateurs acceptent une interaction accrue avec ces agents, renforçant le lien émotionnel. Bien que ces chatbots ne soient que des outils numériques prédictifs, ils sont dotés de noms et de personnalités, au point que la société leur prête une forme de conscience.

Cette dynamique pourrait conduire les soldats à :

  • considérer leurs partenaires IA comme méritant plus de protection que l’ennemi humain,
  • ou devenir grisés par leur pouvoir et déshumaniser davantage l’adversaire, justifiant ainsi des actes excessifs ou immoraux.

Conclusion : gérer les futures équipes hybrides homme-machine

La compréhension de l’anthropomorphisme en IA et de son impact dans les interactions militaires hybrides est essentielle pour les chercheurs, militaires et décideurs. Le déploiement d’agents IA hautement autonomes soulève une série de défis sociotechniques et psychologiques. Les combattants doivent comprendre la conception des algorithmes, leurs limites et biais cognitifs, ainsi que les risques liés à la délégation de décisions opérationnelles.

Plusieurs mesures sont recommandées pour maximiser les bénéfices et réduire les risques :

  • Concevoir des systèmes IA capables de détecter biais, erreurs et comportements hostiles, tout en intégrant des normes éthiques humaines et en maintenant l’humain comme agent moral dans la boucle de décision.
  • Former les opérateurs militaires à un « contrôle humain significatif » pour cultiver une vigilance collective contre la complaisance liée à l’automatisation.
  • Éduquer combattants et personnel de soutien aux avantages et risques de l’anthropomorphisation des IA.
  • Réglementer les interfaces homme-machine pour prévenir la déshumanisation, le conformisme et la dilution des responsabilités morales, en anticipant dès le stade réglementaire et éducatif les questions juridiques et éthiques.
  • Conduire des exercices de formation coordonnés avec la structure des forces afin d’optimiser la communication homme-machine, particulièrement lorsque la chaîne de commandement est restreinte ou compromise.

Ces efforts doivent favoriser une communication optimale entre hommes et machines, et établir des niveaux adéquats de confiance, d’acceptation et de tolérance. Assurer la participation active des acteurs humains tout au long du continuum décisionnel contribuera à améliorer la perception de l’IA et la collaboration. L’ajustement précis de la confiance dans ces interactions demeure un défi majeur pour garantir des résultats opérationnels efficaces.

James Johnson est maître de conférences en études stratégiques à l’Université d’Aberdeen et fellow honoraire à l’Université de Leicester. Il est l’auteur de plusieurs ouvrages sur l’IA et la guerre future, notamment The AI Commander: Centaur Teaming, Command, and Ethical Dilemmas (Oxford University Press, 2024), AI and the Bomb: Nuclear Strategy and Risk in the Digital Age (OUP, 2023) et Artificial Intelligence and the Future of Warfare: The USA, China, and Strategic Stability (Manchester University Press, 2021).