Article de 1711 mots ⏱️ 8 min de lecture

L’intelligence artificielle (IA) transforme déjà les dynamiques stratégiques, bien avant tout affrontement ouvert. Aujourd’hui, elle est au cœur des conflits hybrides, notamment dans cette « zone grise » où se mêlent opérations d’influence, coercition économique et cyberattaques. Face à ces usages multiples et brouillés, il devient crucial de définir des règles claires pour l’emploi de l’IA, afin de préserver la légitimité et la stabilité dans les rivalités internationales.

Loin des seules questions de rupture technologique sur le champ de bataille, l’enjeu majeur réside dans la manière dont l’IA reconfigure la compétition dans cet espace intermédiaire entre paix et guerre. Dans cet « entre-deux », les grandes puissances poursuivent une rivalité constante, floutant les frontières entre conflits ouverts ou tensions contrôlées. L’IA apparaît aujourd’hui comme un accélérateur puissant de ces opérations de « zone grise », posant des défis nouveaux aux responsables politiques et militaires.

Tracer des frontières claires dans un espace ambigu

Le philosophe politique Michael Walzer propose une grille de lecture utile pour aborder ce défi. Dans son ouvrage Spheres of Justice, il défend l’idée que la justice exige de séparer distinctement les différentes sphères de l’activité humaine — politique, économique, éducative, etc. — chacune régie par une logique morale propre. Lorsque ces frontières s’estompent, l’injustice s’installe.

Appliqué à l’usage de l’IA par les États dans la compétition stratégique, ce raisonnement suggère qu’il n’est pas souhaitable d’appliquer uniformément toutes les capacités offertes par l’IA à tous les domaines d’action. Ce qui est adapté dans un contexte militaire, par exemple, peut s’avérer nuisible — voire dangereux — dans des opérations d’influence durant les périodes dites de paix. Un même algorithme capable de guider des missiles sur un navire ennemi ne devrait pas être utilisé pour manipuler des électeurs, surveiller des opposants ou fausser des marchés.

Cette mobilité excessive des outils d’IA menace de faire disparaître les distinctions qui permettent d’encadrer la rivalité des grandes puissances et d’en modérer les effets.

Une éthique différenciée pour chaque instrument de puissance

En pratique, la logique de Walzer correspond assez bien à la manière dont les États exercent leur puissance dans différents registres : diplomatique, militaire, informationnel et économique. Chacun de ces domaines est soumis à des normes et règles spécifiques, qui dictent ce qu’est une compétition légitime. L’IA, par sa polyvalence et ses nombreux cas d’usage, risque de gommer ces différences si les décideurs ne tracent pas des limites nettes.

Sur le plan diplomatique, la morale dominante est d’influencer en respectant l’autonomie des parties. Utiliser l’IA pour améliorer la compréhension des positions adverses ou affiner les négociations s’inscrit dans cette logique éthique. En revanche, simuler des acteurs politiques, exploiter leurs vulnérabilités psychologiques ou automatiser des formes de diplomatie coercitive en efface la frontière, et la pratique cesse alors d’être de la diplomatie.

Dans le domaine de l’information — y compris le renseignement et les opérations informationnelles — les critères clés sont la vérité, la responsabilité et l’autonomie cognitive des populations. L’IA qui sert à accélérer les analyses, détecter les ingérences étrangères ou renforcer la vigilance face aux menaces respecte ces principes, à condition d’un encadrement transparent. En revanche, la même technologie employée pour créer des campagnes de désinformation, manipuler des opinions ou violer la souveraineté informationnelle d’autres États devient corrosive et illégitime.

Sur le champ militaire, les principes séculaires de nécessité et de proportionnalité doivent s’imposer. L’IA qui améliore la protection des troupes, réduit les dommages collatéraux en affinant le ciblage, ou facilite la gestion du champ de bataille correspond à ces règles, sous réserve d’une responsabilité humaine effective. En revanche, son usage pour surveiller la population civile ou étendre indûment la portée d’une opération perd toute légitimité morale.

Enfin, dans la sphère économique, la logique morale repose sur l’équité, le consentement et la transparence. L’utilisation de l’IA pour appliquer les sanctions ou combattre les réseaux financiers illicites appuie une gouvernance légitime. Mais si elle sert à manipuler les marchés, contraindre des entreprises étrangères ou pratiquer une coercition algorithmique opaque, elle sape alors les fondements du système économique régulé et équitable.

Pour chacun de ces domaines, il existe déjà des normes morales qui doivent être respectées par l’emploi de l’IA. Le défi urgent est d’éviter que les capacités militaires de l’IA soient indifféremment mobilisées dans des opérations d’influence, de désinformation ou de manipulation économique. La zone grise n’est pas un vide éthique, et il est crucial que les États-Unis définissent précocement ces frontières, au risque de voir d’autres puissances s’imposer des règles à leur avantage.

Un cadre politique clair pour encadrer l’IA dans la zone grise

Sur la base des idées de Walzer, on peut proposer un cadre simple mais efficace pour catégoriser les usages de l’IA dans cet espace : identifier clairement ce qui doit être interdit, ce qui doit être restreint avec des conditions strictes, et ce qui peut être permis avec peu de limitations.

Les usages prohibés incluent ceux qui, bien que tactiquement ou stratégiquement avantageux, fragilisent la légitimité des États-Unis à long terme. Il s’agit en particulier des campagnes de désinformation massives utilisant des deepfakes, des personnages synthétiques ou de la propagande amplifiée par IA. L’ingérence dans les processus démocratiques étrangers ou la surveillance des civils hors zones de conflit doivent également être formellement interdites. Ces pratiques sapent les valeurs américaines et encouragent des répliques déstabilisantes en retour.

Les usages restreints concernent des applications d’IA à double usage, qui peuvent soutenir des instruments légitimes de la politique étrangère tout en restant sensibles. C’est le cas par exemple de la modélisation prédictive des décisions adverses en temps de guerre, l’application automatisée des sanctions ou la détection des campagnes de désinformation. Leur emploi doit suivre les valeurs américaines, faire l’objet d’une supervision transparente et respecter les normes internationales, avec des mécanismes d’audit et d’attribution clairs pour éviter les dérives.

Les usages permis sont ceux qui renforcent la résilience institutionnelle, les normes démocratiques et la dissuasion sans affaiblir la légitimité des États-Unis. L’IA utilisée pour la détection précoce des menaces, la protection des infrastructures critiques vis-à-vis d’attaques cybernétiques ou physiques, ainsi que la lutte contre la désinformation étrangère s’inscrit dans cette catégorie. Ces usages constituent en quelque sorte des fortifications défensives, transparentes et stabilisantes, alignées sur les intérêts stratégiques et normatifs américains et alliés.

Ces catégories ne sont pas exhaustives, mais elles proposent un cadre flexible, adaptable et évolutif pour penser la gouvernance de l’IA dans les opérations de zone grise.

Pour que ce cadre ait un impact réel, il devra être formalisé dans des directives politiques ou légales via des ordres exécutifs et une coopération avec le Congrès. Cette démarche ne relève pas du simple « signalement vertueux », mais d’un pari stratégique : la retenue crédible dans certains domaines garantit un avantage durable ailleurs.

Une réflexion éthique indispensable pour consolider la position américaine

Beaucoup d’experts soulignent que c’est bien dans la zone grise que se jouera l’essentiel de la compétition des puissances à venir. L’IA pourrait devenir l’arme décisive dans cet affrontement. Or, les débats actuels privilégient souvent l’efficacité stratégique au détriment des questions éthiques. Cette approche rappelle les erreurs commises lors des débuts de la politique cyber, où la rapidité d’adoption l’a emporté sur la définition de règles claires, avec pour conséquence un environnement international marqué par le secret, le déni et l’escalade.

La théorie de Walzer rappelle que la supériorité technologique dépourvue de gardiens moraux fragilise la légitimité, pilier essentiel de la puissance américaine, qu’elle soit « dure » ou « douce ». Adopter une cartographie morale pour l’usage de l’IA dans la zone grise n’éliminera pas les choix difficiles, mais fournira un vocabulaire commun pour arbitrer entre légitimité et efficacité. Ainsi, normaliser l’usage de l’IA pour une influence illimitée risquerait d’éroder un ordre international que les États-Unis s’efforcent de défendre, alors que trop de restrictions pourraient affaiblir la posture américaine face à des rivaux déterminés à redéfinir les règles du jeu.

Le cadre proposé offre une voie médiane. Il ne prétend pas rendre la zone grise propre ou confortable, ce qui serait contraire à sa nature même, mais il donne aux décideurs un outil pour distinguer clairement compétition stratégique légitime, escalade dangereuse et manipulation manifeste. Il encourage des pratiques à conserver et des lignes rouges à défendre.

Les États-Unis ont aujourd’hui l’opportunité de définir les normes internationales pour l’emploi de l’IA dans la zone grise, avant que des habitudes opérationnelles rigides ne se concrétisent. La zone grise restera complexe, mais la réflexion américaine ne doit pas l’être.

Morgan C. Plummer est directeur politique senior chez Americans for Responsible Innovation, groupe américain de plaidoyer pour une innovation responsable. Ancien professeur à l’Académie de l’US Air Force, expert en défense au Boston Consulting Group et officier de l’US Army, il a également occupé plusieurs postes au Pentagone et déployé plusieurs fois en Irak.