Article de 2271 mots ⏱️ 11 min de lecture

L’intelligence artificielle (IA) transforme déjà les conflits armés et remet en question les règles de la guerre. Sans une régulation efficace, elle menace la protection humanitaire et la stabilité de la paix mondiale. Pourtant, bien encadrée, elle pourrait renforcer le respect du droit international humanitaire et atténuer la souffrance humaine.

New York, 8 octobre 2025

Un débat qui s’élève de la fiction à la réalité

Depuis des décennies, la culture populaire imagine les dangers des machines pilotées par l’IA dans les prises de décision militaires. Des films comme Colossus: The Forbin Project (1970), illustrant un superordinateur prenant le contrôle des armes nucléaires, à la saga Terminator (depuis 1984) mettant en scène « Skynet », un système de défense devenu autonome et exterminant l’humanité.

Lors de la 80e session de l’Assemblée générale des Nations unies (AGNU80), ces scénarios ne semblaient plus relever de la science-fiction.

L’intelligence artificielle est déjà utilisée dans les conflits actuels. Les dirigeants mondiaux ont profité de la semaine de haut niveau pour débattre des moyens de préserver les règles de la guerre face à ces bouleversements technologiques rapides.

« Le destin de l’humanité ne peut être confié à un algorithme », a alerté le Secrétaire général António Guterres lors d’un débat public du Conseil de sécurité sur l’IA et la paix internationale, le 24 septembre.

« L’autorité sur les décisions de vie ou de mort doit toujours rester humaine. »

L’IA déjà déployée sur les théâtres d’opération

À New York, les participants ont reconnu que le recours à l’IA dans les conflits n’est plus hypothétique : plusieurs affrontements récents ont documenté son usage militaire.

Le rapport du Secrétaire général publié en juin 2025, intitulé « Intelligence artificielle dans le domaine militaire et implications pour la paix et la sécurité internationale », détaille plusieurs domaines où l’IA influence déjà les opérations militaires.

  • Analyse des cibles : des outils d’IA produisent des recommandations de frappes, accélérant la prise de décision et la gestion massive des données. Mais cette rapidité suscite des interrogations sur la proportionnalité et la supervision humaine, notamment lorsque les opérateurs se fient trop aux résultats automatisés.
  • Identification des personnes : certains systèmes maintiennent des bases de données liant individus à groupes armés, avec le risque d’erreurs d’identification, ce qui compromet le principe de distinction si les données sont biaisées ou incomplètes.
  • Navigation autonome : des plateformes non pilotées par équipage utilisent l’IA pour guider leur trajectoire finale, même en cas de brouillage électronique, ce qui améliore la précision, mais éloigne la prise de décision critique de l’opérateur humain, posant la question du contrôle humain effectif.
  • Systèmes de défense : plusieurs pays ont annoncé des systèmes de défense aérienne à IA capable de détecter, suivre et intercepter des menaces de manière autonome. Ces dispositifs peuvent sauver des vies, mais risquent également d’entraîner des escalades involontaires lors d’échanges automatisés rapides entre machines.
  • Robots terrestres : des robots assistés par IA sont déployés pour la reconnaissance, la logistique, voire le combat, soulevant des problématiques de responsabilité lorsque des erreurs surviennent en environnement complexe.

Ces exemples illustrent le défi majeur : si l’IA peut accroître l’efficacité militaire, en l’absence de contrôles stricts, elle peut compromettre le droit international humanitaire. Comme l’a souligné le Secrétaire général : « Le contrôle humain et le jugement doivent être conservés dans toute utilisation de la force. »

Des risques majeurs à ne pas négliger

Les dirigeants ont à plusieurs reprises mis en garde contre les dangers que représente une IA évoluant plus vite que le droit humanitaire international. Les armements dotés d’IA peuvent rencontrer des difficultés à respecter les principes de distinction, de proportionnalité et de précaution.

Les champs de bataille, déjà complexes pour les humains distinguant civils et combattants, le sont davantage encore pour les machines, notamment en milieu urbain où ces populations sont souvent mêlées.

La prise de décision par algorithme est souvent opaque et imprévisible, compliquant la responsabilité légale et augmentant les risques d’attaques disproportionnées ou aveugles.

Les Nations unies identifient trois grandes catégories de risques :

  • Technologique : l’IA n’est fiable que selon la qualité des données qu’elle reçoit. L’Institut des Nations unies pour le désarmement (UNIDIR) met en garde : « Si un système d’IA n’a pas rencontré un scénario particulier lors de sa phase d’entraînement, sa réaction dans le contexte réel peut être imprévisible… Des algorithmes biaisés peuvent identifier à tort des civils comme des combattants. »
  • Sécuritaire : l’IA pourrait accélérer la dynamique des conflits. Le Bureau des Nations unies pour les affaires de désarmement (UNODA) évoque la menace de « guerres éclair », où l’escalade algorithmique intensifie une crise avant toute intervention humaine.
  • Légal et éthique : la responsabilité devient floue. Le droit international désigne les États et individus comme responsables, mais, comme le souligne le rapport du Secrétaire général, l’IA « obscurcit la linéarité de ce processus ».

Le 24 septembre, lors de l’Assemblée générale, le Président ukrainien Volodymyr Zelenskyy a averti : « Ce n’est qu’une question de temps avant que les drones ne combattent d’autres drones, attaquent des infrastructures critiques et ciblent des personnes de façon totalement autonome — sans intervention humaine. »

Un avertissement repris par António Costa, Président du Conseil européen : « Le développement d’armes létales autonomes est la menace la plus grave, car il supprime la responsabilité humaine dans les décisions de vie ou de mort. Les risques sont concrets : erreurs de calcul, escalade, prolifération. Il faut agir avant que les seuils critiques deviennent irréversibles. »

Le Secrétaire général a réaffirmé son appel à une interdiction des systèmes d’armes autonomes létaux opérant sans contrôle humain, visant à conclure un instrument juridiquement contraignant dès l’année prochaine. Il a aussi insisté : « Tant que les armes nucléaires subsistent, toute décision liée à leur emploi doit appartenir aux humains — pas aux machines. »

M. Guterres a aussi alerté sur ces nouvelles menaces hybrides non conventionnelles, citant les « cyberattaques par IA » qui « peuvent perturber ou détruire les infrastructures critiques en quelques minutes ». Il a également souligné que la capacité à créer et manipuler des contenus audio et vidéo met en danger l’intégrité de l’information, alimente la polarisation et peut déclencher des crises diplomatiques.

Ces avertissements convergent autour d’un constat : une IA non régulée risque d’accroître les pertes civiles, d’intensifier les crises, d’abaisser le seuil du conflit et de réduire la capacité humaine à prévenir une escalade incontrôlée.

Des opportunités à saisir malgré les dangers

Lors de l’AGNU80, les délégués ont aussi reconnu que l’IA, si elle est utilisée de manière responsable, pourrait au contraire soutenir la protection humanitaire. L’Institut des Nations unies pour le désarmement (UNIDIR) détaille dans un rapport de juillet 2025 comment certaines applications militaires d’IA pourraient contribuer au respect des principes de distinction, de proportionnalité et de précaution.

  • Commandement et contrôle : des outils d’aide à la décision aident les commandants à intégrer les évaluations de proportionnalité dans la planification, afin de limiter les dommages aux civils.
  • Renseignement et surveillance : des systèmes d’IA améliorent la connaissance de la situation en analysant de vastes flux de données, ce qui accélère la détection des violations ou des risques émergents.
  • Logistique et formation : la maintenance prédictive prévient les pannes d’équipements, tandis que des simulations réalistes préparent mieux les forces aux environnements complexes.
  • Soutien non létal : l’IA peut renforcer le diagnostic médical pour les personnels déployés et optimiser la gestion des chaînes d’approvisionnement, veillant à ce que les considérations humanitaires ne soient pas négligées.

Ces exemples démontrent que l’IA n’est pas intrinsèquement source de désordre : ses effets dépendent de sa conception et de son déploiement responsables.

Comme le résume l’UNIDIR, « Si elle est développée, déployée et utilisée correctement, l’IA pourrait augmenter l’efficacité opérationnelle tout en offrant de nouvelles façons de limiter les risques et réduire les dommages. »

Le défi est ainsi non seulement de poser des limites infranchissables, mais aussi de favoriser une innovation responsable renforçant le respect du droit humanitaire.

Des principes à la mise en œuvre

La semaine de haut niveau a confirmé la montée en puissance d’un élan en faveur d’une régulation internationale. Dans le cadre de la Convention sur certaines armes classiques, les États poursuivent l’examen d’interdictions et de restrictions.

Une approche à deux niveaux émerge : interdire les systèmes incapables de respecter le droit international humanitaire, et encadrer strictement les autres pour garantir un contrôle humain significatif, la transparence et la responsabilité.

La résolution de l’Assemblée générale adoptée en décembre 2024 affirmait déjà que le droit international s’applique tout au long du cycle de vie de l’IA militaire.

Le rapport de juin 2025 du Secrétaire général, qui a recueilli les contributions des États membres, de la société civile et des experts techniques, exprime une inquiétude partagée face au risque de déstabilisation de la sécurité mondiale et d’érosion de la protection humanitaire par une IA non contrôlée.

« La question », a déclaré António Guterres lors de la réunion de lancement du Dialogue mondial sur la gouvernance de l’IA le 25 septembre, « est de savoir si nous allons gouverner cette transformation ensemble — ou la laisser nous gouverner. »

Une réponse coordonnée au sein des Nations unies

Lors de cette Assemblée générale, les intervenants ont souligné l’importance d’une réponse globale et coordonnée au sein du système des Nations unies. Le Secrétaire général a présenté quatre priorités urgentes pour les gouvernements et le Conseil de sécurité :

  • Assurer le contrôle humain sur l’usage de la force, en interdisant les armes létales autonomes opérant sans ce contrôle.
  • Établir des cadres réglementaires mondiaux cohérents exigeant des examens juridiques, la responsabilisation humaine, des garanties et la transparence, notamment en zone de conflit.
  • Protéger l’intégrité de l’information en luttant contre les deepfakes et la désinformation alimentée par l’IA, susceptibles d’aggraver les crises ou d’entraver l’action humanitaire.
  • Réduire l’écart capacitaire en investissant dans les compétences, la diversité des données, la puissance de calcul et les infrastructures de sécurité, afin que tous les pays puissent appliquer des garde-fous efficaces.

Ces mesures sont, selon le Secrétaire général, indispensables pour empêcher l’IA de déstabiliser la paix et la sécurité tout en assurant son utilisation au service de l’humanité.

Parmi les initiatives onusiennes soutenant ces priorités :

  • L’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO) a adopté une Recommandation sur l’éthique de l’intelligence artificielle, définissant des normes globales de transparence et d’équité.
  • Le Bureau pour les affaires de désarmement et le Groupe d’experts gouvernementaux sur les armes létales autonomes continuent les travaux techniques et juridiques sur les interdictions et restrictions.
  • L’Institut des Nations unies pour le désarmement (UNIDIR) fournit analyses et feuilles de route pour guider les États vers une gouvernance responsable de l’IA militaire.
  • Le Dialogue mondial sur la gouvernance de l’IA, lancé lors de l’AGNU80, constitue la première plateforme universelle pour définir les normes internationales.
  • Un Panel scientifique international indépendant sur l’IA est en cours de constitution pour délivrer alertes précoces, preuves et conseils.
  • Le Secrétaire général a proposé des financements innovants et un Fonds mondial potentiel pour le développement des capacités en IA, afin de réduire les inégalités mondiales.

L’ensemble vise à garantir que l’IA renforce la paix et la protection humanitaire, plutôt que de les fragiliser.

Maintenir l’humain au cœur du système

Le message de New York est limpide : l’intelligence artificielle dans la guerre n’est pas un défi futur, elle est déjà présente, modifiant les conflits et remettant en cause les règles du combat.

Sans une régulation efficace, l’IA menace d’affaiblir la protection humanitaire et de déstabiliser la paix. Une gouvernance appropriée peut au contraire permettre d’utiliser cette technologie pour renforcer le respect des lois de la guerre et réduire les souffrances humaines.

« La question n’est pas de savoir si l’IA influencera la paix et la sécurité internationales, mais comment nous allons façonner cette influence », a conclu le Secrétaire général.