Article de 3054 mots ⏱️ 14 min de lecture

La récente campagne d’Israël à Gaza marque un tournant dans la guerre moderne : la fusion de la contre-insurrection et de l’intelligence artificielle. Les pays occidentaux, dont les doctrines de contre-insurrection privilégient traditionnellement la légitimité et le contrôle des populations, pourraient-ils être influencés par ce modèle algorithmique israélien ? Cette interrogation revêt une grande importance : si l’approche israélienne, caractérisée par l’automatisation, l’échelle et l’attrition, devient un modèle pour les démocraties libérales, elle risquerait de normaliser une forme de guerre valorisant l’efficacité computationnelle au détriment du jugement humain.

Pour y répondre, il faut comprendre comment Israël a historiquement affronté les groupes militants, et comment le conflit déclenché après les attaques du 7 octobre 2023 a conduit à l’utilisation de technologies plus sophistiquées. Depuis des décennies, Israël gère Gaza et la Cisjordanie par une stabilité coercitive : blocus, surveillance et violences calculées visant davantage la dissuasion que la réconciliation. Sa doctrine de sécurité privilégie le contrôle physique et économique ainsi que l’endiguement au détriment de toute résolution politique. La guerre actuelle amplifie cette philosophie via des systèmes algorithmiques accélérant chaque phase de ciblage et réduisant la délibération à des données.

Pour éviter que l’automatisation ne dilue les limites humaines, juridiques et éthiques de la guerre, cinq mesures concrètes sont proposées afin d’encadrer cette technologie : renforcer les contrôles à l’exportation, imposer l’auditabilité, réancrer la proportionnalité, institutionnaliser l’évaluation des dommages civils et codifier des règles internationales pour l’IA dans le ciblage.

Contre-insurrection et guerre algorithmique

La pratique israélienne de la contre-insurrection repose depuis longtemps sur une logique de domination. En Cisjordanie et à Gaza, elle mêle pression militaire, collecte de renseignements et dépendance économique pour réprimer les menaces sans provoquer d’occupation prolongée. Les opérations précédentes, comme Plomb Durci en 2008 et Bordure Protectrice en 2014, s’appuyaient sur des réseaux de surveillance étendus et une puissance de feu lourde pour obtenir une dissuasion à haut prix humain. Le schéma était clair : saturation du renseignement et réponse cinétique substituaient les solutions politiques.

Le conflit actuel marque un saut qualitatif. Des systèmes d’IA tels que Lavender et Gospel, développés par l’unité 8200, automatisent désormais l’identification, la nomination et le calendrier des cibles. Ces programmes mêlent données issues des communications téléphoniques, réseaux sociaux et interceptions pour générer des listes de frappes, parfois avec un contrôle humain minimal. La contre-insurrection algorithmique redéfinit le soupçon en score quantifiable de risque, privilégiant une couverture de surveillance exhaustive plutôt que l’analyse précise de l’intention. Cette approche érode les principes fondamentaux du droit international humanitaire, en brouillant la distinction en élargissant les définitions de combattants par association et en transformant la proportionnalité en une question de rendement opérationnel.

Cette évolution a permis un rythme inédit de frappes — plus de 15 000 au cours des 35 premiers jours — causant plus de 67 000 morts palestiniennes à l’automne 2025, dont une part importante de femmes et d’enfants. Ceci s’est produit dans un contexte de règles d’engagement assouplies et d’application contestée du droit humanitaire. Si les autorités israéliennes insistent sur la présence d’un contrôle humain (« human-in-the-loop »), les enquêtes et témoignages de lanceurs d’alerte suggèrent que ces validations se réduisent souvent à une simple formalité, transférant la responsabilité morale aux algorithmes et exacerbant les risques d’erreurs dans la distinction et la proportionnalité.

En ce sens, la contre-insurrection algorithmique ne remplace pas la doctrine historique israélienne. Elle la perfectionne. Les outils de l’occupation et de la dissuasion se transforment en une infrastructure auto-apprenante de surveillance permanente et de frappes de précision. L’adoption de ce modèle par les armées occidentales, ancrées dans des traditions éthiques et stratégiques différentes, déterminera si Gaza constitue une exception ou un prototype pour les conflits à venir dans le monde démocratique.

Le cas de l’IA dans le ciblage

Bien que la contre-insurrection algorithmique présente des risques spécifiques, il est éclairant de la comparer aux opérations de ciblage menées par l’homme, souvent associées à un nombre disproportionné de victimes civiles. Par exemple, durant l’opération Plomb Durci (2008-2009), environ 1 400 Palestiniens furent tués, dont près de 773 civils, contre 13 morts israéliens. Pendant l’opération Bordure Protectrice (2014), environ 2 251 Palestiniens périrent, dont 1 462 civils, face à 72 Israéliens. Ces chiffres suggèrent que les opérations humaines ont régulièrement entraîné un lourd tribut civil, influencé par le stress opérationnel, les motivations de représailles et des règles d’engagement larges.

Face à cela, l’IA n’est pas affectée par des biais humains tels que l’émotion ou la fatigue, et peut traiter une grande masse de données pour des identifications plus précises, réduisant potentiellement les erreurs si elle est entraînée sur des hypothèses justes. Sur le plan militaire, l’IA permet un ciblage efficace à grande échelle, frappant plus rapidement un plus grand nombre de menaces avec moins de ressources. Malgré un nombre absolu plus élevé de victimes dans le conflit actuel en raison de son intensité, les compromis relatifs impliquent que l’IA pourrait offrir des résultats positifs comparé aux méthodes manuelles, sous réserve que les règles d’engagement soient strictes.

Israël n’est pas le seul à suivre cette voie. Le Projet Maven américain, lancé en 2017, a institutionnalisé l’automatisation de la détection d’objets pour accélérer les décisions de ciblage, avec un usage en expansion à travers différents théâtres d’opération. La Chine, de son côté, évolue vers une accélération algorithmique de la boucle Observe-Orient-Decide-Act (« OODA ») et développe des « réseaux de destruction » assistés par IA. En Ukraine, la Russie emploie de plus en plus de drones et d’automatisation dans ses processus de détection et d’engagement, bien que l’intégration doctrinale reste un défi. La théorie commune chez les grandes puissances est que la fusion accélérée de plus de données génère de meilleures décisions. Mais Gaza met en lumière une lacune : la vitesse sans compréhension n’est pas du jugement.

Les défenseurs de ces technologies arguent qu’il s’agit d’outils d’aide à la décision, que les commandants restent responsables, et que les ennemis se cachant parmi les civils imposent des choix tragiques mais légaux. Pris au pied de la lettre, Gaza révèle toutefois trois fragilités structurelles dans l’intégration de l’IA, qui amplifient des problématiques déjà connues :

  • Le risque de compression : La réduction de l’intervalle entre détection et frappe conduit souvent à un contrôle humain réduit à un simple formulaire de validation plutôt qu’à une véritable délibération. Des témoignages signalent des approbations en 20 secondes pour des cibles proposées par l’IA, sans examen approfondi. Cette rapidité peut renforcer les erreurs, car les opérateurs sous pression ont tendance à faire confiance aux machines dans des opérations à haute cadence.
  • Le risque d’échelle : La massification des nominations normalise des seuils de preuve plus faibles, surtout quand le rythme opérationnel est mesuré en effets produits par jour. Ce phénomène préexistait à l’IA, mais celle-ci amplifie les mauvaises hypothèses, par exemple en confondant systématiquement un homme d’âge militaire avec un militant, ce qui a déjà conduit à des erreurs dans les opérations de drones américaines.
  • L’externalisation des erreurs : Les biais des modèles et les données d’entraînement faussées génèrent des faux positifs difficiles à contester. Ce problème n’est pas propre à l’IA, mais l’automatisation accroît le nombre de frappes sous des règles permissives, augmentant ainsi les victimes collatérales.

Chacune de ces fragilités augmente les risques pour les populations civiles dans un contexte urbain dense, caractéristique de la contre-insurrection moderne. Gaza est ainsi l’illustration concrète en situation de guerre des interactions complexes entre humains et systèmes automatisés.

Par ailleurs, ce modèle perfectionné en zone de guerre peut migrer vers le contrôle intérieur. Les mêmes architectures reliant capteurs à armes en temps de conflit peuvent également lier caméras à unités de répression en temps de paix. Les États disposant de systèmes étendus de vidéosurveillance, de capteurs IMSI, de biométrie et de surveillance des réseaux sociaux peuvent détourner ces analyses automatisées vers la sécurité intérieure, via des notations de suspicion de masse, des arrestations par réseau, et des polices prédictives. Certains vendeurs commercialisent déjà des plateformes d’IA de contre-insurrection pour un usage interne. Sans cadre réglementaire, la contre-insurrection algorithmique à l’étranger risque de dégénérer en autoritarisme algorithmique à domicile.

L’Occident adoptera-t-il les méthodes israéliennes ?

Cette question dépend des liens technologiques, militaires et économiques existants. Israël est un exportateur majeur de technologies de défense, avec des systèmes comme Fire Weaver (plateforme IA sensor-to-shooter de Rafael) déployés en Amérique du Nord, en Europe et en Asie. La coopération étroite États-Unis-Israël renforce ce potentiel : des innovations israéliennes en IA militaire ont directement amélioré les capacités américaines, par exemple dans la protection blindée et l’analyse du renseignement. Des géants américains tels que Palantir, Amazon, Google et Microsoft fournissent des services cloud et IA alimentant les opérations israéliennes à Gaza, créant une boucle de rétroaction où les algorithmes éprouvés au combat pourraient affiner les systèmes occidentaux. L’implication de Palantir dans le traitement des données de Lavender pour la sélection des cibles est particulièrement notable, la société contractant également avec les armées américaines et britanniques pour des analyses prédictives comparables.

Des signes d’adoption précoce sont déjà observables. Aux États-Unis, des éléments de logiciels de ciblage israéliens sont intégrés dans les dispositifs de lutte antiterroriste, certains qualifiant Gaza de « laboratoire » pour la guerre algorithmique, dont les enseignements influencent les opérations en Ukraine. Au Royaume-Uni et en Europe, les technologies de surveillance israéliennes, notamment la reconnaissance faciale déployée initialement en Cisjordanie, ont influencé les architectures policières et de sécurité aux frontières. Des ONG comme Human Rights Watch et des agences de l’ONU alertent sur la dangerosité de l’opacité de ces systèmes, susceptible d’entraîner des dommages civils illégaux et de normaliser la surveillance de masse dans les démocraties libérales, affaiblissant progressivement les libertés civiles sous prétexte de sécurité. Dans le milieu de la défense et de l’industrie, on prétend au contraire que ces outils améliorent la précision, la rapidité et la vitesse décisionnelle, considérant le ciblage algorithmique comme une adaptation nécessaire aux champs de bataille saturés de données qu’impose la guerre moderne.

La prolifération semble inévitable, portée par les alliances géopolitiques et les intérêts commerciaux. Les armées occidentales doivent relever des défis similaires pour dominer les menaces asymétriques en réseau, tandis que les succès d’exportation israéliens, malgré des embargos comme celui imposé par l’Espagne, témoignent d’une demande forte en systèmes de ciblage et de surveillance basés sur l’IA. Même si les débats éthiques et juridiques peuvent freiner l’adoption et que l’ONU appelle à des cadres de gouvernance pour l’IA militaire, les écosystèmes de renseignement partagés, tels que le groupe des « Five Eyes », facilitent le transfert technologique et une convergence doctrinale. Sans contrôle, cette évolution pourrait infuser la prise de décision algorithmique dans les opérations occidentales, amplifiant risques de biais et préjudices civils tout en réduisant la responsabilité humaine. Les discussions publiques, notamment sur les réseaux sociaux, soulignent le rôle des entreprises technologiques américaines dans l’alimentation des systèmes israéliens et le risque de rétroaction sur les applications policières et militaires domestiques. La tendance va vers une diffusion de ces technologies au sein des réseaux d’alliances et la recherche d’efficacité dans la gestion des conflits continus à faible intensité.

Quelles mesures adopter ?

La solution n’est pas d’interdire l’IA dans l’armée ni d’accepter une guerre automatisée sans contrôle, mais de discipliner cette technologie par le droit, la politique et des pratiques vérifiables. Cinq mesures concrètes sont proposées :

  • Renforcer les contrôles à l’exportation et les conditions d’usage sur les IA utilisées dans le ciblage. Les États-Unis, l’Union européenne et leurs partenaires doivent mettre à jour les régimes de contrôle type Wassenaar et MTCR pour couvrir les logiciels de développement de cibles et les modules d’orchestration sensorielle intégrant la nomination en masse de cibles humaines issues de données personnelles. Les licences devront conditionner l’utilisation à la présence d’un contrôle humain documenté, à des plans contre les dommages civils et à une traçabilité renforcée. Toute violation crédible devra entraîner la suspension immédiate.
  • Imposer l’auditabilité des modèles et des flux de données partout où l’IA influence des décisions létales. Toute recommandation d’action doit pouvoir être reconstituée a posteriori via des journaux détaillés, des tests de biais et des équipes d’audit indépendantes en conditions réalistes. Le droit international humanitaire ne peut s’appliquer à des décisions boîtes noires.
  • Réancrer la proportionnalité sur l’avantage militaire validé, non sur le simple débit de frappes. Les ministères de la Défense doivent définir des plafonds stricts sur les pertes civiles tolérées, renforcés lorsque la confiance dans les modèles est faible, et interdire le ciblage algorithmique dans les zones résidentielles sans activité hostile avérée en temps réel. Les dérogations devront être rares, coûteuses et suivies d’une enquête rigoureuse.
  • Institutionnaliser un mécanisme indépendant d’évaluation des dommages civils dans les opérations avec IA. Inspiré des méthodologies de l’ONU et d’organisations de la société civile, ce dispositif combinera analyse d’images, évaluation médico-légale des explosions, vérification des victimes et accès aux journaux de frappe, pour guider les ajustements tactiques immédiats et garantir la responsabilité stratégique.
  • Négocier un addendum consacré à l’IA dans le ciblage dans les forums existants du droit humanitaire, comme la Convention sur certaines armes classiques ou les réunions d’experts du Comité international de la Croix-Rouge. Ce cadre fixera des obligations minimales – maintien de l’intelligence humaine, transparence sur les données, audit indépendant et reporting public sur les dommages civils.

Certains objecteront que ces mesures sont sans effet sur les conflits réels, mais les politiques publiques modifient les incitations : l’exigence de traçabilité produira des données, les interdictions contraignantes structureront la planification, les revues des dommages déclencheront des adaptations, tandis qu’un marché sans condition favorisera la diffusion du modèle de Gaza.

Une dernière raison stratégique justifie cette discipline : la contre-insurrection algorithmique ne résout pas le problème qu’elle prétend régler. Elle base sa promesse sur un traitement plus rapide des données qui comblerait les lacunes ayant permis les attaques du 7 octobre. Pourtant la surprise est d’abord politique, fruit d’angles morts organisationnels, de tromperies ennemies et de métriques insuffisantes remplaçant le vrai jugement. Si le Projet Maven offre une accélération réelle du filtrage, et que les gains du commandement en réseau israélien sont tangibles, Gaza montre que la vitesse peut produire non pas de la clairvoyance, mais des erreurs amplifiées. La tragédie ne réside pas seulement dans le nombre effroyable de morts civiles, mais dans la façon dont des outils censés restaurer la supériorité du renseignement peuvent saper les fondements moraux et politiques de la sécurité.

La campagne israélienne influencera l’acquisition de matériel et la doctrine militaire pour une décennie. Alliés et adversaires observent. La question n’est plus de savoir si l’IA s’immisce dans le ciblage – c’est déjà fait – mais si les démocraties sauront l’intégrer sans vider de son contenu éthique le droit de la guerre ni la sagesse stratégique issue de la véritable compréhension. La réponse se trouve dans les choix politiques actuels : des contrôles à l’exportation stricts, des audits révélateurs, des règles contraignantes, des enquêtes correctrices et un engagement international garantissant le maintien du jugement humain. Gaza ne doit pas devenir un modèle, mais un signal d’alarme incitant enfin les gouvernements à soumettre la puissance des machines à un contrôle humain rigoureux.

La place de l’IA comme facteur de retenue ou d’escalade dépendra moins du code que du courage des gouvernements à maintenir le jugement moral dans la boucle.

Auteur : Muhanad Seloom, Ph.D., est professeur assistant d’études critiques de la sécurité à l’Institut de Doha pour les études supérieures et chercheur honoraire à l’université d’Exeter. Il est l’auteur du livre à paraître Labelling Ethno-Political Groups as Terrorists: The Case of the PKK in Türkiye (Routledge, 2025) et de l’article « Veiled Intentions: Hamas’s Strategic Deception and Intelligence Success on 7 October 2023 » dans Intelligence and National Security (2025).