Dans l’arsenal chaotique des conflits modernes, rares sont les armes aussi dangereusement incontrôlables qu’une machine à deepfakes mal maîtrisée. Cette métaphore illustre parfaitement la prolifération récente de vidéos truquées, souvent grossières et générées par intelligence artificielle, qui inondent les réseaux sociaux pakistanais depuis les affrontements Indo-pakistanais de 2025. Loin d’être des opérations psychologiques sophistiquées visant à influencer l’opinion internationale, ces deepfakes relèvent d’une désinformation brute, diffusée par des fermes de trolls liées au renseignement pakistanais (ISI), dans le but de galvaniser le moral de la population locale plutôt que d’atteindre un public mondial.
Ce phénomène a ressurgi en avril 2025, suite à une attaque terroriste à Pahalgam, dans le Cachemire administré par l’Inde, qui a causé la mort de 26 personnes et a rapidement été attribuée à des militants basés au Pakistan. La riposte indienne, baptisée Opération Sindoor, a consisté en frappes aériennes contre des bases pakistanaises en mai, détruisant des avions et mettant en lumière certaines vulnérabilités. Au-delà des affrontements, une vague de désinformation s’est alors déchaînée sur les smartphones, avec des outils d’IA permettant à n’importe quel propagandiste amateur de cloner des voix et de truquer des images de manière effrayante de réalisme.
Tandis que les deux camps produisaient des contenus biaisés — l’Inde avec ses propres vidéos de victoire amplifiées par IA — les efforts pakistanais se distinguèrent par leur audace et leur maladresse. Des comptes pro-Pakistan, souvent liés aux unités de guerre psychologique de l’ISI, ont diffusé une série de deepfakes montrant des hauts gradés militaires indiens « avouant » des défaites humiliantes. Ces vidéos ne visaient pas les médias internationaux comme CNN ou BBC, mais étaient ciblées vers un public urduophone à Lahore et Karachi, où leur viralité pouvait susciter des manifestations de rue ou réduire les critiques domestiques sur le budget de l’armée.
Un exemple célèbre est celui du lieutenant général Rajiv Ghai, Directeur général des opérations militaires indiennes (DGMO), qui prononça un discours le 18 octobre 2025 lors du Forces First Conclave organisé par Republic Media Network, appelant à ne pas politiser les forces armées. Quelques jours plus tard émergea une version deepfake, déformant ses propos en un aveu accablant : « La saffronisation brisera le moral de nos soldats. » Diffusée par des comptes anonymes pro-Pakistan sur X et Telegram, la vidéo a accumulé des milliers de partages avant d’être démentie par le Press Information Bureau indien le 26 octobre. L’objectif : semer la défiance dans l’unité de l’armée indienne et nourrir chez les Pakistanais l’idée d’un ennemi affaibli de l’intérieur.
Le général Upendra Dwivedi, chef d’état-major de l’armée indienne post-Sindoor, fut également ciblé entre juillet et août 2025 par de multiples vidéos truquées démontrant un homme brisé, « avouant » des pertes catastrophiques : 250 soldats tués, six avions de chasse détruits, des bataillons entiers en déroute. Une vidéo, extraite d’une ancienne conférence de presse et maquillée numériquement, montrait son double numérique en larmes déclarant : « Nous avons sous-estimé la détermination du Pakistan – Sindoor fut notre Balakot. » Ce montage viral s’est répandu sur les groupes WhatsApp au Pakistan, totalisant des millions de vues avant d’être identifié comme un faux par les experts de PTI et Dawn. L’audio provenait en effet d’une synthèse générée par ElevenLabs, avec un score d’authenticité IA de 98 %. Une autre version le faisait faussement déclarer une « perte de contrôle au Cachemire », reprenant des discours de l’ISI dénonçant l’excès d’autoritarisme indien.
Le lieutenant général Rahul R. Singh fut aussi victime d’un deepfake en juillet, dans lequel il « avouait » la destruction du système de défense aérienne S-400 indien durant l’Opération Sindoor. La vidéo, où son visage était incrusté dans un briefing générique, clamait : « Les missiles pakistanais ont percé nos défenses – nous avons payé le prix fort. » Initialement amplifiée par des médias pakistanais tels que Dawn, elle fut rapidement démentie par ces mêmes organes.
Ces cas ne sont pas isolés. Après Sindoor, les services de renseignement indiens ont recensé plus de 64 deepfakes du même type, mettant en scène notamment des généraux « se rendant » sur des champs de bataille fictifs, ou des chefs de la force aérienne indienne regrettant des avions abattus. Une vidéo a même atteint 4,8 millions de vues avant d’être retirée. Des images manipulées, prétendant montrer de lourdes pertes indiennes, ont réutilisé des séquences du jeu vidéo Arma 3, camouflées en frappes de drones à Rawalpindi. Le bricolage est grossier : décalages labiaux, clignements artificiels, accents ourdous factices trahissent ces faux grossiers.
Qui tire les ficelles ? Le doigt pointe vers la mystérieuse division numérique de l’ISI, qui aurait déployé quelque 480 comptes amplifiés par bots sur X et Facebook pour diffuser ces deepfakes. Des organisations comme CyberPeace Foundation et DisInfoLab ont retracé ces réseaux jusqu’à des serveurs situés à Lahore, sous des pseudos tels que @PakDefenceTruth et @ISPRFanClub, publiant en rafales lors des heures de grande écoute au Pakistan. Cette stratégie s’inscrit dans une forme de guerre hybride classique : associer les ressources étatiques à des hackers indépendants, puis laisser les algorithmes faire le reste.
Mais l’objectif n’est pas d’induire en erreur les Nations unies ou les décideurs américains. La communauté internationale considère ces contenus comme du bruit, tandis que les médias occidentaux ironisent sur cette « course aux deepfakes » entre voisins nucléaires. La véritable cible est le citoyen pakistanais lambda : le chauffeur de taxi à Islamabad partageant ces vidéos pour « prouver » une victoire, l’étudiant à Peshawar les relayant pour faire oublier les difficultés économiques. Dans un pays où le discours militaire fait office d’évangile, ces faux renforce le mythe de l’invincibilité. Pourquoi se soucier de la nuance quand une confession de 30 secondes peut renforcer la fierté nationale et réduire au silence l’opposition ? Comme l’a résumé un analyste, « Ce n’est pas de la désinformation pour le monde, c’est de la dopamine pour la diaspora. »
La faible qualité technique transparait dans l’exécution. Erreurs de dialecte, utilisation de séquences reprises de Gaza prétendues représenter des frappes à Karachi, audios marqués par ElevenLabs lui-même : c’est comme confier ChatGPT à un complotiste et espérer du Shakespeare. Pourtant, dans ces chambres d’écho, l’efficacité prime sur l’élégance. Pendant Sindoor, ces vidéos ont alimenté des manifestations et popularisé le hashtag #IndiaDefeated, alors même que les images satellites révélaient une tout autre réalité.
La réponse indienne ne s’est pas fait attendre. L’unité de vérification des faits du PIB, équipée d’outils comme Hive Moderation et Deepfake-o-meter, a rapidement démantelé ces vidéos, souvent en comparant les originaux côte à côte. Les plateformes comme X ont ajouté des notes communautaires, tandis que les cyber unités indiennes ont retracé les sources pour envisager des sanctions. Mais le mal est fait : confiance érodée, tensions communautaires exacerbées, et un précédent dangereux pour de futures escalades informationnelles.