Article de 1057 mots ⏱️ 5 min de lecture

Alors que le monde entier s’empresse d’exploiter le potentiel de l’intelligence artificielle, les groupes militants expérimentent également cette technologie, même s’ils ne savent pas encore pleinement comment l’utiliser. Pour les organisations extrémistes, l’IA pourrait devenir un outil puissant pour recruter de nouveaux membres, créer des images deepfake réalistes et affiner leurs cyberattaques, préviennent les experts en sécurité nationale et les services de renseignement.

Un utilisateur sur un site pro-État islamique le mois dernier encourageait d’autres soutiens à intégrer l’IA dans leurs opérations. « L’une des meilleures choses avec l’IA, c’est sa facilité d’utilisation », écrivait-il en anglais.

Ce même utilisateur ajoutait : « Certaines agences de renseignement craignent que l’IA ne facilite le recrutement. Transformons donc leurs pires cauchemars en réalité. »

L’État islamique, qui avait conquis des territoires en Irak et en Syrie mais s’est désormais fragmenté en une alliance décentralisée de groupes militants partageant une idéologie violente, a compris depuis plusieurs années que les réseaux sociaux pouvaient être un levier efficace pour le recrutement et la désinformation. Il n’est donc pas surprenant que ce groupe teste désormais l’IA, selon les experts en sécurité.

Pour des groupes extrémistes hétéroclites, souvent peu dotés en ressources, ou même pour un individu malveillant disposant d’une connexion internet, l’IA permet de diffuser massivement propagande et deepfakes, étendant leur audience et leur influence.

« Pour tout adversaire, l’IA simplifie considérablement les opérations », explique John Laliberte, ancien chercheur en vulnérabilités à la NSA et actuel PDG de la société de cybersécurité ClearVector. « Avec l’IA, même un petit groupe disposant de peu de moyens peut avoir un impact. »

Les groupes militants ont commencé à utiliser l’IA dès la démocratisation de programmes comme ChatGPT. Depuis, ils recourent de plus en plus aux intelligences artificielles génératives pour créer des photos et des vidéos d’apparence réaliste.

Lorsque ce contenu falsifié est amplifié par les algorithmes des réseaux sociaux, il peut aider à recruter de nouveaux adeptes, semer la confusion ou la peur chez leurs ennemis, et diffuser de la propagande à une échelle inimaginable il y a seulement quelques années.

Il y a deux ans, ces groupes ont diffusé de fausses images de la guerre Israël-Hamas montrant des bébés ensanglantés et abandonnés dans des bâtiments détruits.

Ces images ont provoqué indignation et polarisation tout en occultant la réalité des horreurs du conflit. Des groupes violents du Moyen-Orient s’en sont servis pour recruter, tout comme des groupuscules antisémites aux États-Unis et ailleurs.

Un phénomène similaire s’est produit l’an dernier après une attaque revendiquée par un affilié de l’État islamique qui a fait près de 140 morts dans une salle de concert en Russie. Dans les jours suivant la fusillade, des vidéos de propagande conçues par l’IA ont circulé largement sur des forums et réseaux sociaux, dans le but de recruter de nouveaux membres.

L’État islamique a également produit des enregistrements audio deepfake de ses dirigeants récitant des textes religieux et utilisé l’IA pour traduire rapidement ses messages en plusieurs langues, selon SITE Intelligence Group, une société spécialisée dans le suivi des activités extrémistes qui analyse l’usage croissant de l’IA par l’EI.

Ces groupes restent néanmoins en retard derrière des nations comme la Chine, la Russie ou l’Iran, et considèrent encore que les usages plus sophistiqués de l’IA sont des objectifs à atteindre, souligne Marcus Fowler, ancien agent de la CIA et PDG de Darktrace Federal, une société de cybersécurité travaillant avec le gouvernement américain.

Mais les risques sont trop élevés pour être ignorés, et ils ne feront que croître avec la vulgarisation de l’IA puissante et peu coûteuse, ajoute-t-il.

Les hackers utilisent déjà des audios et vidéos synthétiques pour mener des campagnes de phishing, où ils cherchent à se faire passer pour un haut responsable d’entreprise ou de gouvernement afin d’accéder à des réseaux sensibles. Ils peuvent aussi recourir à l’IA pour écrire des codes malveillants ou automatiser certains aspects des cyberattaques.

Plus inquiétante encore est la perspective que des groupes militants utilisent l’IA pour développer des armes biologiques ou chimiques, compensant ainsi un manque d’expertise technique. Ce risque figure dans la dernière évaluation des menaces nationales publiée début 2024 par le Department of Homeland Security des États-Unis.

« L’État islamique s’est rapidement emparé de Twitter et a su tirer parti des réseaux sociaux, » rappelle Marcus Fowler. « Ils cherchent toujours à intégrer les nouveautés susceptibles d’enrichir leur arsenal. »

Face à ces dangers, les législateurs américains proposent plusieurs mesures, insistant sur l’urgence d’agir rapidement.

Le sénateur démocrate Mark Warner, membre influent du comité du renseignement du Sénat, soulignait que les États-Unis doivent faciliter le partage d’informations entre développeurs d’IA sur l’utilisation malveillante de leurs technologies par des extrémistes, hackers criminels ou espions étrangers.

« Il est apparu dès la fin 2022, avec la sortie publique de ChatGPT, que la fascination et l’expérimentation autour de l’IA générative concernaient aussi bien le grand public que des acteurs malveillants », expliquait-il.

Lors d’une récente audition sur les menaces extrémistes, des députés ont appris que l’État islamique et Al-Qaïda organisent des ateliers de formation pour enseigner à leurs partisans l’utilisation de l’IA.

Un texte adopté le mois dernier à la Chambre des représentants exige que les responsables de la sécurité intérieure évaluent chaque année les risques liés à l’IA posés par ces groupes.

« Protéger contre l’utilisation malveillante de l’IA ne diffère pas de la préparation face à des attaques plus traditionnelles, » a expliqué le député August Pfluger, promoteur de cette loi. « Nos politiques et capacités doivent suivre le rythme des menaces de demain. »