Article de 1589 mots ⏱️ 8 min de lecture

En 2022, Brian McQuinn et Laura Courchesne ont analysé comment différents groupes extrémistes violents exploitent les réseaux sociaux pour faire avancer leurs objectifs. Trois ans plus tard, Brian revient sur leur étude initiale, en tenant compte de la montée des technologies avancées et des changements de propriétaires de plateformes majeures.

Dans votre article de 2022, « After the Islamic State: Social Media and Armed Groups », vous avanciez que les instances occidentales de lutte contre le terrorisme avaient surestimé le modèle des réseaux sociaux de l’État islamique et mal interprété l’utilisation de ces plateformes par d’autres groupes. Trois ans après, pensez-vous que la compréhension occidentale a évolué en même temps que les nombreuses adaptations des groupes extrémistes ?

À mesure que la menace posée par l’État islamique et d’autres groupes jihadistes autoproclamés s’estompe dans les grands titres internationaux, l’attention portée à ces mouvances s’est aussi réduite au profit d’un focus accru sur les groupes extrémistes autochtones dans les pays occidentaux. Cependant, suite au retour au pouvoir des Talibans en Afghanistan, nous avons conduit l’étude la plus complète à ce jour sur leur usage des réseaux sociaux durant les six mois précédant leur prise de contrôle.

Notre recherche révèle que Twitter a été au cœur de la campagne des Talibans, générant quatre fois plus d’interactions que les 18 médias traditionnels afghans réunis, incluant télévision, presse écrite et radio. Les dirigeants talibans ont opéré ouvertement sur Twitter pendant près d’une décennie, même en continuant leurs attaques contre les forces de l’OTAN et américaines.

Les Talibans ont concentré leur communication sur l’influence de la société afghane, contrairement à l’État islamique, qui cherchait à choquer un public global à travers des images violentes. Leur discours vantait la paix et la stabilité dans les localités placées sous leur contrôle, tout en présentant leurs interactions avec la communauté internationale comme une preuve de leur légitimité en tant qu’autorité gouvernante de l’Afghanistan. Twitter servait aussi à relater en temps réel leurs avancées militaires, avec souvent une grande précision, dans un but psychologique visant à inciter les forces gouvernementales à se rendre. Si les Talibans ont utilisé la désinformation, elle était moins omniprésente que prévu, leur ruse principale consistant souvent à annoncer prématurément la prise d’une ville pour pousser les troupes adverses à abandonner leurs positions.

Vous mentionnez dans un autre rapport que vous avez co-écrit comment les Talibans ont utilisé Twitter avec efficacité lors de leur offensive. En quoi l’usage de X par ces groupes diffère-t-il de Twitter ? Les récents changements de la plateforme ont-ils affecté leur capacité à toucher leurs publics cibles ?

Notre principal angle mort dans l’article initial, que nous soupçonnions mais n’avions pas pleinement reconnu, était l’absence quasi totale de modération significative des plateformes hors d’Amérique du Nord. Comme indiqué, les réseaux talibans et leur base de plus de 200 000 comptes affiliés opéraient ouvertement sur Twitter bien avant l’achat par Elon Musk. En pratique, il y a peu de différence dans l’usage par les extrémistes étrangers de Twitter alors et maintenant, puisque la modération était déjà minimale, malgré des campagnes soutenues des plateformes pour laisser croire le contraire. Depuis la prise de contrôle par Musk, même l’apparence de modération a disparu, faisant de plateformes telles que X un espace privilégié d’organisation pour les groupes extrémistes à l’échelle mondiale. Ces derniers opèrent désormais en toute impunité et, dans le cas des réseaux suprémacistes blancs, bénéficient souvent d’algorithmes qui amplifient activement leur contenu. Cette érosion de la modération ne se limite pas à X.

Quels sont les nouveaux tendances dans la présence des groupes extrémistes sur les réseaux sociaux trois ans plus tard, notamment avec l’accès élargi à l’IA et à Internet par satellite ?

Plusieurs évolutions majeures se dessinent. Premièrement, l’adoption des réseaux sociaux par les groupes armés s’accélère, ces derniers choisissant leurs plateformes en fonction des habitudes des populations locales, illustrant bien l’idée qu’ils « font la guerre avec les réseaux sociaux disponibles ». En Libye, par exemple, les groupes armés continuent d’utiliser Facebook, qui reste la plateforme la plus populaire du pays.

Deuxièmement, les groupes armés et le crime organisé ont de plus en plus recours aux applications de messagerie pour communiquer directement avec les communautés. Au Mexique, les cartels utilisent ces applications pour diffuser des menaces via des vidéos macabres, mais aussi pour promouvoir des projets communautaires financés par eux.

Une tendance récente, issue de l’invasion russe en Ukraine, est l’utilisation massive et organisée des réseaux sociaux par des acteurs étatiques armés. Historiquement, les forces d’État limitent l’usage des réseaux sociaux pour éviter d’exposer leurs positions aux services ennemis. Or, le conflit ukrainien a montré que ces plateformes permettent à l’État ukrainien et à ses alliés de contrer les opérations d’influence russes en diffusant leur propre narration à destination d’un public mondial. Comme le montre notre étude sur les Talibans, la portée est cruciale pour contrer les opérations d’influence étatiques. Une part importante de l’activité en ligne des forces ukrainiennes est aussi consacrée au financement participatif, notamment pour l’achat de matériel et de drones, avec des posts illustrant les achats au moyen de reçus et de vidéos, renforçant ainsi la transparence et incitant à de nouvelles contributions.

Quelles recommandations actualisées proposez-vous pour contrer l’activité extrémiste en ligne tout en protégeant les libertés civiles ? Quel rôle l’IA pourrait-elle jouer dans ces démarches ?

Le contexte politique actuel aux États-Unis rend presque impossible la limitation des activités extrémistes. Certains membres du Parti républicain ciblent activement les institutions de recherche enquêtant sur la désinformation, le suprémacisme blanc ou d’autres formes d’extrémisme violent domestique, provoquant notamment la fermeture du Stanford Internet Observatory. Parallèlement, la plupart des grandes plateformes ont fermé ou restreint drastiquement leurs API, principales sources de données pour les chercheurs, ce qui complique grandement le suivi et l’analyse de ces phénomènes. Ce verrouillage des accès empêche en pratique la recherche indépendante et la publication de données fiables sur l’ampleur réelle du problème.

En revanche, plusieurs juridictions hors des États-Unis, telles que l’Union européenne et l’Australie, ont adopté des lois imposant aux réseaux sociaux de donner accès à leurs données aux chercheurs et aux agences gouvernementales. Ces initiatives gagneraient à être coordonnées à l’échelle internationale pour augmenter la pression sur les plateformes. Tant que ces entreprises tirent profit de leurs utilisateurs dans ces pays, elles devraient être tenues de fournir ces données, permettant ainsi d’évaluer dans quelle mesure elles favorisent la propagation de l’extrémisme violent sous toutes ses formes.

Enfin, avec le recul, y a-t-il des points de votre argumentation initiale que vous modifieriez ?

Le défaut le plus important, déjà évoqué, était la quasi-absence de modération effective des réseaux sociaux hors d’Amérique du Nord, qui a permis à des groupes extrémistes comme les Talibans et d’autres acteurs armés non étatiques de construire, sans entrave, des réseaux et audiences importants sur ces plateformes.

Un changement majeur en cours est la progression rapide de l’intelligence artificielle générative. D’abord utilisée pour du contenu textuel, sa capacité s’étend désormais à la vidéo et elle est adoptée par des acteurs extrémistes. Tout comme les opérations d’influence étrangères ont recours à l’IA générative pour augmenter exponentiellement la quantité et la diversité des contenus produits, les groupes extrémistes commencent à s’en servir pour démultiplier leur propagande, leur matériel de recrutement et leurs campagnes de désinformation, à une vitesse et un coût sans précédent. La possibilité de créer des contenus convaincants, multilingues et même personnalisés en temps réel réduit considérablement les barrières pour des opérations d’influence sophistiquées en ligne.

Cette conjonction – absence de modération efficace hors Amérique du Nord et prolifération de l’IA générative – engendre un environnement à risque où les récits extrémistes peuvent se propager plus rapidement, gagner en crédibilité et devenir plus difficiles à détecter ou contrer.

***

Brian McQuinn, Ph.D., est codirecteur du Centre d’Intelligence Artificielle, Données et Conflits et professeur associé au Département de Politique et Études Internationales de l’Université de Regina. Il cumule plus de vingt ans d’expérience en tant que chercheur et acteur humanitaire dans plus d’une douzaine de zones de conflit. Il a obtenu son doctorat à l’Université d’Oxford après sept mois de terrain ethnographique auprès d’insurgés durant le soulèvement libyen de 2011. Le Centre a bénéficié de financements de Meta (2020) et du Conseil de Recherche en Sciences Sociales et Humaines du Canada (2021, 2024).