L’intelligence artificielle (IA) au service des groupes terroristes

L’avènement de l’intelligence artificielle (IA) a ouvert une ère de progrès technologiques sans précédent, révolutionnant des domaines aussi variés que la médecine, l’industrie ou la communication. Cependant, l’émergence de cette technologie à double tranchant soulève également des inquiétudes quant à son utilisation malveillante par des acteurs non étatiques, notamment les groupes terroristes.

Jean Jacques Bedu

L’utilisation exponentielle de l’IA, et plus particulièrement de l’IA générative, par ces groupes constitue une terrible menace pour la sécurité mondiale, amplifiant leurs capacités en matière de propagande, de recrutement et d’exécution d’opérations terroristes automatisées.

L’IA et la propagande terroriste

L’IA a révolutionné la manière dont les groupes terroristes propagent leurs idéologies et recrutent de nouveaux membres. Grâce à l’IA générative, capable de créer du contenu textuel, audio et vidéo de manière autonome, les groupes terroristes savent désormais produire une propagande plus sophistiquée, plus persuasive et plus difficile à détecter.

L’une des manifestations les plus inquiétantes de cette nouvelle forme de propagande est l’utilisation de « deepfakes », des vidéos hyperréalistes générées par l’IA qui permettent de falsifier l’image et la voix d’individus, notamment des personnalités politiques ou religieuses. Comme l’explique un expert en cybersécurité, « Ces extrémistes sont très efficaces dans la diffusion de la propagande deepfake » (IS turns to artificial intelligence for advanced propaganda). Les deepfakes sont alors utilisés pour semer la confusion, discréditer des opposants ou inciter à la violence, en diffusant de fausses déclarations ou en mettant en scène des individus dans des situations compromettantes.

Au-delà des deepfakes, l’IA est utilisée pour générer des contenus écrits, audio et vidéo hautement personnalisés qui ciblent les vulnérabilités psychologiques de certains individus, et renforcent les sentiments de colère, de peur ou de haine. Un rapport du Soufan Center intitulé « Terrorist Groups Looking to AI to Enhance Propaganda and Recruitment Efforts » met en évidence l’utilisation croissante de l’IA par des groupes comme l’État Islamique Khorasan (ISIS-K) pour diffuser des messages ciblés et recruter de nouveaux adeptes. L’IA permet de segmenter les audiences, de personnaliser les messages et de les diffuser rapidement via les médias sociaux et les applications de messagerie cryptée, augmentant ainsi l’impact de la propagande. En effet, c’est en mai 2024 que l’État islamique du Khorasan a franchi un cap inédit : une vidéo mettant en scène un présentateur généré par IA, annonçant une attaque revendiquée en Afghanistan, a circulé sur les réseaux sociaux. Cette innovation macabre marque un tournant dans les stratégies de communication des groupes terroristes. Quelques mois plus tôt, en mars 2024, l’État islamique (EI) avait déjà commencé à diffuser des bulletins d’information hebdomadaires créés par IA, détaillant ses activités à l’échelle mondiale. Le même mois, à la suite de l’attentat de Moscou, l’organisation utilisait un présentateur virtuel pour revendiquer l’attaque, démontrant une maîtrise croissante de ces technologies.

Notons que l’usage de l’IA n’est pas réservé à la sphère djihadiste. Des groupes d’extrême droite, tels qu’Atomwaffen Division et The Base, opérant aux États-Unis, exploitent l’intelligence artificielle pour diffuser leur idéologie et recruter de nouveaux membres. Ces organisations utilisent des outils d’IA générative pour créer du contenu visuel, comme des mèmes et des vidéos de propagande, souvent partagés sur des plateformes comme Gab et 8chan. Grâce à l’IA, ils peuvent amplifier leurs messages de haine, radicaliser des individus isolés, et rendre leur discours plus attractif pour les jeunes, ce qui pose un défi croissant en matière de lutte antiterroriste.

Enfin l’IA est employée pour automatiser le processus de recrutement, notamment grâce à l’utilisation de chatbots qui sont capables d’œuvrer 24/7. Ces agents conversationnels alimentés par l’IA sont aptes d’engager des conversations avec des recrues potentielles particulièrement captives, leur fournir des informations sur l’idéologie du groupe et les inciter à rejoindre ses rangs. Comme le souligne une étude de l’ICCT (Exploitation of Generative AI by Terrorist Groups), « L’application de l’IA générative a le potentiel d’accroître la capacité des terroristes à nouer des relations personnelles et à atteindre particulièrement les individus isolés susceptibles d’être sensibles à leur cause« .

L’IA, un multiplicateur de puissance

Si l’IA est déjà utilisée pour intensifier les efforts de propagande et de recrutement, elle sera également employée afin d’améliorer la planification et l’exécution d’opérations terroristes. Bien que cette utilisation soit encore limitée, plusieurs sources mettent en évidence des exemples inquiétants, et le potentiel de l’IA à révolutionner les tactiques terroristes. En effet, l’IA à des fins militaires est déjà exploité depuis une quinzaine d’années et, dans le conflit au Proche-Orient, Tsahal y a largement recours pour l’identification de cibles potentielles. Comme l’explique dans un article du Monde daté du 19 octobre 2024, Laure de Roucy-Rochegonde, auteure de La guerre à l’ère de l’intelligence artificielle : « Depuis le 7 octobre 2023, Israël tient le discours d’une guerre existentielle, ce qui semble avoir fait évoluer son calcul de proportionnalité. Le nombre de victimes collatérales consenti pour atteindre un membre du Hamas a considérablement augmenté, en comparaison des précédentes opérations menées dans la bande de Gaza. Cette évolution est liée à un changement de perception du conflit mais aussi à l’IA, car ces programmes ont permis davantage de frappes.« 

L’utilisation de drones autonomes est l’une des applications militaires de l’IA les plus évoquées. Ces drones contrôlés par l’IA sont désormais utilisés pour effectuer des missions de reconnaissance, de surveillance, et donc d’attaques ciblées. L’ICCT souligne que « l’intégration de l’intelligence artificielle dans les drones a modifié les tactiques de guerre, permettant des applications plus avancées et stratégiques« . L’accessibilité croissante des technologies de drones et les progrès de l’IA en matière de navigation et de reconnaissance font craindre une utilisation accrue de ces outils à des fins terroristes. L’ombre du Bataclan et de Charlie Hebdo plane désormais sur nos écoles, nos synagogues ou tout autre type de cibles stratégiques : même les drones les plus rudimentaires, introuvables boucliers face à une détermination fanatique, peuvent transformer le quotidien européen en cauchemar sanglant, balayant la quiétude illusoire d’une époque révolue.

 

L’IA est déjà exploitée pour mener des cyberattaques plus sophistiquées et plus difficiles à contrer. Comme le précise l’article « Intelligence artificielle et terrorisme : menace ou opportunité ? » du Portail de l’IE, « les cyberattaques peuvent être améliorées par les technologies algorithmiques. Par exemple, le « phishing«  peut être rendu plus performant grâce aux technologies d’IA ». Les groupes terroristes seront en mesure d’utiliser cette technologie pour identifier des failles de sécurité dans les systèmes informatiques, développer des logiciels malveillants plus efficaces et lancer des attaques par déni de service distribué (DDoS).

Enfin, l’IA générative pourrait être utilisée pour concevoir de nouvelles armes et de nouvelles tactiques terroristes : simuler des attaques, optimiser l’utilisation d’explosifs ou créer des armes biologiques plus dangereuses.

Face à la menace, une réponse globale

L’utilisation de l’IA par les groupes terroristes présente une menace tangible et évolutive pour la sécurité mondiale. En renforçant leurs capacités en matière de propagande, de recrutement et d’exécution d’opérations terroristes, l’IA a le potentiel de transformer la nature du terrorisme et de le rendre plus difficile à contrer. Si le détournement de modèles d’IA complexes comme Gemini, Claude ou ChatGPT par des groupes terroristes semble hautement improbable vu les protections mises en place par les géants du numérique, la prolifération de modèles open source, à l’instar de celui de Llama 2 (Groupe Meta), ouvre la porte à des dérives potentielles, leur accessibilité et leur adaptabilité constituant un terreau très fertile pour des usages malveillants.

Face à cette menace, une réponse globale et concertée s’impose. Les gouvernements, les institutions internationales, les entreprises technologiques et la société civile doivent unir leurs forces pour limiter l’accès des groupes terroristes à l’IA et développer des stratégies de lutte antiterroriste plus efficaces.

Parmi les actions prioritaires figurent le développement d’outils de détection de l’IA malveillante, notamment des détecteurs de deepfakes et de propagande générée par l’IA. De plus, il est crucial de renforcer la coopération internationale pour empêcher la prolifération de technologies à double usage, d’élaborer des normes et des réglementations internationales en matière d’utilisation de l’IA et de mettre en place des mécanismes de surveillance et de contrôle plus efficaces.

La sensibilisation du public aux dangers de l’IA et l’éducation aux médias semblent des remparts essentiels face à la manipulation terroriste, mais leur efficacité reste à prouver dans un monde saturé d’informations où l’algorithme des réseaux sociaux, se nourrissant de fausses informations, peut paradoxalement amplifier l’impact des contenus falsifiés, même auprès des citoyens les plus avertis.

L’utilisation de l’IA dans la lutte antiterroriste pose également des questions éthiques cruciales. Le recours à des technologies de surveillance alimentées par l’IA par les gouvernements, bien qu’efficace contre le terrorisme, peut entraîner des atteintes aux libertés individuelles et soulever des préoccupations quant à la protection de la vie privée. Trouver un équilibre entre sécurité et respect des droits fondamentaux demeure le défi incontournable qui assombrit considérablement le tableau.

La lutte contre l’utilisation de l’IA par les groupes terroristes est donc un défi majeur pour la communauté internationale. En agissant de manière concertée et en misant sur l’innovation technologique et la coopération, il est envisageable de contrer cette menace émergente et de garantir la sécurité de nos sociétés. Néanmoins, il est crucial de garder à l’esprit que la course à l’IA entre les forces de l’ordre et les acteurs malveillants ne fait que commencer, et que vigilance et adaptabilité seront les maîtres-mots pour remporter cette bataille cruciale.