Intelligence artificielle et terrorisme :  menace ou opportunité ?

L’IA est devenue un outil clé dans les opérations informationnelles, notamment dans le cadre de manœuvres subversives. En France, les exemples d’utilisation de l’IA à des fins d’ingérence informationnelle sont déjà connus, en particulier concernant des pays tels que la Russie, la Chine ou encore l’Azerbaïdjan. Cependant, les compétiteurs stratégiques ne sont pas les seules entités malveillantes à utiliser l’IA contre la France et ses intérêts. Cet outil tend également à être de plus en plus exploité par les organisations terroristes.

L’IA :  la nouvelle arme informationnelle des terroristes

Adeptes de l’utilisation d’outils numériques à des fins de propagande, les groupes djihadistes internationaux s’approprient l’usage de l’IA à ces mêmes fins. Comme le précise le directeur du Tech Against Terrorism, Adam Hadley, l’IA générative est utilisée à moindre coût pour la génération de contenu – création de vidéos, images, textes – et pour la diffusion ainsi que l’amplification de celui-ci – création et animation de bots. Très actif dans l’espace numérique, l’Etat islamique s’est particulièrement bien adapté à l’émergence de cette nouvelle technologie.

En effet, le 17 mai dernier, seulement 1 mois après l’attentat du Crocus Hall de Moscou, plusieurs émissions d’information générées par l’IA diffusant la propagande de l’État islamique ont été découvertes.  Dès mars, d’autres émissions similaires concernant les activités de Daech au niveau mondial ont été diffusées à un rythme quasi hebdomadaire.

Ces opérations informationnelles permises par l’IA ne sont pas exclusivement mises en place par des organisations djihadistes. Dans un rapport publié en début d’année, le Domestic Terrorism Threat Monitor, alerte sur l’utilisation à grande échelle des mouvements néonazis et suprémacistes blancs, connus pour leur violence. Le rapport évoque également un autre risque lié à la technologie générative : l’apparition de solution personnalisée, exemptée de toute modération. On peut citer l’exemple du modèle développé par Gab, une plateforme d’IA non censurée et non filtrée.

Autres usages malveillants de l’IA par les terroristes 

Par ailleurs, les opérations de guerre de l’information ne sont pas les seuls cas d’usage de l’IA par les groupes terroristes et mouvements extrémistes. Simon Purdue, directeur du Domestic Terrorisme Threat Monitor, relève également des utilisations servant aux besoins logistiques, humains ou encore financiers de ces organisations. Ainsi, l’IA générative a permis de diffuser et de générer des schémas de fabrication d’armes en impression 3D ou de bombes artisanales, ou encore de créer des codes afin de dérober des informations personnelles de potentielles recrues. Autre risque lié à la technologie générative : l’apparition de solutions personnalisées, exemptées de toute modération.

D’autres fonctionnalités de l’IA peuvent renforcer la force de frappe des groupes terroristes, notamment à des fins de cyberattaques ou d’opérations cinétiques. Bien qu’elles ne soient pas encore très répandues au sein des organisations terroristes, les cyberattaques peuvent être améliorées par les technologies algorithmiques. Par exemple, le « phishing » peut être rendu plus performant grâce aux technologies d’IA, qui peuvent générer de fausses informations afin de tromper l’utilisateur. Sur le plan cinétique, l’IA a un effet démultiplicateur des effets opérationnels, notamment dans l’usage des drones. En effet, la technologie algorithmique permet d’améliorer les capacités de « perception, détection, prise de décision et interaction » des engins aériens sans pilote. Par exemple, dans le domaine de la détection de cible, l’IA permet de développer des technologies de vision par ordinateur capables de suivre à haute vitesse des cibles en tout genre, mais également d’exploiter efficacement les données afin de les fournir rapidement à l’utilisateur. De plus, les drones sont particulièrement prisés par les groupes armés terroristes. En témoignent les assauts répétés des Houthis en mer Rouge ou encore ceux du Hezbollah au nord d’Israël.

La course à l’armement dans le domaine de l’IA

Pour tenter de freiner ce phénomène, les initiatives visant à modérer les contenus à caractère terroriste se sont multipliées. Google a notamment créé en 2010 Google Ideas, devenu Jigsaw, un incubateur technologique se consacrant à la compréhension des défis numériques mondiaux, dont la lutte contre l’extrémisme en ligne. Autre exemple : le Global Internet Forum to Counter Terrorism (GIFCT). Fondé en 2017, le GIFCT est une initiative créée par un consortium des géants américains du numérique (Meta, Google, Microsoft, X) qui vise à partager des informations et des technologies pour la modération de contenu à caractère terroriste. Les gouvernements se sont également saisis de la question. La plateforme internationale TCAP, Terrorist Content Analytics Platform, créée par l’ONU, est soutenue par plusieurs gouvernements, dont le Royaume-Uni, l’Espagne ou encore la Suisse. Constituée de spécialistes et d’investigateurs numériques en tout genre, la plateforme totalise plus de 25 000 alertes et 43 000 adresses web identifiées comme terroristes.

Cependant, la lutte entre les modérateurs et les diffuseurs de propagande terroriste est déséquilibrée au profit des seconds. En effet, il est beaucoup plus facile de produire et de diffuser des contenus plutôt que de les détecter et de les supprimer. De plus, dans le cadre de la guerre de l’information, l’avantage est toujours à l’attaquant. Avec l’apparition de solutions personnalisables, il semble compliqué d’endiguer l’utilisation malveillante de l’intelligence artificielle. De même, les avancées législatives, telles que l’AI Act européen, en faveur d’une meilleure régulation, n’ont pas d’impact significatif sur cette utilisation de l’IA.

Par ailleurs, l’IA a plusieurs intérêts pour les services compétents en contre-terrorisme. En effet, la technologie offre actuellement des services de détection et de traitement de l’information de haute performance. Les algorithmes de reconnaissance et de suivi d’objets peuvent par exemple permettre de détecter un individu brandissant une arme sur une image ou de catégoriser une détonation dans un contenu vidéo. De plus, les progrès du Natural Language Processing permettent de caractériser un texte menaçant, propagandiste ou terroriste. Ces technologies ont déjà des résultats probants. En mars dernier, la reconnaissance faciale couplée à l’IA a permis d’identifier Daniela Klette, une terroriste du groupe « Fraction armée rouge », recherchée depuis les années 1970.

L’IA dans le dispositif français de contre-terrorisme 

En France, cette technologie est utilisée depuis 2015 dans le cadre de la surveillance algorithmique de la menace terroriste par les services de renseignement. La surveillance algorithmique permet le traitement automatisé des données de connexion dans l’espace numérique afin de détecter des menaces terroristes potentielles. Dans ce système, l’IA permet l’analyse quantitative de comportements paramétrés comme étant anormaux selon des critères définis par les autorités. Les profils repérés sont ensuite transmis aux services compétents pour une investigation plus approfondie. Cette technique permet par exemple de détecter des profils ayant eu un contact avec des individus situés sur le théâtre irako-syrien ou encore de relever des contenus propagandistes de Daech dans la masse des données des réseaux sociaux.

L’utilisation de cette technologie a par ailleurs été élargie à la vidéosurveillance algorithmique (VSA) dans l’espace public, permise par la promulgation de la « loi Jeux Olympiques » en mai 2023. Plusieurs voix issues de la société civile pointent les dérives que pourraient engendrer ces technologies dans nos démocraties, malgré l’absence de la reconnaissance faciale dans le dispositif et le caractère a priori temporaire de cette autorisation.

Toutefois, l’utilisation de ces technologies tend à se généraliser. En France, les banques, soumises à des impératifs sur les questions de lutte contre le blanchiment de capitaux et le financement du terrorisme (LBC-FT),  utilisent de plus en plus l’intelligence artificielle pour faire face à la masse de données bancaires à traiter. À l’étranger, certains pays n’hésitent pas à utiliser cette technologie pour la surveillance de masse. Aux États-Unis par exemple, le Patriot Act, conséquence des attentats du 11 septembre, autorise les agences fédérales à surveiller et intercepter les communications mondiales à des fins de lutte contre le terrorisme. Ces agences ont pris le tournant de l’IA et l’utilisent pour renforcer leur capacité de traitement de masse des données.

La place de l’IA dans nos sociétés 

Comme toute technologie de rupture, l’IA fait l’objet d’une « course à l’armement » entre belligérants. Si son utilisation par les compétiteurs stratégiques n’est plus à démontrer, son usage par les groupes terroristes tend à se renforcer. Alors qu’il est difficile de limiter cet usage détourné, il est néamoins possible d’intégrer l’IA dans les dispositifs de contre-terrorisme pour un large panel de missions, de la surveillance à la lutte contre le blanchiment. Le contre-terrorisme français a déjà déployé l’outil au sein de son arsenal et la tendance n’est pas au recul, malgré les débats que cela soulève.

Alors que de nombreuses questions émergent sur la place de l’IA dans nos démocraties, la technologie semble indispensable pour lutter contre le terrorisme sur le champ de la guerre de l’information. Le vériable enjeu est de savoir trouver « un équilibre dans notre pays entre la protection des citoyens et nos libertés individuelles », selon Laurent Nuñez, ancien coordonnateur national du renseignement et de la lutte contre le terrorisme (CNRLT).

Louis Quinet

Pour aller plus loin :