ChatGPT : Un nouvel outil de prédilection pour les cybercriminels ?

Entre gain de temps pour les cyberattaquants et une augmentation de l’incertitude pour les individus et entreprises, comment ChatGPT pourrait-il être détourné à des fins malveillantes ? Mais surtout, en quoi l’IA est-elle principalement utilisée dans la rédaction multilingue sans fautes d’orthographe de mail de phishing, mais aussi dans l’élaboration de scripts pour les personnes déjà initiées ?

ChatGPT est un chatbot – un agent conversationnel – conçu par la société américaine OpenIA, spécialisée dans le domaine de l’Intelligence artificielle. Son but est de fournir de l’aide sur un large éventail de tâches et de répondre aux questions. Sa principale fonction est donc de générer du texte pour répondre aux requêtes des internautes

Cette IA repose sur la technologie de génération de langage naturel GPT-3.5 – soit le plus gros modèle de langage jamais développé par OpenIA avec plus de 175 milliards de paramètres -, elle-même formée sur l’infrastructure du supercalculateur Azure AI, une plateforme de machine learning intégrée en mode cloud (technologie permettant aux machines d’apprendre en l’absence de programmation spécifique). Cette IA est disponible gratuitement sur le site d’OpenIA, mais pour couvrir ses frais, la société à décidé de lancer une version payante baptisée « ChatGPT Professional » et proposant de meilleures performances pour 42 dollars par mois. De plus, la multinationale informatique Microsoft se dit prête à investir 10 milliards de dollars (9,3 milliards d’euros) dans OpenIA pour pouvoir garder la quasi-exclusivité sur la société et donc sur la propriété intellectuelle de l’agent conversationnel. 

Ce dernier a été formé à l’aide de l’apprentissage par renforcement à partir de la rétroaction humaine (RLHF), en utilisant les mêmes méthodes qu’InstructGPT. Cela fonctionne via un jeu de données InstructGPT, transformé en un format de dialogue. En découle alors un modèle de récompense pour l’apprentissage par renforcement avec la récolte de données de comparaison. Cette collecte de données est réalisée par des ingénieurs effectuant l’apprentissage de l’IA. En utilisant des modèles de récompense, un affinage peut avoir lieu en utilisant Proximal Policy Optimization. Ces grands modèles de langages (LLM) ont pris beaucoup d’ampleur ces derniers temps (Co:here, OpenIA, AI21Labs, etc.). Ce sont des constructions statistiques modélisant la distribution de séquences de mots dans de nombreuses langues. Cependant, comme toute technologie, ces dernières peuvent être détournées.

 

Un outil qui facilite le processus de codage mais qui nécessite néanmoins un esprit critique 

ChatGPT est rentré assez rapidement dans le paysage moderne des cybermenaces. En effet, il peut aider des néophytes à lancer des cyberattaques plus facilement. Il faut néanmoins prendre du recul car l’utilisation de l’IA à des fins malveillantes nécessite de bonnes bases en développement informatique. Cela peut toutefois être un réel outil pour les personnes ayant déjà un certain niveau, voulant s’en servir à des fins malveillantes et organisées, leur rendant le processus d’attaque plus simple, rapide et/ou plus élaboré.

Par exemple, une vidéo de la chaîne Youtube « Underscore », dévoile un intervenant qui explique comment il a réussi à faire du hacking assisté par l’IA. Cette dernière l’aide à trouver des failles plus facilement, optimisant ainsi la productivité du développeur (au vu de la multiplicité des langages informatiques). En donnant des bribes de code à ChatGPT, le développeur a pu manipuler le script pour pouvoir trouver des failles d’autorisation, d’injection, etc. Aussi, pour exploiter une faille plus complexe, le développeur demande à ChatGPT de lui expliquer la faille trouvée par Youssef Sammouda (chercheur en vulnérabilité) et de simplifier le code pour qu’il puisse le lire humainement (simplifiant énormément le travail du développeur). Le plus intéressant étant que l’IA a réussi à générer le code malveillant trouvé par le chercheur pour exploiter une faille Facebook valant 42 000 dollars. 

Pour autant, il est à noter que certaines plateformes bloquent l’utilisation du Chatbot. Tel est le cas du forum de discussion « Stackoverflow ». En effet, le forum estimait que les codes générés par ChatGPT étaient de mauvaise qualité et pouvaient induire en erreur les utilisateurs.

 

Une apparition de mention au sein de réseaux cybercriminels 

Un premier fil de discussion nommé « ChatGPT – Avantages des logiciels malveillants » a vu le jour le 29 décembre 2022 sur un forum de piratage souterrain populaire. L’éditeur du fil a expliqué qu’il utilisait l’IA ChatGPT pour recréer des techniques de logiciels malveillants décrites dans des publications et articles dédiés à ce sujet. Ainsi, il a pu partager le code d’un voleur (stealer) basé sur Python qui recherche les types de dossiers courants. Cette IA permet donc la création « simpliste » de scripts, pouvant faciliter le développement informatique. 

De plus, l’IA est aussi présente, mais à plus petite échelle, sur le dark web pour la pratique d’un autre type d’activité cybercriminelle. En effet, un autre fil de discussion intitulé « Abusing ChatGPT to create Dark Web Marketplaces scripts » aide à la création d’un marché illégal sur le réseau superposé grâce à ChatGPT. Le cybercriminel avait publié un morceau de code qui utilise une API tierce pour obtenir les prix à jour des crypto-monnaies (Bitcoin, Etherium, Monero, etc.) dans le cadre du système de paiement du marché sur le web caché clandestin. On pourrait alors imaginer que l’IA puisse permettre d’acquérir d’autres types de données acquises illégalement, potentiellement issues du dark web, telles que des biens illégaux, des biens volés, des cartes de paiements, des comptes personnels – à des fins malveillantes.

 

Quels sont les risques qui en découlent ? 

Par ailleurs, comme toute technologie croissante, ChatGPT compte des risques accrus. Bien qu’OpenIA ait investi beaucoup d’efforts pour mettre fin aux abus de son IA ChatGPT, elle peut toujours être utilisée pour produire du code à des fins malveillantes par exemple. 

En effet, ChatGPT est un réel risque pour les cibles actuelles des cyberattaques. Le chatbot est suspecté d’être un futur outil d’arnaque, permettant à des cyberattaquants d’écrire des mails de phishing parfaitement rédigés, sans fautes d’orthographe et, dans la langue de leur choix, créer des logiciels malveillants, des rançongiciels ou des spams. Dans l’optique de réaliser une attaque plus ciblée, l’attaquant peut aussi identifier une personne via les forums de hackers, se renseigner sur l’entreprise de l’individu en question et ainsi écrire un mail de phishing plausible en usurpant cette société pour donner plus de légitimité à son mail. Il est également possible d’utiliser ChatGPT avec une autre plateforme d’OpenIA, Codex, basée sur l’IA pour traduire le langage naturel en code. 

La première ligne de défense qui est visée par les cyberattaquants sont les utilisateurs. Cette nouvelle manière d’approcher les usagers est donc une réelle menace pour les TPE, les PME, les grandes entreprises mais aussi, à une plus grande échelle, le tissu économique français. Le cyberattaquant n’a pas forcément de raison d’attaquer uniquement les grandes entreprises, les plus petites étant considérées comme « moins sécurisées » et pouvant aider à remonter la supply chain si la personne a réussi à infiltrer le réseau.

 

Une IA « éthique »

Il faut savoir que lorsqu’une personne demande à l’IA de rédiger un mail de phishing, cette dernière refuse. Il faut donc lui faire la demande de manière détournée, en lui demandant d’écrire un exemple de mail de phishing. En effet, faire une demande trop directe active « l’éthique » de l’IA qui refuse de donner une réponse. Pour que la requête de l’utilisateur fonctionne, il faut donc donner un contexte à l’IA et son rôle pour que cette dernière puisse répondre correctement. L’utilisateur peut aussi agir sur la modulation du langage de l’IA, en lui demandant un certain niveau de vulgarisation. Aussi, si la réponse proposée ne convient pas à l’utilisateur, il vaut mieux continuer à discuter avec l’IA pour essayer de la rediriger, plutôt que de rafraîchir sa demande et de tout recommencer. 

 

Une ouverture possible pour le chatbot ? 

Voyant l’ampleur de ChatGPT, des actions se mettent en place au fur et à mesure pour pouvoir limiter son utilisation et ses dégâts. Nous pouvons nous demander si le fait que l’IA soit devenue payante sera peut-être un moyen de limiter son utilisation par un grand nombre d’utilisateurs. Peut-être faudrait-il apprendre à vivre et à utiliser l’IA comme un nouvel outil incontournable, mais avec une légifération autour de cette dernière ? Par exemple, il est intéressant de se dire que l’IA peut aussi être utilisée à des fins bienveillantes et de défense. En effet, il faut prendre en considération le fait que les processus d’attaque peuvent être automatisés et facilités, mais cela fonctionne aussi pour les mesures d’atténuation et de résolution du côté des défenseurs. Un marché de l’IA pourrait en découler, l’entreprise Google vient d’annoncer la disponibilité de son propre service d’IA qualifiée de générative, « Bard ». Google veut se démarquer d’OpenIA en introduisant le concept d’IA de « confiance ». Le GAMAM met en avant une plus grande maturité de ce chatbot, qui serait plus à même de traiter de sujets plus complexes. Cet outil sera disponible dans un premier temps pour quelques experts et développeurs.

 

Elise Boyer pour le club Cyber de l’AEGE

 

Pour aller plus loin :