Analyse

Intelligence artificielle et Deepfakes : la naissance de nouveaux risques stratégiques

Le 6 janvier 2020 par Sarah CAHEN et Emeline STRENTZ

De nos jours, la technologie peut s’avérer aussi utile que nuisible. L’Intelligence artificielle (IA) peut être synonyme de progrès, mais avec l’apparition de deepfakes, de nombreux problèmes concrets sont soulevés. Qu’en est-il des enjeux et de l’avenir des « hyper-trucages » ?

Le terme « deepfake » est une contraction entre « deep learning » (apprentissage profond d’une IA) et « fake » (que l’on traduit par faux). Le deepfake, ou hyper-trucage signifie donc un contenu fallacieux rendu profondément crédible grâce à l’IA. L’objectif est simple : manipuler les perceptions à travers la désinformation. Cette fake news évoluée cherche avant tout à détourner l’attention des publics pour faire passer des éléments faux comme étant vraisemblables. L’IA est donc utilisée selon plusieurs techniques dans le but de permettre aux machines d’imiter une forme d’intelligence réelle.

 

Intelligence artificielle et deepfake : techniques et outils

C’est à l’automne 2017 que le phénomène des deepfakes naît officiellement. Un utilisateur anonyme du site Reddit publiant des vidéos montrant des actrices célèbres s’adonner à des pratiques pornographiques sans que ces dernières ne soient nullement concernées. Depuis, le phénomène est en pleine croissance : entre fin 2018 et l’automne 2019, leur nombre sur la toile a presque doublé passant de 8.000 à 14.700. Pour certains, les deepfakes ont tendance à se généraliser. Pour d’autres, la création de deepfakes nécessite d’avoir certains éléments à savoir la motivation, la patience et le matériel adéquat.

 

En 2014, une technique inventée par le chercheur Ian Goodfellow est à l’origine des deepfakes. Il s’agit des GAN (Generative Adversarial Networks ou réseaux antagonistes génératifs). D’après cette technologie, deux algorithmes s’entraînent mutuellement : l’un tente de créer de fausses imitations aussi crédibles que possible ; l’autre cherche à détecter les faux. Ainsi, les deux algorithmes s’améliorent ensemble avec le temps, par leur entraînement respectif. Plus le nombre d’échantillons à leur disposition augmente, plus leur progression est importante.

 

Un outil récent, MarioNETte est développé par les chercheurs d’Hyperconnect, un laboratoire de recherches à Séoul. Il reconstitue et anime les traits d’un visage à partir d’une seule photo. Aux États-Unis, l’application FakeApp est sortie en janvier 2018. Cette dernière analyse comment se comporte le visage dans la vidéo pour pouvoir appliquer au mieux celui qui doit le remplacer. Le montage est simple et rapide pour un résultat presque parfait. 

 

Concernant les deepfakes audios, la création et la détection des enregistrements audios relèvent pour l’instant du domaine des professionnels. Elle nécessite en effet certaines ressources temporelles et matérielles. Actuellement, seule la société américaine de biométrie audio, Pindrop, développe des voix synthétiques afin de former ses propres défenses pour les détecter. L’IA de cette entreprise écoute d’innombrables heures de conversation d’une personne réelle pour imiter, voire améliorer la voix synthétique jusqu’à ce que le système de Pindrop ne distingue plus le vrai au faux. Quant à la détection du faux, seul un ordinateur en est capable pour l’instant.

 

Le deepfake : une nouvelle arme encore méconnue

Aujourd’hui, les campagnes de sensibilisation contre les « fake news » appellent à la prudence quant aux informations relayées grâce aux réseaux sociaux. Malheureusement, pour l’instant, très peu de professionnels de l’information s’attardent sur les deepfakes qui deviennent peu à peu une arme dangereuse. Future Advocacy, think tank britannique, opère chaque jour pour démontrer que les deepfakes sont devenus une préoccupation d’ordre public. Le responsable de ce groupe de réflexion, Areeq Chowdhury, souligne par ailleurs la désinvolture de la sphère politique face aux dangers des hyper-trucages. 

 

Actuellement, 96 % de ces derniers demeurent dans la sphère du divertissement en parodiant certaines célébrités américaines. Il va toutefois de soi que la sphère politique sera touchée par ces enjeux. Même si le phénomène est apparu fin 2017, en deux ans des trucages visant des personnes politiques ont été observés.

 

Le 14 février 2019, une vidéo falsifiée a mis en scène Barack Obama insultant ouvertement le président américain actuel. Ensuite, les élections législatives britanniques qui ont eu lieu le 12 décembre 2019 ont été une occasion pour mettre en scène de faux enregistrements. Deux vidéos ont été publiées quelques mois avant, sur Twitter, dans le but de déstabiliser les internautes, dans un contexte politique tendu. La première vidéo met en scène le Premier ministre mettant en avant son opposant. Plus tard dans la journée, un second trucage est véhiculé sur le réseau social opérant de manière inverse. 

 

Enfin, une autre personne politique a été utilisée à son insu dans une campagne d’information diffusée le 6 octobre 2019. Solidarité Sida, une association française, a en effet propagé une vidéo truquée mettant en scène Donald Trump annonçant la fin du sida. À la fin de la vidéo, un message informe aux internautes que c’est un faux. Après une analyse des réactions sur les réseaux sociaux, le constat est simple : la majorité n’a pas regardé la vidéo jusqu’à la fin. (voir la vidéo sur YouTube) Le but de cette opération est bien entendu la réalisation du « buzz » pour toucher un large public. Cette campagne n’a pas eu de réelles répercussions graves, mais elle amène à sensibiliser le public sur le développement des deepfakes d’un point de vue éthique, moral et stratégique. À savoir, cette association affirme que ce montage est réalisé pour des motifs honorables et légitimes. 

 

Outre ces exemples anglo-saxons, les vidéos modifiées sont pour l’instant rares dans le domaine politique dans d’autres pays européens. Malgré tout, l’Europe est touchée par une autre forme de trucage. En septembre 2019, une IA a généré un enregistrement sonore falsifié. Grâce à cet outil, le malfaiteur a usurpé l’identité d’un dirigeant allemand pour effectuer une arnaque au président et dérober 200 000 euros. L’hyper-trucage dans le domaine privé semble pour l’instant un « atout » majeur dans la guerre de l’information, car peu de techniques et méthodes sont mises en place pour déjouer ces faux.

 

L’avenir des deepfakes : une nouvelle crainte à ne pas sous-estimer

Les enregistrements falsifiés parfaits et indétectables pourraient se trouver accessibles à tout le monde d’ici six mois à un an. Ainsi, les deepfakes ne sont pas une réelle menace aujourd’hui, mais demeurent à l’origine de nombreuses problématiques futures. Des méthodes et outils pour détecter et contrer les deepfakes commencent à se développer. Le tatouage numérique est conseillé depuis 2017. Des techniques « low-tech » (lunettes capables d’induire en erreur une intelligence artificielle) sont préconisées pour tromper la reconnaissance faciale. Dans une optique d’anticipation, des mesures plus importantes seront mises en place. La Cyberspace Administration of China (CAC) appliquera une nouvelle loi dès le 1er janvier 2020, pour sanctionner les créateurs de deepfakes au même titre que les criminels. 

 

Des entreprises privées telles que Pindrop et Deeptrace vendent leurs services pour contrer les hyper-trucages. Des projets se développent également, menés principalement par Google et Facebook. TensorFlow, créé par Google Brain Team en 2011, est une bibliothèque de machine learning avec 3.000 hyper-trucages recensés. Celle-ci facilite les chercheurs à développer des architectures d’apprentissage expérimentales et de les transformer en logiciels. Cette bibliothèque entraîne et exécute des réseaux de neurones pour la classification et la reconnaissance d’images, ce qui peut servir dans le cas des deepfakes. Cependant, cet outil est encore complexe, car il requiert des connaissances en algèbre linéaire et une compréhension du machine learning. Le géant du web alimente également une base de données pour faciliter la détection des enregistrements audios falsifiés.

 

Le laboratoire FAIR de Facebook travaille actuellement sur le projet de « désidentification ». Il invente une IA qui applique un filtre sur des vidéos afin d’empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des deepfakes. Par ailleurs, pour sensibiliser un grand nombre de personnes à travers le monde, Facebook propose actuellement un concours « Deepfake Detection Challenge » (DFDC) en partenariat avec Microsoft et des médias internationaux tels que la BBC. 

 

 « L’informatique doit être au service de chaque citoyen. [...] Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». En novembre 2019, la CNIL met en avant sa volonté d’instaurer un réel cadre législatif et réglementaire concernant la reconnaissance faciale, donc à la « conception » de deepfakes visuels. Le respect de la vie privée et le droit à l’image semblent effectivement remis en question pour répondre à des enjeux stratégiques, économiques et politiques.

 

Sarah CAHEN pour le club Cyber

et

Emeline STRENTZ pour le Portail de l'IE