Les deepfakes : entre innovation technologique et risque majeur pour la sécurité

Les enjeux actuels poussent les acteurs du secteur public et privé à se préparer afin de faire face aux menaces numériques émergentes. Ces nouvelles technologies représentent tant des opportunités que des menaces qui sont au cœur des préoccupations. Les risques inhérents à ces évolutions sont en perpétuelle évolution et touchent tous les secteurs d’activité.

La technologie menant aux deepfakes (contraction entre « Deep Learning » et « Fake ») a été créée en 2014 par le chercheur Ian Goodfellow. Nommée GAN (Générative Adverarial Networks), celle-ci est conçue sur la base de deux algorithmes, l’un cherchant à reproduire et contrefaire des vidéos et l’autre cherchant à détecter les faux. Grâce à ce système ingénieux, les deux algorithmes travaillent de pair afin de toujours s’améliorer et ainsi créer une vidéo s’apparentant le plus possible au réel. Ils reposent sur des bases de données comme des banques d’images ou de vidéos se trouvant sur internet. De ce fait, plus une personne est médiatisée et plus il est facile de trouver du contenu la concernant, plus le deepfake sera réaliste. Cette technologie soulève ainsi de nombreuses problématiques, particulièrement en termes d’images ou de manipulation.

Les premières vidéos virales ont été publiées en 2017 sur le site communautaire Reddit. Celles-ci se multiplient de manière exponentielle jusqu’à atteindre selon les sources plusieurs dizaines de milliers de fausses vidéos en ligne. 

Cependant, l’utilisation de cette technologie ne se fait pas uniquement à des fins nocives. En effet, la création via une IA de vidéos « réalistes » serait très utile au cinéma. Elle permettrait par exemple de faire vivre à nouveau des personnages décédés. La création en images de synthèse de vidéos d’acteurs existe déjà et s’est avérée très utile : 

Sur le tournage de Fast & Furious 7 après la mort de Paul Walker (l’un des personnages principaux), la fin du film a été possible grâce à la production d’images de synthèse mettant en scène l’acteur. La technologie des deepfakes permet d’aller plus loin en apportant à la fois une image et un audio réaliste. 

Cette technologie, bien qu’étant perçue par beaucoup comme révolutionnaire, soulève plusieurs interrogations ainsi que de nombreuses inquiétudes tant dans le secteur public que privé. En effet, les cas d’abus se multiplient et peuvent être dans certains cas d’une gravité importante. De plus, leur contrôle est rendu très complexe à cause de différents facteurs :  

  • Tout d’abord, la facilité d‘accès à de nombreux outils/ applications permettant de générer des deepfakes (Face App, ZAO, Reface, SpeakPic, DeepFaceLab, FakeApp, etc.)  Cette facilité d’accès rend ce genre de pratique à la portée de n’importe qui, dont des personnes mal intentionnées.  

  • Mais aussi, la difficulté de traçage ainsi que de la mise en place d’outils de contrôle, en effet la technologie GAN (basé sur le principe du Machine Learning) étant autonome via un apprentissage constant avec ses deux contre-pouvoirs, le traçage en est d’autant plus compliqué. Les outils de contrôle ont un train de retard. Pour les malwares par exemple, la technologie de contrôle vient en réaction aux nouveaux deepfakes, les créateurs ont donc toujours une certaine avance. 

Les risques soulevés par cette nouvelle technologie sont multiples, en effet son application engendre des problématiques nouvelles mises en exergue par de nombreuses entreprises et États. 

Il existe le risque de manipulation et de désinformation. Les vidéos de certaines personnalités influentes (publiques ou privées) détournées via des deepfakes peuvent représenter un risque grave. C’est le cas du Gabon, en 2018 à la suite d’une maladie le président Ali Bongo n’avait pas fait d’apparition publique pendant plusieurs mois. En décembre de la même année, une vidéo est apparue où figurait Ali Bongo rassurant sa population quant à son état de santé. Ses opposants politiques ont immédiatement décrété cette vidéo comme étant un deepfake. L’hystérie créée par cette vidéo a mené à la précipitation d’un coup d’État visant à renverser le président. (La vidéo n’était pas un deepfake).  

Le risque de vol de données ou de fonds monétaires est aussi très important, notamment via les deepvoices (basé sur les deepfakes permettant la reproduction d’une voix grâce à l’Intelligence Artificielle). Un dirigeant d’une grande banque aux EAU a été victime de cette fraude, en effet les malfaiteurs ont reproduit la voix d’un de ses clients les plus importants, l’amenant à autoriser un virement à hauteur de 35 millions d’euros, ce qui a porté un grand préjudice à son image et son entreprise. 

En ce sens, l'usurpation d’identité et l’humiliation d’opposants font partie des risques majeurs. C’est ce qui est arrivé par exemple à Rana Ayuub, journaliste Indienne défendant le droit des femmes. Lors d’une campagne de diffamation à son encontre, celle-ci s’est retrouvée dans plusieurs films pornographiques réalisés avec son visage. Cette pratique est de plus en plus répandue et a pour cible principale les femmes.

La facilité de création des deepfakes ainsi que leur essor exponentiel alarme le secteur privé et public qui tentent aujourd’hui de s’en prémunir. C’est notamment le cas de Google qui en 2019 a sorti une base de données de plus de 3 000 deepfakes référencés. L’entreprise a lancé en parallèle avec l’appui d’autres entreprises du secteur du numérique des concours ayant pour objectif de déceler ces fakes. Certaines entreprises vont même plus loin et mettent en place des IA permettant la « désidentification ». C’est le cas de Facebook qui avec son laboratoire de recherche FAIR travaille sur ce filtre pouvant s’appliquer aux vidéos postées sur la plateforme. 

Les États quant à eux tentent de légiférer afin d’apporter un cadre normatif permettant la limitation de la diffusion des deepfakes. Le 22 octobre 2018, une législation relative à la lutte contre la manipulation (« fake news ») entre dans l’arsenal juridique français. Il limite la prolifération des fausses informations sur internet. Cependant, celle-ci comporte plusieurs limites, comme la liberté d’expression des individus, la neutralité des grandes plateformes (Facebook, Twitter, etc.) ainsi que le droit à l’anonymat des utilisateurs. Toutes ces difficultés rendent la mise en place de leviers de contrôles complexes.

Le retard du développement de ces outils de contrôle inquiète. En effet, la crainte principale est de voir arriver la création de vidéos sans aucune source racine. Aujourd’hui, certains experts sont en mesure de remonter à la source ayant permis la création de ces fausses vidéos. Cependant, dans un futur proche, les experts s’accordent à dire que la technologie s’améliorant continuellement, le risque de voir apparaître des vidéos sans source racine est très important et rendrait tout contrôle très complexe. 

« On n’est pas très loin de pouvoir faire de la génération de contenu complètement artificielle à partir d’une description textuelle », conclut Laurent Amsaleg Directeur de recherche et responsable de l’équipe LinkMedia. 

 

Pierre Parant pour le Club Risques AEGE

 

Pour aller plus loin :