Le 19 septembre 2018 est sortie une étude dans le cadre du Projet le Politoscope (CNRS Institut des Systèmes Complexes Paris Ile-de-France), décortiquant la présidentielle vue par Twitter. En 2016, c’est la campagne américaine qui a été bousculée par l’émergence de l’utilisation à haute dose de ce réseau social, avec notamment la Russie pointée du doigt. Twitter semble être devenu une arme redoutable en période électorale. Entre cartographie en temps réel de la communauté politique et diffusion de fake news, la guerre informationnelle se mesure aisément grâce à un réseau qui tend à devenir un outil d’influence puissant.
À la hauteur de sa croissance fulgurante (30 millions d’utilisateurs mensuels en 2010 puis 335 millions en 2018), le réseau social Twitter commence à inquiéter les autorités américaines. Lors des auditions des dirigeants de Facebook et Twitter le 5 septembre dernier devant le Congrès américain, Jack Dorsey, PDG de Twitter, a admis que le réseau social n’était pas « préparé » à faire face à une attaque informationnelle de grande ampleur. Le président de la commission sénatoriale décrit même « une vulnérabilité en matière de sécurité nationale ». En France, c’est la question des fakes news plutôt que de l’ingérence qui fait rage. Dans ses vœux à la presse du 3 janvier 2018, le président Emmanuel Macron déclarait vouloir mettre en place une loi contre la diffusion des fakes news : « Si nous voulons protéger les démocraties libérales, nous devons savoir être forts et avoir des règles claires », chose faite dans la nuit du 9 au 10 octobre 2018.
Une cartographie prédictive et en temps réel du jeu des acteurs politiques en période électorale
Twitter a fait l’objet d’innombrables recherches et analyses au cours des dernières années, l’étude française la plus récente étant celle publiée par la revue PLoS ONE. Noé Gaumont, Maziyar Panahi et David Chavalarias ont suivi et décrypté plus de 60 millions de tweets en temps réel, autour de l’interaction de 2,4 millions de comptes individuels lors de l’élection présidentielle française de 2017. Ce qu’il en ressort en premier lieu, c’est le maillage du paysage politique multipolaire et son évolution en temps réel. Que ce soit autour d’une étiquette politique ou autour de thématiques, les chercheurs du CNRS ont ainsi pu suivre et analyser en live cette dynamique, et « mesurer parfois avant que les médias ne l’annoncent […] certains évènements clés ». Dès lors, c’est tout le réseau politique d’un pays qui peut être identifié et analysé très rapidement : qui sont les « sachants », les décideurs, les représentants influents et ceux à influencer ?
Avec l’évolution des technologies de l’information, les données brutes, telles que les datas extraites d’un réseau social, permettraient de prédire les orientations politiques des individus et leurs éventuels changements, lors d’élections ou d’autres types d’évènements (financiers, diplomatiques, juridiques…). Une mine d’informations à exploiter, désormais à la portée de tous et en temps réel. En effet, c’est ce qu’annonçait David Chavalarias dans nouveau projet du Politoscope consistant à « faire du Big Data un bien commun ». Il s’agit ainsi mettre à la disposition du tout public des outils pour « mieux comprendre et analyser les prises de paroles et de position ».
Sur un réseau social comme Twitter, les informations en flux continu peuvent dorénavant s’analyser plus facilement et plus rapidement. Dans une étude menée dans le cadre des élections générales britanniques de 2010, Antoine Boutet, Hyoungshick Kim et Eiko Yoneki ont pu développer en 2013 une méthode de classification simple et pratique se référant aux messages diffusés par les acteurs politiques anglais sur Twitter. Ils relèvent que leur classification atteint une précision de 86%, surpassant les autres méthodes qui supposent des compétences particulières en topologie des réseaux et exigeant aussi des coûts élevés. Que ce soit par le modèle de bloc stochastique, l’algorithme de Girvan-Newman, la percolation clique, Infomap, Louvain ou encore l’OSLOM*, la détection des communautés au sein d’un réseau donné devient plus précise et plus rapide. Il est ainsi possible d’identifier les individus influents.
« Followers Are Not Enough » : en effet, une approche multiforme permettrait de détecter les individus qui pourraient non seulement rendre une information visible, mais aussi la propager, les deux n’allant pas toujours de paire. Dès lors, même si les études doivent encore être approfondies, en se basant sur le regroupement de questions simples (qui sont vos amis déclarés ? Qui suivez-vous ? Qui partage des profils d’activités similaires ? De quoi parlez-vous ? Avec qui communiquez-vous ?), et non plus en se basant sur l’étude isolée de celles-ci, nous pourrons bientôt tout savoir d’un individu et de sa communauté, de ses interactions avec les autres et prédire ses intentions de vote, décisions ou encore avis.
Dans un monde où le renouvellement des produits innovants s’accélère et est soumis à une concurrence féroce, l’anticipation, la détection, et l’analyse des signaux faibles devient nécessaire. La montée en puissance de l’intelligence artificielle (IA) sur ce secteur va ainsi permettre de transformer des masses de données en données exploitables. Grâce au deep learning et au machine learning, l’IA va devenir essentielle pour la veille. Le secteur de l’intelligence économique et stratégique va ainsi être impacté par l’utilisation de l’IA à des fins stratégiques. Cela ne remplacera pas le humint (renseignement d’intelligence humaine), mais le complétera. Il sera donc envisageable, qu’à l’avenir, un réseau social comme Twitter diffusant de l’information en direct et de manière constante, puisse être analysé en temps réel grâce à l’IA. L’information déstructurée sera ainsi lisible grâce à l’IA, et exploitable pour l’homme.
Fake news : les fausses informations plus populaires que leur rectificatif.
C’est en effet ce que révèle la deuxième partie de l’étude du Politoscope. En s’appuyant sur la liste des fakes news répertoriées dans le Décodex du journal Le Monde, l’étude révèle que, pendant la campagne présidentielle française, ce phénomène est resté en marge sur Twitter : « Sur les 60 millions de tweets collectés, nous avons recueilli seulement 4 888 tweets comportant un lien référencé comme une fausse information par les décodeurs du Monde, soit 0,0081%. », le CNRS estimant toutefois que ce chiffre reste sous-évalué.
L’étude met par ailleurs en évidence la circulation de ces fausses informations, la plupart de celles-ci étant le fait de communautés (« la mer ») et non de comptes isolés : « Cette mer a engendré 43 % des 60 millions de tweets que nous avons analysés, mais seulement 19 % des tweets relayant des fausses nouvelles ! ». De fait, l’absence de couverture médiatique a cantonné la plupart des tweets à leurs communautés. L’étude souligne que « combattre les fausses nouvelles est une tâche délicate […] les fausses informations ont été 4 fois plus partagées que leurs rectificatifs. On observe donc deux “hémisphères” : celui qui produit les fausses informations, les lit et les partage, et celui qui produit leurs décryptages et reste attaché au fact-checking. ». Il s’agit de « mesurer la diversité des communautés qu’elles touchent afin de mener la meilleure stratégie possible pour pallier ce phénomène ». Ces résultats sont appréhendés de manière prudente. Il pourrait s’agir d’une instrumentalisation politique, de tentatives d’influence extérieure aux communautés visées ou encore simplement de « l’ironie ».
L’étude se termine sur le phénomène d’amplification de la polarisation de l’opinion et de la propagande que les fake news peuvent entrainer. Il est démontré qu’en période électorale, l’utilisation des réseaux sociaux comme outil d’influence est accentuée, rendant « vulnérable notre méthode traditionnelle de vote ». Par ailleurs, « les méthodes et techniques pour créer de la division s’affinent bien et ces outils sont désormais à la portée de groupes de taille moyenne ». C’est dans cette ligne que s’inscrit l’adoption de la loi sur les fakes news par l’Assemblée Nationale le 10 octobre dernier. Cette dernière renforce les pouvoirs du Conseil Supérieur de l’Audiovisuel (CSA). Il lui sera désormais possible, en période électorale, d’« ordonner la suspension de la diffusion » d’un service « contrôlé par un Etat étranger, ou sous l’influence » de cet Etat, s’il « diffuse de façon délibérée de fausses informations de nature à altérer la sincérité du scrutin ». Ces dispositions semblent faire directement écho aux révélations de l’ingérence russe durant la campagne américaine de 2016, où la diffusion de fakes news aurait touché pas moins de 1,4 millions d’utilisateurs.
C’est dans ce climat de tension et de suspicion que les élections de mi-mandat américaines se sont tenues le 6 novembre dernier. Twitter annonçait récemment que pas moins de 10.000 comptes automatisés (Bot) avaient été supprimés au cours des deux derniers mois. Le 5 septembre dernier, Jack Dorsey, PDG de Twitter, admettait devant le congrès américain que son réseau n’était pas préparé. Début novembre, la communication semble vite s’être inversée, la direction de Twitter affirmant être « mieux préparée que jamais ». Toujours concernant les midterms, Lisa-Maria Nudert, chercheuse de l’Oxford Internet Institute, évalue que près d’un quart des informations qui circulent sur cette élection sur les réseaux sont fausses.
Dès 2014, le World Economic Forum identifiait la diffusion de fakes news comme une tendance future et complexe à traiter. De fait, traiter avec les médias sociaux revient à traiter le Big Data. L’IA permet ici d’analyser un volume conséquent de données, tweets, pouvant faire l’objet d’une analyse humaine par la suite. En 2018, c’est sous le terme de Digital Wildfires que le point est fait par l’institution : les médias sociaux dirigent 40% du trafic web qui renvoie vers des sites de fausses nouvelles. Les bots sont puissants pour rendre une fake news virale par le biais d’une automatisation des tweets et retweets, allant même jusqu’à être configurés pour paraitre comme « humains », en publiant à des heures variantes et à un rythme humainement possible pour éviter d’être détectés par l’ensemble des moyens déployés par les dirigeants des réseaux sociaux.
En fin de compte, la popularisation des fakes news à travers l’élection américaine appelle à une certaine vigilance dans le rapport de chacun à l’information diffusée par le biais des réseaux sociaux. Le Big Data s’avère être à la fois un atout et une menace pour les électeurs et candidats en période électorale. Tout cas de désinformation reste unique et devrait être traité de manière indépendante, en gardant à l’esprit l’écosystème de sa diffusion. Cependant, l’évaluation humaine reste essentielle pour replacer l’information dans son contexte à des fins d’interprétation. Ce que l’on pourrait définir comme « l’intelligence augmentée », association de l’intervention humaine et d’outils logiciels, qui pourrait, dans les prochaines décennies, devenir la norme d’analyse des mouvements électoraux.
*Algorithmes de détection de communauté et méthode d’approche d’analyse des structures d’un réseau.