Le numérique comme outil d’encerclement cognitif [PDSF 2/4 ]

Préparée par l’IHEDN et animée par Tariq Krim, la table ronde Influence et numérique du Paris Defense & Strategy Forum (PDSF) a décortiqué « les ressorts du numérique en tant que puissant outil d’influence sur les vulnérabilités du cerveau ». Les prismes particuliers apportés par le médecin Marion Trousselard, le colonel Virginie Le Goff, le chercheur David Colon, et le chef de la section de la politique cybernétique et hybride de l’OTAN Christian Lifländer ont permis de construire une réflexion à 360° sur le sujet complexe de la guerre cognitive, sortant de la seule guerre de l’information. 

L’encerclement cognitif, ou « le hacking des cerveaux »

Le passage rapide à l’ère du numérique a entraîné des problèmes de souveraineté, d’attaques numériques, de désinformation ou d’extraterritorialité, qui cristallisent aujourd’hui en un gigantesque nœud gordien. Pionnier de l’internet géopolitique, l’entrepreneur Tariq Krim identifie deux axes de réflexion dans le « Numérique de l’incertitude » qu’il conceptualise dans le think tank Cybernetica : d’un côté les cyberattaques et le hacking d’infrastructures, de l’autre l’encerclement cognitif à travers le numérique, ou le « hacking de cerveaux ».  « Believe nothing you hear and half of what you see », le conseil d’Edgar Poe n’aura jamais été aussi riche de sens.

L’information est un levier d’influence majeur dans les relations internationales, et l’ère du numérique a permis aux acteurs de l’influence agissant pour un Etat d’atteindre directement les esprits. « L’objectif est de toucher le grand public à travers des opérations psychologiques », explique David Colon, enseignant-chercheur à Sciences-Po. Sur ce terrain, le Kremlin parvient à saisir habilement toutes les opportunités pour instrumentaliser les failles de l’esprit humain, des règles du marché, afin d’atteindre la décomposition de la société adverse par l’exploitation opportuniste de tensions préexistantes et de pseudo-événements. Une fois que la capacité de distinguer le vrai du faux est fragilisée, le « virus médiatique » peut se propager en exploitant le potentiel de résonnance induit par l’interconnexion numérique de millions d’individus. C’est un fait : la viralité l’emporte sur la véracité.

Les réseaux neuronaux, cibles des techniques d’influence numérique

Médecin militaire spécialisée en neurosciences, Marion Trousselard met en avant la plasticité du cerveau et la cognition sociale pour comprendre les mécanismes employés lors d’une opération d’influence numérique. Le professeur Trousselard, agrégé en sciences cognitives au Val-de-Grâce, rappelle que le cerveau est plastique, en perpétuelle évolution, et doit donc être stimulé de manière variée pour ne pas se rigidifier. La stimulation constante du cerveau permet d’ailleurs de développer et entretenir les capacités de discernement d’un individu. Jusqu’à 25 ans, la maturation du cerveau est particulièrement importante. Cette information doit être mise en parallèle avec le fait, par exemple, que le réseau social  Tik Tok cible un public adolescent, plus facile à « reformater ».

A cette première phase du discernement construit par la stimulation cérébrale, s’ajoutent d’autres briques, permettant au cerveau d’interpréter les signaux faibles envoyés par autrui, et de comprendre leur état émotionnel : il s’agit de la cognition sociale. Celle-ci permet de créer un sentiment d’appartenance au groupe, elle permet l’empathie et entretient le mimétisme social.

Le médecin Trousselard part de ce constat pour identifier quatre réseaux neuronaux utilisés pour la manipulation et l’influence : le réseau « amygdalien », gérant les informations sociales et la contagion émotionnelle ; le réseau « empathie », permettant de mieux comprendre la souffrance d’autrui et considérer l’autre ; le réseau « mentalisation », permettant d’anticiper ce que l’autre va faire ; et le système « miroir » pour distinguer autrui de soi-même.

En plus de ces quatre réseaux neuronaux, les techniques d’influences ciblent deux neurohormones d’ordre motivationnel : la dopamine et l’ocytocine. L’ocytocine sous-tend la capacité d’empathie, de confiance et de coopération sociale, tandis que la dopamine est l’hormone du plaisir résultant d’une action immédiate. Ainsi l’information immédiate délivrée par un scroll sur un objet numérique délivre un sentiment d’autosatisfaction, sécrétant de la dopamine. Le besoin d’aller vers les autres disparaît peu à peu, l’addiction aux écrans s’installe et le numérique valide la valeur des individus. Source de frustration, de colère et d’anxiété, la comparaison sociale disparaît. Il n’y a plus d’ancrage corporel dans la relation avec autrui, et l’apport d’informations fragmenté dégrade l’ensemble des réseaux participant à la cognition sociale.

« Les interactions numériques ne stimulent pas de façon optimum les réseaux qui consistent à faire groupe, à stimuler la cognition sociale. Pourtant le cerveau a besoin de ranger les informations avec des grilles de lecture et d’entrées bien définies pour être capable d’analyser, et de faire preuve de discernement »
Marion Trousselard, médecin militaire spécialisée en neurosciences – Paris Defense & Strategy Forum, 14 mars 2024

La maîtrise de l’information, un enjeu de sécurité nationale

Cette faille est exploitée dans la guerre cognitive, où le champ informationnel est devenu un espace de bataille important. En 2022 l’influence est érigée au rang de 6e fonction nationale stratégique de la France, dans le but de contrer les actions hybrides d’Etats compétiteurs et de promouvoir les intérêts français à l’étranger. Cette bataille des perceptions, de la légitimité relève dès lors d’une question de sécurité nationale dans un espace numérique dérégulé, libre d’accès, offrant une opportunité d’influence massive des sociétés. « Le champ informationnel est le lieu d’où l’on tire sa capacité d’action : la sphère numérique permet de construire aux yeux du public la légitimité d’une action, qu’elle soit militaire, politique ou sociale. Dans le cas du conflit à Gaza comme dans celui en Ukraine, les belligérants tentent de justifier leurs actions et d’obtenir le soutien des tiers par des campagnes numériques utilisant le pathos », constate Mat Hauser, fondateur du cabinet de renseignement privé Strateon.

En plus d’accompagner les efforts diplomatico-militaires et d’obtenir le soutien des auditoires indécis, maîtriser le narratif de guerre permet un contrôle des perceptions à double enjeux. En interne, la maîtrise des perceptions de sa propre population permet de créer de la résilience et de la résistance cognitive face à l’adversité. A l’extérieur, influencer les perceptions de son adversaire peut contribuer à réduire sa stabilité politique voire à intoxiquer ou démoraliser son armée.

« Gagner la guerre avant la guerre », c’est bien la stratégie exposée par Thierry Burkhard en janvier dernier. L’usage de la force n’a pas disparu, mais la multiplicité des attaques sous le seuil de crise floute la ligne démarquant la paix d’un conflit armé symétrique. Les doctrines et concepts de guerre ont changé, « on parle de compétition stratégique, d’accumulations d’attaques quotidiennes plutôt que d’incident singulier » précise Christian-Marc Lifländer, officier estonien de l’OTAN.

Parmi les différents schémas réguliers de guerre informationnelle qui commencent à être clairement identifiés, les stratégies élaborées à long terme sont les plus compliquées à contrecarrer. Par exemple, dans le cadre de l’implication croissante de la France dans le conflit ukrainien, Mat Hauser indique que la réponse russe devrait être un accroissement des campagnes d’influence offensives contre la France : « il faut s’attendre à une augmentation des opérations informationnelles ciblant non plus seulement les civils français, mais aussi les militaires français (sur le territoire ou à l’extérieur). Le but sera, au sein de l’institution militaire, de créer de la défiance vis-à-vis des missions, des autorités politiques et du commandement. » La lutte informatique d’influence (L2I, nom donné à la guerre psychologique numérique dans la doctrine de l’armée française) demande alors un travail de prévention vis-à-vis des militaires et des individus connectés, ainsi qu’une « posture proactive permettant de prendre l’ascendant dans la bataille du narratif », explique le colonel Virginie Le Goff.

Coordonner les réponses dans la lutte d’influence 

En tant que haut responsable de la politique cybernétique au sein de l’État-major international de l’OTAN, Christian-Marc Lifländer invite à construire une résilience méthodique de la population autour des valeurs démocratiques. Pour garantir une immunologie collective à ce virus médiatique, l’approche devrait être coordonnée. Il s’agit de réfléchir au mode de propagation de l’information, et mettre en place des outils cognitifs au même titre que les outils législatifs utilisés en guerre économique. David Colon expose l’exemple du prebunking, ou technique de mise en garde et réfutation anticipée, portée par l’université de Cambridge pour lutter contre la désinformation. Équivalentes à un « vaccin psychologique », ces méthodes apprennent à décomposer le mode d’action d’attaques informationnelles de l’adversaire, qui sont simulées de manière anticipée et régulière. A l’image de la plateforme en ligne Bad News, le prebunking prend souvent la forme de jeux ou des vidéos de sensibilisation, cherchant à élever le niveau d’attention des gens quant à la désinformation, afin de savoir prendre du recul, d’être plus résistant. Il s’agit ainsi d’aguerrir le frein émotionnel et de renforcer les systèmes nerveux autonomes, pour inhiber les comportements émotionnels automatiques par la répétition d’actions de manipulation. Par ailleurs, l’objectif est que les individus sensibilisés puissent détecter eux-même quand ils peuvent être victimes de campagne d’influence. Même si, in fine, délibérer collectivement pour aboutir à des avis partagés reste le moyen le plus sûr de discerner une manœuvre de manipulation selon le colonel Le Goff.

Concernant l’aspect juridique de la lutte d’influence, l’article 223-15-2 du code Pénal criminalise les activités « ayant pour but ou pour effet de créer, de maintenir ou d’exploiter la sujétion psychologique ou physique des personnes qui participent à ces activités ». Le colonel Le Goff explique que le cadre juridique doit impérativement être fixé par les Etats mêmes, avant d’espérer un fonctionnement à l’échelle de l’Europe. Néanmoins, un changement de logique s’observe déjà vis-à-vis des géants du numérique, qui sont désormais considérés comme responsables du contenu et de la propagation de l’information visant à causer du tort à la société. La commission européenne a ouvert une enquête le 19 février 2024 portant sur les effets néfastes de Tik Tok sur les jeunes, au titre d’une infraction au Digital Services Act (DSA). A ce sujet, la commission d’enquête sénatoriale sur la stratégie d’influence de Tik Tok avait clairement établi les relations entre le réseau social et la Chine, soulignant « une opacité de la politique de modération et une lutte contre la désinformation pour le moment inefficace ». La commission avait même « demand[é] au Gouvernement de suspendre TikTok en France et de demander sa suspension au sein de l’UE à la Commission européenne pour des raisons de sécurité nationale ». D’autres réseaux sont tout aussi concernés par la désinformation sans être plus coopératif, tel que Telegram. Tant que les contenus respectent le 1er amendement américain sur la liberté d’expression, Telegram ignore les injonctions répétées de suppression de fake news, quitte à être banni d’un pays.

En se déployant sous le seuil de l’engagement armé, avec une très faible empreinte, la guerre cognitive est le centre de gravité des guerres totales, hors limites, que se livrent les Etats. L’explosion du numérique offre un potentiel de résonance inédit à l’information, arme principale des conflits hybrides où « les effets matériels, cinétiques et immatériels se combinent très étroitement. »

Agathe Bodelot

Pour aller plus loin :