Analyse

Le Big Data, un outil d’influence incontournable des campagnes électorales françaises et américaines : focus de 2008 à 2016

Le 14 mai 2020 par Samuel Limpar

Alors que l’année 2020 est celle des campagnes électorales en France et aux États-Unis, le club Data Intelligence s’intéresse à l’utilisation du Big Data dans l'analyse des données électorales et aux stratégies digitales employées par les candidats des deux pays. Flirtant parfois avec les limites de l'éthique, ces outils de méthodes d'analyse et de collecte de données à des fins électorales semblent aujourd'hui incontournables. Ce premier article est dédié à l’utilisation du Big Data dans les élections américaines et françaises entre 2008 et 2016.

L’émergence du Big Data dans la politique aux États-Unis

L’usage des méga-données est devenu un élément primordial des stratégies électorales contemporaines. Ces nouvelles techniques de campagne ont d’abord été introduites aux États-Unis, par le biais de la candidature d’Howard Dean à la primaire du parti démocrate en 2004.

 

Howard Dean a en effet accumulé et classé des données sur les militants démocrates et à créer des bases de données à grande échelle. Il a par la suite mis en place les premiers comités de soutien en ligne. Avoir une base de données bien fournie et de qualité est depuis, devenu un atout fort pour un candidat et un outil clé de sa communication. Après sa défaite, des membres de son équipe digitale ont fondé la société Blue State Digital, entreprise pionnière en stratégies de campagnes dirigées par les données. La société sera chargée de la campagne digitale de Barack Obama en 2008 et 2012. D’abord aux États-Unis puis en Grande-Bretagne, des programmeurs ont intégré les équipes de campagne et ont créé des start-ups visant à travailler les données dans un but électoral

 

L’utilisation politique des données dans le cadre des élections américaines depuis 2008 représente une innovation sur deux plans : d’une part celui de la constitution et la qualification d’une base de données politique exploitable, d’autre part celui de l’analyse stratégique et scientifique de ces données. En 2008, la campagne d’Obama a utilisé des méga-données pour mieux connaître l’historique du comportement des votants et cibler ainsi plus efficacement les opérations électorales sur internet et sur le terrain. Il a notamment utilisé le logiciel VoteBuilder du parti démocrate et requit les services de la société Catalist pour collecter des informations publiques, mais aussi privées sur 240 millions d’Américains en âge de voter. Ces informations comprennent l’âge, la typologie socio-professionnelle, le profil de consommateur ou encore les engagements civiques. En croisant ces informations, la campagne d’Obama a pu construire un modèle prédictif des intentions de vote et déterminer avec précision les zones géographiques et les quartiers où il est le plus utile de maximiser le militantisme. Cela a également permis d’adresser des messages « micro-ciblés » par e-mails, courriers ou autres, aux électeurs.

 

L’usage du « Big Data » en politique s’intensifie aux États-Unis et s’exporte en France 

En 2012, lors de la deuxième élection de Barack Obama, les stratégies de Big Data électoral prennent une nouvelle ampleur. En effet, l’analyse des données est développée à un niveau scientifique par les mathématiciens de la campagne OFA (Obama for America) 2012. Le succès de la campagne Obama repose indéniablement sur le déploiement de ses équipes sur le terrain. Ce déploiement terrain est appuyé par les données, mais aussi sur la capacité de développer un modèle pouvant anticiper les comportements électoraux de cibles, notamment les électeurs indécis à partir des données collectées et de leur analyse. Cela passe par l’établissement de profils d’électeurs-types, obtenus en croisant et en analysant une masse de données variées.

 

Le volume de données personnelles et d’informations électorales susceptibles d’être collectées a explosé en dix ans. Cette avancée est décisive, car plus grande est la précision des profils sociaux-électoraux, plus le ciblage des messages est efficace.

 

En France, le développement de ces nouvelles techniques de campagne s’opère dans une dynamique similaire. Dès 2009, un rapport de la fondation « Terra Nova » basé sur des entretiens réalisés avec les principaux acteurs de la campagne américaine de Barack Obama de 2008, met l’accent sur l’importance de la constitution d’une base de données qualifiée pour le Parti Socialiste (PS) français. Le rapport indique : Barack Obama a réussi le rêve « orwellien » de tout candidat américain : ficher l’intégralité du pays. Elle repose sur la technique du « micro-targeting » : il s’agit de consolider le maximum de bases de données existantes afin d’obtenir des données individuelles sur tous les électeurs. Depuis, l’importance du Big Data dans les cycles électoraux en France s’est renforcée, conférant à certaines entreprises spécialisées dans le Big Data électoral, un rôle stratégique dans les élections présidentielles, législatives et municipales. C’est notamment le cas de la start-up Liegey Muller Pons (LMP) dont le rôle dans la campagne de François Hollande en 2012 et celle d’Emmanuel Macron en 2017 a été très médiatisé.

 

De nouvelles technologies et de nouveaux outils renforcent l’ampleur des stratégies électorales basées sur le Big Data

Lors de l’élection présidentielle américaine de 2016, les stratégies électorales basées sur l’analyse des méga-données ont évoluées pour atteindre une ampleur inédite. L’irruption de nouvelles technologies, d’outils plus sophistiqués et de puissants algorithmes ont permis aux partis politiques américains d’améliorer leurs stratégies Big Data, de cibler les électeurs indécis et d'orienter leurs choix. 

 

Les candidats à l’élection de 2016, Hilary Clinton et Donald Trump, ont fait appel à plusieurs sociétés spécialisées dans le domaine de l’analyse de données électorales. Favorisées par le « Help American Vote Act », loi votée en 2002 qui met les données électorales à la disposition de tous, ces sociétés ont accès à une quantité importante d'informations publiques issues des précédents votes.

 

Une innovation importante en 2016 fût la collecte massive de données en provenance des réseaux sociaux et la diffusion de messages très ciblés. D’autres méthodes parfois peu éthiques, ont été utilisées telles que l’achat de données personnelles via des courtiers en données (« data brokers ») auprès d’entreprises privées. Par exemple, la National Rifle Association (NRA), le lobby des armes américain, n’hésite pas à transmettre des données sur ses membres aux partis démocrates et républicains. Ces procédés sont légaux puisque non encadrés par la loi américaine

 

La course aux armements Big Data entre les campagnes de Trump et Clinton en 2016

En traitant des millions de données personnelles accumulées à l'occasion des précédents votes auprès d’entreprises privées et sur les réseaux sociaux, les équipes de campagne des deux candidats ont pu construire des modèles prédictifs très efficaces afin d’orienter leur campagne de façon stratégique. La campagne d'Hillary Clinton a multiplié les dépenses et le recours à ces sociétés spécialisées (NGP Van, Civis, 270 Strategies, Analytics etc.). Cette campagne a été très sophistiquée et coûteuse sur le plan du numérique et sur l’usage du Big Data électoral. Pour collecter et analyser ces données, elle a utilisé les plus récents algorithmes d'apprentissage automatique et a débauché une soixantaine de développeurs venus des GAFA. À partir de ces données, les spécialistes data du parti démocrate ont construit un ensemble de modèles capables de prédire la probabilité que l'électeur aille voter, sa propension à militer et sa position sur certains thèmes de campagne. Force est de constater que cette campagne extrêmement sophistiquée sur le plan de l’analyse des méga-données s'est soldée par une défaite. Ainsi, les stratégies basées sur les données stratégiques ne sont pas le cœur décisif des processus électoraux et leur réelle influence sur les élections demeure difficilement mesurable. 

 

Donald Trump a aussi beaucoup misé sur le numérique et le Big Data lors de la campagne de 2016. La stratégie de Trump, plus audacieuse, a permis d'identifier plusieurs états délaissés ; la « ceinture de la rouille ». C’est ainsi que le candidat a décidé de se concentrer sur la Pennsylvanie et le Michigan. En outre, la campagne de Trump aurait visé 13,5 millions d'électeurs dans seize états, notamment dans le Midwest. Une stratégie payante qui démontre qu’il ne suffit pas de miser dans la collecte de donnée mais qu’il est nécessaire d’avoir une véritable stratégie politique permettant de les utiliser à bon escient, ce qui lui a permis de prendre l’ascendant sur Hillary Clinton dans le domaine du numérique. 

 

Le « Projet Alamo » de la campagne de Trump : analyse de mégadonnées et micro-ciblage de l’électorat

Donald Trump a mis en place une stratégie pensée par Brad Parscale, chargé de la campagne numérique. L’opération « Projet Alamo » a été mis en place et consiste en une stratégie d’analyse de donnée à grande échelle et de communication ciblée sur les réseaux sociaux. Brad Parscale a décidé de miser sur le réseau social Facebook pour mettre en œuvre une campagne de publicité d’une ampleur inédite. Dans le cadre de cette stratégie numérique, Trump a également misé sur la start-up américaine NationBuilder et sur la société Cambridge Analytica. NationBuilder est la start-up montante sur le marché du Big Data électoral. L'outil sert à collecter une multitude de données sur des individus : historique des votes, des dons, des comportements sur internet... L'assemblage de ces informations permettant aux partis politiques de cibler très précisément leur électorat potentiel et de rationaliser le travail de leurs militants. La campagne de Trump a aussi investi, courant septembre 2016, plus de 6 millions de dollars dans la « DMP » (Data Management Platform) de la société Cambridge Analytica. 

 

Cambridge Analytica était spécialisé dans l’analyse de données à grande échelle et le conseil en communication (la société a été liquidée en 2018). Son objectif était « de changer le comportement grâce aux données » et fonctionnait en mélangeant le traitement quantitatif de données, la psychométrie, la psychologie comportementale et le ciblage publicitaire. Les données collectées et utilisées par Cambridge Analytica sont de provenances diverses, mais une masse considérable est tirée de Facebook. En faisant appel à plusieurs statisticiens et spécialistes en psychométrie, la société a puisé dans le réseau social afin d’identifier les habitudes et préférences culturelles, sociales ou religieuses des utilisateurs. Au travers de méthodes peu éthiques, la société a eu accès aux comptes et aux données personnelles de plus de 87 millions d’utilisateurs Facebook. En complément aux données personnelles laissées par les internautes, Cambridge Analytica s’est appuyé sur des modèles issus de la psychologie afin d'identifier des profils psychologiques parmi une partie de l’électorat. Ces données ont permis de faire un profilage de chaque individu basé sur plusieurs centaines de critères.  L’objectif étant de déterminer dans un premier temps leur positionnement vis à vis de l’élection de 2016 et d’identifier les électeurs indécis et les zones géographiques les plus stratégiques. Dans un second temps, ces données stratégiques ont été utilisées pour diffuser des messages très ciblés en fonction du trait psychologique et des croyances des individus identifiés.   

           

Samuel Limpar

pour le Club Data Intelligence

Événements


Plus d'événements

Partenaires