Considéré par beaucoup comme un nouvel Eldorado, le Big Data a saisi l’attention des pouvoirs publics qui en ont fait un des fers de lance de la nouvelle France industrielle. Mais la majorité des acteurs économiques français peine à intégrer cette innovation qui constitue pourtant une véritable révolution technologique aux applications potentiellement infinies.
Le terme Big Data signifie littéralement « grosses données », il se réfère à l’apparition de masses de données exploitables d’un volume sans précédent et en augmentation exponentielle. Á titre d’exemple, Facebook possède des données sur 26 millions d’utilisateurs actifs en France, soit près de 40 % de la population. La première mention du terme Big Data apparait en 1997 dans un article produit par des scientifiques de la NASA pour désigner le problème de la visualisation de données devenues trop volumineuses.
Au-delà des données, le Big Data désigne l’analyse qui en est faite et les effets révolutionnaires qui en découlent, que ce soit pour la rentabilité des entreprises ou les actions de la vie quotidienne. En France, dès 2009, le Crédit Mutuel Arkea a versé l’ensemble de ses données dans un système Hadoop, obtenant ainsi des analyses en temps record sur l’ensemble de ses opérations. Ce potentiel commence à être connu du grand public en 2011, notamment grâce à une étude du McKinsey Global Institute “Big data: The next frontier for innovation, competition, and productivity.”
Aujourd’hui, aucune activité n’échappe aux applications du Big Data. L’agriculture voit se multiplier les capteurs dont l’analyse des données permet d’améliorer la productivité des sols, et dans le domaine des assurances, l’analyse de masses de données est utilisée pour calculer les primes d’assurance individuelle. La ville de Santa Clara estime à 20 % la baisse de la criminalité induite par l’utilisation du logiciel Predpol qui prédit les futures infractions sur la base de l’analyse de 13 millions de crimes réalisés. Toutefois, produire des analyses pertinentes à partir de masses de données reste une tâche extrêmement délicate. Ainsi le logiciel Google Flu Trends, conçu pour prédire la propagation de la grippe aux États-Unis, a connu un échec, en raison d’erreurs commises dans la construction de l’algorithme.
Le Big Data constitue une formidable opportunité de création de valeur dont les entreprises françaises prennent rapidement conscience. L’Association française des éditeurs de logiciels estime la création de richesses liée au Big Data en France à 2,8 milliards d’euro et 10 000 emplois directs d’ici à 2019. En outre, l’édition 2014 du Big Data Index révèle qu’en France 43 % des directions informatiques ont étudié les opportunités induites par le Big Data, contre seulement 7 % en 2012.
Une révolution technologique
L’histoire de l’utilisation massive de données est déjà longue et se confond avec l’évolution de la statistique, mais le Big Data constitue aujourd’hui une rupture grâce à l‘interaction entre deux évolutions majeurs.
1. L’explosion du volume et de la variété des données disponibles.
- Les réseaux sociaux : 68 % des internautes sont présents sur au moins un réseau social.
- Les objets connectés à internet : comme les caméras, alarmes, compteurs électriques notamment, sont passés de 4 à 15 milliards entre 2010 et 2012.
- Les technologies mobiles : un Smartphone génère environ 60 gigabits de données chaque année. En 2018, les prévisions de l’entreprise Ericsson estiment qu’il y aura 3,3 milliards de Smartphones dans le monde contre un milliard aujourd’hui.
- La libéralisation des données publique (open data) : elle offre des gisements de données très fiables bien que beaucoup plus faibles en volume que les sources précédentes.
2. L’apparition de la technologie nécessaire au traitement de ces données à une vitesse s’approchant de l’instantané.
- Le « cloud computing » : constituant une dématérialisation des entrepôts de données, cette innovation permet de « louer » de la capacité de calcul et de l’espace de stockage, rendant l’infrastructure nécessaire à la réalisation de projets de Big Data accessible à tous.
- L’écosystème Hadoop : il permet de stocker et manipuler de très gros volumes de données en utilisant de nombreuses machines équipées de disques durs banalisés. Créé en 2004, il est aujourd’hui utilisé par 98 % des entreprises conduisant des projets de Big Data.
- Le NoSQL : constitue une structuration spécifique des bases de données adaptée aux grands volumes.
Des atouts français
La France dispose d’un système académique particulièrement performant dans les disciplines sur lesquelles s’adosse le Big Data. La demande de compétences autour du Big Data pourrait atteindre 4,4 millions d’emplois dans le monde en 2015 et seuls 40 % devraient être satisfaits. En France, les créations de diplômes se multiplient pour répondre à ce besoin. L’ENSAE, référence dans le domaine de la statistique, propose une spécialisation en « Data Science », de même que Télécom ParisTech, Télécom Nancy ou Grenoble INP. Les écoles spécialisées dans l’informatique, comme l’Epita, Ionis-STM ou l’Ensimag ont aussi rapidement adapté leur offre de formation pour y inclure le Big Data.
En outre, un tissu de start-ups françaises couvrant toutes les activités du Big Data est rapidement apparu :
- Création de données : que ce soit par fabrication d’objets connectés comme le t-shirt de City-zenSciences ou en rendant accessibles des données publiques comme vroomvroom.fr qui a obtenu auprès des pouvoirs publics les taux de réussite des auto-écoles afin de les diffuser.
- Outils d’analyse de la donnée: à titre d’exemple, Fifty-five et 1000mercis-numberly sont les champions d’un marché au taux de croissance extrêmement élevé.
- Exploitation de la donnée : notamment le logiciel Tranquilien qui permet de connaître à l’avance le taux de remplissage d’un train, il est produit par a la société Snips.
(source : Livre blanc sur le Big Data )
Aujourd’hui, il existe une volonté politique claire de soutenir ces atouts avec l’ambition affichée de faire de la France l’une des références mondiales de la gestion de masses de données. Ainsi le Big Data a été inclus dans les 34 plans de la nouvelle France industrielle présentés par le gouvernement en octobre 2013. Le plan Big Data vise à soutenir l’offre de formation et les start-ups françaises, mais aussi à adapter la réglementation jugée trop contraignante par plusieurs acteurs économiques.
D’importants blocages
Malgré des atouts certains et une volonté des pouvoirs publics, les entreprises françaises peinent à intégrer le Big Data. Sur une échelle de 0 à 5, le Boston Consulting Group évalue ainsi la maturité des entreprises françaises en matière de Big Data entre 1 et 2, contre 3 à 4 pour leurs homologues Outre-Atlantique. Selon une étude publiée par le cabinet Ernst & Young, seules 18 % des entreprises françaises sont en phase de déploiement de projets et les deux tiers des firmes considèrent que le Big Data est un concept intéressant mais encore trop vague pour constituer un levier de croissance.
Dans ce cadre, le coût du développement d’un projet de Big Data est encore dissuasif. Selon l’institut IDC, 45 % des entreprises interrogées ont dû dépenser entre 100 000 $ et 500 000 $ pour réaliser la migration de leurs bases de données vers Hadoop et 30 % d’entre elles, plus de 500 000 $.
Mais le principal blocage réside certainement dans la réticence des entreprises françaises à confier leurs données à de professionnels afin d’en permettre l’analyse. Selon l’International Data Corporation 70 % des données détenues par les entreprises ne sont toujours pas exploitées à des fins de création de connaissance.
En conclusion, le Big Data n’a pas réellement décollé en France et les champions du secteur restent américains. Cette situation est inquiétante dans la mesure où la maîtrise des données et leur analyse permet aujourd’hui d’obtenir une connaissance presque parfaite des actions d’un individu, d’une entreprise ou d’un gouvernement. Le Big Data est un important facteur d’accroissement de puissance dont il est indispensable que la France devienne un champion sous peine de voir nos données analysées par des acteurs étrangers. Selon Charles Huot, président du GFII et de l’Alliance Big Data, la maîtrise et la collecte de ces données seront certainement l’enjeu majeur du XXIème siècle.
Maxime Fernandez