Rechercher
Fermer ce champ de recherche.

La collecte de l’information à 360° permet d’asseoir la Stratégie

Dans le cadre de notre coopération avec la CCI Paris Ile-de-France, Denis Deschamps, responsable du département Innovation et Intelligence Économique, nous livre son analyse sur la veille : l’importance des outils, mais aussi de l’humain ! Bonne lecture.

La veille permet, à partir d’une surveillance de l’information (c’est-à-dire « ce qui transforme celui qui la reçoit » et qui est stockée, mise à jour et en ligne), de repérer des enjeux à partir de faits choisis pour être de qualité (concernant, par exemple, les acteurs et tendances).

La veille est dite stratégique quand elle va au-delà d’une logique strictement défensive pour s’orienter vers une démarche plus offensive, ce qui se traduit aussi par une approche plus stratégique que tactique.

C’est pourquoi cette veille stratégique qui vise à réduire l’incertitude (par exemple, par une meilleure connaissance du marché), à raffiner l’analyse en diminuant le nombre d’erreurs, en même temps qu’elle contribue à simplifier les indicateurs de performance, se rapproche aujourd’hui de l’analytique avancée correspondant au Big / Smart Data :

  • Analyse structurée fondée notamment sur des critères « marketing » (segments, groupes…) et également, avec la prise en compte des facteurs culturels, une logique d’empathie avec le concurrent (volonté de comprendre le « pourquoi » de l’autre…)
  • Analyse prédictive (et non prospective) fondée sur de l’analyse statistique de masses de données, à partir notamment des écarts entre les valeurs réelles constatées et les valeurs prédites.

A la veille correspond ainsi une approche utilitaire de la donnée : elle permet une action dans un cadre prédictif (combinatoire des possibles, avec aussi croisement des données externes et internes) plutôt que simplement probable à partir de la surveillance effectuée :

  • Collecte externe : à partir des moteurs de recherche sur le deep web (avec crawl des noms de domaines et indexation des contenus ignorant les fichiers robots.txt[1]), pour pouvoir récupérer des données en masse (volume) et de différentes natures (variété), pour les compiler (données chiffrées) en temps réel (vitesse) en une cartographie cohérente et lisible. Exemple : rattachement d’un numéro de téléphone récupéré sur le web à partir d’un fichier Excel à un fichier média (photo ou image).
  • Collecte interne : à partir des données internes, qu’il s’agisse de BDD clients, historiques et SAV… des banques, sociétés d’assurance et des professionnels du tourisme.

Dans le même temps, le veilleur tend à devenir un « community manager » qui permet de mieux se connaître au sein des équipes, aujourd’hui composées de digital natives, de créer des rapprochements (constitution de business communities via un match-making en ligne, le partage d’informations sur des événements), en même temps qu’il contribue à la prise décision stratégique et à l’influence.

Aussi, au-delà de l’interrogation sur l’émergence possible d’une gouvernance algorithmique,  il faut bien voir que le veilleur doit être aussi ingénieur et disposer d’une formation pluridisciplinaire comportant les statistiques et l’informatique pour pouvoir analyser les méga-données exploitables et structurées (en particulier les données publiques libérées) dont le flux constant fait toute la valeur.

Aux côtés du Data scientist, on voit ainsi apparaitre des nouveaux spécialistes comme le Chief data officer (CDO), le growth hacker, le computer scientist…

En tout état de cause, malgré les outils de plus en plus puissants, l’intervention humaine du veilleur / analyste sera toujours nécessaire pour croiser les données obtenues à partir de l’information blanche (analyse sémantique des liens hypertextes indexés sur le Web) et repérer en temps réel les signaux faibles pour élaborer des analyses prédictives pouvant servir de bases à des simulations, évaluations et des décisions.

Mais il faut alors aussi bien faire attention aux signaux faussés par le bruit émis notamment par les « digital natives » qui tendent maintenant à investir la twittosphère alors qu’ils ne représentent encore qu’une part infime de la réalité vraie… On ne le répétera en fait jamais assez, une expertise humaine sera toujours indispensable pour évaluer la bonne qualité des données (en particulier, au regard de leur fraîcheur et de leur traçabilité), rédiger des requêtes adaptées et traiter de manière appropriée les résultats obtenus.

Enfin, comment ne pas évoquer aujourd’hui l’écueil pour ce veilleur isolé, de la captation / réintermédiation par le GAFATIM (Google, Apple[2], Facebook, Amazon + Twitter, IBM, Microsoft) des données massives et algorithmées que l’on veut traiter / analyser… ?

Aussi, et au-delà même du GAFATIM, que penser maintenant de la capitalisation de données sur le Cloud (avec le rôle des Data centers pour l’hébergement de données…) et de leur très grande instantanéité (avec les relations de serveur à serveur…) ainsi que leur multiplication exponentielle avec le développement de l’Internet des objets (avec le développement de SIGFOX, par exemple… pour de nouveaux besoins).

Denis DESCHAMPS

Diplômé de Sciences-Po Paris (1989), Denis Deschamps dirige depuis 2006 l’ARIST Paris Ile-de-France (Agence régionale d’information stratégique et technologique) et est par ailleurs responsable du département innovation et intelligence économique de la CCI Paris Ile-de-France. Entre 2000 et 2006, il a été Secrétaire général du CROCIS (Centre régional d’observation du commerce, de l’industrie et des services), puis responsable du pôle études régionales, information stratégique et technologique de la CCIP.


[1] Le caractère licite / légal de cette veille « pirate » est d’ailleurs mis en cause par des medias en ligne à l’encontre des logiciels de veille et des agrégateurs de contenus.

[2] Fin 2014, avec une capitalisation boursière de 700 Milliards de dollars, Apple conforte sa première place mondiale devant Exxon et Google.