ChatGPT et l’intelligence économique : implications et opportunités

Une révolution par l’intelligence artificielle (IA) se prépare. ChatGPT en est le symptôme : entre les progrès qu’il promet et les risques qu’il fait peser, les professionnels de tous les secteurs cherchent à saisir les opportunités offertes par l’outil autant qu’à se prémunir de ses risques. Retour sur les implications de ChatGPT pour les différents métiers de l’intelligence économique (IE).

GPT derrière ChatGPT

Malgré ses 10 milliards de dollars d’investissement par Microsoft et une valeur estimée de 29 milliards de dollars en 2023, la société Open AI LP n’est que récemment devenue l’objet de toutes les attentions. En cause, le lancement de ChatGPT, accueilli par une ruée d’utilisateurs, dont le nombre a atteint 100 millions en janvier.

ChatGPT est un outil conversationnel, c’est-à-dire capable d’entretenir une conversation d’apparence humaine – à l’image des bots commerciaux largement répandus. Sa particularité réside dans l’IA sur laquelle il s’appuie : la version 3.5 de « Generative Pre-trained Transformer » (GPT), une IA générative capable d’une forme de création et de prédiction. Version après version, GPT a vu son nombre de paramètres augmenter pour atteindre aujourd’hui 175 milliards de paramètres – soit des fragments de savoir, issus de sources en ligne telles que Common Crawl, Wikipédia et divers corpus littéraires. Ces paramètres constituent le jeu de données sur lequel s’entraîne le système d’apprentissage. Son architecture Transformer lui permet ensuite de répondre à des questions complexes par le traitement simultané de nombreux éléments. Enfin, l’apprentissage par renforcement (RLHF) procure à GPT un jeu de données complémentaire d’entraînement, à partir des retours effectués par des humains sur les propositions de ChatGPT.

En matière d’usages, la version grand public de ChatGPT peut faciliter la recherche d’informations en ligne pour une audience profane et sa restitution en langage accessible. Il existe toutefois une version payante pour les professionnels, incluant la possibilité de l’entraîner sur les données et modèles du client. Quant à GPT, de nombreuses applications (la plateforme Canva, la legaltech Lexion, etc.) intègrent déjà son IA et s’appuient sur elle pour développer d’autres outils. GPT pourrait ainsi devenir le socle d’activités multiples (création de sites, relation client, recherche sémantique, création de contenu, etc.) à travers tous les secteurs et métiers, et notamment ceux de l’IE.

Un outil pertinent pour la recherche d’informations en sources ouvertes

ChatGPT pourrait s’avérer particulièrement utile pour la recherche en sources ouvertes. Il dispose tout d’abord d’un atout majeur, l’outil maîtrise en effet près d’une centaine de langages naturels facilitant d’autant l’accès à l’information étrangère. Grâce à sa capacité d’analyse sémantique, ChatGPT permet également d’identifier les mots-clefs et ressources sur un thème de veille donné, une étape fondamentale et jusqu’ici non-automatisable. Il pourrait aussi permettre d’automatiser les tâches d’étiquetage des contenus remontés par la veille. Il a également la capacité de gérer des quantités de données très importantes : en lui fournissant des informations qualifiées et à jour, ChatGPT pourrait rédiger des veilles quotidiennes, ou encore mener une due diligence.

De cette masse de données, ChatGPT est aussi capable de tirer des tendances. En l’entraînant sur des données sensibles tels que des rapports des services de renseignement, GPT pourrait détecter des signaux faibles et informations erronées. L’IARPA, développe d’ailleurs une IA similaire, le projet REASON, permettant de fournir de nouvelles pistes de réflexion aux analystes.

Cependant, plusieurs limites sont à noter : la base de données de GPT est pour le moment limitée à un contenu datant de 2021, ce qui impacte la fraîcheur de ses réponses. Cet obstacle pourrait être surmonté en connectant l’outil au web et ainsi fournir des informations en temps réel. Aussi, la pertinence des informations fournies interroge : ChatGPT donne parfois des informations erronées, ce qui est d’ailleurs lié à son fonctionnement intrinsèque car l’outil ne fait que prédire le mot suivant, la probabilité primant ainsi sur la véracité et la qualité de l’information.

Une autre problématique réside dans le sourcing des informations, car les bases de données utilisées par Open AI sont relativement opaques. D’ailleurs, ChatGPT ne fournit pas les sources des informations qu’il fournit, ce qui nécessite une vérification fastidieuse.

S’il est capable de réaliser nombre de tâches liées à la recherche d’information, cet outil  gagnerait à être couplé à d’autres méthodes de renseignement (HUMINT, SIGINT…) pour devenir un véritable outil d’aide à l’analyse, et in fine à la décision.

Des limites en termes d’analyse

En termes d’analyse, ChatGPT peine à proposer des pistes d’analyse et de prospective fiables, du fait des limites précédemment évoquées – manque de fraîcheur de sa base de données et absence de sourcing. Il s’agit toutefois d’un outil de synthèse très efficace s’il est entraîné sur les données idoines, il est ainsi capable d’effectuer des listings ou de construire des grilles d’analyse managériale. Il peut, par exemple, fournir des analyses SWOT, une matrice PESTEL ou encore évaluer les forces de Porter sur un marché.

Il apparaît donc comme un outil précieux d’analyse stratégique : pour étudier un marché, fournir des indicateurs d’analyse et faciliter la visualisation rapide et synthétique d’environnements parfois complexes. Concernant l’analyse sectorielle, ChatGPT est aussi capable de fournir des recommandations pertinentes en matière d’influence, par exemple en cartographiant les entités, parties prenantes et leurs positions.

Plutôt qu’un outil autonome pouvant produire des analyses de façon indépendante, ChatGPT agit comme facilitateur de l’analyse stratégique qui sous-tend toute décision.

Un instrument d’appui aux opérations d’influence

En matière d’influence, ChatGPT présente nombre d’avantages, et en premier lieu celui de générer des contenus textuels réalistes et convaincants – à l’instar de DALL-E 2 pour les images. Cet outil est en effet susceptible de faciliter certaines tâches liées à la communication d’influence : sa capacité à générer des contenus réalistes mais plus ou moins véraces (faux titres accrocheurs ou articles ou posts de réseaux sociaux, etc.) recèle un potentiel de tromperie et de propagande. La croyance en une machine forcément « objective » renforce d’autant ce potentiel.

ChatGPT offre ainsi la possibilité de démocratiser l’influence, autant que d’industrialiser la manipulation de l’information : un groupe d’activistes ou un cabinet d’affaires publiques pourrait s’en saisir, en vue de saturer le législateur de lettres contestataires vraisemblablement émises par ses électeurs. En matière de lobbying, une étude a démontré que l’outil peut prédire la pertinence d’un projet de loi pour une entreprise donnée, à partir de son rapport annuel 10-K déposé auprès de la Securities and Exchange Commission (SEC).

ChatGPT est non seulement capable de générer des contenus réalistes rapidement et en nombre, mais aussi de les adapter à leur destinataire. Il peut ainsi tenir compte d’un point de vue donné, d’un certain niveau de langage ou même d’incarner un rôle spécifique. Cela permet de personnaliser le contenu et donc de renforcer sa force de conviction. À titre d’exemple, il peut s’agir de personnaliser les communiqués de presse auprès de journalistes ciblés, pour s’assurer qu’ils ne puissent les ignorer. Aussi, ChatGPT procure une plus grande discrétion aux opérations d’influence en ligne : en dépassant la répétition de contenus identiques qui caractérise les campagnes de bots, il permet de contourner les outils de détection des plateformes.

Toutefois, ces opportunités recèlent des risques au moins tout aussi grands : bien que ChatGPT ait été entraîné à refuser de répondre à des demandes jugées inappropriées, les problèmes liés à l’absence de contexte et de sourcing persistent. Le potentiel de désinformation est ici indéniable : une étude démontre que la capacité de l’outil à restituer de faux narratifs atteint 80 %, légitimant ainsi nombre de discours douteux ou complotistes. ChatGPT offre de fait un potentiel d’intoxication inextricable : il produit un contenu erroné, que ses utilisateurs sont susceptibles de diffuser en ligne, et que l’outil collectera ensuite comme contenu légitime. Les auteurs alertent sur le potentiel de manipulation d’un outil aussi vulnérable à l’empoisonnement de ses données d’entraînement, qu’un acteur étranger hostile pourrait réaliser à des fins de manipulation de l’opinion publique et de déstabilisation d’un pays.

La protection du patrimoine informationnel

En matière de protection de l’information, ChatGPT offre autant d’opportunités que de capacités de nuisance. Sur le terrain cyber, l’outil constitue une aide à l’ingénierie sociale pour la rédaction de courriels de spam ou d’hameçonnage, grâce à sa force de conviction évoquée ci-avant. Son caractère multilingue permet aussi de générer du code en différents langages de programmation, notamment des programmes malveillants tels que des malwares ou ransomwares et malgré une qualité discutable.

Concernant les données des entreprises, ChatGPT soulève plusieurs risques. D’abord, celui de la propriété intellectuelle des données d’entraînement de son modèle : le produit Copilot, issu du partenariat entre Open AI et la plateforme et filiale de Microsoft, Github, fait l’objet d’une vive polémique. Une plainte en justice a été déposée contre les trois entités, pour absence de crédit des créateurs du code sur lesquels Copilot a été entraîné. Se pose ensuite la question des fuites de données et des risques d’espionnage industriel qui en découlent : à mesure que le champ des usages de ChatGPT s’élargit, son exposition à des données sensibles s’accroît. Il en va ainsi des données internes divulguées par les employés d’Amazon via les instructions données à ChatGPT, et retrouvées par la suite dans les réponses de l’outil. Enfin, les modèles privés importés sur la version payante de ChatGPT sont supposément protégés de tout accès hormis celui du propriétaire. Si Open AI revendique une politique de confidentialité appropriée et transparente, la question de son application à l’outil ChatGPT reste en suspens.

Du point de vue des données personnelles, ChatGPT présente également plusieurs risques : vis-à-vis du Règlement Général sur la Protection des Données (RGPD) par exemple, l’outil ne permet pas aux utilisateurs de connaître les informations détenues sur eux, ni de réclamer leur suppression et ainsi de faire valoir le droit à l’oubli de leurs données.

Il existe aussi un risque de confidentialité sur les instructions données à ChatGPT par les utilisateurs, au-delà des informations divulguées par les utilisateurs eux-mêmes. Un cabinet d’avocat pourrait par exemple entraîner l’outil sur des documents juridiques contenant des données personnelles relatives aux parties prenantes, qui pourraient ensuite fuiter. Il convient enfin de s’interroger sur ce qui pourrait advenir de ces données dans le cas où ChatGPT serait racheté par un tiers.

Quelques préconisations

La révolution par l’IA se prépare et ChatGPT n’en est que la partie émergée. Malgré les nombreuses opportunités d’aide à la prise de décision qu’il offre, des limites et biais considérables existent. De ces derniers découlent plusieurs recommandations.

Du point de vue de l’analyste ou du veilleur, les limites de ChatGPT peuvent être atténuées en croisant les résultats, issus de méthodes alternatives ou de plusieurs outils d’IA.

Du point de vue plus général des acteurs de l’IE, il semble judicieux que le lancement imminent de GPT 4 fasse l’objet d’une veille, puisque le nombre de ses paramètres pourrait être multiplié par 500. Il convient aussi de se doter des capacités internes idoines à maîtriser ces outils au bénéfice des activités d’IE, notamment en matière de ressources humaines en « prompt engineering ».

Enfin, il est opportun de rester vigilant quant au flou juridique entourant ChatGPT – que les règlementations existantes (DSA, IA Act, etc.) peinent à couvrir – et au risque réputationnel que pourrait courir un utilisateur inconscient de ses limites.

Chloé Bureau et Jean Morel pour le club Data Intelligence de l’AEGE

Pour aller plus loin :