Enjeu technologique central pour les décennies à venir, l’IA est aussi un vrai sujet politique et géopolitique, théâtre de rapports de force entre entreprises et États. Au centre de ces rivalités, la normalisation apparaît comme un élément clé des débats, pour imposer sa vision et conquérir de nouveaux marchés. Pendant plus d’un an, les membres du club Influence de l’AEGE ont travaillé en collaboration avec l’AFNOR sur cette guerre normative dans la course à l’IA, publiant un rapport synthétisé dans cet article.
Retrouver l'intégralité du rapport du club Influence de l'AEGE ci-après : L'intelligence artificielle : les normes comme outil d'influence.
La décision de l’administration fiscale d’avoir recours à une solution logicielle basée sur une intelligence artificielle (IA), développée par Capgemini et Google, pour traquer les contribuables fraudant les impôts fonciers a fait grand bruit durant l’été 2022. Elle rappelle deux éléments fondamentaux que sont l’importance de l’IA comme technologie de rupture, mais surtout l’importance de développer une vision souveraine sur ce sujet, en ne laissant pas des acteurs étrangers imposer les futures règles encadrant la technologie de l’IA et de son marché.
Ainsi, cette affaire a été une nouvelle confirmation de l’importance croissante des solutions basées sur l’IA dans un futur proche. Cette technologie s’impose véritablement comme un enjeu incontournable des décennies à venir sur les plans technique et politique. Du fait de la puissance et des possibilités qu’elles ouvrent, les solutions reposant sur l’IA ont pour corollaire de soulever d’importants débats éthiques. En effet, il convient de s’interroger sur la façon dont un logiciel peut être utilisé pour surveiller des individus, sur les modalités de stockage des données récoltées, mais également sur l’identité des acteurs qui y ont accès. Le cas d’espèce en est un bon exemple, puisque si l’on observe le potentiel immense du logiciel utilisé par la DGFIP pour traquer les contrevenants fiscaux, on perçoit aussi comment cette même technologie pourrait être nocive si elle tombait en de mauvaises mains…
Cette affaire a nécessairement fait couler beaucoup d’encre ; certains se désolant que l’administration fiscale choisisse de faire traiter des données aussi sensibles que celles des contribuables français sur des serveurs et via des technologies liés à la société Google. Et pour cause, le recours à une entreprise américaine fait peser un risque réel de data mining, voire d’utilisation des données transmises par la DGFIP.
Si cette affaire fait débat, c’est justement parce que les décideurs, comme les français, ont bien conscience de l’enjeu crucial qu’est l’IA. Les TPE, PME et ETI du secteur ont bien conscience de la problématique sous-jacente : tout se joue maintenant, avant la fin de la décennie. Si les entreprises tricolores ne parviennent pas à imposer leur modèle rapidement, ce sont les géants chinois et américains qui le feront, comme ils l’ont déjà fait lors de la phase d’adoption du Web 1.0 et 2.0 ou des smartphones.
En effet, la performance et la nature des modèles d’IA sont en grande partie tributaires des données avec lesquelles ces IA sont entraînées. Si nous ne développons pas rapidement nos propres modèles d’IA construits avec nos propres données, il est largement envisageable que nous subissions les modèles américains et chinois. Auquel cas, la dimension éthique chère à l’Europe du numérique n’aura aucune chance de s’imposer dans ce secteur.
L’enjeu, pour les entreprises de l'Hexagone, est donc de parvenir à s’imposer dans cette course à l’innovation, alors que celui des décideurs publics est d’offrir aux acteurs de l’IA des moyens d’action pour s’imposer durablement dans ce secteur hautement concurrentiel.
La normalisation est donc un axe stratégique clé pour les acteurs publics et privés. Souvent sous-estimée, elle se situe pourtant au cœur de la démarche de souveraineté économique, dont elle est probablement l’outil d’influence le plus structurel. La norme n’est pas seulement une contrainte pour les entreprises ou un simple standard visant à protéger les consommateurs : elle peut véritablement être une arme concurrentielle.
En effet, tenir la norme c’est tenir le marché. Pour s’en persuader, il faut revenir au fondement même de la normalisation et de sa définition. La norme est à un marché, un secteur ou une technologie, ce que les règles de grammaire sont à une langue. Elle permet aux acteurs d’un même écosystème d'interagir selon des règles communes.
Il va de soi que, lorsque l’on est soi-même un joueur, pouvoir participer à la rédaction des règles permet d’en tirer un avantage conséquent, en promouvant une vision ou des principes qui nous assureront la victoire une fois le coup d’envoi donné.
C’est ce qui explique la véritable guerre d’influence que se livrent depuis plusieurs années la Chine et les États-Unis, imposant leur vision par les normes qu’ils écrivent et font passer dans les comités de normalisation comme l’ISO.
L’empire du Milieu suit ainsi les principes de son grand programme Made in China 2035, qui fixe un projet de conquête des marchés des nouvelles technologies par le biais des normes. Le sous-projet « China Standards 2035 » développe ainsi une stratégie propre à imposer les vues chinoises, tout particulièrement dans le domaine de l’intelligence artificielle. Cette stratégie passe par une présence accrue de la Chine au sein des principaux organismes de normalisation, à savoir l’International Organization for Standardization (ISO) et l’International Electrotechnical Commission (IEC).
Cependant, cette présence n’est que la partie émergée de l’iceberg de la stratégie chinoise. En effet, Pékin aspire aussi à la constitution de normes nationales, non reconnues sur le plan international, mais qui s’appliqueront de facto par l’abondance de produits chinois « normés » sur le marché.
Les États-Unis, quant à eux, adoptent une vision plus libérale de la normalisation dans le secteur de l’IA. Là où la normalisation chinoise est véritablement impulsée et dirigée par l’État central, la plupart des initiatives américaines sont issues du secteur privé : l'American National Standards Institute (ANSI), se contentant le plus souvent de coordonner les acteurs privés américains et de les représenter au niveau international. Cette vision libérale de la normalisation « à l’américaine » s’explique par le caractère très singulier de leur politique d’innovation. Dans les secteurs du numérique, les entreprises américaines – notamment de la Silicon Valley – sont sur-innovantes, produisant de véritables technologies de pointe qui sont normalisées selon les standards américains avant d’être utilisées par les entreprises et les acteurs du monde entier.
En ce sens, le cas de TensorFlow est particulièrement emblématique. Cette technologie de deep learning, développée par Google, est devenue une « brique de base » de l’écosystème IA ; à la fois parce que l’offre de Google changeait la donne, mais aussi parce que les développeurs du monde entier, conscients de la supériorité technologique des GAFAM, ont adopté ce système afin de ne pas « rater le train ». Cette adoption de masse des technologies américaines conduit ainsi à l’adoption d’une norme de fait, selon la technologie américaine pionnière. Une fois cette norme de facto adoptée par tous les constructeurs, il suffit alors de les mobiliser pour la transformer en norme de droit, via un comité de normalisation international.
On perçoit parfaitement la façon dont les normes, supposément conçues par des entités publiques, sont en réalité largement impulsées par des entreprises privées, leaders sur leurs marchés. C’est ainsi que la Chine et les États-Unis investissent des ressources massives pour créer des technologies de rupture, fondement d’une normalisation opportuniste mais agressive.
Or, face à cette véritable guerre économique entre Chine et USA – dont l’expansion normative n’est qu’un volet, la Commission européenne (puis la France), a lancé une importante stratégie visant à réduire l’influence des normes étrangères dans l’Union européenne (UE). Ainsi, les normes devront impérativement être alignées sur les objectifs politiques et les valeurs de l’UE en matière d’IA, tout en « encourageant l’innovation ».
Dans le dispositif européen, trois organisations sont nommées pour mener ces opérations : le Comité européen de normalisation (CEN), le Comité européen de normalisation en électronique et en électrotechnique (CENELEC) et l’Institut européen des normes de télécommunications (ETSI). La stratégie européenne prône ainsi une conformité directe aux règles de l’UE : une entreprise qui suivrait les normes de ces comités de normalisation serait alors réputée comme suivant les règles de l’UE.
Si cette stratégie européenne présente au moins l’intérêt d’être une tentative ambitieuse pour que les nations européennes restent dans la course à l’IA, elle semble malgré tout vouée à l’échec, d’un point de vue franco-français. En effet, au sein même de l’UE, les intérêts industriels des Européens ne sont pas semblables. Les Allemands et les Français se sont fréquemment affrontés sur des enjeux de normalisation, précisément parce que le pays qui parvient à imposer son standard au niveau européen gagne – le plus souvent – l’ensemble des marchés associés.
C’est ce constat d’une politique de normalisation française, certes existante mais au mieux ingénue – au pire naïve, inapplicable et inefficace, qui a poussé les rédacteurs de ce dossier pour l’AFNOR à prodiguer une série de recommandations visant à rendre à la France son influence normative au sein de l’UE et dans le monde entier. Ces recommandations, largement détaillées dans le rapport complet, s’articulent autour de quatre grands thèmes :
Une valorisation des atouts français à travers une démarche active comprenant :
-
Faire de l’éthique un critère de conformité pour la mise sur le marché européen des systèmes d’IA
-
Mettre en place des hubs d’innovations regroupant l’ensemble des acteurs d’une chaîne de valeur (ex : Y-spot)
-
La priorisation des normes ciblées
-
Un meilleur positionnement dans les groupes de travail sur des normes ciblées
Introduire davantage d’intelligence économique dans la normalisation :
-
Utiliser AFNOR Compétences (organe de formation de l’AFNOR) comme un outil de diffusion et de vulgarisation de l’enjeu de la normalisation
-
Organiser des séminaires de sensibilisation à destination des chefs de TPE/PME dans les départements français, auprès de start-ups, de grandes écoles ainsi que d’autres acteurs concernés
-
Encourager la création d'un poste de « Normalization officer » dans les entreprises répondant à des critères précis
-
Mener une campagne informationnelle à destination du grand public sur les enjeux de la normalisation
-
Créer un think tank dédié à la normalisation
Une meilleure intégration de la normalisation dans le domaine de la recherche :
-
Utiliser les contrats de recherche pour inciter ou obliger la recherche française à participer à la normalisation
Favoriser l’impulsion de l’État :
-
Attribuer des subventions aux TPE/PME/start-ups du secteur de l’IA au travers du PIA, lorsqu’elles participent aux travaux de l’AFNOR
-
Attribuer des subventions spéciales dans la normalisation de secteurs stratégiques tels que l’intelligence artificielle
-
Mettre l’accent sur les cinq secteurs de développement énoncés dans le rapport Villani
-
Encourager la création d’un incubateur normatif qui s’appuierait sur le laboratoire de recherche scientifique, un N.I.S.T. à la française
-
Favoriser l’émergence des communs numériques et de l’open-source
-
Favoriser une gouvernance commune entre Data et IA
On l’aura compris ici, le chantier est colossal et prendra plusieurs années. Il a pour objectif premier de rallier tous les acteurs français à la cause de la normalisation, qu’il s’agisse des TPE/PME/ETI, des décideurs publics et des acteurs de la recherche scientifique, pour les impliquer davantage dans les processus de normalisation en les poussant à rejoindre des comités.
Ce qui ressort clairement des travaux du club Influence de l’AEGE sur les différentes stratégies normatives étudiées, c’est qu’il n’est pas nécessaire d’avoir une majorité de membres acquis à sa cause dans les comités de normalisation européens et internationaux, mais bien de disposer, dans les comités clés, de « têtes bien faites » qui vont initier des propositions de normalisation. Ces propositions, si elles sont bien défendues, peuvent amplement emporter les suffrages et s’imposer comme normes à tous. Et cela, la France en est largement capable.
Mais ici, finalement, l’enjeu n’est pas tant celui de la normalisation dans l’IA que de la normalisation elle-même : il faut réussir à intéresser les acteurs français à l’IA en les sensibilisant, en les formant et en leur montrant les avantages immenses, en termes économiques, qu’ils ont à s’investir durablement dans cette technologie. À défaut de concurrencer immédiatement les Américains ou les Chinois, cette remobilisation des acteurs hexagonaux sur le sujet de la normalisation permettra au moins de mobiliser la France dans une véritable posture de guerre économique.
Mat M. Hauser
Pour aller plus loin :