[CONVERSATION] Juliette Mattioli : Intelligence Artificielle, nouveau levier de croissance pour l’intelligence économique ? [2/2]

L’intelligence artificielle représente un enjeu considérable dans une multitude de domaines depuis maintenant plusieurs siècles. Revenons sur les fondamentaux de cette technologie et voyons à quel point elle peut s’avérer stratégique dans les affrontements étatiques. En entretien avec Juliette Mattioli, spécialiste émérite de l’intelligence artificielle, expert sénior en I.A. chez Thalès et présidente du hub DSAI du pôle de compétitivité Systematic Paris-Région.

PIE : Comment l’IA impacte-t-elle les entreprises dans leurs activités quotidiennes et leur fonctionnement ?

Juliette Mattioli : On retrouve plusieurs exemples concrets de l’impact de l’I.A. au sein des organisations. Nous avons des entreprises qui utilisent cette technologie pour mieux gérer des call center, leurs boîtes de réception en B2C et automatiser leurs boîtes mails avec des réclamations clients qu’il faut traiter. Par exemple, une des premières applications de l’I.A. dans les call centers a été de pouvoir trier automatiquement ses mails pour pouvoir les envoyer à la bonne personne selon la problématique (maintenance, facture, etc.).

La difficulté aujourd’hui se retrouve surtout pour les PME et les petites entreprises, qui ne sont pas forcément des entreprises technologiques mais qui peuvent toutefois, elles aussi, profiter de cette technologie. Notamment, il est intéressant de mentionner le hub France I.A, une association qui aide les petites structures à comprendre et développer des applications à base d’I.A. Cela peut toucher des domaines auxquels nous n’aurions jamais pensé au préalable (optimiser un parcours client, le marketing, la mode, etc.).

Cette discipline est applicable dans les activités quotidiennes : la gestion de la connaissance d’une entreprise, l’optimisation des process. Un autre exemple, dans le domaine des ressources humaines, pour l’appariement entre l’offre et la demande, afin de faire un premier tri des CV par rapport aux demandes d’emploi, un peu comme un « meetic » de l’emploi. Il y a vraiment une multitude d’activités dans lesquelles on peut utiliser de l’I.A.

 

PIE : Arrive-t-on à mesurer les retombées économiques de l’IA de manière tangible ? Avez-vous des exemples ?

JM : Oui totalement, on peut mesurer à la fois les retombées sociales et économiques. Par exemple chez Thalès, nous avons fait une étude pour un système de maintenance d’une flotte de système pour lequel il y avait des contrats de maintenance (réguliers). Nous avons réussi à optimiser la maintenance de ces flottes grâce à l’I.A. et mis en place une maintenance prédictive qui permet d’optimiser ces plannings de maintenance et de réduire de presque 50 % le coût de maintenance de production. On peut également penser à utiliser l’I.A. pour optimiser un processus, notamment via le machine learning afin de comprendre la non-qualité de certaines pièces dans des chaînes de production. D’autres usages permettent de gagner de nouveaux clients ou des contrats beaucoup plus rapidement. Il y a donc beaucoup d’usages dans lesquels les retombées économiques se mesurent assez rapidement, particulièrement pour ce qui est de l’opérationnel ou la production industrielle.

 

PIE : Comment expliquez-vous l’écart d’avancement de la recherche en IA entre les pays ?

JM : C’est un problème à la fois de moyens et de population. Les pays qui dominaient le secteur étaient autrefois l’Angleterre et les États-Unis. Aujourd’hui, la Chine commence à dépasser les États-Unis, ne serait-ce qu’en nombre de publications dans les grandes conférences scientifiques. La population joue un rôle important dans ces résultats, il y a forcément plus de chercheurs en Chine qu’en France au vu des différences entre les deux populations.

 

PIE : L’I.A. permettra-t-elle de compenser la faiblesse démographique de certains pays ?

JM : Cela dépend de ce que l’on appelle « faiblesse démographique ». L’I.A. permettra de compenser cette faiblesse démographique dans certains cas mais pas dans tous. L’I.A. ne va pas remplacer l’homme mais le suppléer comme étant d’un grand secours pour les populations vieillissantes. On peut imaginer des solutions basées sur l’I.A. comme des systèmes de monitoring au niveau de la santé, des mini-compagnons pour le ménage, de l’automatisation de certaines tâches qui vont permettre de s’occuper des personnes âgées. De plus, des nouveaux métiers vont apparaître tandis que d’autres vont disparaître pendant que certains vont évoluer. Néanmoins, le rapport humain et social ne pourra pas être remplacé par une machine.

 

PIE : Comment l’irruption de l’I.A. révolutionne-t-elle la guerre de l’information et comment la France peut-elle se prémunir de ce nouveau risque émergent tout en ayant des armes de riposte ?

JM : La guerre de l’information n’est pas nouvelle, les moyens pour la faire le sont et de plus en plus via l’I.A. C’est particulièrement vrai pour les fake news (deep fake de propagandes, images détournées…).

Pour se prémunir de ces fake news, il faut apprendre à être sceptique lorsque l’on utilise les médias numériques où l’émergence de ces médias permet le partage viral de ces fausses informations et donc de faire de la guerre de l’information. Certaines grosses agences de presse ou médias commencent à avoir des cellules d’I.A. afin de trier le vrai du faux. Il y a trois ou quatre ans, un journaliste de TF1 a expliqué à Vinatech qu’il fallait de plus en plus recouper les informations pour être sûr de leurs véracités, on en revient sur l’idée de l’I.A. de confiance. En effet, l’accessibilité à ces moyens pour fabriquer des fausses informations crédibles et les diffuser sur les médias digitaux se démocratise.

 

PIE : Dans l’IA, nous avons repéré que la puissance de calcul à travers l’ordinateur quantique était un catalyseur pour son développement, en existe-t-il d’autres moins connus ?

JM : Il est sûr que le quantique représente une rupture majeure dans le secteur de l’I.A. et des technologies du numérique plus largement. Dès que l’on va commencer à pouvoir faire du calcul quantique, de nouveaux algos pourront être créés et l’on va rentrer dans une autre dimension.

En revanche, les technologies numériques sont tout sauf « green ». Leur empreinte carbone n’est pas bonne car elles consomment énormément d’électricité. Pour répondre à cette problématique, il existe un mouvement autour de l’I.A. et du machine learning, pour réfléchir à de l’I.A. frugale, en terme d’énergie (et de données) allant vers une I.A. plus verte, peu consommatrice d’énergie donc peu polluante pour la planète. Ces recherches sont notamment menées par une chercheuse appelée Julie Grollier, qui conçoit des architectures  très peu énergivores (Beyond CEMOS).

 

PIE : Quels sont les enjeux éthiques de l’IA ?

JM : On retrouve des enjeux très techniques sur l’éthique, la responsabilité, la transparence. Par exemple, lorsque l’on apprend, nous avons forcément des biais et il faut développer des outils, des méthodes pour qualifier ces biais afin de les identifier et les maîtriser. Ces biais sont également présents lorsqu’on modélise, (biais culturels de modélisation). En effet, un européen ou un asiatique n’aura pas la même façon de résoudre un problème. L’éthique est quelque chose d’assez complexe, heureusement l’Europe a sorti des recommandations, qui permettent de se poser les bonnes questions.

 

PIE : Le moratoire sur l’I.A. en Europe est-il un frein à la puissance de la France dans le domaine et notamment dans les stratégies géopolitiques de prise d’avantage technologique ? Avec le risque de dépendance que cela peut inclure.

JM : Une législation se prépare, avec l’A.I. Act qui va imposer des contraintes ou des standards dans le domaine de l’I.A. des systèmes critiques ou lorsque l’homme est dans la boucle. Cela peut constituer un frein parce que les systèmes critiques sont utilisés depuis longtemps et avec déjà des réglementations ou des certifications (avions, voitures…). Rajouter des contraintes supplémentaires juste parce qu’on met de l’I.A. peut potentiellement freiner les choses et rendre réticentes les entreprises. Ainsi, un système critique à base d’I.A. doit a minima respecter les mêmes contraintes qu’un système critique « classique ». Par exemple, certains systèmes, comme la vidéo surveillance et leurs usages extrêmes, ont déjà des lois qui nous protégeaient d’éventuelles dérives d’utilisation. Donc oui ça peut être un frein si l’on va trop loin dans la législation et la standardisation, c’est pourquoi la France se structure pour devenir un acteur de la standardisation avec le pilier 3 du Grand Défi National de l’I.A. de confiance.

 

PIE : Aujourd’hui, quelles sont les prochaines étapes incontournables au développement de l’IA ?

JM : Pour que l’I.A. se développe, il faut qu’elle arrive de plus en plus dans des systèmes, des produits et des solutions offerts à tous. Pour cela, il est nécessaire d’éduquer la population à l’image de la Finlande qui a lancé une initiative très intéressante : créer un MOOC accessible à tous pour sensibiliser les citoyens à l’usage de l’I.A. ayant pour objectif de former chaque année au moins 2 % de la population. La première étape passe donc par l’éducation de la population à l’intelligence artificielle.

La deuxième étape s’axe sur la formation scientifique et technique. Il est important de former la population assez tôt, très vite après le bac pour avoir des ingénieurs de l’I.A. et pas forcément des chercheurs. Promouvoir cette culture et la rendre accessible aux ingénieurs va permettre de transformer des preuves de concept afin de revisiter la plupart des domaines d’activités via le prisme de l’intelligence artificielle.

 

Propos recueillis par Yacine Ioualitene pour le club Data Intelligence

 

Première partie : [CONVERSATION] Juliette Mattioli : Intelligence Artificielle, nouveau levier de croissance pour l’intelligence économique ? [1/2]

Pour aller plus loin: