Analyse

Le Big Data au service de la montée en puissance de l’IA Partie 4/4 : Applications dans le monde de l’entreprise : Quel avenir pour l’Intelligence Artificielle ?

Le 24 avril 2018 par Pierre-Alexandre CLAYET (Club Big Data et Intelligence artificielle)

Comme nous avons pu le voir, l’Intelligence Artificielle (IA) et le Big Data semblent se diffuser de manière assez rapide et trouver des applications dans des domaines variés et inattendus, que ce soit au sein de l’entreprise ou dans le domaine public. Au cours de leur histoire, le Big Data et l’IA ont eu une évolution non linéaire, une tendance qui semble perdurer et qui risque de s’accroître au cours des prochaines années. Si ces technologies semblent se diffuser massivement ces derniers temps, de nombreux défis émergent déjà pour barrer la route à leur progression. Cette partie n’a pas pour objectif d’être exhaustive, puisque prédire l’avenir est impossible, mais il nous semble toutefois pertinent de lister et de classifier les défis futurs de ces technologies.

Le Big Data et l'IA connaissent des problématiques similaires.  Pour comprendre cette interaction, il faut en premier lieu s’intéresser aux limites endogènes à ces technologies, c’est-à-dire aux limites qui ne dépendent que des chercheurs et des avancées scientifiques. Pour cela, nous parlerons d’abord des limites immatérielles avant de nous intéresser à leurs pendants matériels. Dans un dernier temps, il apparaît nécessaire d’évoquer les facteurs exogènes à ces technologies, c’est-à-dire tout ce qui empêche leur diffusion au sein des entreprises, mais qui n’est pas directement lié à la technologie.

 

Les problématiques endogènes du Big Data et de l'IA

 

Problématiques immatérielles

 

À l’inverse du suivi approfondi de la performance matérielle énoncé par la Loi de Moore, il n’est pas possible d’évaluer les progrès des techniques immatérielles des algorithmes de l’IA. Pourtant une grande partie des progrès du monde du numérique est poussée par l’amélioration de ces techniques et pas seulement par l’amélioration des performances du matériel. Notons que l’organisme Carreer-Cast, qui établit chaque année le classement des différents métiers, a placé en tête le métier de mathématicien dans sa liste des métiers d’avenir. Malgré cet intérêt, la Loi de Moore, qui voudrait que les performances soient doublées tous les deux ans au minimum, est loin de s’appliquer dans le domaine de l’IA. Ce sont les avancées matérielles qui ont permis aux techniques de Deep Learning, par exemple, de se développer, mais ces algorithmes commencent à vieillir et leurs performances s’améliorent peu. La révolution des années 2000 est à relativiser puisqu’elle est surtout le synonyme d’une percée dans le cadre des IA de type ANI, c’est-à-dire des Intelligences Artificielles spécialisées (ASI) dans un domaine très ciblé. Notons d’ailleurs que ces avancées ne viennent pas de l’émergence d’une nouvelle technique d'algorithmique, mais sont le fruit de l’innovation et de l’intégration : soit la capacité d’innover non pas de manière radicale mais par l’association de différentes méthodes et techniques déjà existantes. C’est avec l’Intelligence Artificielle intégrative que des avancées peuvent encore avoir lieu. Les meilleurs ambassadeurs de ces techniques sont les agents conversationnels tels que ceux que permettent de créer IBM Watson ou ses concurrents. 

 

Problématiques matérielles

 

Du point de vue matériel, les défis auxquels font face à l’IA et le Big Data ne manquent pas.

Leur développement récent s’appuie en grande partie sur l’augmentation générée par la Loi de Moore. Toutefois, si cette loi semblait être respectée jusque dans les années 1990, il semble qu’elle s'essouffle grandement depuis les années 2000 . De nombreuses pistes sont déjà à l’étude pour permettre de nouvelles avancées en matière de puissance de calcul. Chercher à augmenter coûte que coûte le niveau d’intégration, c’est-à-dire la vitesse de calcul (dont le seuil est actuellement de 14 nm), des transistors ne semble pas la meilleure idée. Le record d’Intel de 10 nm a été battu par IBM qui est descendu jusqu’à 7 nm grâce à la gravure en extrême ultraviolet. En revanche, ce procédé rend très couteuse la fabrication des transistors. La Loi de Moore étant un ratio Puissance/Prix, cette piste pourrait être abandonnée au profit d’autres solutions comme la création de processeurs spécialisés sur le modèle des réseaux neuronaux. Puisque ce sont eux qui posent de nombreux problèmes, pourquoi ne pas changer de technologie au niveau de la construction des transistors, comme l’utilisation de transistors au graphène en cours de développement par IBM ? Une évolution encore plus radicale, vise à utiliser des processeurs fonctionnant via des photons, et non des électrons qui sont bien plus lents, pour augmenter considérablement la capacité de calcul de nos ordinateurs. Enfin, bouleversement copernicien du monde de l’informatique : pourquoi ne pas utiliser l’ordinateur quantique qui ne traite plus l’information de manière binaire, mais de manière analogique comme peut le faire le cerveau humain.

 

À l’inverse des processeurs CMOS, la Loi de Moore s’applique que ce soit pour la mémoire vive, comme pour le stockage en dur. Les capacités futures de stockage semblent évoluer proportionnellement à l’évolution du Big Data et aux besoins de l’IA. Alors où se situe le problème ? Au niveau de la vitesse de gravure de l’information : aujourd’hui les bus de communication sont plus rapides que les procédures d’accès et de stockage à l’information elle-même sur les disques. C’est particulièrement problématique pour les Intelligences Artificielles de type agent conversationnel qui stockent l’ensemble de leurs informations en RAM pour y accéder au plus vite. Sans cette capacité à accéder à l’information en temps voulu, l’augmentation de la puissance de calcul est inutile.

 

L’IA est un domaine fortement lié aux sciences cognitives. En effet, comme nous avons pu l'aborder dès la première partie, celle-ci a pour but d’imiter le fonctionnement du cerveau et de l’intelligence humaine. Or, ce qui nous caractérise en premier lieu, est notre conscience de soi et du monde qui nous entoure. Pour cela, l’Homme dispose de tout un tas de capteurs sensoriels qui lui permettent d’appréhender son univers immédiat. Il est encore nécessaire de faire des progrès dans les technologies utilisées par les capteurs pour améliorer la perception du monde que peuvent avoir les machines. Ces dernières devraient rapidement être capables de copier l’Homme en multipliant les capteurs, puis de le dépasser en transcendant la portée des capteurs de l’Homme. Imaginons une Intelligence Artificielle de type AGI ou ASI connectée aux réseaux de capteurs d’une Smart City… le champ des possibles semble infini ! À l’inverse, les capteurs communiquent aussi dans l’autre sens : de l’Homme vers la machine. Cette éventualité est déjà fortement exploitée en médecine pour permettre aux amputés de bénéficier d’un bras mécanique.

 

Comme l’ensemble des technologies numériques, l’émergence de l’IA présente de nombreux risques de sécurité. Ses failles se présentent sur de nombreux aspects : dans les réseaux par lesquels elle communique et le cloud dans laquelle elle travaille ou puise et stocke ses données, dans ses capteurs, dans son alimentation en énergie, etc. Les bases de données peuvent aussi être induites en erreur par l’injection d’informations erronées visant à altérer le comportement de l’IA. Cela pourrait avoir des conséquences dramatiques, dans le cadre d’une application médicale par exemple. Inutile d’insister sur les mythes autour d’une IA qui deviendrait folle ou tueuse. Dans un cas comme dans l’autre, nous devrions rapidement voir apparaître des formes d’anti-virus du Machine Learning pour se prémunir de cas comme ceux-ci. C’est aussi pour prévenir ces dérives qu’Elon Musk a créé Open AI, une organisation dotée d’un milliard de dollars en charge de surveiller et de faire des recherches pour s’assurer que l’évolution de l’IA tende évoluer dans un sens complétement souhaitable.

 

Les problématiques exogènes du Big Data et de l'IA

 

Le père de l’informatique, Alan Turing, avait déjà bien compris la puissance de ce nouveau domaine dès le lendemain de la Seconde guerre mondiale, alors que l’informatique ne faisait qu’apparaître. Il a aussi contribué aux débats sur l’IA et nous a laissé le Test de Turing toujours utilisé pour juger de la qualité d’une IA. Alan Turing a été capable de prédire la défiance du grand public face à ces technologies et l’utilisation de n’importe quel prétexte pour rejeter ses inventions. Dans la suite de cet article, nous allons voir en quoi l’innovation radicale sucite toujours un mouvement de répulsion de la part de nombreux acteurs.

 

Les problématiques liées au secteur privé

 

Dans le prolongement des projets Big Data que les entreprises ont commencé à mettre en place dans les années 2000, celles-ci sont très enthousiastes au face aux développements de l’IA. Elles l’ont peut-être même un peu trop été et de nombreux consultants alertent aujourd’hui sur la mise en place des projets d’IA : ils sont mal cadrés, sans KPI fixes et sans ROI capables de structurer la démarche. Dans un article du journal Les Echos, Ananth Krishnan, vice-président et directeur de la technologie de TCS, donne quelques conseils pour aider les entreprises dans leurs projets d’Intelligence Artificielle via une Road Map de l’IA :

 

1 - Think Big Act Small, il faut commencer par des quicks wins et évoluer autours de ceux-ci.

L’algorithme permet la décision, mais ne sert à rien sans données propres pour réfléchir.

2 - L’IA n’a pas vocation à remplacer les hommes, mais à améliorer leur productivité et leurs échanges.

3 - L’IA est en plein boom, alors il ne faut pas se précipiter : il est nécessaire de notamment penser aux questions éthiques qui entourent l’IA.

4 – Les  projets IA ne seront peut-être pas rentables dans l’immédiat : aux décideurs de trouver  d’autres moyens de quantifier les progrès réalisés

 

Les problématiques liées au secteur public

 

Quant à lui, le secteur public semble à la traîne et de nombreuses réticences persistent. Un très bon exemple provient de la fraude carrousel ou fraude TVA. Celle-ci est apparue dans les années 1970 au sein de la zone Benelux. Elle consiste à acheter des marchandises dans un pays pour les revendre dans un autre, sans payer la TVA sur ces marchandises. Dans les années 2000 quand les gouvernements ont décelé le procédé, plusieurs dispositifs ont été mis en place. La Belgique est notamment un exemple à suivre pour nos pouvoirs publics : avec un dispositif de lutte contre la fraude mis en place par la société SAS, les pertes du Trésor Public belge en matière de fraude TVA ont chuté de 1,1 milliard d'euros en 2001 à 93,6 millions d'euros en 2009, soit une baisse de 85% en 8 ans, et même de 95% jusqu’à 2011 avec seulement 18 millions d'euros de TVA fraudée. Il est essentiel de noter que les délais de traitement des opérations de détection ont été radicalement raccourcis, passant de 3 semaines environ à 5 minutes, avec 99,9% du processus de détection se déclenchant dès la première fausse déclaration. Le Trésor belge estime que ce procédé a rapporté 1 milliard d’euros par an depuis son déclenchement. À l’inverse, la France semble accumuler un retard important dans ce domaine. Le pays n’a lancé un traitement de Data-Mining sur des bases de données qu’en mars 2014 et pour une période de test de 6 mois seulement. De plus, les informations détectées par cette solution n’auront qu’une valeur de signalement. Une analyse de 2014 explique plus en détails la situation, et liste les freins à l’utilisation publique du Big Data.

 

Le Big Data n’est pas la seule technologie à provoquer des réticences au sein du secteur public. L’apparition des algorithmes d’IA est décriée dans de nombreux secteurs. Ce phénomène est particulièrement visible dans le milieu judiciaire.

 

Face à la pénurie de magistrats dans les tribunaux, certains juges sont préoccupés par la mise en ligne de l’ensemble des décisions de justice, permettant à terme de comparer, voire de prédire les jugements. Ainsi, ils tirent la sonnette d’alarme en criant haut et fort que leur métier ne peut pas s‘industrialiser, que le jugement et l’appréhension de l’homme par l’homme est une nécessité. Le débat sur l’utilisation de technologies du Big Data et de l’IA reste toutefois ouvert. D’ailleurs, « on n‘a jamais vécu dans une époque aussi mathématique qu’aujourd’hui » d’après Cédric Villani, député et mathématicien français ayant reçu la Médaille Fields en 2010. Le rapport de 2018 sur l’Intelligence Artificielle conduit par ce dernier entend  faire de la France un leader mondial du secteur. Cela, combiné aux annonces Google et Facebook, lors de la rencontre de Versailles de janvier 2018 d’investir dans la recherche en IA en France fait de notre pays l’un des premiers concernés par ce changement de paradigme. L’Intelligence Economique saura-t-elle transformer ce défi en un avantage national ?

 

Retrouvez la première partie de l’article ici.

Retrouvez la deuxième partie de l’article ici.

Retrouvez la troisième partie de l’article ici.

Retrouvez les fiches métiers liées au Big Data et à l’Intelligence Artificielle ici.