Comme évoqué dans la partie précédente, le Big Data est une évolution particulièrement récente. Celle-ci est étroitement liée au regain d’intérêt vis-à-vis de l’Intelligence Artificielle. En effet, l’Intelligence Artificielle n’est pas une nouvelle technologie. Elle suit des cycles en fonction des apports d’autres technologies. Cependant, avant d’étudier le lien qui existe entre le Big Data et l’Intelligence Artificielle, il est nécessaire de comprendre cette dernière. C’est donc ce domaine qui sera approfondi dans cet article.
Qu’est-ce que l’IA ?
L’Intelligence Artificielle (IA) est la réunion des sciences et technologies du domaine informatique ayant pour but de créer des machines dotées d’une intelligence proche, voire supérieure, à l’intelligence humaine. Aujourd’hui, l’Intelligence Artificielle a pour but d’effectuer des tâches répétitives, pénibles ou même impossibles pour les êtres humains. A terme, elle devra les accomplir mieux que les êtres humains eux-mêmes. De plus, ces machines doivent être en capacité d’interagir avec leur environnement et de prendre des décisions en conséquence, sans intervention extérieure. En d’autres termes, l’IA cherche à reproduire une intelligence et un comportement humain tout en supprimant ses limites ou ses défauts.
D’un point de vue conceptuel, l’IA peut se diviser en deux catégories : l’IA faible et l’IA forte.
- L’IA faible ou IA descendante : elle vise à reproduire le plus fidèlement possible, à l’aide d’un programme informatique, le résultat d’un comportement spécifique observé à l’avance et ne donnant pas d’application inattendue. L’IA faible ne s’est pas s’adapter à différentes tâches, selon le contexte. Elle n’est ainsi programmée que pour un seul type de sujet. La complexité de ce sujet est indépendante de sa catégorie. Ainsi, l’IA faible peut aussi bien être un jeu de société (DeepBlue) ou l’IA d’une voiture autonome.
- L’IA forte ou IA ascendante : il s’agit de l’approche la plus similaire au comportement humain, puisqu’elle permet l’apprentissage de la machine, le programme allant de la tâche la plus simple aux problèmes les plus complexes. L’automate serait alors doté d’une réelle conscience de lui-même. Attention, pas de science-fiction ici, la conscience désigne la capacité de se percevoir, s’identifier, de penser et de se comporter de manière adaptée. Elle est ce que l’on sent et ce que l’on sait de soi, d’autrui et du monde. En ce sens, elle englobe l’appréhension subjective des expériences passées et la perception objective de la réalité. Pour résumer, la machine se comporte comme un enfant, apprenant davantage au fur et à mesure de ses interactions.
D’un point de vue pratique, la distinction conceptuelle entre l’IA forte et l’IA faible se retrouve au sein des 3 grands niveaux d’Intelligences Artificielles.
Le premier qui est l’état de l’art actuel est l’Artificial Narrow Intelligence (ANI). Celle-ci se définit comme la capacité à traiter des problèmes dans un domaine ciblé. Toutefois, il ne faut pas confondre l’ANI avec des problèmes simples qui peuvent être résolus par de simples algorithmes. Les moteurs de recherche courants, la détection de fraudes bancaires, la conduite automatique ou assistée, Apple Siri, Microsoft Cortana ou même Google Translate sont une liste non-exhaustive d’exemples concrets utilisant l’ANI.
Viennent ensuite deux autres niveaux qui ne sont pas encore atteints : l’Artificial General Intelligence (AGI) et l’Artificial Super Intelligence (ASI). Le stade de l’AGI correspond au niveau d’intelligence équivalent à celui de l’Homme, avec un côté polyvalent : la capacité à raisonner, analyser des données et résoudre des problèmes variés. Selon les prévisions, l’AGI sera atteinte entre 2030 et 2100. L’ASI, quant à lui, représente son dépassement pur et simple. Ce stade ultime devrait arriver quelques décennies après l’AGI. Pour atteindre ces deux prochains stades, il peut être intéressant de noter l’influence probablement capitale de l’ordinateur quantique car ce dernier permet de stocker l’information de manière analogique comme le fait le cerveau humain.
Histoire de l’IA
L’IA est une technologie qui, contrairement au Big Data, n’est pas récente. Les prémices de l’IA remontent jusqu’en 1956. Pourtant, bien que vieille de plus de soixante ans, l’apogée de l’IA (ou ASI) n’a toujours pas été atteinte et comme nous l’avons vu, l’ASI ne devrait pas voir le jour avant cinquante ans. Pourquoi une si longue attente ? Il convient de se plonger dans l’histoire de l’IA puisque celle-ci est loin d’être linéaire. Elle a connu des étés et des hivers, changements dus aux évolutions et découvertes d’autres technologies mais également rythmés par des volontés politiques.
Toutefois, les véritables débuts de la recherche scientifique sur l’IA sont à mettre au crédit de John McCarthy, Alan Newell, Arthur Samuel, Herbert Simon et Marvin Minsky qui ont tenu la première conférence sur l’IA en 1956 au nord-est des Etats-Unis, sur le campus de l’université de Dartmouth. La plupart de ces chercheurs prédisaient qu’il faudrait moins d’une génération pour qu’une machine dotée d’une intelligence comparable aux humains soit créée. Des millions de dollars furent ainsi investis afin de rendre possible cette recherche.
Il fut très vite évident que les prédictions de nos chercheurs étaient extrêmement optimistes. Ainsi, le manque de résultats évidents, les pressions du Congrès et les critiques d’autres chercheurs, à commencer par le mathématicien James Lighthill, entraîneront les gouvernements américains et britanniques à stopper le financement en 1973. Il faudra attendre 1980 pour qu’une nouvelle vague d’enthousiasme concernant l’IA apparaisse au Japon.
Néanmoins, un nouvel échec majeur frappera les avancées dans les années 90, entraînant le retrait des financements des investisseurs. Cette fois, la puissance de calcul considérable et insuffisante sera la source de cet arrêt.
La troisième vie de l’IA
Les années 2000 marquent la troisième vague de l’IA. Cependant, par quels biais peut-on prévoir l’accélération des progrès dans l’IA ? Les raisons de l’accélération des progrès du domaine sont multiples : des besoins nouveaux (la robotique, la puissance de calcul et les moteurs de recherche, etc.), les victoires symboliques qu’obtient l’IA depuis quelques années mais aussi l’accès à de grands volumes de données.
En premier lieu, le retour en grâce de l’IA est dû au dépassement des limites techniques des années 90 détaillées précédemment. Cette augmentation de puissance a également favorisé l’usage de méthodes statistiques pouvant exploiter la puissance des ordinateurs, tant au niveau calculatoire qu’au niveau du stockage. Enfin, durant les années 2010, cette puissance en constante augmentation a été profitable au développement des réseaux neuronaux.
La diffusion d’Internet a permis l’émergence d’architectures fortement distribuées contribuant aussi à dépasser cette limite de puissance de calcul et de stockage. De même, l’IA va puiser de grandes quantités de données grâce à l’usage d’Internet mais aussi à celui des mobiles ou des objets connectés. Ces données, associées aux méthodes de force brute, de réseaux neuronaux, de machine learning ou de méthodes statistiques, permettent d’élargir le champ des possibilités de l’Intelligence Artificielle.
La mise en place de méthodes scientifiques et pragmatiques par les universitaires et les industriels du domaine ont également joué un rôle. Ces méthodes sont principalement basées sur l’expérimentation et surtout sur des domaines transdisciplinaires telles que les sciences cognitives et la neurologie.
Enfin, la recherche en Intelligence Artificielle a aussi été stimulée par les besoins nouveaux dans l’industrie. Les avancées de la robotique, de la conquête spatiale (Curiosity, Philae,…) et les innovations dans l’automobile ont également boosté cette recherche. Dans le même ordre d’idée, l’intérêt pour le domaine est attisé par son utilisation pour les scams en sécurité informatique et la lutte contre la fraude fiscale. Notons pour finir les nombreuses applications commerciales de l’Intelligence Artificielle permettant la rencontre du machine learning, de l’Internet des Objets et du Big Data.
Outils de l’IA
L’Intelligence Artificielle regroupe sept grands domaines d’outils, comme nous pouvons le voir dans le schéma ci-dessous. Chacun de ces grands outils ou agents intelligents permet à l’Intelligence Artificielle d’imiter le cerveau humain. Ainsi, de la même façon que nous passons du neurone aux différentes zones constitutives du cerveau, nous allons étudier les étapes entre le réseau neuronal et l’agent intelligent.
Machine et Deep Learning
Le domaine du Machine Learning, ou Apprentissage Automatique en français, consiste à réaliser des prédictions à partir de données déjà enregistrées. Les algorithmes de Machine Learning utilisent des réseaux neuronaux artificiels. La différence entre le Machine Learning et le Deep Learning vient du nombre de couches de réseaux neuronaux enchaînés les uns aux autres. La mise en pratique de ces algorithmes est répartie en deux phases : la phase d’apprentissage et la phase de tests.
Plusieurs types d’apprentissage existent, les deux principaux sont l’apprentissage supervisé et l’apprentissage non-supervisé. La distinction entre les deux se trouve dans la connaissance du modèle de données. Le premier est découpé en deux parties : il détermine tout d’abord un modèle de données avec des classes prédéfinies, puis prédit à quelle classe les autres données appartiennent. De leur côté, les algorithmes non-supervisés ne connaissent ni les classes ni leur nature. Ces algorithmes sont également connus sous le nom de clustering puisqu’ils créent eux-mêmes la classification des données.
Reconnaissance de la parole
Cette technologie est maintenant présente dans toutes les applications grand public. Les grands acteurs de ce marché sont américains, avec en première ligne Apple avec Siri, Google et Ok Google ou encore Microsoft avec Cortana. Ce pan de l’Intelligence Artificielle fait un énorme pas en avant avec l’arrivée de nouvelles techniques tels le Deep Learning et les modèles de Markov. L’augmentation constante de la puissance des processeurs – et surtout celle des processeurs mobiles – a également été profitable. Comme l’ensemble des domaines liés à l’Intelligence Artificielle, les solutions de reconnaissance vocale profitent énormément du Big Data du fait de l’accès à d’immenses bases de données d’exemples, surtout si elles fonctionnent sans l’apprentissage de la voix de l’utilisateur.
Reconnaissance images/vidéos
Comme nous avons pu l’évoquer précédemment, les réseaux neuronaux, le Machine Learning et donc le Deep Learning, sont principalement utilisés pour la reconnaissance d’images et de vidéos. Ici encore, les grands groupes américains semblent dominer le marché, notamment FaceNet de Google. L’entreprise Facebook, quant à elle, rivalise au travers de la technologie DeepFace créée par une start-up israélienne. La reconnaissance d’images sert dans la classification de photos (Google Photo, Facebook, Instagram, …) mais également à l’identification dans des scènes criminelles.
Après la maîtrise de la reconnaissance d’images, il paraît naturel de développer la reconnaissance de vidéos. Cependant, cette transition n’est pas simple puisque la quantité de données transmises par les vidéos est considérable comparée à celle produite par une image. La reconnaissance de vidéos possède évidemment un champ particulièrement étendu, elle participe grandement au développement des voitures autonomes.
Agents et réseaux intelligents
Apparu au cours des années 90, l’Agent Intelligent est un logiciel ou un matériel qui récupère de l’information, puis décide d’agir rationnellement en fonction de ces données obtenues. Il déclenche ensuite une action pour optimiser ses chances de succès. Si l’Agent est matériel, il se compose de capteurs et d’actuateurs. Lorsqu’il est logiciel, il prend en entrée des données brutes et en génère de nouvelles en sortie. Un Agent réagit ainsi en tenant compte de son environnement en temps réel. Ces Distributed Problem Solving (DPS) résolvent de manière coopérative leurs sujets.
A première vue, il est possible de confondre les réseaux d’agents avec les réseaux de neurones. Cependant, les fonctionnements des deux réseaux sont très différents. En effet, un Agent Intelligent peut être lui-même composé d’un réseau neuronal. Tandis que ce dernier ne s’occupe que d’une partie de la donnée, l’Agent Intelligent, dispose d’une tâche beaucoup plus large à traiter.
Retrouvez la première partie de l’article ici.
Retrouvez la seconde partie de l’article ici.
Retrouvez les fiches métiers liées au Big Data et à l’Intelligence Artificielle ici.
Pierre-Alexandre CLAYET
Club Big Data et Intelligence artificielle