Intelligence artificielle : comment apprend-on à une machine à réfléchir ?

DEMAIN
QUESACO - Qui dit intelligence artificielle dit "machine learning", ou l'apprentissage machine en bon français. Nous avons interrogé des chercheurs en IA pour comprendre comment ils procèdent pour rendre les machines de plus en plus intelligentes.

"Les féministes devraient toutes brûler en enfer" et "Hitler aurait fait un meilleur boulot que le singe actuel", débitait en mars 2016 le chatbot de Microsoft, Tay, dès son premier jour d’immersion sur Twitter. Cette intelligence artificielle (IA) était censée se former, au contact d’humains, à la manière dont parlent les "djeun’s". Entraînée par les internautes, qui s’amusaient à la faire déraper, l’intelligence artificielle a même fini par nier l’existence de l’Holocauste. Piteuse vitrine de la technologie du machine learning (ou apprentissage machine, en bon français), Tay a littéralement pété un câble et a dû être débranchée par ses créateurs au bout de quelques heures.


Tous les chercheurs en IA vous le diront : éduquer une machine n'est pas une mince affaire. "Aujourd'hui, les intelligences artificielles les plus abouties ont moins de sens commun que des rats", relevait Yann LeCun, le monsieur IA de Facebook, le 23 janvier 2018, lors d’une conférence à Station F à Paris.

Plusieurs types d'apprentissage

Pour créer une intelligence artificielle, les scientifiques utilisent différentes techniques regroupées sous une même discipline : l'apprentissage machine (ou machine learning, en anglais). Parmi ces techniques, figure l'apprentissage supervisé. "Actuellement, c'est la méthode la plus répandue. On l’utilise notamment pour tout ce qui est reconnaissance de plantes ou d’oiseaux", souligne Yann LeCun. Plus concrètement, les chercheurs collectent des millions d’images et indiquent à la machine à quelle espèce d'oiseau correspond chaque image. Ensuite, ils entraînent le système à produire une identification en fonction de l’image. "Cette technique d’apprentissage peut s’appliquer à tout un tas de scénarii, mais elle nécessite des quantités importantes de données", poursuit Yann LeCun.


Autre technique : l’apprentissage par renforcement ou apprentissage profond (deep learning). "Cela consiste à ne pas dire à la machine quelle est la réponse correcte, elle doit la trouver d’elle-même, grâce à un système de récompenses et de punitions", explique Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne-Université et président du comité d’éthique du CNRS. Le scénario est similaire à l’entraînement d’un animal de cirque à qui l’on donne une friandise lorsqu’il exécute l’action désirée. "La limite de cette technique, en tout cas dans sa forme actuelle, c’est qu’elle nécessite de très nombreux essais, reprend Yann LeCun. Ça ne marche pas très bien pour le monde réel. Mais c’est très efficace, en revanche, pour tout ce qui est de l’ordre du jeu."


Ces deux types d'apprentissage peuvent se combiner. Ce fut le cas avec le célèbre AlphaGo, l’intelligence artificielle développée par Deep Mind (une entreprise rachetée en 2014 par Google). Avant de battre les champions du monde (humains) du jeu de go, le super-ordinateur a d’abord commencé par apprendre les techniques des meilleurs joueurs (apprentissage supervisé). Puis, il a joué des millions et des millions de parties contre une copie de lui-même. A force de remporter des victoires contre son double, il a fini par renforcer progressivement sa stratégie (apprentissage par renforcement). "De fil en aiguille, en analysant non pas toutes les parties possibles, mais une grande partie, la machine a fini par devenir quasiment imbattable", souligne Yann LeCun.

Les humains, comme les animaux, apprennent à partir de très peu d'exemples, ce qui est un mystère pour les ordinateursYann LeCun, le boss de l'intelligence artificielle de Facebook

La difficulté est, qu'à l’heure actuelle, la machine n’a pas la capacité d’apprendre de nouveaux comportements sans en faire l’expérience au préalable. Aussi l'étape d'après pour les chercheurs est l'apprentissage non supervisé (ou prédictif). "Les humains, comme les animaux, apprennent à partir de très peu d'exemples, ce qui est un mystère pour les ordinateurs, souligne Yann LeCun. Mon hypothèse, c'est que nous établissons rapidement des modèles prédictifs du monde." Le cerveau humain, pour économiser de l’énergie, apprendrait à prédire l’événement susceptible de se produire. Ce qu'on appelle le sens commun.

Les chercheurs souhaiteraient percer ce grand mystère de l’apprentissage biologique pour pouvoir l'adapter aux machines. Mais ils en sont loin. "Si l’on entraîne une machine à prédire le futur, elle ne peut y arriver qu’en élaborant une bonne représentation du monde et de ses contraintes physiques, explique Yann LeCun. Dans un scénario d’apprentissage prédictif, on montre à la machine un segment de vidéo, et on lui demande de prédire quelques images suivantes. Malheureusement, le futur est impossible à prédire exactement et la machine s’en tient à produire une image floue, une mixture de tous les futurs possibles." 

Tout savoir sur

Tout savoir sur

Jusqu'où ira l'intelligence artificielle ?

Plus d'articles

Sur le même sujet

Lire et commenter