« Le mythe de la machine sans émotion et infaillible est faux. » Entretien avec l’homme de l’ombre de Mark Zuckerberg

Yann Le Cun bras croisé souriant un article Telescope Magazine
Homme de l'ombre de Facebook, Yann Le Cun est l’un des plus éminents chercheurs en intelligence artificielle.

Yann Le Cun est l’un des plus éminents chercheurs en intelligence artificielle. Originaire du Val d’Oise, ce Français est depuis devenu l’homme de l’ombre de Facebook, dernièrement sollicité par Mark Zuckerberg pour le développement du Métavers, ce monde virtuel aussi fascinant qu’inquiétant. Et en répondant à cette question fondamentale, « comment percer le mystère de l’intelligence », cet éternel optimiste, lauréat 2018 du prestigieux prix Turing, montre qu’il n’a pas encore vendu son âme au diable.

Au début des années 80, quand il commence à s’intéresser à l’intelligence artificielle, Yann Le Cun est un peu seul dans son coin. Quarante ans plus tard, il est devenu l’un des papes de l’IA, et notamment du deep learning – l’apprentissage profond – qui permet aux machines d’apprendre par elles-mêmes. Si l’IA a connu des hauts et des bas dans son histoire, sans qu’on s’en aperçoive, elle s’est aujourd’hui immiscée dans tous les pans de notre existence (téléphones, voitures, enceintes connectées), jusqu’à devenir indispensable dans le secteur médical. En 2013, lorsque Mark Zuckerberg, grand manitou de Facebook, décide de lancer un laboratoire de recherche pour développer cette technologie en plein boom, c’est Yann Le Cun qu’il choisit pour le créer et le diriger. Ainsi naissait le FAIR (Facebook AI Research) et des tonnes d’applications qui régissent aujourd’hui nos appareils électroniques. En 2015, une antenne du FAIR s’installe à Paris, en 2018 une autre à Montréal. Cette année-là, Yann Le Cun est récompensé par le très prestigieux prix Turing – le prix Nobel du monde de l’informatique – pour son travail de recherche sur le deep learning. Ses travaux sur les réseaux neuronaux convolutifs ont permis à l’IA de prendre une autre échelle, notamment en termes de reconnaissance d’image par les machines – son domaine de prédilection.

Qui était le jeune Yann Le Cun ?

J’ai toujours eu la fibre de l’ingénieur, j’aimais les sciences et les technologies. J’aimais construire des modèles réduits d’avion, de l’électronique, etc. Je voulais être chercheur, mais sans vraiment savoir ce que ça voulait dire. Mon intérêt pour l’intelligence artificielle date également d’assez longtemps. Il est lié à un des grands mystères de l’univers : la question de l’intelligence en général. Comment fonctionne le cerveau ? Qu’est-ce que l’intelligence ? Le but est de comprendre l’intelligence, qu’elle soit artificielle ou pas. Comment est-elle apparue chez les humains ? Comment peut-on la reproduire chez des machines ?

Par quel bout on s’y prend, quand on veut percer le mystère de l’intelligence humaine ?

Il y a une remarque du célèbre physicien Richard Feynman* qui dit qu’on ne comprend pas quelque chose tant qu’on ne l’a pas construit soi-même. Il parlait de théories et d’équations, mais c’est aussi vrai pour des choses aussi complexes que l’intelligence. On peut essayer de regarder comment fonctionne le cerveau et y trouver des explications, mais elles seront relativement abstraites, et très difficiles à valider. En revanche, on peut essayer d’extraire des principes sous-jacents à l’intelligence et de les reproduire avec des machines. Et si ces machines reproduisent ce qu’on observe chez les humains, ça peut être un indice qu’on a dégagé les bons principes. Ou du moins qu’ils sont proches de ce qu’il se passe dans la biologie.

C’est un peu de l’exploration en un sens…

L’analogie peut être faite avec les pionniers de l’aviation, dont certains essayaient de reproduire les oiseaux ou les chauve-souris. Mais ils collaient un peu trop près à la biologie, comme Clément Ader*. Ses travaux n’ont pas eu beaucoup de suites parce qu’il copiait les chauve-souris sans s’occuper de problèmes comme la stabilité. Alors que d’autres personnes plus proches des techniques d’ingénierie ont fait des expérimentations en soufflerie, ont essayé plusieurs profils d’ailes, etc. Et à la fin, ils ont obtenu un artefact, un avion, qui utilise les mêmes principes que les oiseaux pour voler mais dont les détails sont très différents. C’est un peu ce qu’on fait avec l’intelligence artificielle, on prend de l’inspiration avec ce qu’on observe dans le monde animal, mais on en dégage surtout des principes. On fabrique une machine dont le fonctionnement est finalement très différent de la biologie.

Vous êtes l’un des pères du deep learning – apprentissage profond – sans lequel l’IA, telle qu’on la connaît aujourd’hui, ne serait pas envisageable. Qu’est-ce qui vous a incité à vous tourner vers le deep learning alors que ce domaine était complètement sous-considéré ?

Si on s’intéresse à l’intelligence, on réalise très vite que dès qu’un animal à un cerveau, il est capable d’apprentissage. Même les animaux les plus simples n’ayant que quelques centaines de neurones sont capables d’apprentissage et d’adaptation.

D’un point de vue des sciences de l’ingénieur, peut-être que je me trouvais trop stupide ou trop feignant, mais je ne pensais pas qu’il était réaliste de pouvoir concevoir une machine intelligente qui approcherait une intelligence humaine. Je me suis dit que les systèmes intelligents naturels se construisent par eux-mêmes, par apprentissage… J’ai voulu faire la même chose pour l’intelligence artificielle : travailler sur l’apprentissage automatique afin de permettre aux machines d’apprendre, et ainsi de devenir intelligentes par elles-mêmes.

« L’essence même de l’intelligence, c’est la capacité à prédire. »

Maintenant que vous le dites, ça semble finalement assez logique…

C’est en effet une vieille idée, Alan Turing avait d’ailleurs écrit un célèbre article dans les années 50 dans lequel il disait que si on voulait reproduire une intelligence humaine dans une machine, il vaudrait mieux reproduire l’intelligence d’un enfant que celle d’un adulte, pour lui permettre d’apprendre. C’était un peu une suggestion en l’air, il n’avait à l’époque pas le concept pour faire ça. Mais les gens ont commencé à réfléchir sérieusement à la question, et il y a eu des premiers travaux à la fin des années 50 sur des machines très simples mais capables d’apprentissage, et c’était un peu l’origine de tous les travaux modernes dans le domaine.

Plus de 50 ans après cette intuition d’Alan Turing, sommes-nous proche d’arriver à recréer une intelligence proche de celle de l’homme ?

On est encore très, très loin de reproduire l’intelligence humaine. Et même l’intelligence animale. Les plus intelligents des systèmes d’IA qu’on a aujourd’hui on beaucoup moins de bon sens qu’un chat de gouttière. Ils sont très supérieurs à l’humain dans certains domaines très étroits, mais il leur manque l’aspect de la connaissance générale du monde. On ne peut toujours pas acheter de robots domestiques qui font tout le travail à la maison, et avec qui on peut avoir un dialogue, qui peuvent nous aider dans notre vie de tous les jours. Ni même avoir une voiture autonome qui se conduit toute seule sur la place de la concorde à 18 heures… Par contre, on peut entraîner un système à faire de la traduction avec 200 langues, on a des systèmes de reconnaissance d’image qui détectent une espèce de plante ou d’animal avec une simple photo. Ces systèmes ont des performances surhumaines. Les machines sont aussi très supérieures à nous pour jouer au poker, au jeu de Go, aux échecs, etc. Ça montre finalement que les humains ne sont pas très bons pour ces choses-là (rires). C’est d’ailleurs pour ça qu’on imagine des jeux, parce que c’est difficile pour nous.

Qu’est ce qui fait la différence entre la machine et l’humain ?

Pour apprendre à un système à faire du vélo, la machine va conduire le vélo, elle va finir par tomber, et ça va lui dire « t’as fait une bêtise ». À force d’essais et d’erreurs, elle va finir par s’ajuster et se corriger. C’est une espèce d’apprentissage par la carotte et le bâton. Si on voulait entraîner une voiture à se conduire toute seule, il faudrait le faire en simulation, parce qu’il faudrait que la voiture se conduise pendant des millions d’heures, et cause des centaines de milliers d’accidents, s’auto-détruise de nombreuses fois (rires). On ne peut pas faire ça dans le monde réel, et il est très clair que les humains – même les animaux – n’ont pas besoin de faire tout ça. On peut apprendre à conduire une voiture en une dizaine d’heures de pratique. Toute la question est de savoir quel est le principe sous-jacent à l’apprentissage humain, qui fait qu’on se repose sur nos connaissances du monde pour ne pas avoir à tomber dans un ravin 10 000 fois avant de comprendre que ce n’est pas une bonne idée.

L’intelligence, c’est de savoir qu’il ne faut pas sauter dans un ravin sans avoir à l’expérimenter avant ?

L’essence même de l’intelligence, c’est la capacité à prédire. Soit prédire ce qui va se passer dans le monde, soit prédire les conséquences de ses propres actions. Si on peut prédire les conséquences de ses propres actions, ça veut dire qu’on peut planifier une séquence d’action pour obtenir un résultat particulier. Si on a des machines qui ont ces capacités d’apprendre des modèles du monde leur permettant de prédire à l’avance, elles auront une intelligence qui s’approche de celle des animaux, et dans le futur de celle des humains. Elles dépasseront même probablement l’intelligence des humains.

Au-delà du fait de dépasser les capacités pures de l’intelligence humaine, arrivera-t-on un jour à créer une IA douée d’émotions ?

À terme, c’est non seulement possible mais nécessaire. Pour ça, il faut construire des systèmes d’intelligence dans lesquels la fonction n’est pas déterminée. La machine doit satisfaire un objectif sans qu’on lui dise comment. La plupart des animaux sont construits sur ce plan. On sait qu’on doit se nourrir parce que notre organisme nous dit qu’on a faim ou soif, mais la nature ne nous dit pas comment. Le but est inscrit en nous, dans la partie du cerveau qui détermine si une situation est confortable ou inconfortable. Si d’un seul coup, de manière très surprenante, j’approche ma main de votre bras et que je vous pince, ça va vous causer une douleur immédiate. Cela va modifier votre modèle interne du monde, et de ma personnalité (rires). Si je recommence, vous allez probablement reculer, parce que vous prévoyez que mon action ne sera pas profitable. Les émotions comme la peur ou l’angoisse sont des anticipations d’un résultat négatif ou inconnu. Selon moi, les émotions sont une partie intégrante et inséparable des intelligences autonomes.

Le fait d’anticiper une action défavorable, de simuler la peur, peut également inciter à répondre de manière irraisonnée, ce qui n’est pas forcément souhaitable pour une machine…

Eh bien si. Le problème de la réaction irraisonnée, c’est qu’on a une capacité de calcul limitée. Lorsque l’on est soumis à un danger immédiat, il faut réagir très vite, on n’a pas le temps d’y réfléchir et on risque de faire des bêtises, c’est inévitable. En revanche, si on réfléchit à quelque chose pendant longtemps on peut prendre la bonne décision. C’est pareil pour les machines, quelquefois elles devront prendre des décisions rapidement, qui après coup s’avèreront ne pas être les meilleures. Le mythe de la machine sans émotion et infaillible est faux.

« Il est très possible que l’IA serve à nous découvrir nous-mêmes. »

Les exemples de machines qui se trompent doivent être nombreux…

Ça arrive tout le temps (rires). Et c’est vrai pour les humains aussi. Il y a des systèmes qui peuvent sembler très intelligents, avec lesquels on peut pratiquement tenir des dialogues. Mais quand on leur pose des questions, on s’aperçoit que c’est un peu comme dialoguer avec quelqu’un qui a la maladie d’Alzheimer à un stade avancé. La syntaxe est correcte, la grammaire aussi, la phrase a du sens, mais elle est un peu déconnectée de la réalité. Il n’y a pas de sens commun. On lui demande quelle est la couleur de la cinquième patte d’un chien, et il va vous dire « marron ». En posant une question très simple : je pose un verre sur une table, je pousse la table, où est le verre ? Aucune machine ne réalisera aujourd’hui que le verre bouge avec la table. Parce que la plupart de ces systèmes ne sont pas enracinés dans une réalité. Le gros défi de l’IA dans la décennie qui vient, c’est de créer des systèmes intelligents qui acquièrent le sens commun en développant des modèles du monde.

Comment les êtres humains développent-ils ce sens commun ?

Quand on observe l’apprentissage dans les premiers mois de la vie, on voit que les bébés accumulent une quantité gigantesque d’informations sur le fonctionnement du monde. On ne s’en rend pas compte parce que tout ça paraît très simple. On apprend très rapidement que le monde est tridimensionnel, on ne naît pas avec cette notion. Vers 2 mois, on apprend qu’un objet caché derrière un autre existe toujours, la notion de permanence des objets. Vers 3 mois, on apprend la différence entre les objets animés et inanimés. Vers 5 ou 6 mois, on apprend les notions de solidité, de rigidité… Qu’un objet reste en place quand on le pose d’une certaine manière, et qu’il tombe quand on les pose d’une autre manière. Avant 9 mois, les bébés n’ont pas intégré que les objets ne sont pas censés flotter dans l’air, la notion de gravité. Tout ça nous semble naturel, mais on a appris toutes ces choses qui nous permettent de remplir les trous d’information que notre système perceptuel ne nous donne pas. Vous n’avez jamais vu le derrière de ma tête, mais vous avez probablement une bonne idée de ce à quoi il ressemble. Vous ne savez pas si je vais bouger ma main ou ma tête vers la gauche dans une seconde, mais vous savez que je ne vais pas me transformer en loup-garou. La question, c’est comment on fait pour que les machines apprennent des modèles du monde par observation, comme les bébés. En regardant Youtube toute la journée par exemple.

Est-ce qu’on pourrait apprendre un jour le fonctionnement de l’intelligence humaine en analysant le fonctionnement de l’IA, ou c’est plutôt l’inverse ?

C’est un peu les deux. On ne fait pas de biomimétisme car le cerveau est fait de protéines, il communique par signaux chimiques et électrochimiques, il se construit lui-même et se répare tout seul, sa seule énergie est le sucre… On ne peut pas transposer aux technologies actuelles toutes ces choses qui n’ont pas lieu d’être. On en revient à la question de l’oiseau et l’avion. Ça semblerait ridicule de construire un avion avec des plumes. Donc on s’inspire de la biologie, mais il y a aussi un retour. Dans les années 80 ou 90, quand j’ai conçu les réseaux convolutifs, je me suis beaucoup inspiré de travaux classiques en neurosciences, sur l’architecture du cortex visuel, la manière de connecter les neurones les uns aux autres, de les organiser en couche, etc. J’ai construit ces modèles, et aujourd’hui, plusieurs décennies plus tard, ce sont les modèles préférés des neuroscientifiques pour expliquer ce qu’ils observent dans le cerveau. C’est un retour assez amusant.

Certains algorithmes alimentés à l’IA semblent aujourd’hui mieux nous connaître que nous-mêmes… Une machine pourra-t-elle un jour répondre à la question : qui sommes-nous ?

Il est très possible que l’IA serve à nous découvrir nous-mêmes, à mieux comprendre comment on fonctionne. À mesure qu’on va construire des machines intelligentes, particulièrement à intelligence autonome, on va découvrir ce qui est important dans le design de ces systèmes. Et probablement qu’on trouvera les mêmes composants dans l’intelligence humaine. Ce qu’on sait déjà, c’est que les intelligences humaines ou animales sont toutes relativement spécialisées. On a cette impression que l’intelligence humaine est très générale. Mais pas du tout, elle est finalement très spécialisée. L’intelligence des animaux est aussi spécialisée, dans des domaines différents que l’évolution a construits pour leur survie et leur environnement, et qui est spécialisée pour leur fonction. Toute intelligence est spécialisée.

Comment peut-on qualifier cette discipline très particulière qu’est l’IA ?

Les économistes nous disent qu’ils voient l’IA comme une technologie d’usage général. GPT en anglais, General Purpose Technology. Ce qu’ils veulent dire, c’est que cette technologie va se disséminer dans tous les recoins de l’économie, et changer la manière dont on travaille, mais aussi dont on vit – enfin c’est déjà le cas. L’accès à l’information sur les réseaux sociaux ou les systèmes de recherche sont, par exemple, très liés à l’IA aujourd’hui. Toutes les voitures qui sortent aujourd’hui en France ont un système de vision artificielle qui regarde à travers le pare-brise et qui fait freiner la voiture automatiquement s’il y a un obstacle devant. Ce système s’appelle AEBS, Automatic Emergency Breaking Systems, il est devenu standard. Et c’est grâce au deep learning et aux réseaux convolutifs, qui sont un petit peu mon invention. J’en suis assez fier, parce que cela permet de diminuer les collisions d’environ 40 %, donc de sauver des vies. Des systèmes d’analyse d’images médicales sont le résultat de recherches qui ont été faites en collaboration avec FAIR et l’école de médecine de MYU, où je suis professeur, et qui permettent d’accélérer la collection de données dans une machine d’IRM. Au lieu de s’allonger 40 minutes dans une machine d’IRM, on réduit ce temps par quatre, et on permet à plus de gens d’y avoir accès, de réduire les coûts. C’est un progrès énorme.

Vous êtes connu pour être plutôt du genre optimiste sur l’avenir de l’IA et des technologies en général, mais ne devra-t-on pas finir par la réguler afin de prévenir certains aspects négatifs bien connus ?

Il ne faut pas avoir peur de l’IA, on a aujourd’hui des machines qui sont physiquement plus fortes que nous dans tous les domaines où on peut utiliser notre force physique. On va plus vite en vélo ou en voiture qu’à pied, on a des grues et des pinces, et des outils qui démultiplient notre force. Et ceci n’en diminue pas notre opinion de nous-mêmes, ça nous rend plus puissants d’une certaine manière. Avec l’IA, ce sera la même chose. L’IA sera au service de l’humanité et démultipliera l’intelligence humaine d’une manière similaire aux outils qui démultiplient notre force physique. La technologie est neutre, les individus peuvent en tirer des applications positives ou négatives. Il faut prévenir les utilisations négatives par des réglementations, mais celles-ci n’ont pas besoin d’être générales. Réglementer l’IA en général a très peu de sens. Par contre, réglementer les applications de l’IA en a. Il faut des réglementations pour protéger la vie privée des gens, éviter, par exemple, qu’une compagnie d’assurance collecte toutes vos données et vous fasse payer plus parce qu’elle a découvert quelque chose sur votre santé. Ce ne sont pas forcément des problèmes liés à l’IA, ce sont des problèmes liés à son utilisation.