Invités par le think tank de l’Institut Messine, Gaspard Koenig, essayiste et romancier, Cédric Villani, mathématicien et homme politique, et Laurence Devillers, chercheuse au CNRS et professeure à la Sorbonne, ont échangé sur les bouleversements causés par l’intelligence artificielle et ses perspectives. Tous les trois s’accordent sur un point : si elle amorce une rupture technologique, l’IA va à rebours des principes fondamentaux de la science.
Gaspard Koenig : « Dans 20 ans on ne parlera plus beaucoup d’IA, mais plutôt des sols fertiles et de l’eau potable. Dans la somme de discussions et d’investissements qu’entretiennent l’élite économique aujourd’hui, elle occupe un rôle totalement disproportionné. Les financements y sont dix fois supérieurs à ceux fondés sur la nature. Or aujourd’hui, si on veut résoudre des crises extrêmement graves autour de la biodiversité, on a des solutions techniques qui existent, très scientifiques et sans être très gourmandes en technologie. Ça doit être ça, la priorité de l’Humanité.
L’IA n’est pas une limitation de l’intelligence humaine car elle n’obéit pas aux mêmes mécanismes que ceux de la pensée, qui ne sont pas purement analytiques mais biologiques. L’IA, elle, prend les résultats de la pensée humaine pour les corréler, mais elle ne remplace rien. Il faut éviter cette mode à tout prix dans les entreprises : certaines ont besoin d’IA, d’autres pas du tout.
D’ailleurs, l’IA permet de faire de la bureaucratie infinie, il n’y a plus de limite physique à la multiplication des process. Le Ministre de l’économie Bruno Le Maire a dit qu’on allait simplifier la norme grâce à Albert (ndlr, l’IA française destinée aux services publics). Donc les citoyens n’auront même plus à comprendre la loi qui les régit. Dans une société démocratique entre humains, le but est de comprendre la loi et d’en discuter. Là, on nous dit : « c’est pas grave l’IA a le résultat ». Mais si on ne comprend pas la logique qui aboutit à une loi, on ne vit plus dans un état de droit. »
Cédric Villani : « Vous ne pouvez pas passer outre ou faire comme si cela n’existait pas »
Cédric Villani : « Oui, les investissements sur le sujet sont bien trop importants. L’IA est un sujet intéressant, mais en aucun cas le sujet fondamental de l’humanité. Les problèmes aujourd’hui accablant le monde tel que la raréfaction des sols, la montée des tensions géopolitiques internationales, la bombe atomique qui pèse dans la stratégie internationale plus que jamais, ou l’épidémie de solitude qui envahit notre société occidentale, tout cela est plus important que l’IA qui ne va pas en tant que tel les résoudre. Spontanément, elle aura tendance à aggraver ces phénomènes, se mettant d’avantage du côté des éléments puissants que des faibles.
Il n’y a pas de définition de l’intelligence artificielle. C’est un ensemble de techniques qui aboutissent à effectuer des fonctions au sens mathématique du terme. Mais quel que soit votre spécialité, vous ne pouvez pas passer outre ou faire comme si cela n’existait pas. Dans certains cas, cela interpelle les scientifiques : quand Deepmind ( ndlr, IA développée par Google) arrive à prédire la météo à 10 jours, avec un taux de précision dans 90 % des cas supérieur aux méthodes élaborées pendant deux siècles par des spécialistes, cela interpelle. Pour la prédiction météo on ne peut pas faire comme si cela n’existait pas. Ou, comme dans l’excellent ouvrage de David Chavalarias, Toxique Data (Flammarion, 2022), comment les algorithmes d’IA polarisent les discussions publiques sur les réseaux sociaux pour augmenter le clash et participent à une gigantesque campagne de désinformation. On ne peut pas passer cela sous silence. Certains se sont faits une spécialité d’obscurcir le débat public et d’agiter les peurs comme étant un extraordinaire moyen de publicité. Le sommet en la matière étant atteint par le camarade Elon Musk, capable à la fois de vous dire que l’humanité va être détruite par l’IA et de lancer sa grande entreprise d’IA en réclamant instamment des milliards d’investissement.
De façon générale, la technologie n’améliore pas spontanément la qualité du service. Une étude il y a quelques années compilée par l’Unesco concluait qu’à travers le monde, les pays qui avaient fait l’effort d’investir dans le numérique au service de l’éducation avaient vu la qualité de leur système éducatif baisser. IBM promettait en 2010 monts et merveilles à tous le secteur de la santé avec son programme d’IA baptisé Watson. Finalement, il a été piteusement revendu sans que cela n’intéresse personne. »
Laurence Devillers : « Cette débauche d’idées de mettre de l’IA partout est stupide »
Laurence Devillers : « Ce que fait la machine, ce n’est pas de la parole, c’est un ensemble de mot. Pour elle, cela n’a aucun sens, aucune intention. C’est l’imbrication de données, avec des milliards de couches très complexes et de paramètres, qui créent des généralisations. Même si je suis très pro techno, cette débauche d’idées de mettre l’IA partout alors que ça consomme énormément d’énergie est absolument stupide. Par contre, on peut faire de la recherche avec, l’IA a une acuité que je n’ai pas dans l’observation des signaux faibles, ou dans la captation d’infra et d’ultrasons. Elle nous livre des milliards de données qu’en tant que chercheur ou médecin on n’aurait pas vu. Donc évidemment que c’est intéressant, mais pas à n’importe quel prix : on projette dessus des affectes et des informations d’ordre moral. C’est très dangereux, ce n’est pas neutre.
Il y a un Brillant article du MIT qui dit que la machine est meilleure si vous êtes polie, parce que ce sont nos données qui servent à modéliser. Il faut faire très attention et décomposer le problème. Si on reste à la surface de la production de ces machines et qu’on n’analyse pas ses hyper paramètres, comment elle est construite, à partir de quelles données, on va aller dans le mur pour énormément de métiers car les gens vont suivre ou faire confiance à ces systèmes. Où est notre libre arbitre ? On devrait toujours avoir dans la tête : agir avec raison, dans l’incertain. »
Gaspard Koenig : « Pour revenir sur la question de la politesse face à l’IA : Alexa, l’assistant vocal personnel d’Amazon, était entrainée avec les conversations qu’elle entendait autour d’elle. Il était écrit dans les conditions d’utilisation que dès qu’elle était allumée, même si elle n’était pas opérationnelle, elle espionnait toutes nos conversations. En échange de nous donner la météo ou de mettre du jazz, elle aspirait toutes nos datas pour nourrir les algorithmes conversationnelles d’Amazon. On aurait dû être payé pour ça. Comme les enfants n’arrêtaient pas d’insulter Alexa, elle s’était mise à répondre avec les mêmes mots. Donc Amazon avait mis un blocage, où la machine ne s’ouvrait que si on lui demandait gentiment. J’avais trouvé ça très dangereux. C’est de l’animisme, on fait croire aux enfants que la machine est un être et qu’il faut être poli. C’est une régression préscientifique.
Gaspard Koenig : « Si tout le monde se met à utiliser ChatGPT, on peut parier que dans trois ans il y aura 50 % de platistes »
L’IA on a compris à quoi elle ne peut pas servir, c’est-à-dire à produire de la connaissance partagée. Ce qu’on a donné au grand public, il n’y a pas d’explicabilité. Elle ne peut pas donner sa source. Elle va en dire une mais sans la comprendre, puisqu’elle n’intègre que des millions d’occurrence, des suites de mots, voire de moitié de mot. Or, la connaissance humaine, depuis les grecs, c’est la recherche de la source. C’est la première chose qu’on apprend à l’école. Une source, on peut la réfuter. Rien n’est vrai, il n’y a que des choses non fausses jusqu’à ce que quelqu’un prouve qu’elles ne sont pas vraies. Tout cela explose avec ChatGPT. Wikipédia fonctionne comme ça : si on est pas d’accord, on échange avec des wikipedistes, il y a une recherche maniaque de la source qui aboutit à un consensus. Tout ça est structurellement impossible avec ChatGPT puisqu’on ne peut pas contester car il n’y a pas de source. Ses successions de mots vont me montrer quelque chose de crédible mais qui reste du domaine du « c’est possible », mais c’est présenté de manière assertive.
Si vous ne cherchez pas de la connaissance mais juste une information probable pour faire une dissertation de philo, c’est très grave car vous tuez l’idée même de connaissance partagée. Si tout le monde se met à utiliser ChatGPT, on peut parier que dans trois ans il y aura 50 % de platistes. Car chacun va perdre l’habitude d’exercer son libre arbitre, pour chercher la réfutation, la source, etc, tout en nous donnant de la connaissance moyenne car ce n’est que de la statistique. ChatGPT produit de la moyenne, cela homogénéise de manière extrêmement médiocre. »
Cédric Villani : « L’IA n’est pas une science »
Cédric Villani : « La démarche globale est une régression méthodologique, qui va à rebours de tous les principes fondamentaux de la science qui sont d’extraire les mécanismes fondamentaux sous-jacents à notre monde sur la base de modèles simplifiés. À tel point que pour beaucoup de mes collègues mathématiciens, l’IA n’est pas une science : c’est un domaine expérimental extrêmement fourni qui a des interactions avec toutes les sciences. Il y a 40 ans, on avait déjà les principes de base des réseaux de neurones, mais c’était impossible de faire de l’IA générative n’ayant pas assez de données ni de puissance de calcul. Maintenant on les a, mais en tant que tel ce n’est pas un progrès scientifique. La rupture technologique est là, mais elle n’est pas scientifique. »
Gaspar Koenig : « Il y a aujourd’hui une application qui permet de synthétiser les meeting, et donc les gens parlent différemment pour être compris de la machine, comme quand on répète devant un opérateur, sans faire de subtilité, d’ironie, etc… Le résultat, c’est qu’on va s’auto standardiser. »
Laurence Devillers : Vous disiez en préambule que d’ici 20 ans, on ne parlera plus d’IA. Je ne suis pas d’accord, nous sommes au niveau zéro. La prochaine étape, c’est les réseaux de neurones vivantes pour alimenter ces machines.