Jean-Gabriel Ganascia est ingénieur, philosophe, professeur à la Sorbonne, auteur de 450 articles universitaires, chercheur au laboratoire LIP6 et expert de l’intelligence artificielle… rien que ça. Il a donné à Telescope sa vision du futur et quelques tips pour enrayer les attaques d’infox.
Parmi vos travaux actuels, lesquels pourraient le mieux nous indiquer ce que l’avenir nous réserve ?
Jean-Gabriel Ganascia : Ce qui nous motive beaucoup, mon équipe et moi, c’est la détection de fake news avec des modèles de langage. Ce qui est extraordinaire avec ces outils, c’est que l’on extrait les relations invisibles entre les mots. Ça donne une idée de la sémantique. Vous représentez un mot par les mots avec lesquels il est employé. C’est ce qu’on appelle les enchâssements. Deux mots qui sont proches sont employés dans des contextes semblables, ce qui vous donne une idée de la proximité de leur signification. Comme « chat » et « chien ». Connaissez-vous les Exercices de style de Raymond Queneau ?
Vaguement. Pourquoi ?
J’ai écrit un petit livre, L’IA expliquée aux humains, dans lequel je clarifie des notions de base. Comme ce qu’on entend par« intelligence » quand on parle d’IA. Le grand public pense que cela fait référence à l’esprit. Il se dit que nous sommes fous ! Alors qu’on ne parle évidemment pas de machines animées par un souffle de vie. Bref, dans le livre, quatre collégiens imaginaires viennent me voir depuis le Collège Raymond Queneau. Le rapport, c’est que dans les Exercices de style, la même histoire est racontée avec plein de styles différents. Une histoire sans intérêt, sur un type qui rencontre un autre type dans l’autobus et le revoit à l’autre bout de Paris. Avec les modèles de langage, on a essayé d’extraire ce qui fait l’histoire en montrant que leurs enchâssements étaient proches. Pourquoi ? Parce que dans notre but de détecter les fake news, ce qui nous importe est d’observer des thématiques. Les fake news concernent des thématiques bien précises. On vise donc à les repérer dans les flux d’information. Dans chaque thématique, on aimerait repérer ce qui est en tension, en contradiction, car c’est justement ça une fake news, un information qui contrevient à ce que l’on affirme habituellement.
Et, ainsi, vous souhaitez déterminer comment naissent les fake news, donc ?
On cherche à savoir comment repérer les attaques informationnelles. On n’aime pas beaucoup le terme « fake news », introduit par Donald Trump, qui disait que les histoires des journalistes sont fausses et que, lui, allait en raconter d’autres. En France, il y a le terme « infox », qui est plus intéressant.
Comment naît l’infox, alors ?
Ce qui est difficile, c’est qu’on ne sait pas que quelque chose est faux. Sur des thèmes chauds, on observe les divergences. Sur le climat, par exemple. On regarde les nouvelles en tension les unes avec les autres pour voir ce qui peut relever d’attaque informationnelle. Après, c’est intéressant de caractériser les canaux et les modalités de diffusion de ce qui est malveillant.
Vous pourriez donc réussir à enrayer ces attaques ?
C’est la grande question. Toute la difficulté, c’est que ce n’est pas parce que l’on dément quelque chose qu’on annihile l’effet pernicieux que cette chose peut avoir. Quand je présidais le comité d’éthique du CNRS, on avait rédigé un rapport sur la difficile posture du scientifique à l’ère de la post-vérité. En tant que scientifique, vous essayez de démentir quelque chose de faux. Ça ne va pas forcément aider. C’était le cas sur la vaccination. C’est le cas sur le climat. Donc je n’ai pas de solution…
En fait, on parle de faits alternatifs auxquels on croit en masse, plutôt ?
Tout à fait. La difficulté, c’est non seulement que l’IA es utilisée pour générer de fausses nouvelles, mais aussi pour les adresser de façon sélective aux segments de la population susceptibles d’y réagir. Dans le monde ancien, on avait tous la même information. Ça présentait des risques, dans le monde stalinien ou même avec l’ORTF, mais, au moins, on débattait des mêmes choses. Aujourd’hui, on n’a plus les mêmes informations. Quand on discute avec quelqu’un, on peut entendre parler de sources d’informations étranges. Il y a des attaques informationnelles dans tous les sens. L’histoire des punaises de lit, par exemple ! Maintenant, on sait que c’était une attaque russe. On expliquait qu’il y en avait énormément, beaucoup plus qu’ailleurs, juste avant les JO…
On raconte plusieurs versions de la même histoire…
Voilà. On est dans des sociétés horizontales. On n’admet plus que des personnes aient des postures d’autorité. Avant, quand le savant disait quelque chose, on le respectait. Aujourd’hui, on dira que le savant est arrogant, insupportable, qu’il a eu un problème avec une étudiante…
J’étais agacé que l’on dise que l’avènement de la singularité était probable. Comme on dit aujourd’hui que l’intelligence artificielle va devenir générale. J’ai expliqué que cela reposait sur un malentendu. Ce n’est pas possible de transférer la conscience sur une puce. Puis les arguments invoqués par les tenants de ces théories sont indigents. Ray Kurzweil dit que le rythme, la puissance des machines est exponentielle et que cela finira par nous dépasser. En 1965, le docteur Gordon E. Moore émettait sa première loi Moore, qui suggère un accroissement exponentiel de la puissance des machines. Moore voulait juste anticiper ce qui allait se passer dans les années qui arrivaient. C’est lui qui avait fondé Intel. Ses héritiers disaient que ça continuerait pour toujours. Moore, lui, n’avait pas pour idée que cela se poursuive indéfiniment ! Les arbres ne montent jamais jusqu’au ciel. Même si la puissance des machines augmentait de façon exponentielle, le fait qu’elles soient rapides ne veut pas dire qu’elles seraient intelligentes. Je trouvais ça étonnant que les grands acteurs du numérique nous expliquent que la singularité allait advenir. J’ai fait des parallèles avec la Gnose, cette spiritualité étrange qui, au Ier et IIe siècles, avait pour idée que la connaissance peut réparer le monde. Maintenant, certains croient que la technologie peut réparer le monde. Les grands acteurs du numériques sont sans doute animés par des croyances bizarres, mais je pense aussi qu’ils veulent masquer ce qu’ils font. Ils racontent des histoires incroyables, mais leur véritable ambition est politique. Je l’avais écrit dans ce livre de 2017. J’avais le sentiment qu’ils voulaient, à la place des états, assurer un certain nombre d’attributs de la souveraineté. Ça s’est confirmé.