À l’Institut national d’histoire de l’art, une IA alternative fait l’unanimité

Image INHA. DR
Image INHA. DR

En marge de l’exposition Le Monde Selon l’IA, qui se tiendra au Jeu de Paume du 11 avril au 21 septembre 2025, un groupe d’experts se réunit chaque dernier jeudi du mois pour des soirées de débat à l’Institut national d’histoire de l’art. Co-commissaire de l’exposition le Monde Selon l’IA à l’INHA (Institut national d’histoire de l’art), Antonio Somaini dresse un premier bilan.

L’IA peut-elle être pensée comme un nouveau médium artistique ?

Antonio Somaini : Je pense que oui. Mais il va falloir arrêter de parler d’IA en général. Quand on parle d’images, de génération et de modification d’images, le domaine de l’IA est fait de plusieurs algorithmes, de plusieurs domaines, qui ont déjà une histoire. C’est une histoire courte, qui date de la moitié des années 2010, mais je pense qu’il faut tout de même parler plus en détails des différents modèles et de ce qu’ils peuvent faire. Pendant la seconde moitié des années 2010, les modèles les plus utilisés par les artistes dans le champ des IA génératives s’appelaient GAN : Generative Adversarial Network (ou Réseaux adverses génératifs, ndlr). Beaucoup d’artistes se sont emparés de ces modèles et ont réalisé toute une série d’œuvres qui utilisait ce modèle d’IA comme un medium. Certains ont même parlé de « GANisme », d’une sorte de style commun à ces algorithmes. Il fallait avoir certaines compétences en informatique pour utiliser ces modèles mais ils avaient une grande flexibilité, dans le sens où l’on pouvait les entraîner avec des images que l’on choisissait soit même. On pouvait influencer de façon conséquente le type d’image généré.

Et puis, en 2022, on a assisté à l’arrivée de ce qu’on a appelé les modèles de diffusion : Stable Diffusion, MidJourney, DALL-E, des modèles qui fonctionnent sur la base d’un tout autre principe de génération d’images et qui permettent de générer un éventail d’images beaucoup plus large. Le problème, c’est que ces modèles sont pour la plupart élaborés par des sociétés privées comme OpenAI, Adobe, Meta ou Google, des multinationales qui tendent à instaurer une sorte d’oligarchie de l’IA aux Etats-Unis, depuis récemment très liée à la présidence de Trump. De plus, ces modèles sont gérés de façon assez opaque : on ne sait pas quels sont les textes et images avec lesquels ils ont été entraînés ; ni pourquoi certains prompts sont refusés. Parfois, on écrit un mot et le modèle dit qu’il ne peut pas en parler ou générer un image à partir de ça. Certains artistes essaient de montrer la tendance de ces modèles à générer des images stéréotypées, dénoncent des stéréotypes de race ou de genre. D’autres essaient d’explorer ces modèles de façon non-standard, avec une utilisation sophistiquée des prompts.

« Ils essaient de tracer une voie alternative par rapport à celle venant de la Silicon Valley »

Et d’autres préparent des modèles de diffusions différents, comme Holly Herndon et Matt Dryhurst, qui entraînent en ce moment même un modèle du nom de Public Diffusion, avec des paramètres modifiables. Comme avec la musique ou le cinéma, va-t-on assister à l’émergence d’IA indépendantes ?

Oui. C’est un peu l’idée de ces artistes, puis de personnes comme Gregory Chatonsky en France. Public Diffusion est entraîné avec des images qui sont, pour la plupart, libres de droit ou fournies par des artistes qui ont accepté de participer au projet. Quand il sera prêt, on pourra utiliser le modèle soit de façon gratuite, soit de manière payante, avec une version plus sophistiquée. Les revenus seront distribués aux artistes qui ont accepté de mettre leurs œuvres à disposition. C’est une IA publique, ouverte et plus juste que les modèles actuels. L’idée, c’est aussi qu’elle soit utilisée en open source, que tout le monde puisse se l’approprier, l’adapter à ses besoins, gérer les paramètres et influencer le type d’image généré. Ils essaient de tracer une voie alternative par rapport à celle venant de la Silicon Valley. Dans les derniers développements, il y a aussi DeepLeek, le modèle chinois, qui aurait été entraîné avec des coûts très réduits. Mais on n’est pas sûr que ce soit vrai. OpenAI suggère qu’ils ont peut-être piraté leur modèle… Mais si c’est réellement un modèle qui demande 6 millions d’euros pour être développé plutôt qu’un milliard, ça changerait la donne. 

Il existe déjà quelque chose qu’on appelle l’IA Art. Depuis quand en parle-t-on ?

Depuis la deuxième moitié des années 2010, des œuvres réalisées avec les GAN et d’autres modèles. Mais je suis contre l’utilisation de ce terme. Je pense que c’est une grande erreur de créer un domaine à part. On voit de plus en plus d’artistes qui utilisent des domaines d’IA avec beaucoup d’autres technologies. Cet art qui utilise l’IA, parmi d’autres choses, fait tout simplement partie de l’art contemporain. Dans les années 90, on a fait une grande erreur quand on a commencé à parler d’arts numériques, créant un domaine à part avec ses musées, ses expos, ses festivals. Ça crée un circuit un peu fermé, isolé du reste de l’art contemporain. Alors qu’aujourd’hui, presque toute forme artistique est au moins en partie numérique. Ce sera pareil avec l’IA dans peu de temps. Elle se glisse déjà dans tous les logiciels, dans tous les appareils. 

Les IA demandent énormément d’énergie. On parle donc d’une forme d’art qui peut donc difficilement se présenter comme vertueuse. En quoi est-ce que ça l’impacte ?

C’est tout à fait vrai, c’est un énorme problème. Là encore, il faudra voir si le modèle chinois a été entraîné avec vraiment moins de ressources, ce qui pourrait nous aider à revoir la question des coûts environnementaux. Une simple question suivie d’une réponse avec ChatGPT consomme de 10 à 15 fois plus qu’une recherche sur Google. Les GAN consommaient beaucoup moins, ils sont moins coûteux à entraîner. C’est une vraie question. Certains artistes l’aborde. D’autres l’ignorent. Et d’autres font ce que je qualifierai de greenwashing, d’artwashing, comme Refik Anadol. À la Serpentine Gallery de Londres, il a fait une exposition qui s’appelait Large Nature, utilisant un système hyperénergivore pour, selon ses mots, « nous remettre en contact avec la nature. » C’est ridicule. Quel besoin a-t-on de consommer autant d’énergie destructrice ?