Henri Poulain : « Les data workers qui font de la modération pour ChatGPT et OpenAI sont poli-traumatisés »

Des centaines de millions de travailleurs triment chaque jour pour alimenter les technologies connues sous le nom d’intelligences artificielles génératives et généralistes. Certains crèvent d’ennuis, d’autres passent des journées à observer des images abominables. Ils se considèrent comme des « Sacrifiés de l’IA », ce qui a offert un titre puissant au documentaire d’Henri Poulain, diffusé sur France 2 le 11 février. Trois semaines plus tard, le réalisateur développe le propos du film pour Télescope.

Votre film a fait grand bruit. Comment expliquez-vous qu’il ait eu une telle résonance ?

Henri Poulain : L’IA Summit de Paris était une sorte de point d’orgue du récit marketing autour des nouvelles technologies, qui est totalement entre les mains des big techs. J’observe ce récit depuis des années. Il est assez peu, ou assez mal critiqué, même par les journalistes. Rares sont celles et ceux qui ne tombent pas un petit peu dans le panneau. Forcément, quand on montre ce qu’il y a derrière, beaucoup de gens sont sidérés. La première réaction a été : « merde, y’a des data workers ? » puis : « ils sont des centaines de millions ?! », ensuite : « parmi eux, des milliers de personnes annotent des contenus traumatisants ? » et enfin : « et ce n’est donc pas un accident de l’histoire, d’une industrie immature, mais quelque chose de réfléchi, irrigué d’idéologies ultra-conservatrices qui viennent du cœur de la Silicon Valley ? » On dit : faut-il que l’utilisation soit plus éthique ? Mais comment peut-on réclamer à un produit d’être éthique si, à l’instant même où il est produit, il ne l’est pas ? Je précise que le film est une critique des IA génératives et généralistes. Celles qui veulent tout faire. Elles n’ont pas le même fonctionnement que les IA médicales, par exemple, qui fonctionnent sur un corpus extrêmement plus étroit et sont majoritairement élaborées par des gens qui ont une spécialité, qui sont plus guidées et financées.

Au début du film, le narrateur pose une question : « les intelligences artificielles sont-elles vraiment artificielles ou sont-elles faîtes de chair et de sueur ? » Elles ne sont en fait ni vraiment intelligentes, ni artificielles ?

Non. C’est un vieux mythe. Je crois qu’Alan Turing fut le premier à parler de projet d’intelligence artificielle. L’historicité de la machine pensante tire ses sources dans cette espèce de scientisme du XIXème siècle, de mythologie selon laquelle la machine affranchirait l’homme du dur labeur. Sauf que ça me rappelle l’histoire de ce joueur d’échecs à la cour ottomane, qui battait tout le monde. On pensait que c’était un automate pensant. En fait, il y avait juste une personne de petite taille à l’intérieur. On est sur des arnaques, en permanence… Aujourd’hui, il est difficile de dire à quel point on trompe délibérément le consommateur et à quel point ceux qui émettent le récit ont une foi réelle en leur message. Chez des gens comme Altman et Musk, je pense que la frontière est floue. Le fait d’être une génération qui pourrait se targuer de voir le futur émerger sous ses yeux, ça arrange. Le monde est le récit qu’on en fait.

« Les data, c’est comme la vie : ça change tout le temps. »

Quand cette terminologie de « data worker » a-t-elle émergée ?

Ce sont les sociologues comme Antonio Casilli, qui a travaillé sur le film et Mila Miceli, qui intervient dedans, qui les identifient ainsi. Ceux qui proposent ces jobs n’utilisent jamais ces termes-là. Ils parlent de data scientists, de data analysts, des termes un peu ronflants. Quoi qu’il en soit, il y a dans la production algorithmique des tâches nécessairement humaines que je qualifie « d’alimentation. » Parce que dire « d’entraînement » est pervers. Cela sous-entend qu’un jour, ces machines seront autonomes. Sauf qu’elles ne sont pas conçues pour être autonomes et pour s’auto-alimenter en data. Les data, c’est comme la vie : ça change tout le temps. Le langage, la description du réel, les éléments culturels, sont en perpétuelle évolution. Il n’y aura jamais de satiété.

Quels sont les data workers que vous avez rencontré qui souffrent le plus de leur condition ?

Tous les data workers qui ont travaillé pour faire de la « modération. » Avec de gros guillemets. Parce que la terminologie fausse la réalité. Les gens qui font de la modération pour ChatGPT et OpenAI au Kenya sont poli-traumatisés. Ils vont porter ces syndrome post-traumatiques jusqu’à ce que mort s’en suive.

Vous parlez donc ces travailleurs qui doivent signaler des contenus horribles, comme des abus d’enfants ?

Oui, comme tous ceux qui ont travaillé pour OpenAI. Ils ont vu ces scènes dix heures par jour. Pendant des mois. La modération de contenus a une valeur sociale sur les réseaux sociaux. Il est normal de nettoyer ces réseaux des saloperies innommables que certains esprits malades peuvent poster. Là, ce n’est pas de la modération. C’est de l’alimentation de données pour un produit commercial, qui ne produit rien d’autre que de mauvaises copies de Terminale, vendues dans une course effrénée à la technologie dans la Silicon Valley. Il suffit d’utiliser ChatGPT sur des sujets qu’on connaît bien pour se rendre compte de la vacuité du truc. Il n’y a aucune raison de traumatiser des dizaines de milliers de personnes pour gagner quelques parts de marché.


Que peut-on faire  ?

Déjà, le faire savoir. Ce film casse le mensonge et propose un récit plus proche du réel. Ensuite, nos pouvoirs publics réagissent aux opinions. Même OpenAI réagit à ça. Fort de cette mauvaise publicité, peut-être qu’ils essaieront de mieux payer leurs travailleurs ? Il faut militer auprès d’activistes qui peuvent lutter pour qu’ils obtiennent le droit de se syndiquer, au minimum. Actuellement, ils n’y ont pas le droit. Je ne veux pas tomber dans le piège d’incriminer l’utilisateur. Ce qu’il faut, c’est que les pouvoirs publics réglementent. Ils sont là pour ça. À nous de voter pour des gens qui ne trouvent pas ça anodin. Le bassin de population de travailleurs du clic ne va pas s’étendre à l’excès. Il faut également des cols blancs, des gens qui savent former. On observe de plus en plus ces mêmes pratiques remonter vers le Nord et toucher des populations précarisées, des classes moyennes paupérisées, des étudiants, des pigistes. Même si on n’est pas sensible à la cause kenyane, pas pur cynisme, ce serait pas mal de se réveiller un peu.