En 1942, l’écrivain de science-fiction Isaac Asimov décrivait trois règles pour empêcher une utilisation néfaste de la robotique. Quatre-vingts ans plus tard, le débat reste ouvert, et la nécessité de créer un cadre responsable s’impose. Car depuis que l’intelligence artificielle a envahi notre quotidien et dépassé les prédictions les plus folles, l’opinion publique s’interroge. Perdrons-nous le contrôle de nos libertés et de nos vies ? En France, le label Positive AI, lancé par quatre grandes entreprises, pose les premiers jalons d’une IA éthique et responsable.
En décembre 2014, quatre ans avant de mourir, Stephen Hawking tirait la sonnette d’alarme, lors d’un entretien à la BBC. Profitant du système informatique Acat d’Intel capable de lire les mouvements de son visage – il était atteint de la maladie de Charcot –, le physicien pointait déjà du doigt les dérives d’une intelligence artificielle non maîtrisée qu’il voyait poindre à toute allure et menacer l’humanité si elle parvenait à la dépasser. Une mise en garde prophétique qui ne tarda pas à interpeller l’illustre homme d’affaires Elon Musk à la tête de l’agence spatiale SpaceX, en pleine élaboration de son lanceur Falcon 9 à destination de Mars. Quelques semaines plus tard, les deux hommes prennent place aux conseil consultatif du Future of Life Institute, à Boston, fraîchement créé par un cosmologiste et un programmateur afin de prévenir des risques de l’intelligence artificielle.
L’institut adresse alors une lettre ouverte lors d’une conférence intitulée « L’avenir de l’IA : opportunités et défis », à Puerto Rico, devant un parterre de scientifiques début janvier 2015. La lettre, longue de quatre paragraphes, soulève de multiples interrogations à court et long terme, sur la robustesse des systèmes d’IA, la nécessité de garantir un contrôle humain et la possibilité de corriger les algorithmes. Depuis, la boîte de Pandore semble s’être ouverte pour ne plus jamais se refermer. Et si les inquiétudes de la communauté scientifique font l’unanimité, un fossé culturel subsiste entre l’Europe et les États-Unis.
Dans la salle d’audience de Cleveland, Sheperd Jr. s’avance à la barre dans sa tenue orange. C’est la fin de l’été. Quarante-huit heures plus tôt, le jeune homme de 18 ans a été arrêté lors d’un contrôle de police en possession d’un sachet de cocaïne. Le juge, Jimmy Jackson, lui fait la lecture d’un score qu’une intelligence artificielle a rédigé automatiquement après analyse de son dossier judiciaire. La libération provisoire est préconisée. Dans l’Ohio comme dans 28 autres États, les tribunaux américains s’appuient sur des algorithmes pour orienter les verdicts. « Mais il y a un biais, prévient Stéphane Barde, en charge de la data et du digital chez Malakoff Humanis. Aux États-Unis, pays où il y a une surreprésentation des noirs en prison, le groupe ethnique est une variable autorisée dans la programmation de ces algorithmes. C’est une donnée librement collectée et discriminante pour cette partie de la population puisque, de fait, cela aura une influence sur le score de celui qui se retrouvera à la barre. »
En France, où la réglementation interdit de collecter ces données, comme les opinions politiques, les autorités sont plus prudentes. Alors qu’un décret de 2020 avait autorisé la création d’un algorithme appelé DataJust afin d’évaluer les montants d’indemnisation des victimes de préjudices corporels, après deux ans d’expérimentation le projet a finalement été abandonné, jugé trop complexe. Cette méfiance se vérifie aussi à l’échelle européenne. Car depuis 2018, l’UE tente de rattraper son retard en matière d’intelligence artificielle et veut légiférer pour une utilisation éthique et responsable. Un document, l’IA Act, publié en avril 2021, pose les fondations d’un encadrement à l’européenne. En ligne de mire, l’identification biométrique à distance, que le texte prévoit de soumettre à une batterie de tests de conformité aux normes européennes. Autre contrainte notable : l’interdiction d’utiliser l’intelligence artificielle pour l’évaluation sociale ou exploiter les vulnérabilités d’autrui. Les sociétés frauduleuses se verraient attribuer des amendes jusqu’à 4 % de leur chiffre d’affaires, et les développeurs de ces systèmes devront répondre à des exigences strictes de transparence et de cybersécurité.
« À la vitesse où les choses évoluent et les systèmes se complexifient, on ne voulait pas attendre »
Un texte qui invite aussi les entreprises à s’interroger autour de 120 questions : la part de l’humain dans l’IA, l’analyse des biais, la notion d’équité, de transparence, d’explicabilité. S’ils sont nombreux à saluer ses qualités, l’IA Act ne devrait pas entrer en vigueur avant 2025, pour une application à l’horizon 2026. « À la vitesse où les choses évoluent et les systèmes se complexifient, on ne voulait pas attendre », ajoute Stéphane Barde. Ce constat, elles sont plusieurs entreprises à le faire au même moment, conscientes qu’un jour il faudra être capable de répondre aux critères imposés par l’Europe. Il y a deux ans, l’idée d’un label qui garantirait une utilisation éthique et responsable de l’IA voit alors le jour, poussée par Orange, L’Oréal, BCG Gamma et Malakoff Humanis. Quatre mastodontes de l’économie française qui veulent fédérer autour de Positive AI, nom donné à l’initiative, toutes les entreprises désireuses de se mettre au diapason et d’anticiper la législation future.
Un enjeu marketing face à une clientèle toujours plus exigeante en matière de transparence. « L’IA interroge, explique Gaëlle Le Vu, directrice de la communication d’Orange. On se doit de rassurer, mais aussi de se doter de toute la gouvernance nécessaire. C’est un enjeu pour notre image de marque mais aussi pour nos salariés » La tâche est immense : selon une étude du BCG, alors que 84 % des entreprises affirment que l’IA responsable doit être une priorité, elles ne sont que 16 % d’entre elles à avoir développé un programme mature obéissant à des critères éthiques de base, par manque de solutions.
Big data et scores clients
Lorsqu’il rejoint Malakoff Humanis en 2018, Stéphane Barde a derrière lui une dizaine d’années d’activité dans la data. L’intelligence artificielle, il l’a vue apparaître à la fin des années 80, poussée par Yann Le Cun, chercheur de renom, considéré comme l’un des pères du deep learning (l’apprentissage profond, ndlr). « C’est un vieux truc les réseaux de neurones, poursuit-il. Pour faire reconnaître un chien d’un chat à un ordinateur, on nourrit un algorithme de millions d’images de chiens et de chats en indiquant ceci est un chien, ceci est un chat. C’est une méthode géniale, mais fastidieuse et sans aucune subtilité. » Avec l’explosion des quantités de données, des objets connectés et de la puissance de calcul informatique « doublée tous les deux ans, selon le principe de la loi de Moore », le terme big data a fait son apparition. « J’avais un patron dans une autre entreprise, avant de rejoindre Malakoff Humanis, qui arrivait de la Silicon Valley, et qui a changé l’organisation de l’équipe. Il m’a dit : “Y a un nouveau truc, c’est le big data, tu vas t’occuper que de ça maintenant”. C’est là le changement. On a mis en place des moyens humains et techniques et ça nous a permis d’avoir accès à des capacités de calcul très puissantes et abordables grâce au cloud computing ».
Dès le début, Stéphane comprend que la puissance de l’outil pourrait être nuisible. Un code de bonne conduite résumé sur un document circule alors dans son service. Un premier biais apparaît : lorsqu’ils cherchent à estimer la « valeur client », pratique courante dans l’entrepreneuriat, de nombreuses données collectées aussi simples que le prénom sont susceptibles d’être utilisées. Une corrélation fait surface entre le prénom et la valeur client. « C’est là que cela devient problématique, même si ce n’est pas une idée saugrenue au premier abord. Le Monde publie chaque année les résultats du bac par prénom. Le prénom détermine la classe sociale, et en poussant nos tests nous avions démontré que les deux dernières lettres du prénom sont suffisantes pour influer sur le score du client. Nous n’avons bien sûr pas retenu ces données dans nos algorithmes in fine. »
«L’algorithme proposait des abonnements à nos chaînes sportives qu’aux hommes, en excluant systématiquement les femmes. »
Depuis, son entreprise s’impose un protocole strict avec treize données clients à caractère personnel strictement protégées. Gaëlle Le Vu relate aussi l’apparition de biais dans les services d’Orange. « On s’est aperçu que si on n’était pas vigilant, l’algorithme proposait des abonnements à nos chaînes sportives qu’aux hommes, en excluant systématiquement les femmes. » En interne, des datas étaient sur le point d’être utilisées pour apporter des solutions de sécurité des bâtiments, avant de s’apercevoir que l’algorithme était trop intrusif sur les allées et venues des personnels. « Si on n’est pas vigilant, on peut avoir des dérives. » Dans d’autres cas, une IA responsable bénéficie avant tout à l’entreprise elle-même. Exemple : Orange collecte 100 000 photos par an envoyées par des utilisateurs pour témoigner de la dangerosité d’un dommage réseau apparent, et d’un besoin d’intervention.
Un poteau téléphonique bancal, un fil pas branché qui pend depuis un toit… « Le problème, c’est que si l’on considère que ce dommage est urgent, nous devons intervenir en quatre heures. Sauf que ce ne sont pas des experts réseaux qui postent ces images, donc leur jugement est faussé », explique Médéric Chomel, en charge des projets data et d’automatisation chez Orange. Pour parer à cela, son équipe a mis au point, grâce au deep learning, un algorithme capable de reconnaître par zone géographique les types de végétation et de configuration possibles afin de déterminer de la dangerosité du signalement.
Mais comment garantir la partialité du label dès lors qu’il est gouverné par quatre entreprises fondatrices soumises aux mêmes contraintes que les futurs adhérents ? « C’est un cabinet indépendant qui réalisera les audits. C’est aussi leur réputation qu’ils mettent en jeu, rassure Gaëlle Le Vu. Puis, plus il y aura d’entreprises adhérentes, moins il sera possible d’influencer quoi que ce soit. » Le principe est simple. Lorsqu’une entreprise souhaitera se faire labelliser, un premier audit permettra de faire le point sur les bonnes et mauvaises pratiques en matière d’intelligence artificielle afin d’établir un plan de montée en charge. Une charte en cours d’élaboration et différents niveaux d’intégration seront proposés. Avec, en bout de chaîne, une règle immuable : l’intelligence artificielle doit être une aide à la décision validée in fine par l’humain, et son algorithme doit être explicable et compréhensible.
Côté institutions françaises, on voit d’un très bon œil la création d’un label. Pour autant, elles n’engagent pas de moyens supplémentaires. La CNIL, seule autorité actuelle en matière de contrôle éthique en France, semble bien démunie. « Si on veut faire les choses plus sérieusement, il faut revoir leurs budgets, estime Médéric Chomel. les instances publiques en France n’ont pas assez de ressources à disposition. » L’association Positive AI pourrait changer les choses avec, courant 2023, une plateforme digitale mise à disposition.
En attendant, l’intelligence artificielle continue sa folle expansion. Fin décembre, un nouveau chatbot – générateur de de texte et de langage humain – lancé par OpenAI, a dépassé le million d’utilisateur. Et son algorithme pose déjà des problèmes éthiques. Désinformation, perturbation des institutions, violation des droits d’auteur, collecte frauduleuse de données d’internautes… Elon Musk, cofondateur d’OpenAI, aurait-il laissé derrière lui ses craintes ?