Réguler l’IA générative ?

La Maison Blanche a publié une pré-feuille de route de proposition pour un développement responsable de l’IA.  

L’enjeu est double : favoriser l’innovation et atténuer les risques. “Les entreprises ont la responsabilité fondamentale de s’assurer que leurs produits sont sûrs avant de les déployer ou de les rendre publics”, rappelle l’administration américaine pour favoriser une responsabilisation en amont en soulignant les efforts de régulation déjà en place. 

La première mesure évoquée est la mise en place de financements pour créer 7 nouveaux instituts de recherche sur l’IA (140 millions de dollars) portant leur nombre à 25. Le but est de faire progresser la R&D responsable entre laboratoire et entreprises. 

La note préconise une évaluation publique des systèmes d’IA générative existants via une plateforme dédiée opérée par Scale.ai. L’idée est d’avoir une évaluation des modèles afin de s’assurer qu’ils soient conformes aux principes du projet de charte des droits de l’IA et du cadre de gestion des risques liés à l’IA publiés par la Maison Blanche en 2022. 

Enfin, la Maison Blanche s’engage à être exemplaire en matière d’atténuation des risques. Un projet de lignes directrices des systèmes d’IA utilisés par le gouvernement américain sera publié et soumis à l’avis du public établissant des politiques spécifiques pour les agences et administrations. 

La question de la responsabilité des systèmes d’IA générative est complexe. Les modalités qu’on avait l’habitude de convoquer en termes d’éthique (documentation, transparence du code et des données utilisées, ouverture à la recherche et à l’audit…) restent nécessaires bien sûr, mais vont être rendues plus difficiles – et ce d’autant plus difficile que ces principes n’ont la plupart du temps pas été appliqués dans les systèmes reposant sur des techniques plus simples, que ce soit à base d’algorithmique ou d’apprentissage automatique “simple”, par exemple dans les systèmes sociaux partout défaillants. La proposition de la Maison Blanche consiste seulement à accélérer la discussion pour mieux saisir les forces et limites et trouver des modalités et principes de régulation. Mais comment faire pour que des systèmes qui ne comprennent pas ce qu’ils disent ne racontent pas n’importe quoi quand leurs principes de fonctionnement reposent sur de l’évaluation statistique entre différents mots ? Les pistes de régulation évoquées lors des discussions autour du moratoire (qui a fait long feu) ou du rapport de l’AI Now Institute cherchent à trouver des modalités de régulation du secteur dans son ensemble plus que de ces technologies en particulier.

La transparence reste bien sûr un levier, puissant (même si pour l’instant, l’ouverture des modèles d’IA générative semble considérablement accélérer leurs déploiements, comme le constatait un document qui aurait fuité de chez Google, comparant la rapidité d’évolution des systèmes), mais il ne sera certainement pas suffisant, face à des systèmes qui semblent si convaincants et qui vont produire des erreurs peu visibles car cachées dans les détails de leurs réponses, à l’image des erreurs qu’elles produisent quand on les interroge sur des personnes précises. Le cadre de travail sur les médias génératifs publié par Partnership on AI par exemple invite tous les acteurs de la chaîne à être responsables et transparents, à s’engager dans l’évaluation de ce qu’ils font ou proposent. Certes, mais comment le faire suivre d’effets ?

La première mesure lancée par Biden a été de réunir les grands acteurs de l’IA générative pour qu’ils discutent et suggèrent des régulations, oubliant la société civile et les experts indépendants à ce tour de table. C’est un peu comme si l’administration demandait aux compagnies aériennes de réfléchir sur les risques que fait porter leur activité sur l’environnement, comme le dit Lê Nguyën Hoang. Pas sûr que ça nous amène quelque part. Mais le communiqué annonce également que la réflexion va aller au-delà des seules entreprises impliquées dans l’IA, avec le lancement d’un grand atelier lors de la prochaine Defcon, la grande convention des hackers, pour explorer les défaillances de ses systèmes d’IA générative (GenAI), comme l’a annoncée Rumman Chowdhury (l’annonce). 

Pour Adam Conner d’AmericanProgress, les entreprises devraient déjà se conformer au projet de charte des droits de l’IA que la Maison Blanche a publié en octobre, à savoir, 5 principes fondamentaux de conception : les systèmes automatisés doivent 1) être sûrs et efficaces ; 2) protéger contre la discrimination algorithmique ; 3) protéger la confidentialité des données ; 4) fournir une notification et une explication lorsqu’ils sont utilisés ; et 5) permettre aux Américains de se retirer en faveur d’alternatives humaines. Si les principales entreprises de l’IA adoptaient ces principes se serait certes un pas en avant, mais cela ne suffirait pas à garantir que “ces technologies soient développées de manière responsable”, explique Conner, qui propose d’autres pistes dans une riche synthèse sur les enjeux, comme de créer un organisme de conseil dédié à la question de l’IA, d’évaluer les outils publics, ou d’exiger que les nouvelles réglementations fédérales intègrent des analyses de la manière dont elles devraient s’appliquer aux outils d’IA… Bref, de sortir des pistes éthiques balisées, qui bien souvent se contentent de rappeler les principes et les difficultés à les faire respecter, sans toujours fourbir de solutions (à l’image de cette analyse des chercheurs de Google, enthousiastes sur un grand modèle de langage, mais très limité sur l’évaluation des risques).

*

Mon sentiment est qu’on est face à des questions inédites alors que nous devrions collectivement poser un cadre plus concret. La réflexion, l’évaluation et la discussion ouverte bien au-delà des seuls ingénieurs est indispensable pour trouver les bons cadres de régulation et de responsabilisation. Mais, le cadre esquissé pour réguler les algorithmes et les systèmes de machine learning n’est peut-être pas nécessairement parfaitement adapté aux IA génératives. C’est un peu comme si nous étions face à l’enjeu de construire une contre-IA générative pour réguler les problèmes de l’IA générative. L’enjeu n’est pas tant d’interdire des mots que des cadres de pensées, surtout quand des synonymes ou des insistances, permettent de dépasser les interdits plus ou moins bien intégrés par ces machines. J’ai l’impression que l’enjeu est bien plus de regarder les modèles de limitations que nous introduisons dans ces systèmes que les systèmes eux-mêmes… Que l’enjeu risque d’être, plus qu’avant, la régulation des usages et donc des glissements possibles. Et le problème, c’est qu’avec la précédente génération d’outils, nous n’avons endigué aucun glissements de technologies et aucun usage. Et le niveau de complexité de compréhension de la technologie rend l’enjeu de régulation encore plus difficile. Ce n’est pas qu’il y a un vide juridique, comme le rappelle pertinemment le Linc de la Cnil, rappelant que le droit d’auteur, le droit sur la protection des données personnelles, le droit aux traitements “licites, loyaux et transparents”, le droit d’accès, les principes de responsabilité… sont bien sûr mobilisables. Reste à savoir si face à la complexité inédite qui est devenant nous, ils seront suffisants.  

En tout cas, l’enjeu de régulation est majeur. Reconnaissons à la Maison Blanche d’avoir raison de mettre le sujet sur la table pour y trouver des réponses. Nous devrions nous aussi initier des discussions sur ces enjeux. L’IA générative nous fait franchir un seuil de complexité… qui va nécessiter de faire franchir un seuil aux questions d’éthique et de régulation car l’IA générative semble rendre certaines barrières que nous pensions solides et que nous étions en train de construire, plus fragiles qu’on ne le pense. J’ai l’impression que les principes de conception que nous avions défini perdent de leurs capacité de réponse face à des systèmes qui, quand bien même transparents et vertueux, vont être capable de parler pendant des heures à des gens en s’adaptant sans cesse, de produire très simplement des artefacts relativement efficaces… et dans une démultiplication sans limite des possibilités.

Hubert Guillaud

MAJ du 10 mai 2023 : “C’est un peu comme si nous étions face à l’enjeu de construire une contre-IA générative pour réguler les problèmes de l’IA générative”, disais-je. C’est un peu ce que propose OpenAI pour réguler les performances et améliorer l’explicabilité de ses modèles, lit-on. L’idée, en gros, consiste à noter les explications que fournit GPT pour regarder quels paramètres obtiennent le meilleur score d’explication. Mais l’IA pour détecter ses propres biais risque de produire des explications peu lisibles, une forme d’éthique automatique qui pointe les problèmes sans vraiment les résoudre.

Advertisement

2 thoughts on “Réguler l’IA générative ?

  1. Dans la série “D’où venons-nous et où allons-nous ?” : des textes qui ne viennent pas d’IA génératives mais … qui étaient peut être précurseur

    1977 Téléphone – Hygiaphone
    “T’as pas besoin d’gueuler
    Demande au mégaphone (réseaux sociaux)
    Bientôt au bout du fil (la fibre)
    Tu n’auras plus personne” (chatbot)

    1984 (!!!!) France Gall – Débranche
    “Le monde tient à un fil
    Moi je tiens à mon rêve
    Rester maître du temps
    Et des ordinateurs
    …..
    Revenons à nous
    …..
    Débranche-toi”

    Heureusement, la vie déconnectée est toujours possible (2023).

    Like

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s