Un groupe du MIT publie des livres blancs sur la gouvernance de l'IA, la série de documents d'orientation vise à aider les décideurs politiques à mieux superviser l'IA dans la société

Fournissant une ressource aux décideurs américains, un comité de dirigeants et d'universitaires du MIT a publié un ensemble de notes d'orientation qui décrit un cadre pour la gouvernance de l'intelligence artificielle. Il s'agit notamment d'étendre les approches actuelles en matière de réglementation et de responsabilité afin de trouver un moyen pratique de superviser l'intelligence artificielle.

L'objectif de ces documents est d'aider à renforcer le leadership des États-Unis dans le domaine de l'intelligence artificielle au sens large, tout en limitant les dommages qui pourraient résulter des nouvelles technologies et en encourageant l'exploration de la manière dont le déploiement de l'IA pourrait être bénéfique pour la société.

Le principal document d'orientation, intitulé "A Framework for U.S. AI Governance : Creating a Safe and Thriving AI Sector", suggère que les outils d'IA peuvent souvent être réglementés par des entités gouvernementales américaines existantes qui supervisent déjà les domaines concernés. Les recommandations soulignent également l'importance d'identifier l'objectif des outils d'IA, ce qui permettrait d'adapter les réglementations à ces applications.

"En tant que pays, nous réglementons déjà un grand nombre d'activités à risque relativement élevé et nous en assurons la gouvernance", explique Dan Huttenlocher, doyen du MIT Schwarzman College of Computing, qui a participé à la direction du projet, issu des travaux d'un comité ad hoc du MIT. "Nous ne disons pas que c'est suffisant, mais commençons par des choses où l'activité humaine est déjà réglementée, et dont la société, au fil du temps, a décidé qu'elles présentaient un risque élevé. Envisager l'IA de cette manière est une approche pratique".

"Le cadre que nous avons mis en place donne une façon concrète de penser à ces choses", déclare Asu Ozdaglar, doyen adjoint des universitaires du MIT Schwarzman College of Computing et chef du département de génie électrique et d'informatique (EECS) du MIT, qui a également contribué à la supervision de l'effort.

Nom : MIT-Logo.png
Affichages : 830
Taille : 13,6 Ko

Le projet comprend de nombreux documents d'orientation supplémentaires et intervient dans un contexte d'intérêt accru pour l'IA au cours de l'année écoulée, ainsi que de nouveaux investissements considérables de l'industrie dans ce domaine. L'Union européenne tente actuellement de finaliser la réglementation de l'IA en utilisant sa propre approche, qui attribue de larges niveaux de risque à certains types d'applications. Dans ce processus, les technologies d'IA à usage général, telles que les modèles de langage, sont devenues un nouveau point d'achoppement. Tout effort de gouvernance doit relever le défi de réglementer à la fois les outils d'IA généraux et spécifiques, ainsi qu'une série de problèmes potentiels tels que la désinformation, les "deepfakes", la surveillance et bien d'autres encore.

"Nous avons estimé qu'il était important pour le MIT de s'impliquer dans ce domaine en raison de son expertise", explique David Goldston, directeur du bureau du MIT à Washington. "Le MIT est l'un des leaders de la recherche sur l'IA, l'un des endroits où l'IA a vu le jour. Puisque nous faisons partie de ceux qui créent la technologie qui soulève ces questions importantes, nous nous sentons obligés de contribuer à les résoudre".

Objectif, intention et garde-fous

La principale note d'orientation décrit comment la politique actuelle pourrait être étendue à l'IA, en utilisant les organismes de réglementation et les cadres de responsabilité juridique existants dans la mesure du possible. Les États-Unis disposent de lois strictes en matière d'autorisation dans le domaine de la médecine, par exemple. Il est déjà illégal d'usurper l'identité d'un médecin ; si l'IA était utilisée pour prescrire des médicaments ou établir un diagnostic en se faisant passer pour un médecin, il devrait être clair qu'elle violerait la loi, tout comme le ferait une malversation strictement humaine. Comme le souligne le document d'orientation, il ne s'agit pas seulement d'une approche théorique ; les véhicules autonomes, qui déploient des systèmes d'IA, sont soumis à la réglementation de la même manière que les autres véhicules.

Une étape importante dans la mise en place de ces régimes de réglementation et de responsabilité, souligne le document d'orientation, consiste à demander aux fournisseurs de systèmes d'IA de définir à l'avance le but et l'intention des applications de l'IA. L'examen des nouvelles technologies sur cette base permettrait alors d'identifier clairement les réglementations et les régulateurs existants qui s'appliquent à un outil d'IA donné.

Cependant, il est également vrai que les systèmes d'IA peuvent exister à plusieurs niveaux, dans ce que les technologues appellent une "pile" de systèmes qui, ensemble, fournissent un service particulier. Par exemple, un modèle linguistique polyvalent peut être à la base d'un nouvel outil spécifique. En général, selon le mémoire, le fournisseur d'un service spécifique peut être le premier responsable des problèmes liés à ce service. Toutefois, "lorsqu'un système de composants d'une pile ne fonctionne pas comme prévu, il peut être raisonnable que le fournisseur de ce composant partage la responsabilité", comme l'indique le premier mémoire. Les concepteurs d'outils à usage général devraient donc également être responsables si leurs technologies sont impliquées dans des problèmes spécifiques.

"Cela rend la gouvernance plus difficile à envisager, mais les modèles de base ne doivent pas être complètement ignorés", explique M. Ozdaglar. "Dans de nombreux cas, les modèles proviennent de fournisseurs, et vous développez une application par-dessus, mais ils font partie de la pile. Quelle est la responsabilité à cet égard ? Si les systèmes ne sont pas au sommet de la pile, cela ne signifie pas qu'ils ne doivent pas être pris en compte."

Le fait que les fournisseurs d'IA définissent clairement l'objectif et la finalité des outils d'IA et qu'ils exigent des garde-fous pour éviter les abus pourrait également aider à déterminer dans quelle mesure les entreprises ou les utilisateurs finaux sont responsables de problèmes spécifiques. Le document d'orientation précise qu'un bon régime réglementaire devrait être en mesure d'identifier ce qu'il appelle une "fourchette dans le grille-pain", c'est-à-dire une situation dans laquelle un utilisateur final pourrait raisonnablement être tenu pour responsable de la connaissance des problèmes qu'une mauvaise utilisation d'un outil pourrait engendrer.

Réactivité et flexibilité

Bien que le cadre politique implique des agences existantes, il comprend également l'ajout de quelques nouvelles capacités de surveillance. D'une part, le document d'orientation préconise des avancées en matière d'audit des nouveaux outils d'IA, qui pourraient suivre diverses voies, que ce soit à l'initiative du gouvernement, des utilisateurs ou dans le cadre d'une procédure de responsabilité juridique. Le document souligne que des normes publiques d'audit seraient nécessaires, qu'elles soient établies par une entité à but non lucratif comme le Public Company Accounting Oversight Board (PCAOB) ou par une entité fédérale comme le National Institute of Standards and Technology (NIST).

Le document appelle également à envisager la création d'un nouvel "organisme d'autorégulation" (SRO) approuvé par le gouvernement, sur le modèle de la FINRA, l'autorité de régulation de l'industrie financière créée par le gouvernement. Un tel organisme, axé sur l'IA, pourrait accumuler des connaissances spécifiques au domaine qui lui permettraient d'être réactif et flexible lorsqu'il s'agira de s'engager dans un secteur de l'IA qui évolue rapidement.

"Les interactions entre l'homme et la machine sont très complexes. Il faut donc être réactif", explique M. Huttenlocher, qui est également titulaire de la chaire Henry Ellis Warren d'informatique et d'intelligence artificielle et de prise de décision au sein de l'EECS. "Nous pensons que si le gouvernement envisage de créer de nouvelles agences, il devrait se pencher sur la structure de l'OAR. Il ne s'agit pas de donner les clés du magasin, car il s'agit toujours d'un organisme agréé et supervisé par l'État".

Comme l'indiquent clairement les documents d'orientation, plusieurs autres questions juridiques particulières devront être abordées dans le domaine de l'IA. Les droits d'auteur et les autres questions de propriété intellectuelle liées à l'IA font déjà l'objet de litiges.

Il y a aussi ce que M. Ozdaglar appelle les questions juridiques "human plus", où l'IA a des capacités qui vont au-delà de ce que l'homme est capable de faire. Il s'agit notamment d'outils de surveillance de masse, et la commission reconnaît qu'ils peuvent nécessiter un examen juridique particulier.

"L'IA permet des choses que les humains ne peuvent pas faire, comme la surveillance ou les infox à grande échelle, qui peuvent nécessiter une considération particulière au-delà de ce qui est applicable aux humains", explique Ozdaglar. "Mais notre point de départ permet toujours de réfléchir aux risques et à la manière dont ces risques sont amplifiés par les outils."

La série de documents d'orientation aborde en détail un certain nombre de questions réglementaires. Par exemple, l'un des documents, intitulé "Labeling AI-Generated Content : Promises, Perils, and Future Directions", par Chloe Wittenberg, Ziv Epstein, Adam J. Berinsky, et David G. Rand, s'appuie sur des expériences de recherche antérieures concernant les médias et l'engagement du public pour évaluer des approches spécifiques de dénomination du matériel produit par l'IA. Un autre article, intitulé "Large Language Models", rédigé par Yoon Kim, Jacob Andreas et Dylan Hadfield-Menell, examine les innovations en matière d'IA à usage général basées sur le langage.

"Une partie de l'action à mener"

Comme l'indiquent clairement les documents d'orientation, un autre élément d'un engagement efficace du gouvernement sur le sujet consiste à encourager la recherche sur les moyens de rendre l'IA bénéfique pour la société en général.

Par exemple, le document d'orientation intitulé "Can We Have a Pro-Worker AI ? Choosing a path of machines in service of minds", de Daron Acemoglu, David Autor et Simon Johnson, explore la possibilité que l'IA puisse augmenter et aider les travailleurs, plutôt que d'être déployée pour les remplacer - un scénario qui permettrait une meilleure croissance économique à long terme répartie dans l'ensemble de la société.

Cet éventail d'analyses, issues de diverses perspectives disciplinaires, est un élément que le comité ad hoc souhaitait apporter à la question de la réglementation de l'IA dès le départ - en élargissant l'angle d'approche de l'élaboration des politiques, plutôt qu'en le réduisant à quelques questions techniques.

"Nous pensons que les établissements universitaires ont un rôle important à jouer en termes d'expertise technologique et d'interaction entre la technologie et la société", explique M. Huttenlocher. "Cela reflète ce qui sera important pour bien gouverner, à savoir des décideurs politiques qui réfléchissent ensemble aux systèmes sociaux et à la technologie. C'est ce dont la nation va avoir besoin".

En effet, note M. Goldston, la commission tente de combler le fossé entre ceux qui sont enthousiastes et ceux qui sont préoccupés par l'IA, en s'efforçant de faire en sorte qu'une réglementation adéquate accompagne les progrès de la technologie.

Comme l'explique M. Goldston, le comité qui publie ces documents "n'est pas un groupe qui s'oppose à la technologie ou qui tente d'étouffer l'IA. Il s'agit néanmoins d'un groupe qui affirme que l'IA a besoin d'une gouvernance et d'un contrôle. Cela fait partie de la bonne marche à suivre. Ce sont des gens qui connaissent cette technologie et qui disent que l'IA a besoin d'un contrôle".

M. Huttenlocher ajoute : "Travailler au service de la nation et du monde est une chose que le MIT prend au sérieux depuis de nombreuses décennies. C'est un moment très important pour cela".

Outre M. Huttenlocher, M. Ozdaglar et M. Goldston, les membres du comité ad hoc sont les suivants : Daron Acemoglu, professeur à l'Institut et titulaire de la chaire Elizabeth et James Killian d'économie à l'École des arts, des lettres et des sciences sociales ; Jacob Andreas, professeur associé à l'EECS ; David Autor, titulaire de la chaire Ford d'économie ; Adam Berinsky, titulaire de la chaire Mitsui de sciences politiques ; Cynthia Breazeal, doyenne de l'apprentissage numérique et professeur d'arts et de sciences des médias ; Dylan Hadfield-Menell, titulaire de la chaire Tennenbaum d'intelligence artificielle et de prise de décision ; Simon Johnson, professeur Kurtz d'entrepreneuriat à la MIT Sloan School of Management ; Yoon Kim, professeur assistant de développement de carrière NBX en EECS ; Sendhil Mullainathan, professeur universitaire de calcul et de sciences comportementales de la Roman Family University à la Booth School of Business de l'université de Chicago ; Manish Raghavan, professeur adjoint de technologie de l'information à la MIT Sloan ; David Rand, professeur Erwin H. Schell au MIT Sloan et professeur de sciences du cerveau et de la cognition ; Antonio Torralba, professeur de génie électrique et d'informatique au Delta Electronics ; et Luis Videgaray, maître de conférences au MIT Sloan.

Pour résumer, voici les principales politiques et approches mentionnées dans les livres blancs :

Extension des approches actuelles en matière de réglementation et de responsabilité : Le cadre propose d'étendre les approches actuelles en matière de réglementation et de responsabilité pour couvrir l'IA. Il suggère de s'appuyer sur les entités gouvernementales américaines existantes qui supervisent les domaines pertinents pour réglementer les outils d'IA. Il s'agit d'une approche pratique, qui commence par les domaines où l'activité humaine est déjà réglementée et considérée comme présentant un risque élevé.

Identification de l'objectif et de l'intention des outils d'IA : Le cadre souligne l'importance pour les fournisseurs d'IA de définir à l'avance l'objectif et l'intention des applications d'IA. Ce processus d'identification permettrait d'appliquer les réglementations pertinentes en fonction de l'objectif spécifique des outils d'IA.

Responsabilité et obligation de rendre compte : Le document d'orientation souligne qu'il incombe aux fournisseurs d'IA de définir clairement l'objectif et la finalité de leurs outils. Il suggère également d'établir des garde-fous pour prévenir les utilisations abusives et de déterminer l'étendue de la responsabilité en cas de problèmes spécifiques. Le cadre vise à identifier les situations dans lesquelles les utilisateurs finaux pourraient raisonnablement être tenus responsables des conséquences d'une mauvaise utilisation des outils d'IA.

Progrès en matière d'audit des outils d'IA : Le document d'orientation préconise des progrès dans l'audit des nouveaux outils d'IA, que ce soit à l'initiative du gouvernement, des utilisateurs ou dans le cadre d'une procédure de responsabilité juridique. Des normes publiques d'audit sont recommandées, éventuellement établies par une entité à but non lucratif ou une entité fédérale similaire au National Institute of Standards and Technology (NIST).

Envisager la création d'un organisme d'autorégulation (SRO) : Le cadre suggère d'envisager la création d'un nouvel "organisme d'autorégulation" (SRO) approuvé par le gouvernement pour l'IA. Cet SRO, semblable à la FINRA pour l'industrie financière, pourrait accumuler des connaissances spécifiques au domaine, garantissant ainsi la réactivité et la flexibilité nécessaires pour s'engager dans une industrie de l'IA en évolution rapide.

Encouragement de la recherche au profit de la société : les documents d'orientation soulignent l'importance d'encourager la recherche sur les moyens de rendre l'IA bénéfique pour la société. Par exemple, l'accent est mis sur l'exploration de la possibilité pour l'IA d'augmenter et d'aider les travailleurs plutôt que de les remplacer, ce qui entraînerait une croissance économique à long terme répartie dans l'ensemble de la société.

Traiter les questions juridiques propres à l'IA : le cadre reconnaît la nécessité de traiter les questions juridiques spécifiques liées à l'IA, notamment les questions de droit d'auteur et de propriété intellectuelle. Une attention particulière est également accordée aux questions juridiques "human plus", où les capacités de l'IA dépassent les capacités humaines, comme les outils de surveillance de masse.

Élargir les perspectives dans l'élaboration des politiques : Le comité ad hoc souligne la nécessité d'un large éventail de perspectives disciplinaires dans l'élaboration des politiques, en préconisant que les institutions universitaires jouent un rôle dans l'interaction entre la technologie et la société. L'objectif est de gouverner efficacement l'IA en tenant compte des systèmes techniques et sociaux.

Source : "Un cadre pour la gouvernance de l'IA aux États-Unis : Créer un secteur de l'IA sûr et prospère" (document d'orientation publié par le comité de dirigeants et d'universitaires du MIT)

Et vous ?

Quel est votre avis sur le sujet ?

Trouvez-vous qu'il s'agit d'une initiative pertinente et cohérente ?

Voir aussi

Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

Loi sur l'intelligence artificielle: l'Europe parvient à un accord sur les premières règles globales au monde en matière d'IA, tentant d'exploiter les avantages potentiels de la technologie

Loi sur l'IA : un frein à l'innovation européenne ? Oui, selon John Loeber, qui souligne les limites de la loi et estime que son impact pourrait être dangereux pour les Européens à long terme