IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un cadre pour la gouvernance de l'IA aux États-Unis : Créer un secteur de l'IA sûr et prospère


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 878
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 878
    Points : 130 685
    Points
    130 685
    Par défaut Un cadre pour la gouvernance de l'IA aux États-Unis : Créer un secteur de l'IA sûr et prospère
    Un cadre pour la gouvernance de l'IA aux États-Unis : Créer un secteur de l'IA sûr et prospère, en consultation avec le comité ad hoc sur la réglementation de l'IA

    I. OBJECTIFS

    La présente note d'orientation est motivée par deux objectifs :

    • Maintenir le leadership des États-Unis en matière d'IA - qui est vital pour le progrès économique et la sécurité nationale - tout en reconnaissant que l'IA, si elle n'est pas correctement supervisée, pourrait avoir des effets néfastes importants sur la société (notamment en compromettant les intérêts économiques et de sécurité nationale).

    • Réaliser un déploiement largement bénéfique de l'IA dans un large éventail de domaines. Pour que l'IA soit bénéfique, il faut donner la priorité à la sécurité (contre les dangers tels que les "deep fakes"), à la vie privée et à l'autonomie des individus (en empêchant les abus tels que la surveillance et la manipulation excessives), à la sécurité (en minimisant les risques créés par le déploiement de l'IA, en particulier dans les domaines déjà réglementés tels que la santé, le droit et la finance), à la prospérité partagée (en déployant l'IA de manière à créer des opportunités et des gains largement accessibles grâce à l'IA) et aux valeurs démocratiques et civiques (en déployant l'IA de manière à ce qu'elle soit conforme aux normes sociétales).


    II. PRINCIPES FONDAMENTAUX

    En gardant ces objectifs à l'esprit, nous proposons la discussion et les conseils suivants sur la manière dont la gouvernance de l'IA pourrait être mise en œuvre. Il est important de soumettre les systèmes d'IA à une combinaison de réglementation et de droit de la responsabilité pour garantir que l'IA est développée et déployée de manière à faciliter ses utilisations bénéfiques aujourd'hui et à long terme. Les utilisateurs (et le grand public) devraient avoir une idée claire de ce qu'ils obtiennent (et n'obtiennent pas) d'un système d'IA, et devraient être en mesure d'avoir confiance en cette compréhension grâce à des mécanismes tels que les relations contractuelles, les divulgations et les audits.

    Pour y parvenir :

    • Les normes, les réglementations et les institutions qui façonnent l'IA doivent évoluer en même temps qu'elle. La technologie ayant tendance à évoluer rapidement, les approches existantes en matière de surveillance ou de réglementation doivent être étendues, dans la mesure du possible, afin d'aligner l'IA sur les normes et les lois actuelles (contrairement aux approches de novo en matière de réglementation de l'IA, telles que celles poursuivies dans l'UE).

    • En d'autres termes, la première étape de la gouvernance de l'IA devrait consister à s'assurer que les réglementations actuelles s'appliquent à l'IA, dans la mesure du possible. Si l'activité humaine sans l'utilisation de l'IA est réglementée, l'utilisation de l'IA devrait l'être également. Le développement, la vente et l'utilisation de systèmes d'IA devraient, dans la mesure du possible, être régis par les mêmes normes et procédures que les humains agissant sans IA dans les domaines d'application de l'IA (par exemple, les soins de santé, le droit, l'embauche et la finance). Entre autres choses, cela garantira intrinsèquement que de nombreuses applications de l'IA présentant un risque plus élevé sont couvertes, étant donné qu'il s'agit de domaines pour lesquels des lois et des règlements ont déjà été élaborés. (L'une des questions sera de savoir comment traiter les lois qui reposent sur l'"intention". À l'heure actuelle, l'IA n'a pas d'intention, mais ceux qui la développent et l'utilisent peuvent en avoir une). Cette approche consistant à appliquer les lois existantes empêchera également les systèmes d'IA d'être utilisés pour contourner les réglementations existantes. Ce type d'approche est déjà utilisé dans certains domaines ; par exemple, les véhicules autonomes sont soumis aux mêmes normes que ceux conduits par des humains. (L'IA à usage général, comme le GPT-4, ou les chatbots construits sur cette base, comme le ChatGPT, sont traités plus loin).

    • Cette approche consistant à étendre les cadres juridiques actuels aux activités impliquant l'IA devrait également s'appliquer aux activités entreprises par les gouvernements, y compris le maintien de l'ordre, la fixation des cautions, l'embauche, etc.

    • En général, les lois et réglementations relatives à l'IA devraient être promulguées et appliquées par la ou les mêmes entités que celles qui régissent les actions humaines sans IA dans le même domaine. Cela peut nécessiter que ces entités acquièrent une certaine expertise en matière d'IA, comme nous le verrons plus loin.

    • Au fur et à mesure que les lois et les règles relatives à l'IA se développent, les différences entre les capacités de l'IA et celles de l'homme peuvent être prises en compte. L'IA aura des capacités que les humains n'ont pas, par exemple
      par exemple, pour trouver des modèles ou prendre en compte des propositions contre-factuelles. Cela peut justifier que l'utilisation de l'IA à certaines fins soit soumise à des normes plus strictes que celles appliquées aux humains agissant sans IA.

    • Pour que l'approche décrite dans cette section soit couronnée de succès, les fournisseurs de systèmes d'IA devraient être tenus d'identifier le(s) but(s) visé(s) par un système d'IA avant son déploiement. Les organismes de réglementation pourraient publier des orientations ou des règles définissant la manière dont les utilisations prévues doivent être décrites et/ou les tribunaux pourraient développer une jurisprudence définissant quelles divulgations de l'usage prévu sont adéquates pour satisfaire des objectifs particuliers. Cette dernière solution, tout en laissant plus d'ambiguïté et de risques, pourrait permettre aux fournisseurs d'IA et à leurs clients de déterminer quels types d'informations sont nécessaires, et pourrait laisser plus de souplesse au fur et à mesure de l'évolution de l'IA. Mais cela ne fonctionnera que si des mesures sont prises pour garantir que ceux qui achètent et utilisent l'IA ont la capacité d'imposer des exigences efficaces aux fournisseurs d'IA et peuvent être sûrs que toutes les conditions contractuelles qu'ils négocient seront applicables. En outre, l'approche plus ouverte peut être plus appropriée pour certaines utilisations de l'IA que pour d'autres. Différents États pourraient également expérimenter différentes approches dans des domaines d'application qui sont réglementés au niveau de l'État.

    • Il est important (mais difficile) de définir ce qu'est l'IA, mais cela est souvent nécessaire pour déterminer quels systèmes seraient soumis à des régimes de réglementation et de responsabilité. L'approche la plus efficace pourrait consister à définir les systèmes d'IA en fonction de ce que fait la technologie, par exemple "toute technologie permettant de prendre des décisions ou de formuler des recommandations, ou de générer du contenu (y compris du texte, des images, de la vidéo ou du son)". Cela peut poser moins de problèmes que de fonder une définition sur les caractéristiques de la technologie, telles que "semblable à l'homme", ou sur des aspects techniques tels que "grand modèle de langage" ou "modèle de fondation" - des termes qui sont difficiles à définir ou qui sont susceptibles d'évoluer avec le temps ou de devenir obsolètes. En outre, les approches fondées sur des définitions de ce que fait la technologie sont plus susceptibles de s'aligner sur l'approche consistant à étendre les lois et règles existantes aux activités qui incluent l'IA.

    • Les régimes d'audit devraient être élaborés dans le cadre de l'approche décrite ci-dessus. Pour être efficace, l'audit doit reposer sur des principes qui précisent des aspects tels que les objectifs de l'audit (c'est-à-dire ce qu'un audit est conçu pour apprendre sur un système d'IA, par exemple si ses résultats sont biaisés d'une manière ou d'une autre, s'il génère des informations erronées et/ou s'il peut être utilisé de manière non intentionnelle) et les informations à utiliser pour atteindre ces objectifs (c'est-à-dire les types de données qui seront utilisées lors d'un audit).

      Un "écosystème" d'audit efficace pourrait se développer de plusieurs manières (qui ne s'excluent pas nécessairement les unes les autres). Pour certaines utilisations, le gouvernement (fédéral, étatique ou local) pourrait exiger qu'un audit soit réalisé (par un fournisseur, une entité réglementaire et/ou un utilisateur) avant et/ou après le déploiement d'un système, en particulier pour les utilisations à haut risque telles que les domaines d'application déjà réglementés (par exemple, les soins de santé). Un système peut aussi se développer de manière plus organique, les utilisateurs exigeant des audits ou les réalisant (avant ou après le déploiement), et les tribunaux évaluant plus sévèrement la responsabilité lorsqu'un système d'IA ne fonctionne pas comme prévu ou enfreint une réglementation, et qu'aucun audit approprié n'a été réalisé. Les audits pourraient être effectués par des tiers, par des utilisateurs ou par le gouvernement. Tout audit devrait protéger la propriété intellectuelle du fournisseur du système d'IA et de l'utilisateur.

      Les audits peuvent être facilement manipulés pour ne pas révéler des problèmes existants ou, à l'inverse, pour suggérer que quelque chose pose problème alors que ce n'est pas le cas. Il faudra donc élaborer des normes publiques en matière d'audit. Ces normes pourraient être établies par une entité à but non lucratif, par exemple une entité analogue au Public Company Accounting Oversight Board (PCAOB), ou par (ou avec) une entité fédérale comme le National Institute of Standards and Technology (NIST).

    • Il est important de comprendre les limites et les exigences des différents types d'audits. Par exemple, les audits prospectifs permettent de tester un système avant qu'il ne soit utilisé, ce qui peut être utile dans les environnements à haut risque. Cependant, la distribution des données lors de ces tests a priori peut être très différente de celle rencontrée lors de l'utilisation réelle (par exemple, un audit d'un système d'intelligence artificielle qui sera utilisé pour identifier les bons candidats à l'emploi peut utiliser une distribution de candidats différente de celle qui apparaîtra dans le pool réel de candidats). Les audits rétrospectifs, en revanche, peuvent nécessiter l'accès à des informations confidentielles pour l'organisation faisant l'objet de l'audit, de sorte qu'il sera important d'établir des lignes directrices claires et de définir les responsabilités en matière de confidentialité des données.

    • L'"explicabilité", c'est-à-dire l'explication automatisée de la manière dont un système d'IA est parvenu à une conclusion ou a généré un résultat, qui soit à la fois précise et compréhensible pour l'homme, n'est pas possible actuellement et ne le sera peut-être jamais. Mais les systèmes d'IA peuvent et doivent être plus interprétables, c'est-à-dire qu'ils doivent donner une idée des facteurs qui ont influencé une recommandation ou des données qui ont été utilisées pour une réponse. L'amélioration de l'interprétabilité doit être encouragée par des moyens qui ne sont pas très normatifs en ce qui concerne la technologie, car les méthodes continueront d'évoluer rapidement. Le gouvernement pourrait encourager une plus grande interprétabilité par le biais d'un système réglementaire qui impose davantage d'exigences aux systèmes d'IA qui sont moins susceptibles d'être interprétés, ou les tribunaux pourraient élaborer un régime de responsabilité plus sévère pour de tels systèmes.

    • Les données d'apprentissage jouent un rôle central dans de nombreux systèmes d'IA. De nombreuses sources de données, en particulier celles provenant de l'internet public, contiennent des inexactitudes, des biais, des divulgations involontaires d'informations privées et divers défauts contre lesquels les systèmes d'IA devraient être conçus pour se prémunir. Des déclarations claires sur les résultats escomptés pour les systèmes d'IA, ainsi que des mécanismes tels que les tests, le contrôle et l'audit (à la fois pour des domaines d'application spécifiques et pour une utilisation générale) sont importants, en partie, pour limiter les problèmes qui peuvent découler de problèmes dans les données d'apprentissage.


    III. PILES D'IA POUR DES APPLICATIONS SPÉCIFIQUES

    • Il est important de reconnaître que les systèmes d'IA seront souvent construits "au-dessus" les uns des autres ; par exemple, un système à usage général comme GPT-4 peut être à la base d'un autre système utilisé pour l'embauche. Nous considérons qu'il s'agit d'une "pile d'IA" comprenant tout système d'IA pouvant servir de composant à d'autres systèmes, y compris, mais sans s'y limiter, les modèles de base. (Cela s'apparente aux systèmes logiciels généraux, qui peuvent comprendre de nombreux composants reliés par des interfaces de programme (API) et sont communément appelés "pile logicielle"). En général, le fournisseur et l'utilisateur finaux d'un service fourni par une pile d'IA seraient responsables de son fonctionnement, mais devraient pour ce faire dépendre du bon fonctionnement des composants de la pile globale. Ainsi, par exemple, une pile déployée à des fins d'embauche relèverait principalement de la responsabilité du fournisseur et de l'utilisateur de la pile complète (et le fournisseur serait soumis aux régimes décrits ci-dessus). Mais lorsqu'un système composant d'une pile ne fonctionne pas comme prévu, il peut être raisonnable que le fournisseur de ce composant partage la responsabilité.

      Pour faciliter cela, ceux qui construisent des systèmes dépendant d'une IA à usage général devraient demander des informations sur la manière dont le système à usage général traiterait la fonction particulière prévue et demander des garanties exécutoires que le système à usage général fonctionnera comme prévu. (Comme indiqué ci-dessus, cela présuppose un environnement juridique dans lequel des garanties contractuelles peuvent être exigées et appliquées). Il convient de noter que les composants de l'IA dans une pile peuvent interagir de manière inattendue, d'où l'importance de considérer tous les composants d'une pile ensemble - par exemple en auditant ces systèmes (à la fois avant et éventuellement après le déploiement).
    • L'un des objectifs (et l'un des tests) d'un système de réglementation et de responsabilité est qu'il devrait, en fait, clarifier ce qui constitue une situation de "fourchette dans le grille-pain", c'est-à-dire lorsqu'un utilisateur (plutôt qu'un fournisseur d'IA) est responsable d'un problème parce que le système d'IA a été utilisé d'une manière qui n'était manifestement pas responsable ou voulue. De telles situations ne peuvent être identifiées que si les fournisseurs précisent quelles sont les utilisations appropriées, s'il existe des garde-fous en matière de bonnes pratiques contre d'autres utilisations et si les responsabilités juridiques des fournisseurs sont clairement délimitées et largement comprises. En outre, les utilisations et les limites de l'IA doivent être largement comprises par les utilisateurs. Par analogie, on ne peut être tenu personnellement responsable d'avoir mis une fourchette dans un grille-pain si ni la nature des grille-pains ni les dangers de l'électricité ne sont largement connus. Ce qu'un utilisateur raisonnable, ou un développeur raisonnable d'une application, est censé savoir est susceptible d'évoluer au fil du temps. Dans la plupart des cas, le fournisseur du système d'IA devrait être tenu pour responsable d'un problème, sauf s'il est en mesure de démontrer qu'un utilisateur aurait dû savoir qu'une utilisation était irresponsable et qu'elle n'aurait pas pu être prévue ou empêchée par le fournisseur.


    IV. IA À USAGE GÉNÉRAL

    • On ne peut attendre des fournisseurs de systèmes d'IA à usage général comme le GPT-4 (et des applications générales fondées sur ces systèmes comme le ChatGPT) qu'ils divulguent toutes les utilisations prévues de leurs systèmes. Pourtant, ces systèmes comportent des risques supplémentaires en raison de leur large utilisation, de leur grande disponibilité et de la possibilité pour des applications telles que les chatbots d'interagir d'une manière qui semble humaine aux utilisateurs. Malgré les vastes domaines d'utilisation potentielle des systèmes à usage général, les pouvoirs publics pourraient exiger que les systèmes d'IA à usage général indiquent si certaines utilisations sont prévues (comme la délivrance de conseils médicaux) et qu'ils soient dotés de garde-fous contre les utilisations non prévues (qui pourraient être définies dans la réglementation). Indépendamment des déclarations d'intention, les systèmes d'IA générale - comme tous les autres - devraient être conformes aux lois et réglementations régissant les activités qui seraient couvertes par les humains agissant sans IA (voir ci-dessus). (En outre, les lois et/ou la jurisprudence pourraient imposer une responsabilité plus sévère pour les problèmes résultant d'utilisations que le fournisseur aurait pu raisonnablement prévoir, mais qu'il n'a pas empêchées par des garde-fous ou des avertissements ou instructions suffisants à l'intention de l'utilisateur. Tout avertissement ou instruction doit être fourni de manière à ce que l'utilisateur soit susceptible de le voir et d'en tenir compte. Des pages en petits caractères qu'un utilisateur a peu de chances de lire ne sont pas suffisantes.

    • Les fournisseurs d'IA à usage général pourraient être tenus de contrôler l'utilisation de leurs systèmes d'IA (comme les sociétés pharmaceutiques sont souvent tenues de contrôler les effets de leurs produits une fois qu'ils sont sur le marché). Cela sera particulièrement important si les systèmes d'IA à usage général développent de nouvelles capacités au fur et à mesure de leur utilisation (au lieu de simplement changer lorsqu'un système mis à jour, comme le GPT-4, est mis sur le marché). Le gouvernement pourrait préciser les types de problèmes que les fournisseurs sont chargés de découvrir, de signaler et de traiter. Le gouvernement pourrait également exiger que les nouveaux systèmes d'IA à usage général fassent l'objet d'un projet pilote avant d'être largement diffusés.

    • Il convient de noter que ce qui est considéré comme de l'"IA à usage général" changera probablement au fil du temps, à mesure que la technologie se développera, et que la réglementation devra être suffisamment souple pour évoluer avec la technologie.

    • Dans certains domaines, la réglementation relative à l'IA devrait aller au-delà de ce qui est généralement imposé aux acteurs humains, par exemple lorsque l'IA possède des capacités que les humains n'ont pas. L'un de ces domaines est l'utilisation de l'IA pour créer des images, des vidéos ou des sons fictifs mais réalistes qui ressemblent à des lieux et à des personnes réels (vivants ou morts), parfois appelés "deep fakes" (en particulier lorsqu'ils sont utilisés sans autorisation). Si l'homme est depuis longtemps capable de manipuler des images, l'IA rend la création d'un faux réaliste aussi facile que la prise d'une vraie photo et permet également de cibler plus facilement les destinataires de la désinformation. Un autre domaine est celui de la vie privée et de la surveillance. Alors que les technologies antérieures à l'IA étaient capables de violer la vie privée des individus et d'exercer une surveillance intrusive, ces capacités sont considérablement amplifiées par les progrès de l'IA. En outre, le gouvernement devrait exiger que les images créées par l'IA soient clairement identifiées comme telles, à la fois par des étiquettes généralement visibles par les humains et par des moyens détectables par les machines, tels que le filigrane.


    V. UNE AGENCE DE RÉGULATION DE L'IA

    • Pour la surveillance de l'IA qui dépasse le cadre des domaines d'application actuellement réglementés et qui ne peut être assurée par des mécanismes d'audit et un système similaire à celui utilisé pour les audits financiers, le gouvernement fédéral pourrait avoir besoin de créer une nouvelle agence qui réglementerait ces aspects de l'IA. Le champ d'action d'une telle agence de régulation devrait être aussi restreint que possible, compte tenu de la large applicabilité de l'IA et des difficultés liées à la création d'une agence unique dotée d'un large champ d'action. L'agence pourrait recruter du personnel technique hautement qualifié qui pourrait également conseiller les agences réglementaires existantes qui traitent des questions d'IA (conformément aux points ci-dessus). (Cette tâche pourrait également être confiée à une agence existante, mais toute agence existante sélectionnée devrait déjà avoir une mission réglementaire et le prestige nécessaire pour attirer le personnel requis, et elle devrait être libre de toute controverse politique ou autre liée à des missions existantes qui pourraient compliquer sa surveillance de l'IA). Un organisme d'autorégulation (comme la Financial Industry Regulatory Authority, FINRA, dans le monde financier) pourrait se charger d'une grande partie des travaux détaillés sous contrôle fédéral en élaborant des normes et en supervisant leur mise en œuvre.

    • Même avec une nouvelle agence de l'IA, la réglementation des systèmes d'IA destinés à des usages spécifiques (tels que l'aide au diagnostic médical) continuerait de relever de l'agence existante régissant ce domaine (telle que la Food and Drug Administration), comme décrit ci-dessus.


    VI. AUTRES ASPECTS DE LA GOUVERNANCE

    • L'un des objectifs de toute approche en matière de réglementation ou de responsabilité devrait être d'encourager le secteur privé, les universités et les organismes de recherche à mener davantage de recherches sur les moyens de rendre les systèmes d'IA bénéfiques (tels que définis dans la section "Objectifs" du présent rapport). Tout comme la réglementation du secteur automobile a incité les constructeurs et les universités à mener des recherches sur la manière de rendre les véhicules plus sûrs et moins polluants, la réglementation de l'IA devrait inciter les entreprises à mener davantage de recherches sur la manière de rendre les systèmes d'IA plus bénéfiques (y compris, par exemple, en les rendant plus faciles à interpréter). En outre, le gouvernement doit accroître le financement de la recherche publique sur ces questions. La recherche publique sur les systèmes d'IA à grande échelle, tels que les grands modèles de langage, sur lesquels d'autres systèmes d'IA sont construits, revêt une importance particulière.

    • Le développement de systèmes d'IA bénéfiques nécessite un cadre clair pour les droits de propriété intellectuelle (PI). Il est important que les efforts créatifs humains restent encouragés dans un monde doté de systèmes d'IA. Alors que des décisions de justice affirment que les auteurs et les inventeurs doivent être humains, de sorte que l'IA ne bénéficie d'aucun droit de propriété intellectuelle, des questions subsistent quant à la manière dont les lois sur la propriété intellectuelle s'appliquent dans le contexte des systèmes d'IA (comme le droit d'auteur, qui confère aux créateurs d'une œuvre des droits sur la manière dont l'œuvre est distribuée et utilisée dans le cadre d'autres œuvres). En particulier, s'il a toujours été possible de créer des œuvres qui enfreignent le droit d'auteur, le contenu généré par l'IA semble sur le point d'augmenter considérablement ce phénomène. (Il convient de noter que la question de savoir si quelque chose constitue une infraction est déterminée en dernier ressort par la jurisprudence et les litiges). L'incertitude quant à la manière dont les créateurs peuvent se prémunir contre les infractions potentielles et les identifier facilement, ainsi que quant aux personnes ou organisations qui seraient responsables, complique l'utilisation de l'IA générative. La situation évolue rapidement. Par exemple, Microsoft a annoncé que pour les clients payants de ses produits d'IA générative, l'entreprise défendra et paiera tout jugement défavorable ou règlement pour violation du droit d'auteur généré par ses produits, à condition que le client utilise les garde-fous et les filtres de contenu intégrés dans les produits. Il existe également des questions concernant l'utilisation des données numériques personnelles qui sont beaucoup plus larges que l'IA (comme dans les médias sociaux) et qui devraient être abordées d'une manière qui ne contraint pas l'IA plus qu'elle ne le fait pour d'autres technologies.

    • Les systèmes d'IA sont actuellement formés en partant du principe que les droits d'auteur n'empêchent pas ce type d'utilisation, mais cette hypothèse est contestée par les propriétaires de contenu. De telles questions se posent fréquemment avec les nouvelles technologies. Un exemple pertinent est l'affaire Google Books, déposée en 2005 pour violation du droit d'auteur par Google qui avait scanné un grand nombre de livres pour les rendre consultables en ligne. En 2015, les tribunaux ont confirmé la décision d'un tribunal de district selon laquelle il ne s'agissait pas d'une violation car le matériel n'était pas reproduit. Au contraire, l'outil de recherche ainsi créé fournissait des informations sur les endroits où il était possible d'obtenir des documents protégés par des droits d'auteur, moyennant une autorisation. Si la formation des systèmes d'IA, comme dans l'affaire des livres de Google, ne produit pas directement de contenu, un système d'IA diffère en ce sens que son utilisation peut générer un contenu illicite. On ne sait pas encore si les contenus illicites générés par l'IA seront plus faciles ou plus difficiles à identifier que les contenus illicites générés par l'homme. D'une part, il est probable qu'un plus grand nombre de contenus illicites soient générés, mais d'autre part, un titulaire de droits d'auteur pourrait en principe demander à un système d'IA de démontrer qu'il produit des contenus illicites, sans devoir entreprendre une recherche de cas spécifiques d'infraction possible. Il est également possible que des systèmes d'intelligence artificielle soient mis au point pour mieux indiquer quelles sources originales sont pertinentes pour une production donnée, ce qui permettrait d'évaluer la possibilité d'une infraction.

    • L'open source peut à la fois contribuer à prévenir les utilisations problématiques de l'IA - en permettant à un plus grand nombre de personnes de découvrir les failles - et accroître ces utilisations - en facilitant la création de systèmes d'IA susceptibles de causer des dommages (y compris en contournant les garde-fous) et en rendant leur développement et leur distribution plus difficiles à contrôler. Les développeurs de modèles open source devraient suivre les mêmes pratiques que les fournisseurs commerciaux, en établissant clairement les utilisations prévues et en suivant les meilleures pratiques pour les garde-fous contre d'autres utilisations. Les fournisseurs de services qui utilisent l'IA open source comme composants doivent assumer la responsabilité du comportement de ces composants. Bien qu'il s'agisse de questions analogues à l'utilisation de logiciels libres, les défis plus importants que posent l'interprétation et la compréhension des systèmes d'IA par rapport aux logiciels standard peuvent accroître les risques.


    En résumé, on ne sait pas très bien si et comment les cadres réglementaires et juridiques actuels s'appliquent à l'IA, ni s'ils sont à la hauteur de la tâche. Les fournisseurs, les utilisateurs et le grand public se trouvent donc dans une situation de "caveat emptor". Il n'y a pas grand-chose pour dissuader la mise en circulation et l'utilisation de systèmes à risque et peu d'incitations à découvrir, divulguer ou corriger les problèmes de manière proactive. Ceux qui s'appuient sur des modèles généraux ne disposent pas d'informations suffisantes sur les systèmes composant leurs piles et n'ont que peu de recours en cas de problèmes. Une plus grande clarté et un meilleur contrôle de l'IA sont nécessaires pour faciliter le développement et le déploiement d'une IA bénéfique et pour que les avantages potentiels de l'IA pour tous les Américains se concrétisent de manière plus complète et plus harmonieuse.


    Ce document a été préparé par Dan Huttenlocher, doyen du MIT Schwarzman College of Computing, Asu Ozdaglar, doyen adjoint du MIT Schwarzman College of Computing et directeur du département de génie électrique et d'informatique, et David Goldston, directeur du bureau du MIT à Washington, avec l'aide d'un comité ad hoc sur la réglementation de l'IA qu'ils ont constitué. Les membres du comité sont :

    Daron Acemoglu, professeur d'institut, département d'économie

    Jacob Andreas, professeur associé, département de génie électrique et d'informatique

    David Autor, professeur d'économie à Ford

    Adam Berinsky, professeur de sciences politiques Mitsui

    Cynthia Breazeal, doyenne de l'apprentissage numérique et professeur d'arts et de sciences des médias

    Dylan Hadfield-Menell, professeur adjoint de développement de carrière Tennenbaum en intelligence artificielle et prise de décision

    Simon Johnson, professeur d'entrepreneuriat Kurtz, MIT Sloan School of Management

    Yoon Kim, professeur assistant de développement de carrière NBX, département de génie électrique et d'informatique

    Sendhil Mullainathan, professeur d'informatique et de sciences comportementales à l'université Roman Family University, université de Chicago Booth School of Business

    Manish Raghavan, professeur adjoint de technologie de l'information, MIT Sloan School of Management

    David Rand, professeur de gestion et de sciences du cerveau et de la cognition, MIT Sloan School of Management

    Antonio Torralba, professeur de génie électrique et d'informatique à Delta Electronics

    Luis Videgaray, maître de conférences, MIT Sloan School of Management


    Source : A Framework for U.S. AI Governance : Creating a Safe and Thriving AI Sector

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un groupe du MIT publie des livres blancs sur la gouvernance de l'IA. La série de documents d'orientation vise à aider les décideurs politiques à mieux superviser l'IA dans la société

    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Loi sur l'IA : un frein à l'innovation européenne ? Oui, selon John Loeber, qui souligne les limites de la loi et estime que son impact pourrait être dangereux pour les Européens à long terme

  2. #2
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 031
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 031
    Points : 39 468
    Points
    39 468
    Par défaut Un groupe bipartisan américain publie des recommandations en matière d'IA
    Un groupe bipartisan américain publie des recommandations en matière d'IA,
    pour maintenir la compétitivité des États-Unis tout en gérant les risques technologiques

    Le groupe de travail bipartisan sur l'intelligence artificielle (IA) du Congrès américain a publié un rapport de 253 pages contenant 89 recommandations pour guider la politique fédérale sur l'IA. Ce rapport vise à maintenir la compétitivité des États-Unis tout en répondant aux risques liés à cette technologie, notamment les biais, les violations des droits civils et les dangers des deepfakes et des modèles open source. Il propose des actions dans divers domaines, tels que l'éducation, la propriété intellectuelle, la vie privée, la défense et l'adoption par les petites entreprises.

    Le groupe insiste sur une réglementation équilibrée qui protège les citoyens tout en favorisant l'innovation. Bien que salué par certains groupes comme l'ACLU, d'autres, comme le LCCRUL, demandent des mesures plus concrètes pour éviter d'exacerber les inégalités. Le rapport appelle à une collaboration étroite entre le Congrès, l'exécutif et les parties prenantes pour mettre en œuvre ces recommandations, bien que leur adoption reste incertaine sous l'administration Trump.

    Nom : Pic.PNG
Affichages : 4970
Taille : 549,8 Ko

    Citation Envoyé par Co-Chairs of the Bipartisan Artificial Intelligence Task Force
    Chers Président Johnson et Leader Jeffries :

    Nous, les coprésidents du groupe de travail bipartisan sur l'intelligence artificielle, vous soumettons les principales conclusions de ce rapport. Bien que l'intelligence artificielle (IA) ne soit pas un concept nouveau, les progrès technologiques époustouflants de ces dernières années ont fait de l'IA l'objet d'une attention particulière.

    L'IA a un potentiel énorme pour transformer la société et notre économie pour le mieux et pour relever des défis nationaux complexes. De l'optimisation de la fabrication à la mise au point de traitements pour des maladies graves, l'IA peut considérablement stimuler la productivité et nous permettre d'atteindre nos objectifs plus rapidement et de manière plus rentable. Néanmoins, nous reconnaissons également que l'IA peut être utilisée à mauvais escient et entraîner divers types de dommages.

    Ce rapport met en évidence le leadership des États-Unis dans leur approche de l'innovation responsable en matière d'IA, tout en envisageant des garde-fous qui pourraient être appropriés pour protéger la nation contre les menaces actuelles et émergentes. Vous avez chargé vingt-quatre membres, douze républicains et douze démocrates, d'élaborer une vision américaine de l'adoption, de l'innovation et de la gouvernance de l'IA. Le groupe de travail sur l'IA a recueilli des informations sur les principales questions liées à l'IA auprès d'experts de l'industrie, du gouvernement, de la société civile et du monde universitaire afin de formuler 66 conclusions clés et 85 recommandations. En résumé, ce rapport présente une approche ciblée qui concilie la nécessité de promouvoir une innovation dynamique en matière d'IA tout en protégeant les Américains des dommages potentiels, alors que nous entrons dans une ère d'adoption généralisée de l'IA.

    Nous vous remercions d'avoir créé la task force sur l'IA et nous sommes impatients de voir ce rapport éclairer les futures décisions politiques du Congrès. l'élaboration des politiques futures du Congrès. Nous vous prions d'agréer, Monsieur le Président, l'expression de nos salutations distinguées.
    Le rapport, fruit de dix mois de travail du groupe de travail en collaboration avec des dirigeants d’entreprise, des fonctionnaires, des experts techniques, des universitaires et des juristes, aborde un large éventail de sujets. Il analyse l’utilisation de l’IA par le gouvernement, soulignant la nécessité de prudence dans l’usage des algorithmes pour appuyer les décisions et recommande l’élaboration de normes spécifiques en matière d’IA. Par ailleurs, il insiste sur l’importance d’investir dans la formation en IA pour pallier le déficit de talents indispensables à la recherche, au développement et au déploiement des applications d’IA.

    Le groupe propose également de clarifier les lois sur la propriété intellectuelle afin de relever les défis posés par l’IA générative dans le domaine créatif, de lutter contre les contrefaçons générées par l’IA et de mettre en place des méthodes pour authentifier les contenus. Il appelle le Congrès à adopter des lois sur la protection de la vie privée qui soient à la fois universelles et technologiquement neutres, tout en soutenant le ministère de la Défense dans le développement d’une IA responsable. En outre, il recommande l’établissement de normes de recherche et l’octroi de ressources aux petites entreprises pour leur permettre d’intégrer efficacement les technologies de l’IA.

    Le rapport identifie la santé, l’agriculture et les services financiers comme des secteurs où l’IA pourrait avoir un impact significatif dans les années à venir, tout en soulignant la nécessité d’orienter ces développements pour maximiser les bénéfices pour les agriculteurs, les patients et les consommateurs.

    Concernant les risques, le rapport alerte sur l’utilisation potentielle des modèles d’IA ouverts par des acteurs malveillants, tout en déconseillant de restreindre leur développement en l’absence de preuves suffisantes. Sur le plan des droits civils et des libertés, il met en garde contre l’utilisation abusive de l’IA par les gouvernements et les forces de l’ordre, rappelant que les décisions basées sur des résultats inexacts pourraient compromettre les droits constitutionnels des citoyens.
    Pour y remédier, le rapport préconise que les agences identifient et évitent les discriminations liées à l’IA et propose de créer des normes ainsi que des procédures d’évaluation visant à limiter les erreurs dans les décisions impliquant des systèmes d’IA.

    L’avenir de la politique IA sous Trump : Optimisme et incertitudes

    Il est difficile de prévoir avec certitude les intentions de la future administration du président élu Donald Trump en matière de politique sur l'IA. Cependant, Jay Obernolte, président du groupe de travail, semble optimiste quant à leur volonté de considérer les recommandations formulées. Lors d'une conférence de presse, il a mentionné une récente rencontre avec l'équipe de transition technologique de Trump et une réunion prévue avec le "tsar de l'IA" dans l'après-midi.

    « Ce rapport n’est pas une conclusion définitive, mais le début d’une conversation. Son efficacité dépendra de la mise en œuvre de nos recommandations par les futurs Congrès », a déclaré Obernolte, soulignant l’importance d’une collaboration entre la Chambre des représentants, le Sénat et la Maison Blanche pour relever ces défis ensemble. Obernolte a également exprimé sa satisfaction face à la nomination de David Sacks, entrepreneur et investisseur technologique, comme "tsar de l’IA", y voyant un signe d’intérêt sérieux de la part de l’administration entrante.

    « Nous espérons que ce rapport offre une approche réfléchie et équilibrée, permettant de protéger les Américains des dangers potentiels de l'IA tout en encourageant l’innovation », a-t-il conclu.

    Intelligence artificielle et inégalités : un rapport qui soulève des questions essentielles

    Le rapport du groupe de travail bipartisan sur l'intelligence artificielle (IA) du Congrès américain est une initiative ambitieuse qui illustre l'importance croissante de l'IA dans les politiques publiques. En abordant des sujets variés, tels que l'éducation, la propriété intellectuelle et la régulation des technologies émergentes, il démontre une volonté de traiter l'IA comme un enjeu stratégique national. Cette approche est cruciale pour garantir la compétitivité des États-Unis dans un contexte mondial où les avancées en IA jouent un rôle déterminant dans les économies et les sociétés.

    Cependant, le rapport pèche par un certain manque de concrétude. Si les 89 recommandations proposées offrent une base de réflexion, elles manquent parfois de spécificité pour permettre une mise en œuvre rapide et efficace. Par exemple, les suggestions relatives à la régulation des biais algorithmiques ou à la protection de la vie privée nécessiteraient des directives plus détaillées pour garantir leur efficacité. Cette imprécision risque de diluer l’impact du rapport, surtout dans un environnement législatif où les priorités politiques évoluent rapidement.

    En outre, la question de l'équité sociale demeure un point sensible. Bien que le rapport reconnaisse les risques d'exacerbation des inégalités par l'IA, les critiques, notamment celles du Lawyers' Committee for Civil Rights Under Law (LCCRUL), mettent en évidence l'absence de mesures concrètes pour éviter que certaines communautés ne soient davantage marginalisées. La simple reconnaissance des dangers ne suffit pas ; des politiques spécifiques doivent être élaborées pour garantir que l'IA serve véritablement l'intérêt public.


    Enfin, l’incertitude concernant l’adoption de ces recommandations par l’administration Trump reflète une réalité politique complexe. Bien que le rapport insiste sur la nécessité d’une collaboration entre le Congrès, l’exécutif et les parties prenantes, la mise en œuvre dépendra de la volonté politique des acteurs concernés. Il reste à espérer que ce document ne soit pas relégué au rang de simple exercice académique, mais qu’il serve de fondation pour des actions concrètes et durables dans le domaine de l’IA.

    Source : Bipartisan House Task Force Report on AI

    Et vous ?

    Les conclusions de ce rapport sont-elles pertinentes ?

    Les recommandations du groupe de travail sont-elles suffisamment concrètes pour être mises en œuvre efficacement, ou risquent-elles de rester lettre morte dans un environnement législatif polarisé ?

    Le rapport prend-il suffisamment en compte les défis éthiques posés par l'utilisation de l'IA dans des domaines sensibles tels que la défense, la santé ou l'agriculture ?

    L'approche équilibrée proposée dans le rapport est-elle suffisamment robuste pour protéger les citoyens contre les dangers potentiels de l'IA tout en favorisant l'innovation, ou risque-t-elle de favoriser davantage les intérêts économiques au détriment des droits civils ?

    Voir aussi :

    Un nouveau rapport de la Maison-Blanche adopte l'IA open source, pour soutenir l'ouverture de l'IA tout en travaillant sur de nouvelles capacités de surveillance des risques potentiels de l'IA

    Les progrès de l'Europe en matière d'IA sont "insuffisants" pour concurrencer les États-Unis et la Chine, un rapport souligne le "pouvoir hégémonique" des États-Unis en matière d'IA et les risques pour l'Europe

    « La loi européenne sur l'IA arrive, cette fois-ci pour de vrai probablement », estime Wolfgang Hauptfleisch, architecte logiciel, deux commissions ont adopté un projet par 84 voix pour, 7 contre
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 4
    Dernier message: 05/09/2022, 17h42
  2. Cadre pour decouper une image
    Par bylka dans le forum Général JavaScript
    Réponses: 0
    Dernier message: 06/03/2009, 17h03
  3. Lien et cadre pour un menu
    Par djamsdjams dans le forum Mise en page CSS
    Réponses: 3
    Dernier message: 13/12/2008, 23h21
  4. Un cadre pour deux sous état
    Par bobosh dans le forum IHM
    Réponses: 1
    Dernier message: 18/08/2008, 19h34
  5. cadre pour du code (programmation)
    Par thepooh dans le forum Word
    Réponses: 2
    Dernier message: 10/04/2008, 01h41

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo