IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Des entreprises de premier plan telles que Google et OpenAI forment un groupe visant à contrôler l'IA


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 537
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 537
    Points : 199 307
    Points
    199 307
    Par défaut Des entreprises de premier plan telles que Google et OpenAI forment un groupe visant à contrôler l'IA
    Google, Meta, OpenAI et d'autres promettent de se conformer au cadre de sécurité de l'IA de la Maison Blanche,
    des engagements volontaires qui sont déjà critiqués pour l'absence de mesures punitives

    Face aux profondes inquiétudes suscitées par les risques posés par l’intelligence artificielle, l’administration Biden a obtenu les engagements de sept entreprises technologiques (parmi lesquelles OpenAI, Google et Meta) qui ont promis de respecter des principes de sécurité, de confiance et de transparence dans le développement de l’IA. Des représentants de sept «entreprises leaders en IA» (Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI) doivent participer à un événement vendredi à la Maison Blanche pour annoncer que l’administration Biden-Harris a obtenu des engagements volontaires des entreprises pour «contribuer à une évolution sûre, sécurisée et transparente de la technologie IA», selon la Maison Blanche.

    « Les entreprises qui développent ces technologies émergentes ont la responsabilité de garantir la sécurité de leurs produits », a déclaré l’administration Biden dans un communiqué vendredi. « Pour tirer le meilleur parti du potentiel de l’IA, l’administration Biden-Harris encourage cette industrie à respecter les normes les plus élevées pour garantir que l’innovation ne se fasse pas au détriment des droits et de la sécurité des Américains.»

    À noter que les accords volontaires de Meta, Google, OpenAI et des autres ne sont que cela - ce sont des promesses de suivre certains principes. Pour garantir des protections juridiques dans le domaine de l’IA, l’administration Biden a déclaré qu’elle « poursuivrait une législation bipartite pour aider l’Amérique à montrer la voie en matière d’innovation responsable » en matière d’intelligence artificielle.

    Les principes auxquels les sept entreprises d’IA se sont engagées sont les suivants:
    • Développer des mécanismes techniques robustes pour garantir que les utilisateurs sachent quand le contenu est généré par l’IA, comme un système de filigrane pour réduire les risques de fraude et de tromperie.
    • Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriés et inappropriés des systèmes d’IA, couvrant à la fois les risques liés à la sécurité et les risques sociétaux, tels que « les effets sur l’équité et les biais ».
    • S’engager à réaliser des tests de sécurité internes et externes des systèmes d’IA avant leur mise en service, afin d’atténuer les risques liés à la biosécurité et à la cybersécurité, ainsi que les dommages sociétaux plus larges.
    • Partager des informations entre les acteurs du secteur et avec les gouvernements, la société civile et le monde universitaire sur la gestion des risques liés à l’IA, y compris les meilleures pratiques en matière de sécurité, les informations sur les tentatives de contournement des mesures de protection et la collaboration technique.
    • Investir dans la cybersécurité et les mesures de protection contre les « menaces internes » pour protéger les données et les modèles d’IA propriétaires et non publiés.

    Les accords « sont une première étape importante pour garantir que les entreprises donnent la priorité à la sécurité lorsqu'elles développent des systèmes d'IA générative », a déclaré Paul Barrett, directeur adjoint du NYU Stern Center for Business and Human Rights. « Mais les engagements volontaires annoncés aujourd'hui ne sont pas exécutoires, c'est pourquoi il est vital que le Congrès, en collaboration avec la Maison Blanche, élabore rapidement une législation exigeant la transparence, la protection de la vie privée et une recherche accrue sur le large éventail de risques posés par l'IA générative ».

    La Maison Blanche a déclaré avoir consulté d'autres pays sur des engagements volontaires en matière de sécurité de l'IA, notamment l'Australie, le Brésil, le Canada, le Chili, la France, l'Allemagne, l'Inde, Israël, l'Italie, le Japon, le Kenya, le Mexique, les Pays-Bas, la Nouvelle-Zélande, le Nigéria, les Philippines, Singapour, la Corée du Sud, les Émirats arabes unis et le Royaume-Uni.

    La Maison Blanche a déclaré que le Bureau de la gestion et du budget publiera bientôt un projet d'orientation politique pour les agences fédérales afin de garantir que le développement, l'approvisionnement et l'utilisation des systèmes d'IA sont centrés sur la sauvegarde des droits et de la sécurité des Américains.

    Nom : safe.png
Affichages : 639
Taille : 59,4 Ko

    Une approche américaine différente de l'approche britannique...

    Le 29 mars, le Royaume-Uni a publié un livre blanc intitulé « une approche pro-innovation de la réglementation de l'IA », qui explique la position du gouvernement selon laquelle les régulateurs existants intégreront les principes dans l'application de leurs pouvoirs existants et fourniront les détails.

    Le cabinet d'avocats Osborne Clarke l'a commenté en ces termes :

    Le livre blanc propose une approche basée sur les résultats complètement différente de la loi sur l'IA de l'UE (un règlement complexe « descendant », toujours dans le processus législatif après près de deux ans). Il n'y a pas d'interdiction pure et simple proposée pour le Royaume-Uni, pas d'exigences de conformité détaillées sur les données, la documentation, les tests et la certification, pas de nouveau régulateur et pas de nouveaux pouvoirs pour imposer des amendes ou prendre des mesures. Au lieu de cela, le Royaume-Uni envisage une approche «ascendante», dévolue aux régulateurs.

    Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
    La Grande-Bretagne est optimiste quant à la promotion d'une « approche proportionnée qui favorise la croissance et l'innovation ». Michelle Donelan, secrétaire d'État aux sciences, à l'innovation et à la technologie, a déclaré :

    Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc énonce notre engagement à nous engager à l'échelle internationale pour soutenir l'interopérabilité entre différents régimes réglementaires. Non seulement cela allégera le fardeau des entreprises, mais cela nous permettra également d'intégrer nos valeurs à mesure que les approches mondiales de gouvernance de l'IA se développent.

    Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
    ... et de l'approche européenne

    L'Europe pour sa part a choisi la voie de la règlementation, notamment avec l'AI Act. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.

    Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.

    La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.

    L’accent sur l’IA générative, comme le ChatGPT d’OpenAI, a grimpé à l’ordre du jour depuis que les lois ont été proposées pour la première fois. Une fois entré en vigueur, le texte pourrait infliger des amendes de 40 millions d’euros ou 7 % du chiffre d’affaires mondial total aux organisations qui ne respectent pas les règles.

    Source : Maison Blanche

    Et vous ?

    Que pensez-vous des engagements volontaires des entreprises d’IA?
    Quels sont les avantages et les inconvénients d’un régime de licences gouvernementales pour les produits d’IA?
    Quels sont les principes de sécurité, de confiance et de transparence que vous jugez essentiels pour le développement de l’IA?
    Quels sont les risques liés à l’IA que vous craignez le plus et comment pensez-vous qu’ils peuvent être atténués?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 593
    Points : 10 795
    Points
    10 795
    Par défaut Des entreprises de premier plan telles que Google et OpenAI forment un groupe visant à contrôler l'IA
    Des entreprises de premier plan telles que Google, Microsoft et OpenAI forment un groupe visant à contrôler l'IA
    les critiques allèguent que les entreprises cherchent à éviter la réglementation

    Le "Frontier Model Forum" est le dernier signe en date de l'avance de l'industrie sur les décideurs politiques qui souhaitent contrôler le développement de l'IA. C'est une association créée par Anthropic, Google, Microsoft et OpenAI en vue d'établir un ensemble de bonnes pratiques pour le développement de modèles d'IA. Ces acteurs sont quatre des entreprises les plus avancées dans la course à l'IA, ce qui suscite de grandes inquiétudes dans la communauté. Les critiques de cette initiative pensent que ces entreprises veulent tout simplement éviter la réglementation politique, établir leur domination sur le secteur de l'IA et empêcher d'autres concurrents d'émerger.

    Mercredi, Anthropic, Google, Microsoft et OpenAI ont lancé Frontier Model Forum dans le but de garantir un développement sûr et responsable des modèles d'IA. Selon le groupe, le projet vise à faire progresser la recherche sur la sécurité de l'IA et les évaluations techniques pour la prochaine génération de systèmes d'IA. Elles pensent que les futurs systèmes d'IA seront beaucoup plus puissants que les grands modèles de langage (LLM) qui pilotent actuellement les chatbots tels que ChatGPT et Bard. Le forum servira également de plaque tournante pour les entreprises et les gouvernements afin qu'ils puissent échanger des informations sur les risques liés à l'IA.

    « Il est vital que les entreprises d'IA - en particulier celles qui travaillent sur les modèles les plus puissants - s'alignent sur un terrain commun et fassent progresser des pratiques de sécurité réfléchies et adaptables pour que les outils d'IA puissants aient le plus grand bénéfice possible », a déclaré Anna Makanju, vice-présidente des affaires mondiales d'OpenAI, dans un communiqué. L'annonce s'appuie sur les promesses volontaires faites par les entreprises à la Maison Blanche vendredi de soumettre leurs systèmes à des tests indépendants et de développer des outils permettant d'alerter le public lorsqu'une image ou une vidéo a été générée par l'IA.


    « Les entreprises qui créent des systèmes d'IA ont la responsabilité de s'assurer qu'ils sont sûrs et sécurisés et qu'ils restent sous contrôle humain. Cette initiative est une étape essentielle pour rassembler le secteur technologique pour faire progresser l'IA de manière responsable et de relever les défis afin qu'elle profite à l'ensemble de l'humanité », a déclaré Brad Smith, vice-président et président de Microsoft. Selon ces créateurs, l'adhésion au forum est limitée à une poignée d'entreprises construisant des modèles d'apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés.

    Les travaux du forum se concentreront donc sur les dangers potentiels découlant d'une IA beaucoup plus puissante, plutôt que de répondre aux questions relatives aux droits d'auteur, à la protection des données et à la vie privée, qui sont aujourd'hui pertinentes pour les régulateurs et les utilisateurs. À titre d'exemple, la Commission fédérale du commerce (FTC) des États-Unis a lancé une enquête sur OpenAI, cherchant à déterminer si la société s'est livrée à des pratiques déloyales ou trompeuses en matière de protection de la vie privée et de sécurité des données ou si elle a porté préjudice à des personnes en créant de fausses informations à leur sujet.

    L'initiative de l'industrie est le dernier signe en date de la course des entreprises avant les efforts des gouvernements pour élaborer des règles pour le développement et le déploiement de l'IA, alors que les décideurs politiques à Bruxelles et à Washington commencent à se débattre avec les dangers potentiels de cette technologie qui émerge rapidement. La Maison Blanche a annoncé cette année qu'elle prendrait des mesures pour promouvoir "une innovation responsable". De leur côté, les patrons des entreprises d'IA ont adopté un ton plus rassurant, soulignant qu'ils étaient conscients des dangers de la technologie et qu'ils s'engageaient à les atténuer.

    La semaine dernière, les PDG des quatre entreprises qui ont lancé le nouveau forum se sont engagés à développer la technologie de l'IA de manière sûre, sécurisée et transparente à la Maison Blanche. Cependant, les critiques allèguent que les assurances données par les entreprises étaient une tentative visant à éviter la réglementation des autorités et à mettre en avant une capacité douteuse d'autorégulation. « La réglementation doit venir de l'extérieur. Elle doit être promulguée par le gouvernement représentant le peuple pour limiter ce que ces entreprises peuvent faire », a déclaré Emily Bender, linguiste informaticienne à l'université de Washington.

    « En focalisant l'attention sur les craintes que les machines prennent vie et s'emparent du pouvoir, on détourne l'attention des problèmes réels liés au vol de données, à la surveillance et au fait que tout le monde se retrouve dans l'économie de l'abondance », a ajouté Bender, appelant à plus de vigilance. Par le passé, des groupes similaires au Frontier Model Forum ont déjà été créés. Le Partenariat sur l'IA, dont Google et Microsoft sont également membres fondateurs, a été créé en 2016 avec des membres issus de la société civile, du monde universitaire et de l'industrie, et avec pour mission de promouvoir l'utilisation responsable de l'IA.

    Depuis des années, les décideurs politiques affirment que l'on ne peut pas faire confiance aux entreprises technologiques pour établir leurs propres garde-fous, après plus d'une décennie d'atteintes à la vie privée, de menaces pour les démocraties du monde entier et d'incidents qui ont mis en danger des enfants en ligne. Mardi, le sénateur Josh Hawley (R-Mo.) a déclaré lors d'une audition que les entreprises d'IA étaient les mêmes que celles qui ont échappé à la surveillance réglementaire pendant les batailles des médias sociaux avec les régulateurs, citant Google, Meta et Microsoft, en particulier, en tant que développeurs d'IA et investisseurs.

    « Nous parlons des mêmes personnes », a déclaré Hawley. Les entreprises technologiques ne sont pas étrangères à l'autorégulation. Les entreprises de médias sociaux ont créé le Forum mondial de l'Internet pour la lutte contre le terrorisme, qu'elles utilisent pour partager des informations sur les menaces terroristes pesant sur leurs services. Meta s'est illustré en créant un Conseil de surveillance, un organe d'experts indépendants financé par l'entreprise, qui pèse sur les décisions épineuses en matière de modération des contenus, notamment la décision de l'entreprise de bannir le président Donald Trump dans la foulée des attentats du 6 janvier.

    Toutefois, ces initiatives menées par l'industrie ont été critiquées par les défenseurs des consommateurs, qui estiment qu'elles confient la responsabilité à des experts tiers. Les groupes de défense des consommateurs ont aussi critiqué les organismes d'autorégulation, estimant qu'ils détournaient l'attention des décideurs politiques, faisant ainsi dérailler la législation nécessaire pour mettre un terme aux abus du secteur. Selon les détracteurs de l'autorégulation, la situation actuelle pourrait être résumée comme suit : « les décideurs politiques s'empressent de réglementer l'IA. L'industrie est impatiente de leur apprendre comment faire ».

    Mais la réglementation gouvernementale n'est pas prête d'arriver. En attendant, les responsables politiques font pression sur les entreprises pour qu'elles prennent des mesures volontaires afin d'atténuer les dangers potentiels de l'IA. En effet, ChatGPT a mis en évidence la manière dont l'IA menace les emplois et la manière dont elle peut être utilisée pour renforcer les escroqueries en ligne et nuire aux démocraties. Par ailleurs, l'accent mis par les créateurs du Frontier Model Forum sur les capacités des futurs modèles d'IA reflète les déclarations que le PDG d'OpenAI, Sam Altman, a faites lors d'une tournée mondiale très médiatisée en mai et juin.

    Au cours de cette tournée, il a rencontré des dizaines de dirigeants mondiaux. Dans des auditoriums à guichets fermés, de Singapour à la Jordanie, il a été demandé à Altman si les rapports sur ses appels à la réglementation devant le Congrès aideraient OpenAI et nuiraient à ses concurrents. Chaque fois, Altman a tenté de rassurer l'auditoire en affirmant qu'il ne pensait pas qu'il était nécessaire d'agir maintenant. Microsoft et ses pairs affirment que le forum pourrait accompagner les initiatives gouvernementales existantes en matière d'IA. Dans les mois à venir, le groupe mettra en place un conseil consultatif chargé d'orienter sa stratégie et ses priorités.

    Les fondateurs mettront également en place un financement, un groupe de travail et une charte. Kayla Wood, porte-parole d'OpenAI, a déclaré qu'il ne s'agissait que d'un "lancement initial" et que le forum accueillerait volontiers d'autres entreprises. Mais certains membres du forum ont exprimé leur scepticisme quant à la décision de Meta de rendre son modèle largement disponible en tant que logiciel libre. Le PDG d'Anthropic, Dario Amodei, a récemment fait part de ses inquiétudes quant à l'avenir de l'open source, qui est généralement plus propice à l'innovation, mais qui peut présenter des "dangers catastrophiques" lorsqu'il s'agit d'IA avancée.

    Amodei a notamment pointé du doigt la décision de Meta de mettre son modèle d'IA Llama 2 à la disposition du public pour la recherche et la création de nouveaux produits. Meta ne fait pas partie des membres fondateurs du Frontier Model Forum.

    Sources : OpenAI, Microsoft, Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'initiative de Google, Anthropic, Microsoft et OpenAI ?
    Pensez-vous que ces entreprises cherchent à éviter la réglementation gouvernementale ?
    Selon vous, quels sont les risques liés à l'autorégulation mise en avant par les entreprises technologiques ?

    Voir aussi

    Google, Meta, OpenAI et d'autres promettent de se conformer au cadre de sécurité de l'IA de la Maison Blanche, des engagements volontaires qui sont déjà critiqués pour l'absence de mesures punitives

    Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

    Le PDG d'OpenAI, Sam Altman, appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA, alors que Washington tente d'entraver les progrès de la Chine en matière d'IA

Discussions similaires

  1. Réponses: 0
    Dernier message: 08/04/2023, 01h32
  2. Réponses: 1
    Dernier message: 07/12/2022, 16h20
  3. Réponses: 8
    Dernier message: 15/11/2019, 18h01
  4. Réponses: 1
    Dernier message: 07/10/2019, 20h05
  5. Réponses: 10
    Dernier message: 23/04/2019, 16h08

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo