IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #101
    Membre chevronné
    Profil pro
    Inscrit en
    Décembre 2007
    Messages
    761
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2007
    Messages : 761
    Points : 2 102
    Points
    2 102
    Par défaut
    L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.

  2. #102
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 971
    Points
    197 971
    Par défaut IA générative (IAG) : la CNIL recommandée pour la réguler par une commission de l'Assemblée nationale
    IA générative (IAG) : la CNIL recommandée pour la réguler par une commission de l'Assemblée nationale,
    « seule la CNIL dispose de l'expérience et de l'expertise pour évaluer le respect du RGPD sur les modèles d'IAG »

    Les députés Philippe Pradal et Stéphane Rambaud ont partagé les conclusions des travaux d'une mission d'information sur les défis de l’intelligence artificielle générative en matière de protection des données personnelles et d’utilisation du contenu généré. Selon le rapport, il est proposé de donner de nouveaux pouvoirs à la CNIL. Le rapport estime que la CNIL apparaît comme la mieux à même de réguler les IAG (intelligence artificielle générative) : « seule la CNIL dispose de l’expertise et de l’expérience nécessaires pour évaluer le respect du RGPD par les modèles d’IAG. Elle a l’habitude de traiter les plaintes des usagers, de les instruire et, si nécessaire, de prononcer des sanctions. Les auditions ont mis en évidence la maturité de la réflexion de la CNIL ».

    L’intelligence artificielle générative désigne la capacité des systèmes informatiques à produire du contenu original et pertinent à partir de données existantes, telles que des textes, des images, des sons ou des vidéos. Cette technologie offre de nombreuses possibilités d’innovation, de créativité et d’amélioration de la qualité de vie, mais elle soulève aussi des enjeux éthiques, juridiques et sociétaux importants.

    C’est pourquoi la commission des lois de l’Assemblée nationale a mené une mission d’information sur ce sujet, dont le rapport a été présenté le 14 février 2024 par Philippe Pradal et Stéphane Rambaud, députés. Ce rapport fait le point sur les opportunités et les risques de l’IAG, ainsi que sur l’approche européenne et les pistes de régulation proposées par les rapporteurs.

    Les motivations

    Les députés ont expliqué :

    Depuis une année, l’intelligence artificielle générative (IAG) a fait une irruption spectaculaire dans le débat public.

    La mise à disposition gratuite au grand public par la société californienne OpenAI de son robot conversationnel (« chatbot ») ChatGPT a fait prendre conscience aux citoyens, aux médias et aux décideurs que la démocratisation de l’IAG en langage naturel allait devenir une réalité incontournable.

    La diffusion de l’IAG semble inéluctable et ses usages possibles sont sources de curiosité, d’intérêt et d’espoir pour les uns ; d’inquiétude voire d’angoisse pour les autres.

    Ces réactions s’expliquent par le fait que l’IAG – qui est un sous-domaine de l’intelligence artificielle (IA) – a pour caractéristique de produire rapidement des contenus originaux, visuels, sonores ou écrits, parfois grâce à une interface simple n’exigeant pas de compétences informatiques particulières. Parmi eux, les modèles de langage (large language model ou LLM en anglais) permettent de converser dans une langue humaine avec l’IAG.

    L’ensemble de ces systèmes reposent sur des modèles mathématiques statistiques, qui identifient la réponse la plus probable à l’injonction donnée : « Un LLM "prédit" le résultat (en l’occurrence le mot suivant) le plus vraisemblable au vu de la distribution statistique des données d’entraînement ».

    Des modèles qui ne sont pas infaillibles

    Ces modèles ne sont donc pas infaillibles, en particulier lorsque le nombre de données dont ils disposent sur une question est limité. Ils tendent alors à donner une réponse probable, voire plausible, mais qui peut être factuellement erronée. On parle alors « d’hallucination ».

    Ces systèmes peuvent aussi être utilisés de manière détournée, ce qui conduit les concepteurs d’IAG à « brider » certaines de leurs fonctionnalités afin d’empêcher qu’elles puissent produire des contenus offensant ou dangereux.

    L’IAG soulève, pour une grande partie, les mêmes enjeux que l’IA dans son ensemble, tout en renouvelant certaines problématiques et en en posant de nouvelles.

    D’emblée, des interrogations sont apparues sur la conformité de ChatGPT au règlement européen sur la protection des données (RGPD). L’homologue italien de la commission nationale de l’informatique et des libertés (CNIL) a ainsi bloqué, le 31 mars 2023, l’accès au robot conversationnel, avant de l’autoriser à nouveau le 28 avril de la même année sous réserve que la société OpenAI poursuive ses efforts pour appliquer la législation européenne sur la protection des données.

    Ce sujet relève directement de la compétence de la commission des Lois. C’est la raison pour laquelle, dès le 3 mai 2023, le bureau de notre commission a souhaité créer une mission d’information sur les défis de l’intelligence artificielle générative en matière de protection des données personnelles et d’utilisation du contenu généré.

    De nombreuses questions

    L’utilisation du contenu généré, au même titre que la protection des données, suscite également de nombreuses questions, notamment en matière de responsabilité civile, voire pénale – deux domaines qui relèvent également de la commission des Lois.

    Il en est de même du respect des libertés fondamentales, un sujet de préoccupation important pour l’IA en général et l’IAG en particulier, au regard de son utilisation potentielle en matière de manipulation de l’information ou dans le cadre de campagnes électorales, par exemple.

    Pour autant, certains sujets n’ont pu être éludés compte tenu de leur caractère transversal (droit d’auteurs, manipulation de l’information, utilisation de l’IAG dans le domaine de la santé ou de l’éducation). Pour ces raisons, vos rapporteurs ont été conduits ponctuellement à formuler des appréciations plus générales.

    Vos rapporteurs ont conscience que les discussions sur l’IAG ne font que débuter et que leurs travaux n’épuiseront pas le sujet. Leur rapport constitue une première contribution parlementaire à ce débat. Les travaux complémentaires d’autres commissions permanentes seront précieux pour approfondir et nourrir la réflexion du Parlement.

    Nom : rapport.png
Affichages : 8369
Taille : 11,6 Ko

    Les opportunités et les risques de l’IAG

    Les opportunités de l'IAG

    L’IAG représente une nouvelle étape de la révolution numérique, qui permet de dépasser la simple analyse des données pour créer de la valeur ajoutée. Elle peut avoir des applications bénéfiques dans de nombreux domaines, tels que :
    • la santé, où l’IAG peut contribuer à la recherche médicale, au diagnostic, à la prévention ou au suivi des patients ;
    • l’éducation, où l’IAG peut faciliter l’apprentissage personnalisé, l’adaptation aux besoins des élèves ou la formation continue ;
    • la culture, où l’IAG peut stimuler la créativité artistique, la diversité culturelle ou la préservation du patrimoine ;
    • l’économie, où l’IAG peut accroître la productivité, l’efficacité ou la compétitivité des entreprises ;
    • la communication, où l’IAG peut améliorer l’accessibilité, la traduction ou la diffusion de l’information.

    Les risques de l’IAG

    L’IAG pose également des défis majeurs pour la protection des droits fondamentaux, la sécurité et la cohésion sociale. Elle peut en effet entraîner des risques individuels ou collectifs, tels que :
    • les risques pour la vie privée, si l’IAG utilise ou génère des données personnelles sans le consentement ou le contrôle des personnes concernées ;
    • les risques de non confidentialité ou de fuite de données, si l’IAG n’assure pas la sécurité ou l’intégrité des données traitées ou produites ;
    • le risque de biais et d’influences extérieures, si l’IAG reproduit ou amplifie des discriminations, des stéréotypes ou des manipulations ;
    • les risques d’erreur et d’hallucination, si l’IAG produit du contenu erroné, incohérent ou trompeur ;
    • le risque de tromperie, si l’IAG crée du contenu indiscernable de la réalité, comme les deepfakes ou les faux textes ;
    • le risque de fraude à l’IAG, si l’IAG est utilisée à des fins illicites, comme le plagiat, la contrefaçon ou l’usurpation d’identité.

    L’approche européenne, une réponse axée sur la régulation par les risques et la confiance

    Face à ces enjeux, l’Union européenne a adopté une stratégie ambitieuse pour promouvoir une intelligence artificielle de confiance, respectueuse des valeurs et des droits fondamentaux. Cette stratégie repose sur plusieurs piliers :
    • un cadre juridique déjà contraignant, qui s’applique à l’IAG, notamment le règlement général sur la protection des données (RGPD), le digital market act (DMA) et le digital services act (DSA) ;
    • un projet de règlement sur l’intelligence artificielle, qui vise à instaurer des règles spécifiques et proportionnées selon le niveau de risque des systèmes d’IAG, allant de l’interdiction à la surveillance en passant par l’obligation de transparence ;
    • un data act, qui doit favoriser le partage et l’utilisation des données dans le respect des droits des personnes et des entreprises ;
    • un soutien à la recherche, à l’innovation et à la compétitivité, à travers des programmes de financement, de formation et de coopération.

    Les pistes de régulation proposées par les rapporteurs

    Les rapporteurs saluent l’approche européenne, qu’ils jugent globalement pertinente et équilibrée, mais ils formulent également des propositions complémentaires pour renforcer la régulation de l’IAG, notamment :
    • le contrôle ex ante : la certification et le marquage des contenus. La solution la plus efficace en matière de régulation consisterait à certifier ex ante les modèles et les applications d’intelligence artificielle souhaitant proposer leurs services sur le marché européen. Cette certification pourrait soit conditionner l’accès au marché intérieur, soit faire office de label visant à orienter l’utilisateur vers les IA les plus vertueuses, ce qui serait moins contraignant pour les fournisseurs, mais aussi moins efficace au regard du but poursuivi.
    • Le contrôle ex post : le traitement des plaintes et un régime de sanction. Il consiste à identifier, corriger et sanctionner les dysfonctionnements des IAG selon un système de contrôle ex post ciblant certains acteurs en fonction des signalements reçus. Ce contrôle pourrait notamment porter sur les jeux de données utilisés pour entraîner le modèle – en particulier l’exploitation de données personnelles ou de données soumises au droit d’auteur – et sur le fonctionnement du modèle ou de ses applications (recherche de biais, vérification des filtres, etc.).
    • Un système de régulation qui exige des compétences élevées. La régulation de l’IA exige une expertise juridique, mais aussi technique pour en comprendre les enjeux et être en capacité de dialoguer avec les acteurs du secteur et d’expertiser leurs systèmes.
    • renforcer la responsabilité des acteurs de l’IAG, en clarifiant les obligations et les sanctions applicables en cas de manquement. Le rapport indique : « Afin de faire respecter ces règles par l’ensemble des entreprises intervenant sur le marché numérique européen, un régime de sanctions pourrait être mis en place, s’inspirant là encore du mécanisme prévu par le RGPD. Ces sanctions financières pourraient être assorties, à titre provisoire ou définitif, de la fermeture ou de la suspension de l’accès des utilisateurs aux services proposés lorsque ces derniers ne respectent pas les règles prévues. Ces sanctions auraient également des répercussions sur la réputation des entreprises ciblées, et inciteraient les fournisseurs à se conformer au plus vite au droit européen »;
    • sensibiliser et former les utilisateurs et les citoyens à l’IAG, en développant des programmes éducatifs, des campagnes d’information ou des outils de vérification ;
    • encourager l’auto-régulation et la co-régulation de l’IAG, en soutenant les initiatives des acteurs privés, des associations ou des autorités indépendantes ;
    • développer une coopération internationale sur l’IAG, en promouvant des normes et des principes communs avec les partenaires stratégiques de l’Union européenne.

    La CNIL apparaît comme la mieux à même de réguler les IAG

    La réglementation européenne à venir va mettre en œuvre différents mécanismes de régulation. Selon les rapporteurs, cette régulation devrait être confiée, comme c’est habituellement le cas, à des autorités indépendantes. Le rapport note que plusieurs autorités peuvent se considérer comme compétente au regard des enjeux concernés, en particulier la CNIL en ce qui concerne la protection des données personnelles et l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) en ce qui concerne la régulation des plateformes.

    Leurs interventions doivent être coordonnées, mais il apparaît nécessaire de désigner l’une d’entre elles pour piloter cette nouvelle politique. Vos rapporteurs estiment que la CNIL, dans un rôle redéfini, doit remplir ce rôle. La place qu’occupent les données personnelles dans les problématiques relatives à l’IAG est majeure, puisqu’elle intervient au stade de l’entraînement du modèle, de son apprentissage, de l’utilisation des données fournies par les usagers et de l’usage des données produites.

    Or, seule la CNIL dispose de l’expertise et de l’expérience nécessaires pour évaluer le respect du RGPD par les modèles d’IAG. Elle a l’habitude de traiter les plaintes des usagers, de les instruire et, si nécessaire, de prononcer des sanctions. Les auditions ont mis en évidence la maturité de la réflexion de la CNIL.
    Conclusion

    Les rapporteurs appellent à une régulation de l’IAG qui soit à la fois protectrice et prospective, qui prévienne les risques sans brider les opportunités, et qui associe les pouvoirs publics, les acteurs privés et la société civile. Ils estiment que l’IAG doit être mise au service de l’intérêt général, de la démocratie et de la souveraineté européenne.

    Source : assemblée nationale

    Et vous ?

    Quelles sont les applications de l’IAG qui vous semblent les plus utiles ou les plus intéressantes ?
    Quels sont les risques de l’IAG qui vous inquiètent le plus ou qui vous semblent les plus difficiles à prévenir ?
    Quelles sont les règles ou les principes que vous jugez indispensables pour encadrer l’utilisation de l’IAG ?
    Quel est votre avis sur l’approche européenne de la régulation de l’IAG ? La trouvez-vous suffisante, excessive ou insuffisante ?
    Quel est le rôle des citoyens et des utilisateurs dans la gouvernance de l’IAG ? Comment peuvent-ils s’informer, se former ou participer aux décisions ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #103
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Les législateurs européens adoptent la première loi importante pour réglementer l'IA dans le monde
    Les législateurs européens adoptent la première loi importante pour réglementer l'IA dans le monde
    mais elle pourrait potentiellement rendre le marché européen peu attrayant pour l'IA

    Le Parlement européen a approuvé le premier grand ensemble de règles au monde pour régir les applications de l'IA. La loi européenne sur l'IA divise les applications de l'IA en catégories de risque, allant de "inacceptable" à "élevé", "moyen" et "faible". Elle interdit les systèmes de notation sociale basés sur l'IA et tout outil biométrique utilisé pour deviner la race, les tendances politiques ou l'orientation sexuelle. L'UE devance encore une fois les États-Unis dans la réglementation d'une technologie essentielle et perturbatrice. Mais certaines dispositions de la loi sont controversées, les critiques affirmant qu'elles pourraient ralentir l'innovation dans le domaine.

    Les législateurs européens approuvent la première réglementation sur l'IA au monde

    La loi européenne sur l'IA (EU AI Act) a été proposée initialement en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonctions des risques perçus, et seraient effectivement les premières règles axées au monde sur l'IA introduites par un organisme de réglementation majeur. La Commission européenne, qui a proposé la législation, souhaite qu'elle garantisse que l'utilisation de l'IA respecte les droits de l'homme fondamentaux. L'UE a obtenu un consensus politique provisoire début décembre et la loi vient d'être approuvée par les législateurs.


    Elle a été adoptée avec 523 voix pour, 46 contre et 49 votes non exprimés. « L'Europe est MAINTENANT une référence mondiale en matière d'IA », a écrit Thierry Breton, commissaire européen chargé du marché intérieur, sur compte X (ex-Twitter). La présidente du Parlement européen, Roberta Metsola, a qualifié la législation d'avant-gardiste, affirmant qu'elle permettrait l'innovation tout en sauvegardant les droits fondamentaux. « L'intelligence artificielle fait déjà partie intégrante de notre vie quotidienne. Désormais, elle fera également partie de notre législation », a-t-elle écrit dans un message sur les réseaux sociaux.

    Cette loi, la première du genre, est sur le point de modifier la manière dont les entreprises et les organisations européennes utilisent l'IA dans tous les domaines, depuis les décisions en matière de soins de santés jusqu'au maintien de l'ordre. La nouvelle législation européenne classe les applications de l'IA en quatre catégories différentes, allant de "inacceptable" à "élevé", "moyen" et "faible". Ensuite, elle impose des interdictions générales pour les utilisations inacceptables de la technologie, tout en établissant des garde-fous rigoureux pour les applications incluses dans les autres catégories définies par les législateurs.

    Entre autres, la loi interdit les systèmes de notation sociale pilotés par l'IA et tout outil biométrique utilisé pour deviner la race, les tendances politiques ou l'orientation sexuelle d'une personne. La législation interdit l'utilisation de l'IA pour interpréter les émotions des personnes dans les écoles et sur les lieux de travail, ainsi que certains types de profilage automatisé visant à prédire la probabilité qu'une personne commette des crimes à l'avenir. Elle impose des obligations, notamment en matière de transparence, pour les cas d'utilisation à haut risque dans les domaines tels que l'embauche et l'accès aux services publics.

    Beaucoup ont salué l'adoption de la législation sur l'IA. Cependant, certains critiques de la loi, y compris le président français Emmanuel Macron, pensent que les dispositions de la loi sont trop strictes et qu'elles pourraient nuire à l'innovation. Comme l'explique un critique : « je ne sais pas trop quoi penser de cela. D'une part, les réglementations européennes ont fait des merveilles pour la protection des consommateurs ; d'autre part, c'est exactement ce qui étouffe l'innovation, en particulier pour les technologies naissantes comme l'IA ».

    Les impacts potentiels de la réglementation européenne sur l'IA sur les entreprises

    Les entreprises telles qu'OpenAI qui produisent des modèles d'IA puissants, complexes et largement utilisés seront également soumises à de nouvelles obligations de divulgations en vertu de la loi. Elle exige également que tous les deepfakes générés par l'IA soient clairement étiquetés, afin de répondre aux inquiétudes concernant la manipulation des médias qui pourrait conduire à la désinformation et à l'ingérence dans les élections. La loi, qui devrait entrer en vigueur d'ici à 2025, souligne la rapidité avec laquelle les décideurs politiques de l'UE ont réagi à l'explosion de la popularité d'outils comme ChatGPT d'OpenAI.

    Toutefois, si l'annonce de ce jour signifie que la loi a presque franchi son dernier obstacle, il faudra encore des années pour que certaines règles soient appliquées. Le texte juridique doit encore être approuvé, soit par une annonce séparée, soit par un vote en session plénière les 10 et 11 avril. La loi sur l'IA entrera alors officiellement en vigueur 20 jours après sa publication au Journal officiel, ce qui devrait se produire en mai ou en juin de cette année. Les dispositions entreront alors en vigueur par étapes : les pays auront six mois pour bannir les systèmes d'IA interdits, dont les systèmes de notation sociale basés sur l'IA.

    Ils auront 12 mois pour appliquer les règles contre les "systèmes d'IA à usage général" (general-purpose AI (GPAI) systems) tels que les chatbots, et jusqu'à 36 mois pour les systèmes d'IA que la loi a désignés comme étant à haut risque. « À très court terme, le compromis sur la loi européenne sur l'IA n'aura pas beaucoup d'effet direct sur les concepteurs de systèmes d'IA basés aux États-Unis, car il n'entrera probablement pas en vigueur avant 2025 », a déclaré Paul Barrett, directeur adjoint du NYU Stern Center for Business and Human Rights, en décembre 2023, lorsque l'UE a trouvé un accord provisoire sur la loi.

    Barrett estime que les principaux acteurs du domaine de l'IA, tels qu’OpenAI, Microsoft, Google et Meta, continueront probablement à se battre pour dominer le marché, notamment en raison de l'incertitude réglementaire qui règne aux États-Unis. Dragos Tudorache, un législateur européen qui a supervisé les négociations de l'accord avec l'UE, a salué l'accord, mais a déclaré que le plus grand obstacle restait la mise en œuvre. Il a déclaré dans un communiqué sur le site du Parlement : « l'UE a tenu ses promesses. Nous avons lié le concept d'IA aux valeurs fondamentales qui forment la base de nos sociétés […] ».

    « Mais il reste encore beaucoup à faire, au-delà de la loi européenne sur l'IA elle-même. L'IA nous poussera à repenser le contrat social au cœur de nos démocraties, nos modèles éducatifs, nos marchés du travail et la manière dont nous menons les guerres. Cette législation est le point de départ d'un nouveau modèle de gouvernance fondé sur la technologie. Nous devons maintenant nous concentrer sur la mise en pratique de cette loi », a-t-il ajouté. La loi ne réglemente pas rétroactivement les modèles existants, mais les futurs modèles devront tenir compte des nouvelles exigences de transparence fixées par l'UE.

    La nouvelle législation pourrait rendre le marché européen moins attrayant pour l'IA

    La loi européenne sur l'IA se veut très stricte dans la réglementation du développement et des applications de l'IA. Dans le même temps, certains États membres ont commencé à craindre que cette rigueur ne fasse de l'UE un marché peu attrayant pour l'IA. Pour cette raison, la France, l'Allemagne et l'Italie ont fait pression pour atténuer les restrictions imposées aux systèmes d'IA à usage général au cours des négociations. Ces pays ont obtenu des compromis, notamment en limitant ce qui peut être considéré comme des systèmes "à haut risque", qui seraient alors soumis à certaines des dispositions les plus strictes.

    Au lieu de classer tous les systèmes GPAI comme étant à haut risque, il y aura un système à deux niveaux et des exceptions pour l'application de la loi en ce qui concerne les utilisations de l'IA totalement interdites, comme l'identification biométrique à distance. Cela n'a pas encore satisfait toutes les critiques. Le président français Emmanuel Macron a attaqué les règles, affirmant que la loi sur l'IA crée un environnement réglementaire strict qui entrave l'innovation. L'ancien ministre français de l'Économie numérique, Cédric O, qui est cofondateur et actionnaire de la startup française Mistral, s'est prononcé contre la loi.

    De l’autre côté de l’Atlantique, les Big Tech ont fait pression sur l’UE pour qu’elle affaiblisse et supprime de la loi sur l'IA les règles en rapport avec les modèles de base. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq grands lobbyistes qui ont fait pression contre la loi de l'UE. Les Big Tech recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer leurs applications d'IA sans surveillance stricte. Cela se fait en coulisse, mais en public, ces entreprises chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

    Barrett a déclaré que certaines startups d'IA européennes pourraient avoir du mal à lever des capitaux avec les règles actuelles, ce qui donne un avantage aux entreprises américaines. En outre, certaines entreprises non européennes pourraient même choisir d'éviter de s'installer dans la région ou de bloquer l'accès à leurs plateformes pour ne pas se voir infliger des amendes pour avoir enfreint les règles. L'UE a déjà été confrontée à un tel risque à la suite de l'entrée en vigueur des réglementations telles que la loi sur les marchés numériques (Digital Markets Act) et la loi sur les services numériques (Digital Services Act).

    Toutefois, l'UE n'est pas la seule sur cette voie. Les projets de règles évoluent de l'autre côté de la Manche, mais également outre-Atlantique. L'administration Biden a signé en octobre un décret exigeant que tout laboratoire développant un grand modèle de base effectue des tests de sécurité et informe le gouvernement des résultats. Et les discussions lors du sommet britannique sur la sécurité de l'IA se sont fortement concentrées sur les risques liés aux modèles de base les plus avancés. Les participants ont également signé un document "non contraignant" qui reconnaît la nécessité d'atténuer les risques liés à l'IA.

    Les impacts potentiels de la législation européenne sur l'IA sur la collecte de données

    Les modèles d'IA sont formés à partir de données accessibles au public, mais sensibles et potentiellement protégées par des droits d'auteur. Cette collecte de données est à l'origine de tensions importantes entre les entreprises d'IA et les créateurs de contenu, les artistes, les écrivains, les médias, etc. La loi de sur l'IA ne crée toutefois pas de nouvelles lois sur la collecte de données. Alors que l'UE a été la première à adopter des règles sur la protection des données avec le RGPD, la loi sur l'IA n'interdit pas aux entreprises de collecter des informations, mais exige qu'elles respectent les lignes directrices du RGPD.

    « En vertu de ces règles, les entreprises devront peut-être fournir un résumé de transparence ou des étiquettes de nutrition des données. Mais cela ne changera pas vraiment le comportement des entreprises en ce qui concerne les données », a déclaré Susan Ariel Aaronson, directrice du "Digital Trade and Data Governance Hub" et professeur de recherche en affaires internationales à l'université George Washington. Aaronson souligne que la loi sur l'IA n'a toujours pas clarifié la manière dont les entreprises doivent traiter le matériel protégé par le droit d'auteur qui fait partie des données d'entraînement des modèles.

    Aaronson estime que la loi sur l'IA se contente d'indiquer que les développeurs doivent suivre les lois existantes sur le droit d'auteur (ce qui laisse beaucoup de zones grises autour de l'IA). La législation n'incite donc pas les développeurs de modèles à éviter d'utiliser des données protégées par le droit d'auteur. Elle n'appliquera pas non plus ses amendes potentiellement sévères aux développeurs de logiciels libres, aux chercheurs et aux petites entreprises travaillant en aval de la chaîne de valeur. Cette décision a été saluée par les entreprises et les développeurs de logiciels et d'applications libres dans le domaine.

    Shelley McKinley, responsable juridique de GitHub, filiale de Microsoft, affirme qu'il s'agit d'un "développement positif pour l'innovation ouverte et les développeurs qui travaillent à la résolution de certains des problèmes les plus urgents de la société". Blake Brannon, directeur de la stratégie de la plateforme de confidentialité des données OneTrust, a déclaré que les entreprises d'IA les plus matures établissaient des lignes directrices en matière de protection de la vie privée en conformité avec des lois telles que le RGPD et en prévision de politiques plus strictes. Selon lui, la loi n'apporte pas de changement significatif.

    Il a ajouté qu'en fonction de l'entreprise, la loi sur l'IA est "une goutte d'eau supplémentaire" par rapport aux stratégies déjà en place. Toutefois, et comme souligné plus haut, la mise en œuvre de loi pourrait s'avérer compliquée pour les entreprises. Mark Ferguson, expert en politiques publiques au sein du cabinet d'avocats Pinsent Masons, a déclaré que l'adoption de la loi sur l'IA n'était qu'un début. Ferguson a ajouté que les entreprises devront travailler en étroite collaboration avec les législateurs pour comprendre comment elle sera mise en œuvre à mesure que la technologie, qui évolue rapidement, continue d'évoluer.

    Les États-Unis n'ont pas réussi à faire décoller la réglementation sur l'IA. La principale mesure prise jusqu'à présent a été le décret de l'administration Biden. Les quelques projets de loi déposés au Sénat ont essentiellement porté sur les contrefaçons profondes et le filigrane, et les forums sur l'IA organisés à huis clos par le sénateur Chuck Schumer (D-NY) n'ont guère apporté d'éclaircissements sur l'orientation du gouvernement en ce qui concerne la gestion de la technologie. En juillet de l'année dernière, la Chine a adopté des lignes directrices pour les entreprises qui souhaitent vendre des services d'IA au public.

    Source : le Parlement européen

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'adoption par l'UE de la législation sur l'IA ?
    La loi va-t-elle produire des changements importants sur le marché de l'IA ?
    Que pensez-vous des critiques selon lesquels les dispositions de la loi sont trop strictes ?
    La nouvelle loi risque-t-elle de nuire à l'innovation ? Rend-elle l'UE moins attractive pour l'IA ?
    Quels pourraient être les impacts de cette législation sur les entreprises telles que Google et OpenAI ?
    Que pensez-vous des exemptions prévues par loi pour les entreprises et les développeurs de logiciels libres ?

    Voir aussi

    La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques, elles font pression pour retirer "les modèles de base" de la réglementation

    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques, selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

    IA générative : la CNIL recommandée pour la réguler par une commission de l'Assemblée nationale, « seule la CNIL dispose de l'expérience et de l'expertise pour évaluer le respect du RGPD sur l'IAG »

  4. #104
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 971
    Points
    197 971
    Par défaut L'ONU adopte la première résolution mondiale sur l'IA, appelant à la création d'un cadre règlementaire
    L'ONU adopte la première résolution mondiale sur l'IA, appelant à la création d'un cadre réglementaire pour que l’IA soit utilisée de manière à respecter la vie privée,
    promouvoir la sécurité et prévenir les abus

    L'Assemblée générale des Nations Unies a adopté jeudi à l'unanimité la première résolution mondiale sur l'intelligence artificielle qui encourage les pays à sauvegarder les droits de l'homme, à protéger les données personnelles et à surveiller les risques liés à l'IA. La résolution non contraignante, proposée par les États-Unis et co-parrainée par la Chine et plus de 120 autres pays, préconise également le renforcement des politiques de confidentialité. « Aujourd'hui, les 193 membres de l'Assemblée générale des Nations Unies ont parlé d'une seule voix et ont choisi ensemble de gouverner l'intelligence artificielle plutôt que de la laisser nous gouverner », a déclaré l'ambassadrice des États-Unis auprès des Nations Unies, Linda Thomas-Greenfield.

    La résolution appelle les États membres à collaborer pour créer un cadre réglementaire qui garantisse que l’IA sera utilisée de manière à respecter la vie privée, à promouvoir la sécurité et à prévenir les abus. Elle encourage également le partage des connaissances et des meilleures pratiques en matière d’IA entre les nations, afin de réduire le fossé numérique et de favoriser une croissance inclusive.

    Étant un accord non contraignant et donc sans effet, la résolution semble largement populaire dans l’industrie de l’IA. Sur X, le vice-président et président de Microsoft, Brad Smith, a écrit : « Nous soutenons pleinement l'adoption par l'ONU de la résolution globale sur l'IA. Le consensus atteint aujourd'hui marque une étape cruciale vers l'établissement de garde-fous internationaux pour le développement éthique et durable de l'IA, garantissant que cette technologie répond aux besoins de chacun. »

    La résolution, intitulée « Saisir les opportunités offertes par des systèmes d'intelligence artificielle sûrs, sécurisés et fiables pour le développement durable », est le résultat de trois mois de négociations, et les parties prenantes impliquées semblent satisfaites du niveau de coopération internationale. « Nous naviguons sur des eaux agitées avec une technologie en évolution rapide, ce qui signifie qu'il est plus important que jamais de naviguer à la lumière de nos valeurs », a déclaré un haut responsable de l'administration américaine, soulignant l'importance de cette « première document de consensus véritablement mondial sur l'IA ».

    À l'ONU, l'adoption par consensus signifie que tous les membres conviennent d'adopter la résolution sans vote. « Le consensus est atteint lorsque tous les États membres s'accordent sur un texte, mais cela ne signifie pas qu'ils sont tous d'accord sur chaque élément d'un projet de document », écrit l'ONU dans une FAQ trouvée en ligne. « Ils peuvent accepter d'adopter un projet de résolution sans vote, mais avoir néanmoins des réserves sur certaines parties du texte ».


    Plusieurs gouvernements dans le monde s'intéressent à l'impact des IA depuis le boom de l'IA générative avec ChatGPT

    L'initiative s'inscrit dans une série d'efforts déployés par les gouvernements du monde entier pour influencer la trajectoire de développement de l'IA suite au lancement de ChatGPT et de GPT-4, et à l'énorme battage médiatique suscité par certains membres de l'industrie technologique lors d'une campagne publique mondiale menée l'année dernière. Les critiques craignent que l’IA puisse saper les processus démocratiques, amplifier les activités frauduleuses ou contribuer à d’importantes suppressions d’emplois, entre autres problèmes. La résolution vise à faire face aux dangers associés à l’application irresponsable ou malveillante des systèmes d’IA, qui, selon l’ONU, pourraient mettre en danger les droits de l’homme et les libertés fondamentales.

    La résistance de pays comme la Russie et la Chine était attendue, et les responsables américains ont reconnu la présence de « beaucoup de conversations animées » au cours du processus de négociation. Cependant, ils ont également souligné un engagement réussi avec ces pays et d’autres généralement en désaccord avec les États-Unis sur diverses questions, en se mettant d’accord sur un projet de résolution qui cherchait à maintenir un équilibre délicat entre la promotion du développement et la sauvegarde des droits de l’homme.

    Les conclusions de l'ONU

    L’Assemblée générale a également reconnu le potentiel des systèmes d’IA pour accélérer et permettre les progrès vers la réalisation des 17 objectifs de développement durable. C'est la première fois que l'Assemblée adopte une résolution sur la réglementation de ce domaine émergent. Le conseiller américain à la sécurité nationale aurait déclaré plus tôt ce mois-ci que l’adoption représenterait un « pas en avant historique » pour une utilisation sûre de l’IA.

    Mêmes droits, en ligne et hors ligne

    L’Assemblée a appelé tous les États membres et parties prenantes « à s’abstenir ou à cesser d’utiliser des systèmes d’intelligence artificielle qui sont impossibles à exploiter conformément au droit international des droits de l’homme ou qui présentent des risques indus pour la jouissance des droits de l’homme ». « Les mêmes droits dont jouissent les personnes hors ligne doivent également être protégés en ligne, y compris tout au long du cycle de vie des systèmes d’intelligence artificielle », affirme-t-elle.

    L’Assemblée a également exhorté tous les États, le secteur privé, la société civile, les organismes de recherche et les médias à élaborer et à soutenir des approches et des cadres de réglementation et de gouvernance liés à une utilisation sûre, sécurisée et fiable de l’IA.

    Réduire la fracture numérique

    L'Assemblée a en outre reconnu les « niveaux variables » de développement technologique entre et au sein des pays, et que les pays en développement sont confrontés à des défis uniques pour suivre le rythme rapide de l'innovation. Elle a exhorté les États membres et les parties prenantes à coopérer avec les pays en développement et à les soutenir afin qu’ils puissent bénéficier d’un accès inclusif et équitable, réduire la fracture numérique et accroître la culture numérique.

    Espoir pour d'autres secteurs

    S'exprimant avant l'adoption, Linda Thomas-Greenfield, ambassadrice et représentante permanente des États-Unis auprès de l'ONU, a présenté le projet de résolution.

    Elle a exprimé l’espoir que « le dialogue inclusif et constructif qui a conduit à cette résolution servirait de modèle pour les conversations futures sur les défis de l’IA dans d’autres domaines, par exemple en ce qui concerne la paix et la sécurité et l’utilisation militaire responsable de l’autonomie de l’IA ».

    Mme Thomas-Greenfield a noté que la résolution visait à amplifier le travail déjà effectué par l'ONU, notamment l'Union internationale des télécommunications (UIT), l'Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO) et le Conseil des droits de l'homme.

    « Nous souhaitons que cela complète les futures initiatives de l’ONU, notamment les négociations en vue d’un pacte numérique mondial et le travail de l’organe consultatif de haut niveau du Secrétaire général sur l’intelligence artificielle », a-t-elle déclaré.

    Nom : ONU.png
Affichages : 7585
Taille : 909,9 Ko

    Ce n'est pas le premier accord international multiétatique sur l'IA

    Le nouvel accord de l’ONU est peut-être le premier accord « mondial », dans le sens où tous les pays de l’ONU y participent, mais ce n’est pas le premier accord international multiétatique sur l’IA. Cet honneur semble revenir à la Déclaration de Bletchley signée en novembre par les 28 pays participant au premier sommet sur l'IA au Royaume-Uni. La France en fait partie.

    Citation Envoyé par Déclaration de Bletchley
    Nous affirmons que, même si la sécurité doit être prise en compte tout au long du cycle de vie de l'IA, les acteurs développant des capacités d'IA de pointe, en particulier les systèmes d'IA qui sont inhabituellement puissants et potentiellement dangereux, ont une responsabilité particulièrement forte pour garantir la sécurité de ces systèmes d'IA, notamment par le biais de systèmes. pour des tests de sécurité, par le biais d'évaluations et d'autres mesures appropriées. Nous encourageons tous les acteurs concernés à assurer une transparence et une responsabilité adaptées au contexte concernant leurs plans visant à mesurer, surveiller et atténuer les capacités potentiellement nuisibles et les effets associés qui peuvent en résulter, en particulier pour prévenir les abus et les problèmes de contrôle, ainsi que l'amplification d'autres risques.

    Dans le contexte de notre coopération et pour éclairer l’action aux niveaux national et international, notre programme de lutte contre les risques liés à l’IA aux frontières se concentrera sur :
    • identifier les risques de sécurité de l’IA d’intérêt commun, construire une compréhension scientifique et factuelle commune de ces risques et maintenir cette compréhension à mesure que les capacités continuent de croître, dans le contexte d’une approche mondiale plus large pour comprendre l’impact de l’IA dans nos sociétés.
    • en élaborant des politiques respectives basées sur les risques dans nos pays pour garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela comprend, outre une transparence accrue de la part des acteurs privés développant des capacités d’IA de pointe, des mesures d’évaluation appropriées, des outils de test de sécurité et le développement de capacités pertinentes du secteur public et de la recherche scientifique.
    En novembre également, les États-Unis, la Grande-Bretagne et d’autres pays ont dévoilé un accord axé sur la création de systèmes d’IA « sécurisés dès leur conception » pour se protéger contre toute utilisation abusive par des acteurs malhonnêtes. L’Europe progresse lentement vers des accords provisoires pour réglementer l’IA et est sur le point de mettre en œuvre la première réglementation globale sur l’IA au monde. Pendant ce temps, le gouvernement américain manque toujours de consensus sur l’action législative liée à la réglementation de l’IA, l’administration Biden préconisant des mesures visant à atténuer les risques liés à l’IA tout en renforçant la sécurité nationale.

    Sources : résolution des nations unies, FAQ ONU, Bletchley Declaration

    Et vous ?

    Quels sont les principaux avantages et risques de l’intelligence artificielle pour notre société ?
    Comment pouvons-nous garantir que l’utilisation de l’IA respecte les droits de l’homme et la vie privée ?
    Quelles mesures devraient être prises pour prévenir les abus potentiels de l’IA dans des domaines sensibles comme la surveillance ou l’armement ?
    De quelle manière les pays en développement peuvent-ils être soutenus pour accéder aux bénéfices de l’IA tout en évitant d’agrandir le fossé numérique ?
    Comment la coopération internationale peut-elle être renforcée pour réguler l’IA de manière équitable et inclusive ?
    Quel rôle les citoyens ordinaires devraient-ils jouer dans la gouvernance de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #105
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 757
    Points
    5 757
    Par défaut
    Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!

  6. #106
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut Les émissions de carbone liées à l'écriture et à l'illustration sont plus faibles pour l'IA que pour l'homme
    Les émissions de carbone liées à l'écriture et à l'illustration sont plus faibles pour l'IA que pour l'homme, selon une étude sur l'empreinte environnementale relative de l'IA et de l'homme.

    Une étude a comparé l'empreinte carbone de l'IA à la quantité de carbone émise par des humains effectuant exactement les mêmes tâches. Les résultats de l'étude montrent que l'IA émet moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.

    Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.

    C'est ce qui ressort d'une étude publiée dans la revue Scientific Reports et cosignée par des professeurs de l'université de Californie-Irvine et le professeur de droit Paul E. Wilson de l'université de Kuala Lumpur, Andrew Torrance. Il convient de mentionner que cette étude a comparé l'empreinte carbone de l'IA telles que ChatGPT, Bloom AI et d'autres à la quantité de carbone émise par des humains effectuant exactement les mêmes tâches.

    Il est important de noter que l'IA émet entre 130 et 1 500 tonnes de carbone en moins pour chaque page de texte qu'elle génère par rapport à l'homme. Quant aux systèmes d'illustration, leur empreinte carbone était également inférieure de plusieurs ordres de grandeur par image, soit entre 310 et 2 900 équivalents de dioxyde de carbone en moins.

    Il sera intéressant de voir comment les choses évolueront à l'avenir, car l'IA a souvent été considérée avec méfiance en ce qui concerne son empreinte carbone globale. Cette étude semble suggérer qu'elle a beaucoup plus à offrir dans ce domaine que ce que les gens ont tendance à lui accorder à l'heure actuelle.

    Nom : 1.png
Affichages : 4160
Taille : 231,1 Ko

    Les émissions de carbone liées à l'écriture et à l'illustration sont plus faibles pour l'IA que pour l'homme

    Alors que les systèmes d'IA prolifèrent, leurs émissions de gaz à effet de serre constituent une préoccupation de plus en plus importante pour les sociétés humaines. Dans cette étude, les chercheurs présentent une analyse comparative des émissions de carbone associées aux systèmes d'IA (ChatGPT, BLOOM, DALL-E2, Midjourney) et aux individus humains effectuant des tâches d'écriture et d'illustration équivalentes.

    Les résultats démontrent que l'empreinte environnementale de l'IA dans l'accomplissement de deux tâches majeures est nettement inférieure à celle de l'homme dans l'accomplissement de ces mêmes tâches. Les résultats révèlent que les systèmes d'IA émettent entre 130 et 1500 fois moins de CO2 par page de texte générée que les rédacteurs humains, tandis que les systèmes d'illustration d'IA émettent entre 310 et 2900 fois moins de CO2 par image que leurs homologues humains. Les analyses d'émissions ne tiennent pas compte des impacts sociaux tels que le déplacement professionnel, la légalité et les effets de rebond. En outre, l'IA ne remplace pas toutes les tâches humaines. Néanmoins, à l'heure actuelle, l'utilisation de l'IA offre la possibilité d'effectuer plusieurs activités majeures à des niveaux d'émission bien inférieurs à ceux des humains.

    Avantages et inconvénients

    Si l'empreinte environnementale de l'IA peut être inférieure à celle des humains pour certaines tâches, d'autres facteurs importants peuvent influencer l'impact global de l'IA sur le monde. L'étude aborde quelques points particulièrement pertinents pour l'IA dans le domaine de l'écriture et de l'illustration.

    Dans les domaines de l'écriture et illustration, il est probable que l'IA remplacera les travailleurs humains dans les secteurs concernés à mesure que la technologie de l'IA se perfectionnera. Et, si l'on se fie au passé, le déplacement professionnel peut entraîner des pertes d'emploi et une réduction des revenus. Le déplacement d'emplois par la technologie a été amplement étudié, par exemple, de même que le déplacement par l'IA en particulier. Le déplacement d'emplois est profondément problématique non seulement pour les personnes déplacées, mais aussi pour la société dans son ensemble, car il peut perturber la stabilité économique et sociale de régions géographiques entières.

    D'un autre côté, le développement de l'IA peut également créer des emplois. Ces emplois peuvent être des remplacements utiles et bien rémunérés pour les personnes que l'IA déplace, ou ils peuvent être dévalorisants et/ou mal rémunérés. Par exemple, OpenAI, les créateurs de ChatGPT, ont sous-traité des travaux à une entreprise kenyane qui employait des travailleurs pour étiqueter des cas spécifiques de contenu en ligne toxique, y compris des contenus que beaucoup trouveraient probablement dérangeants ou de mauvais goût, décrits comme "des textes [qui] semblaient avoir été tirés des recoins les plus sombres de l'internet ". Des déplacements analogues de travailleurs ont eu lieu pendant la révolution industrielle et avec les diverses révolutions technologiques accompagnant l'essor des technologies numériques. Si ces déplacements entraînent nécessairement des changements dans le secteur de l'emploi, historiquement, ces changements technologiques ont donné naissance à de nouvelles formes d'emploi pour remplacer les emplois perdus.

    L'utilisation de textes, d'images ou de sons préexistants comme ensembles d'entraînement pour l'IA soulève également des questions juridiques. La légalité de l'utilisation de matériel préexistant est particulièrement importante lorsque les jeux d'entraînement comprennent du matériel protégé par des droits d'auteur, car l'utilisation de ce matériel peut constituer une contrefaçon, ce qui peut entraîner un risque juridique pour les personnes qui travaillent avec ces systèmes d'IA. Peut-être que le "fair learning" sera un jour reconnu comme un type d'utilisation équitable impliquant la transformation de matériel protégé par le droit d'auteur à des fins éducatives. Toutefois, à l'heure actuelle, il est impossible de prévoir comment les tribunaux trancheront un tel litige.

    Un recours collectif contre la société d'IA Midjourney est actuellement en cours sur ce sujet et pourrait constituer un précédent dans ce domaine juridique. Si Midjourney devait être tenue pour responsable de l'utilisation inappropriée d'œuvres protégées par le droit d'auteur appartenant à d'autres personnes, le généreux système de dommages-intérêts prévu pour les plaignants pourrait être ruineux pour cette entreprise, tout en freinant ou en inhibant plus généralement l'innovation dans le domaine de l'IA. D'un autre côté, si l'utilisation par l'IA d'œuvres protégées par le droit d'auteur comme ensembles d'entraînement est jugée admissible, cela aura probablement pour effet, dans le cadre du système actuel des brevets, de stimuler les progrès de l'IA. Une autre conséquence pourrait être l'augmentation du nombre d'entreprises qui acquièrent de vastes ensembles de données d'entraînement. Si ces questions juridiques ne sont pas nécessairement insolubles, elles représentent néanmoins un point de désaccord important sur l'avenir de ces systèmes d'IA.

    En outre, à mesure que la technologie de l'IA devient plus efficace, il est possible que cette efficacité entraîne une augmentation de la demande de biens et de services produits par l'IA, ce qui pourrait entraîner de nouvelles augmentations de l'utilisation des ressources et de la pollution par effet de rebond. L'élargissement des cas d'utilisation de l'IA et la prolifération des façons dont l'IA pourrait influer sur chaque cas d'utilisation (par exemple, la personnalisation omniprésente du contenu) pourraient entraîner une demande d'énergie bien plus importante qu'à l'heure actuelle.

    Ainsi, bien que l'impact de l'IA soit actuellement bien moindre que celui de l'homme dans les tâches décrites ci-dessus, il est important de rester vigilant dans ce domaine afin d'éviter une utilisation excessive des ressources. Dans le même temps, il est possible que les progrès de l'efficacité et de la spécificité de l'IA réduisent encore son impact sur l'environnement par rapport à l'impact de l'homme dans des activités équivalentes. Un tel avantage environnemental croissant pourrait plaider en faveur d'une accélération des applications de l'IA. Dans un cas comme dans l'autre, la vigilance et l'adaptation sont essentielles. Et, que l'empreinte de l'IA augmente ou diminue, l'étude soutient l'appel à la divulgation de la consommation d'énergie dans la mesure du possible dans les cas d'utilisation de l'IA.

    Malgré ces formes actuelles et potentielles de transformation et de préjudice sociétal, l'utilisation de l'IA pourrait apporter de profonds avantages à la société. Ces systèmes pourraient permettre de développer de nouvelles approches pour un avenir durable ; ils pourraient apporter des avantages à la médecine37 ; et ils pourraient améliorer les systèmes éducatifs humains38. Nous soutenons que ces avantages et d'autres de l'IA compensent les inconvénients potentiels que ces systèmes peuvent entraîner. Et, ce qui est le plus important pour les conclusions du présent document, l'IA peut potentiellement le faire en réduisant considérablement les émissions de carbone.


    Collaboration entre l'homme et l'IA

    L'étude soutient également que l'utilisation la plus bénéfique et la plus efficace de l'IA et du travail humain passe par la collaboration entre les deux types d'entités, en tirant parti de leurs forces respectives. Par exemple, dans l'étude, les chercheurs ont commencé par un projet rédigé par une IA pour amorcer l'effort, mais les auteurs l'ont édité si minutieusement que le texte de l'IA est méconnaissable.

    Note des chercheurs : Nous reconnaissons cette utilisation de l'IA pour deux raisons : premièrement, elle est requise par les directives de soumission et deuxièmement, ce qui est peut-être plus important, le fait de commencer par l'IA était un moyen plus efficace sur le plan énergétique d'obtenir un produit final de haute qualité.

    De même, un illustrateur humain peut choisir de travailler avec une IA dans les premières phases d'une interaction avec un client, pour lui donner une idée du large éventail de possibilités qui s'offrent à lui, et ne réaliser une illustration créée par un humain pour le client qu'à la dernière étape. Cette approche hybride pourrait permettre une convergence plus rapide et plus efficace de la compréhension entre le client et l'illustrateur humain, tout en produisant un produit final ayant l'excellence et le raffinement d'un travail produit par un humain. (Par exemple, contrairement à de nombreuses images produites par l'IA, les mains humaines ne seront pas étrangement déformées). Il est à espérer que de tels processus de collaboration pourront répondre à toute une série de préoccupations concernant les contenus générés par l'IA.

    En résumé, en raison de son impact nettement inférieur à celui des humains pour au moins deux tâches importantes, l'IA peut jouer un rôle important dans divers secteurs de la société sans, pour l'instant, s'exposer à des émissions de carbone problématiques. Si l'empreinte carbone de l'IA n'est pas négligeable, celle des humains effectuant le même travail est bien plus importante et ne doit pas être négligée dans l'évaluation de l'IA.

    Conclusion

    L'IA est sur le point d'assumer des rôles que l'on croyait autrefois réservés aux humains, c'est-à-dire des rôles qui requièrent de la créativité et la capacité d'intégrer plusieurs domaines intellectuels afin de synthétiser les concepts de chacun d'entre eux. Dans cette étude, les chercheurs ont comparé l'impact de l'IA à l'impact de la réalisation de deux tâches par des humains - l'écriture et l'illustration - afin de mettre en évidence le rôle que l'IA est en passe de jouer dans la société, à mesure que l'IA passe d'outils numériques d'une utilité limitée à des instruments plus complexes dotés d'une grande capacité de génération. Ils ont constaté que, pour ces deux activités au moins, l'empreinte carbone de l'IA est nettement inférieure à celle des humains effectuant la même tâche. Cette étude apporte un éclairage nouveau sur l'empreinte environnementale relative de l'IA et de l'homme, et souligne l'importance de prendre en compte l'impact de l'IA par rapport à l'homme lors de l'évaluation de son impact global sur l'environnement.

    Source : "The carbon emissions of writing and illustrating are lower for AI than for humans"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'IA sera-t-elle une catastrophe pour le climat ? Examens de ses répercussions environnementales. Les outils d'IA, comme ChatGPT, sont reconnue comme énergivore

    Une étude suggère que les outils d'IA de génération de texte et d'image émettent moins de CO2 que les humains pour les mêmes tâches, mais elle est controversée et divise les experts en IA

    Une étude affirme que les humains restent moins chers que l'IA dans la grande majorité des emplois. L'IA ne peut automatiser qu'une partie de certaines tâches et le kit nécessaire est trop coûteux
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #107
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 458
    Points
    3 458
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
    C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
    Non, pour une raison simple:
    Quand la personne travaille et pas l'IA, l'IA n'émet rien
    Quand l'IA travaille et pas la personne, la personne émet toujours.
    Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
    Les autres facteurs sont nombreux :
    L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
    L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
    Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
    Et je n'ai pas encore parlé de l'apport social d'une personne...

    Pensez-vous que cette étude est crédible ou pertinente ?
    L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
    Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
    Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
    On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
    Quel est votre avis sur le sujet ?
    L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
    Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

    Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
    La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
    Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.

  8. #108
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 384
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 384
    Points : 9 751
    Points
    9 751
    Par défaut
    Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

    Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  9. #109
    Nouveau membre du Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2020
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 6
    Points : 26
    Points
    26
    Par défaut étude bidon financé pour du lobbying
    > Pensez-vous que cette étude est crédible ou pertinente ?
    > Quel est votre avis sur le sujet ?

    Que dire que dire, un petit essai improvisé.
    Pour commencer cette étude à un objectif assez clair et malsain, contrer le bashing de l'IA qui pollue à cause de sa consommation excessive en ressource en ce qui concerne sa création / entraînement / formation.
    Je dirais que l'étude est remplie de biais, mais aussi qu'elle souligne un sujet mortifère et dont les philosophes devraient se saisir.

    Pour commencer en ce qui concerne les biais, les graphiques sont ultras simpliste et ne prenne pas en compte les ressources nécessaires pour l'entraînement des AI ni même les ressources consommées pour concevoir le hardware.
    De la production de silicium au GPU en passant par l'humain qui a conçu le GPU à la chaîne d'assemblage jusqu'au data center où elle est en fonction à déjà consommé plusieurs années CO2 d'une ville humaine.

    La conclusion stéréotypée que l'on peut faire de ce genre d'étude. Au mon dieu, un humain, ça respire ça émet du CO2, un caillou alimenté avec de l'Énergie pure sa ""n'émet pas"" de CO2. Il faut donc remplacer toute la population humaine par des cailloux qui imite les humains.
    Je tire volontairement le trait, mais c'est une pente glissante vers lequel les bobo extrêmes écolos ont tendance à prendre de vouloir éliminer le vivant sous prétexte qu'il émet du CO2. Si on suit leur logique uniquement les plantes auraient le droit de vivre puisqu’elles n'émettent pas de CO2 (dans leurs schémas de pensée) ce qui est faux et sans CO2 elles ne peuvent se développer autant... Alors si on en fait la seule source de nourriture...

    Concernant les schémas on nous montre une quantité d'Énergie consommée en instantané lorsque le réseau (de neurones en cailloux) fait une génération unique, versus le pc d'un auteur allumé.
    Déjà pour commencer le biais, un serveur qui fait tourner de l'IA est allumé H24, consomme rien que pour être allumé 100W et peut monter à 3000W voir plus. Le pc d'un auteur est allumé disons 6-8h et un pc portable sobre peut, disons consommer au max 25w dans un standard sobre écoresponsable. De plus un auteur peut ne pas passer toute une session d'écriture sur un pc, on peut aussi avoir des machines tablette dans le futur à base d'epaper comme écran, utiliser le stylo et la feuille.... Donc déjà la méthode de travail est un biais choisi non représentatif des "travailleurs" du secteur. Doit-on compter les repas, et la tasse de café en terrasse ?

    Idem dans la création d'images, un peintre ne va pas utiliser un ordinateur de la même manière voir pas du tout, un photographe non plus et un graphiste peut faire des recherches de diverses manières. Leur activité n'est pas 100% numérique.

    Coté IA, ouaaa une génération consomme peux. Sauf que qui aujourd'hui ne demande pas à l'IA plusieurs générations pour avoir un résultat un peut exploitable et qui ne passe pas un peu de temps pour intégrer la réponse...
    10 générations consommeraient déjà le CO2 pour une journée de travail humain. Or il est si facile de cliquer sur généré que l'étude ne prend pas en compte le fait que cette facilité va augmenter le nombre de générations demandé et donc pour une même tache incitée à consommer plus.
    Plutôt qu'un travail réfléchis, fait et plutôt droit au but, on va frénétiquement cliqué sur générer, une, deux, 10, 20, 50 fois dans la journée jusqu'à avoir un travail prémâché qu'il faudra de toute façon relire puis intégrer.

    Au final une IA, est un outil qui consomme, et sa facilité d'usage poussera a consommer par ce que dans un même espace de temps on le peut.
    Et si on pense éliminer complètement les humains, alors nous allons créer une société de machine qui travaillera pour des machines.
    Le summum du capitalisme, nous créons du travail/ de la valeur à l'aide de machine pour qu'elle soit consommée par d'autres machines et faire tourner le capitalisme.

    Nous avons des Shadock qui pompe, que nous remplaçons par des machines qui pompes pour se maintenir entre elles en vie et soutenir artificiellement le capitalisme et "sa croissance infinie" artificielle.
    On va basculer d'une économie pétrodollar en data dollar.
    (et il faudra mettre des humains sur des vélos pour combler le manque de pétrole pour alimenter en Énergie les machines)

    Tout ceci est absurde tout comme confondre un outil et une volonté créatrice vivante.
    Le côté mortifère, c'est de vouloir a tout pris évincer l'humain de la composante économique pour des raisons de coûts. De l'autre côté, ce que l'on aura sacrifié... nous fera plonger vers une économie dystopique, avec une économie parallèle qui ne sert qu'aux machines et de l'autre, des humains tout tombés dans la précarité.
    Et le risque, c'est un arrêt de la créativité, un grippage de l'inventivité et d'évolution.
    Où à côté d'usines fumantes, nous aurions une population qui n'a plus les moyens de consommer.
    Sauf, si la réalité réajuste la situation, car non viable et qu'un mixte des deux finissent par co exister.

    Ce que je dirais, c'est que ce genre d'étude envoie un signal malsain coté sociétal, poussant des résonnements inachevés polarisant des questions légitimes en réponse absurde. Plantant les graines d'idéologie néfaste pour une société.

    Nous sommes nés trop tard pour explorer les continents, trop tôt pour explorer Mars, mais dans l'époque de l'avènement de l'IA et d'un grand bouleversement économique et sociétal mondiaux en perspective que l'on veuille ou non.
    L'avenir dépend de ce qui est en train de s'écrire, des luttes et intérêts de certains. De l'éducation ou du manque des masses en vers ce type d'enjeux, et si nous finissons tout droits vers un avenir dystopique d'une dictature mondiale et d'une misère qui fera régresser l'humanité ou si nous deviendrons tous lucide sur le sujet. comme le plat réchauffé que les mails allaient tuer le métier de postier. Que les livres numériques allaient faire disparaître les imprimeurs ect, ect.

    Tous sa pour dire (sans se méprendre, ça reste intéressant que le site nous permette de faire une veille techno) y en a marre de ce genre d'étude de lobbying pondu par des cabinets com , la seule chose que ça génère c'est de la méfiance en vers les études et une perte de crédibilité du peuple en vers toutes analyses et réflexion.
    Remplaçons les cabinets de com par de l'IA, peut être que l'on aura moins de mensonge comme ça.

  10. #110
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Un projet de loi obligerait les entreprises d'IA à divulguer toutes les œuvres protégées par le droit d'auteur
    Un nouveau projet de loi veut obliger les entreprises d'IA à divulguer toutes les œuvres protégées par le droit d'auteur utilisées dans la formation des modèles
    sous peine d'amendes

    Un membre du Congrès américain a présenté mercredi un nouveau projet de loi qui vise à obliger les entreprises d'IA à divulguer toutes les œuvres protégées par le droit d'auteur utilisées dans la formation de leurs modèles. Si ce projet de loi est voté, les entreprises d'IA devront soumettre au moins 30 jours avant la publication de leurs modèles "un résumé suffisamment détaillé" des œuvres protégées par le droit d'auteur utilisées, y compris les adresses URL de tout ensemble de données de formation accessible au public. Ce projet de loi est la dernière initiative en date du Congrès visant à réglementer cette technologie et à protéger les créateurs de contenu humains.

    Le député américain Adam Schiff a dévoilé mercredi un projet de loi intitulé : Generative AI Copyright Disclosure Act (loi sur la divulgation des droits d'auteur en matière d'IA générative). Ce projet de loi vise à contraindre les entreprises d'IA comme OpenAI et Google à dresser la liste complète des œuvres protégées par le droit d'auteur qu'elles utilisent pour créer des systèmes d'IA générative. La proposition de loi de Schiff intervient alors que les créateurs de contenu humains - les artistes, les scénaristes, les écrivains, les organes de presse - dénoncent les multiples violations de leurs droits d'auteur par les entreprises d'IA.

    Dans un communiqué, Schiff explique : « l'IA a le potentiel de bouleverser notre économie, notre système politique et notre vie quotidienne. L'IA a le potentiel de bouleverser notre économie, notre système politique et notre vie quotidienne. Nous devons trouver un équilibre entre l'immense potentiel de l'IA et le besoin crucial de lignes directrices et de protections éthiques. Il s'agit de respecter la créativité à l'ère de l'IA et de marier le progrès technologique à l'équité ». Mais cette proposition risque de faire face à une opposition farouche au Congrès, car les précédentes tentatives ont déjà fait l'objet de nombreux blocages.


    Certains opposants craignent en effet qu'une réglementation trop stricte ralentisse le rythme d'expansion de la technologie, ce qui pourrait donner un avantage à des pays comme la Russie et la Chine. La proposition de loi de Schiff vient s'ajouter à un nombre croissant de tentatives de la part de législateurs, de médias et d'artistes pour déterminer comment les entreprises d'IA utilisent des œuvres créatives (chansons, œuvres d'art visuel, livres, films, etc.) pour former leurs logiciels. Ils cherchent en outre à déterminer si ces entreprises construisent illégalement leurs outils à partir de matériels protégés par des droits d'auteurs.

    S'il est adopté, le projet de loi de Schiff changera radicalement la donne pour l'industrie. Chaque entreprise d'IA sera tenue de soumettre à l'autorité compétente un document qui recense toutes les œuvres protégées par le droit d'auteur utilisées dans le processus de formation de son modèle. L'entreprise doit faire cette divulgation au moins 30 jours avant le lancer publiquement de son outil d'IA, sous peine de se voir infliger une sanction financière. La proposition de Schiff a déjà obtenu le soutien de groupe et de syndicats du secteur des médias, tels que la Recording Industry Association of America et la Writers Guild of America.

    « Tout ce qui est généré par l'IA provient en fin de compte d'une source créative humaine. C'est la raison pour laquelle le contenu créatif humain - la propriété intellectuelle - doit être protégé. SAG-AFTRA soutient pleinement la loi sur la divulgation des droits d'auteur en matière d'IA générative, car cette législation constitue une étape importante pour garantir que la technologie soit au service des personnes et non l'inverse », a déclaré Duncan Crabtree-Ireland, directeur exécutif national et négociateur en chef de la SAG-AFTRA, un syndicat américain représentant plus de 160 000 professionnels des médias du monde entier.

    Il convient de souligner que la proposition de Schiff n'interdirait pas à l'entraînement des modèles sur des œuvres protégées par le droit d'auteur, mais elle imposerait aux entreprises de dresser la liste des œuvres qu'elles utilisent pour créer des outils comme ChatGPT et Gemini. Ces données qui sont généralement tenues secrètes. Selon les critiques, cette culture du secret autour de la nature des données d'entraînement signifie que les entreprises d'IA reconnaissent indirectement qu'elles utilisent les matériels protégés par des droits d'auteur pour entraîner leurs outils, sans avoir obtenu l'autorisation des créateurs.

    À ce propos, la proposition de Schiff ne vise pas uniquement les nouveaux systèmes d'IA. Les règles du projet de loi seraient rétroactives et obligeraient les systèmes d'IA générative déjà sur le marché à révéler où ils ont obtenu les informations utilisées pour entraîner leurs modèles. Mira Murati, directrice technique d'OpenAI, a récemment déclaré qu'elle ne savait pas si l'outil Sora de l'entreprise utilisait des données provenant de YouTube, de Facebook ou d'Instagram. Mais un récent rapport du New York Times allègue que l'entreprise a transcrit illégalement plus d'un million de vidéos YouTube pour entraîner ses modèles d'IA.

    OpenAI, Anthropic, Stability AI, Microsoft, Google, etc. font l'objet de nombreuses actions en justice pour avoir prétendument utilisé des œuvres protégées par le droit d'auteur pour créer leurs modèles. Par exemple, l'actrice Sarah Silverman et le New York Times ont déposé des plaintes pour violation des droits d'auteur contre OpenAI. Selon le Washington Post, OpenAI a engagé une série d'avocats de haut niveau au cours de l'année écoulée, alors qu'il s'apprête à faire face à plus d'une douzaine d'actions en justice importantes. En outre, de nombreux artistes poursuivent également la startup pour violation de droit d'auteur.

    Les sanctions prévues par le projet de loi ne sont pas claires, le Bureau américain du droit d'auteur déterminera le montant de l'amende infligée aux entreprises. Elle dépendra de la taille de l'entreprise et de ses antécédents en matière de non-respect de la loi. Les amendes commenceraient à 5 000 $ et augmenteraient ensuite. La proposition du député américain ne fixe pas de plafond à l'amende maximale qui peut être imposée. Selon certains analystes, le projet de loi de Schiff pourrait amener à une certaine responsabilisation des entreprises d'IA et les contraindre à rémunérer les propriétaires des contenus protégés.

    En dressant la liste des œuvres protégées utilisées pour la formation, les détenteurs de droits d'auteur pourraient s'assurer qu'ils ont donné leur autorisation pour l'utilisation de leur contenu et qu'ils ont été indemnisés pour cette utilisation. Les entreprises d'IA nient toute faute et affirment que leur utilisation du matériel protégé par le droit d'auteur relevait de l'usage loyal. Cette stratégie juridique constitue un test majeur pour la loi sur le droit d'auteur, et le résultat pourrait mettre à mal les moyens de subsistance des artistes ou les résultats financiers d'OpenAI.

    Dans un mémoire présenté à une commission gouvernementale britannique au début de l'année, les avocats d'OpenAI ont affirmé que légalement, la loi sur le droit d'auteur n'interdit pas la formation. Le document indique que, sans accès aux œuvres protégées par le droit d'auteur, ses outils cesseraient de fonctionner.

    Sources : communiqué de presse, Generative AI Copyright Disclosure Act (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du projet de loi Generative AI Copyright Disclosure Act ?
    Les dispositions de cette proposition de loi protègent-elles les détenteurs de droit d'auteur ?
    Quels impacts la divulgation du matériel protégé par le droit d'auteur pourrait-elle avoir sur les entreprises d'IA ?
    Ce projet de loi a-t-il des chances d'être voté après l'échec des précédentes tentatives du Congrès américain visant à réglementer l'IA ?

    Voir aussi

    Les législateurs européens adoptent la première loi importante pour réglementer l'IA dans le monde, mais elle pourrait potentiellement rendre le marché européen peu attrayant pour l'IA

    Des milliers d'artistes accusent Midjourney d'avoir utilisé leurs œuvres pour former un modèle d'IA, l'industrie de l'IA exploite sans vergogne le travail créatif des individus pour ses propres gains

    ChatGPT : un projet de loi de l'UE pourrait obliger les outils d'IA à révéler le matériel protégé par le droit d'auteur, utilisé dans la construction de leurs systèmes

  11. #111
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut Un ancien membre du conseil d'administration d'OpenAI demande l'audit des grandes entreprises d'IA
    Un ancien membre du conseil d'administration d'OpenAI demande l'audit des grandes entreprises d'IA, elles devraient être tenues de partager des informations avec le public sur les capacités et les risques.

    Selon un ancien membre du conseil d'administration d'OpenAI, l'IA a besoin d'un mécanisme d'information et d'auditeurs.

    Un mécanisme de signalement devrait être mis en place pour les incidents lorsque l'intelligence artificielle (IA) tourne mal, comme c'est le cas pour les accidents d'avion, a déclaré un ancien membre du conseil d'administration d'OpenAI. Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de l'université de Georgetown, a tenu ces propos lors d'une conférence TED.

    Mme Toner a démissionné d'OpenAI l'année dernière après avoir soutenu l'éviction du PDG de la société, Sam Altman, qui a été annulée par la suite. Avant cela, M. Altman avait tenté de la faire exclure du conseil d'administration après qu'elle eut cosigné un article critiquant les pratiques d'OpenAI en matière de sécurité.

    Lors de sa conférence TED, Mme Toner a déclaré que les entreprises d'IA devraient être tenues de "partager des informations sur ce qu'elles construisent, sur ce que leurs systèmes peuvent faire et sur la manière dont elles gèrent les risques". M. Toner a également déclaré que ces informations à partager avec le public devraient faire l'objet d'un audit, de sorte que les entreprises d'IA ne soient pas les seules à vérifier les informations qu'elles fournissent.

    Un exemple de cas où la technologie pourrait mal tourner serait son utilisation dans une cyber-attaque basée sur l'IA. Mme Toner a déclaré qu'elle travaillait depuis huit ans sur les questions de politique et de gouvernance liées à l'IA et qu'elle avait pu observer de l'intérieur la manière dont le gouvernement et l'industrie s'efforçaient de gérer la technologie, ajoutant : "J'ai aussi vu une ou deux choses".


    Dans une interview en juin 2023, Mme. Toner a déclaré que les acteurs du secteur se demandaient s'il fallait créer une nouvelle agence de régulation axée spécifiquement sur l'IA. "Les autorités de régulation existantes qui travaillent dans des secteurs spécifiques devraient-elles s'en charger, ou faudrait-il quelque chose de centralisé pour tous les types d'IA ?" a déclaré Mme. Toner.

    Autre évolution récente dans ce domaine, les États-Unis et le Royaume-Uni ont uni leurs forces au début du mois d'avril pour mettre au point des tests de sécurité pour l'IA avancée. L'accord vise à aligner les approches scientifiques des deux pays et à accélérer le développement de méthodes d'évaluation robustes pour les modèles, les systèmes et les agents d'IA.

    Source : Helen Toner, ancien membre du conseil d'administration d'OpenAI, lors d'une intervention à la conférence TED de Vancouver

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis. Il prévoit la création d'un organisme international de l'IA

    IA générative : la CNIL recommandée pour la réguler par une commission de l'Assemblée nationale. « Seule la CNIL dispose de l'expérience et de l'expertise pour évaluer le respect du RGPD sur l'IAG »

    La Grande-Bretagne opte pour la répartition la responsabilité de la gestion de l'IA entre ses différents organismes de réglementation, plutôt que de créer un nouvel organisme dédié à cette technologie
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 281
    Dernier message: 21/04/2024, 23h26
  2. Réponses: 2
    Dernier message: 20/10/2020, 16h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 11h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 22h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo