IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #61
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut Les contenus générés par l'IA devraient être étiquetés, selon la commissaire européenne Jourova
    Les contenus générés par l'IA générative devraient être étiquetés, afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova

    Les entreprises qui déploient des outils d'IA générative tels que ChatGPT et Bard, susceptibles de générer de la désinformation, devraient étiqueter ces contenus dans le cadre de leurs efforts de lutte contre les "fake news", a déclaré lundi Vera Jourova, vice-présidente de la Commission européenne.

    Dévoilé à la fin de l'année dernière, l'outil ChatGPT d'OpenAI, soutenu par Microsoft, est devenu l'application grand public à la croissance la plus rapide de l'histoire et a déclenché une course entre les entreprises technologiques pour mettre sur le marché des produits d'IA générative.


    Toutefois, les inquiétudes se multiplient quant aux abus potentiels de cette technologie et à la possibilité que des acteurs malveillants, voire des gouvernements, l'utilisent pour produire beaucoup plus de désinformation qu'auparavant.

    "Les signataires qui intègrent l'IA générative dans leurs services, tels que Bingchat pour Microsoft ou Bard pour Google, doivent mettre en place les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour produire de la désinformation", a déclaré Mme Jourova lors d'une conférence de presse.

    "Les signataires dont les services sont susceptibles de diffuser de la désinformation générée par l'IA devraient à leur tour mettre en place une technologie permettant de reconnaître ce type de contenu et de l'indiquer clairement aux utilisateurs", a-t-elle ajouté.

    Nom : generative ai fake news.png
Affichages : 1928
Taille : 281,8 Ko

    Les entreprises telles que Google, Microsoft et Meta Platforms qui ont signé le code de bonne pratique de l'UE pour lutter contre la désinformation devraient rendre compte des garanties mises en place pour lutter contre ce phénomène en juillet, a déclaré Mme Jourova.

    Elle a averti Twitter, qui a quitté le Code la dernière semaine de mai, qu'il devait s'attendre à un examen plus approfondi de la part des autorités réglementaires.

    "En quittant le Code, Twitter a attiré beaucoup d'attention et ses actions ainsi que sa conformité avec la législation européenne seront examinées de manière vigoureuse et urgente", a déclaré Mme Jourova.

    Source : Vera Jourova, vice-présidente de la Commission européenne (https://youtu.be/RZg3ZJUzQ7U)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de la mesure proposée par Mme Jourova ? Trouvez-vous qu'elle sera efficace dans la lutte contre les fake news ?

    Voir aussi

    Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA, les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright

    Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables, et plus difficiles à repérer, selon certains chercheurs

    Comment l'IA est utilisée pour diffuser la désinformation en ligne, d'après un nouveau document de recherche de ShadowDragon

    La Chine procède à une première arrestation concernant des fake news générées par ChatGPT, la fausse information publiée sur les médias sociaux aurait obtenu plus de 15 000 clics
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #62
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 458
    Points
    3 458
    Par défaut
    Je trouve qu'elle annonce une solution incomplète au problème.
    Doit on reprocher à l'outil ou à l'utilisateur le résultat qui en ressort?
    Faire un choix c'est déresponsabiliser l'autre donc j'ai tendance à dire que restreindre les sociétés qui produisent l'IA est très largement insuffisant.
    Demain le moindre torchon diffusera de la merde et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre politicien sortira des inepcies et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre pseudo-scientifique sortira une étude moisie et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    ...
    La vérification fait partie de leur travail normalement.

  3. #63
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 969
    Points
    197 969
    Par défaut L'Europe se prépare à voter une législation sur l'IA avec des amendes potentielles de 7% sur les revenus
    L'Europe se prépare à voter une législation sur l'IA avec des amendes potentielles de 7% sur les revenus,
    cette législation pourrait créer des divergences avec les approches américaine et britannique

    L’Europe se prépare à voter une législation sur l’intelligence artificielle qui pourrait créer une divergence entre les approches réglementaires des États-Unis, du Royaume-Uni et de l’UE. Les propositions, qui seront soumises au Parlement européen cette semaine, comprennent une interdiction des systèmes d’identification biométrique à distance en temps réel dans les espaces publics, et des systèmes de catégorisation biométrique qui placent les personnes dans des groupes selon le genre, la race et l’ethnicité, par exemple, les systèmes de police prédictive et de reconnaissance émotionnelle.

    L’AI Act est un projet de règlement proposé par la Commission européenne le 21 avril 2021, qui vise à introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.

    Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.

    La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.

    L’accent sur l’IA générative, comme le ChatGPT d’OpenAI, a grimpé à l’ordre du jour depuis que les lois ont été proposées pour la première fois. Une fois entré en vigueur, le texte pourrait infliger des amendes de 40 millions d’euros ou 7 % du chiffre d’affaires mondial total aux organisations qui ne respectent pas les règles.

    Le Parlement européen doit débattre de sa législation mardi et la voter mercredi.

    Nom : IA.png
Affichages : 1567
Taille : 59,8 Ko

    Une approche européenne différente de l'approche britannique...

    Mais outre les applications interdites, la législation vise à mettre à la charge des développeurs et des utilisateurs d’IA de veiller à ce qu’ils respectent les exigences d’une approche fondée sur les risques, nettement différente de l’approche fondée sur les résultats proposée par le Royaume-Uni. Ce dernier a publié le 29 mars un livre blanc intitulé « une approche pro-innovation de la réglementation de l'IA », qui explique la position du gouvernement selon laquelle les régulateurs existants intégreront les principes dans l'application de leurs pouvoirs existants et fourniront les détails.

    Le cabinet d'avocats Osborne Clarke l'a commenté en ces termes :

    Le livre blanc propose une approche basée sur les résultats complètement différente de la loi sur l'IA de l'UE (un règlement complexe « descendant », toujours dans le processus législatif après près de deux ans). Il n'y a pas d'interdiction pure et simple proposée pour le Royaume-Uni, pas d'exigences de conformité détaillées sur les données, la documentation, les tests et la certification, pas de nouveau régulateur et pas de nouveaux pouvoirs pour imposer des amendes ou prendre des mesures. Au lieu de cela, le Royaume-Uni envisage une approche «ascendante», dévolue aux régulateurs.

    Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
    La consultation du Royaume-Uni sur sa proposition de législation s'achève le 21 juin.

    La Grande-Bretagne est optimiste quant à la promotion d'une « approche proportionnée qui favorise la croissance et l'innovation ». Michelle Donelan, secrétaire d'État aux sciences, à l'innovation et à la technologie, a déclaré :

    Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc énonce notre engagement à nous engager à l'échelle internationale pour soutenir l'interopérabilité entre différents régimes réglementaires. Non seulement cela allégera le fardeau des entreprises, mais cela nous permettra également d'intégrer nos valeurs à mesure que les approches mondiales de gouvernance de l'IA se développent.

    Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
    À la suite de sa rencontre avec le président américain Joe Biden, le Premier ministre britannique Rishi Sunak a annoncé son intention d'accueillir le premier sommet mondial sur la réglementation de l'IA cet automne. L'idée est que « des alliés et des entreprises partageant les mêmes idées » travailleraient à développer un cadre international pour assurer le développement et l'utilisation sûrs et fiables de l'IA.

    ... et de l'approche américaine

    Jusqu'à présent, les États-Unis n'ont pas réussi à faire des propositions législatives fédérales spécifiques à l'IA, bien que la Maison-Blanche ait publié un projet de déclaration des droits de l'IA destiné à « guider une société ».

    En octobre, a Maison-Blanche a proposé un "Blueprint for an AI Bill of Rights", un ensemble de principes et de pratiques visant à guider « la conception, l'utilisation et le déploiement de systèmes automatisés, dans le but de protéger les droits des Américains à l'ère de l'intelligence artificielle », selon la Maison-Blanche. Le plan directeur est un ensemble de lignes directrices non contraignantes ou de suggestions fournissant une "déclaration de valeurs nationales" et une boîte à outils pour aider les législateurs et les entreprises à intégrer les protections proposées dans les politiques et les produits. La Maison-Blanche a élaboré ce projet après un processus d'un an qui a permis de recueillir les avis et observations de personnes de tout le pays « sur la question des préjudices causés par les algorithmes et les données et sur les solutions possibles ». Toutefois, les critiques affirment que ce plan manque de mordant et que les États-Unis ont besoin d'une réglementation encore plus stricte en matière d'IA.

    Le document aborde les préoccupations concernant les préjugés dans les systèmes d'IA, la surveillance basée sur l'IA, les décisions injustes en matière de soins de santé ou d'assurance, la sécurité des données et bien plus encore dans le contexte des libertés civiles américaines, de la justice pénale, de l'éducation et du secteur privé. « Parmi les grands défis posés à la démocratie aujourd'hui figure l'utilisation de la technologie, des données et des systèmes automatisés d'une manière qui menace les droits du public américain. Trop souvent, ces outils sont utilisés pour limiter nos possibilités et empêcher notre accès à des ressources ou des services essentiels, peut-on lire dans l'avant-propos du plan directeur.

    Un ensemble de cinq principes élaborés par le Bureau de la politique scientifique et technologique de la Maison-Blanche incarne le cœur du plan directeur de l'IA :
    • "des systèmes sûrs et efficaces", qui mettent l'accent sur le retour d'information de la communauté dans le développement des systèmes d'IA et sur les protections contre l'IA "non sûre" ;
    • "des protections contre la discrimination algorithmique", qui propose que l'IA soit déployée de manière équitable sans discrimination ;
    • "la confidentialité des données", qui recommande que les gens aient un droit de regard sur la manière dont les données les concernant sont utilisées ;
    • "la notification et l'explication, qui signifie que les gens devraient savoir comment et pourquoi un système basé sur l'IA a pris une décision ;
    • "les alternatives humaines, la considération et le retour en arrière", qui recommande que les gens doivent être en mesure de refuser les décisions basées sur l'IA et d'avoir accès au jugement d'un humain dans le cas d'erreurs de l'IA.

    L'administration Biden explique par exemple que les individus doivent être protégés de la discrimination par des algorithmes :

    Vous ne devez pas être victime de discrimination par des algorithmes et les systèmes doivent être utilisés et conçus de manière équitable. La discrimination algorithmique se produit lorsque les systèmes automatisés contribuent à un traitement différent injustifié ou ont un impact défavorable sur les personnes en raison de leur race, couleur, origine ethnique, sexe (y compris grossesse, accouchement et conditions médicales connexes, identité de genre, statut intersexué et orientation sexuelle), religion, âge , origine nationale, handicap, statut d'ancien combattant, informations génétiques ou toute autre classification protégée par la loi.

    Selon les circonstances spécifiques, une telle discrimination algorithmique peut violer les protections légales. Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent prendre des mesures proactives et continues pour protéger les individus et les communautés contre la discrimination algorithmique et pour utiliser et concevoir des systèmes de manière équitable. Cette protection devrait inclure des évaluations proactives de l'équité dans le cadre de la conception du système, l'utilisation de données représentatives et une protection contre les proxys pour les caractéristiques démographiques, garantissant l'accessibilité pour les personnes handicapées dans la conception et le développement, le pré-déploiement et les tests et l'atténuation des disparités en cours, et une organisation claire de surveillance. Une évaluation indépendante et des rapports en langage clair sous la forme d'une évaluation d'impact algorithmique, y compris les résultats des tests de disparité et les informations d'atténuation, doivent être effectués et rendus publics dans la mesure du possible pour confirmer ces protections.


    Sources : gouvernement britannique, Osborne Clarke, Maison Blanche

    Et vous ?

    Que pensez-vous de l’approche fondée sur les risques de l’UE pour réglementer l’IA?
    Que pensez-vous de l'approche britannique qui relève plus de l'observation qu'autre chose ?
    Que pensez-vous de l'approche américaine qui se contente de faire des recommandations sans faire de proposition de loi pour encadrer le développement de l'IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #64
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 969
    Points
    197 969
    Par défaut L’ONU veut créer une agence mondiale pour réguler l’IA
    Vers une AIEA (Agence internationale de l’énergie atomique) de l’intelligence artificielle ?
    L’ONU veut créer une agence mondiale pour réguler l’IA

    Le secrétaire général de l’ONU, Antonio Guterres, a soutenu lundi une proposition de certains dirigeants de l’intelligence artificielle pour la création d’un organe de surveillance international de l’IA comme l’Agence internationale de l’énergie atomique (AIEA).

    António Guterres a déclaré qu'un tel modèle pourrait être « très intéressant », mais a noté que « seuls les États membres peuvent le créer, pas le Secrétariat des Nations Unies ». L'AIEA, basée à Vienne, a été créée en 1957 et promeut l'utilisation sûre, sécurisée et pacifique des technologies nucléaires tout en surveillant d'éventuelles violations du Traité de non-prolifération (TNP). Elle compte 176 États membres.


    La prolifération de la haine et des mensonges sur les plateformes numériques et la menace que l'intelligence artificielle puisse devenir un « monstre » incontrôlé exigent une action mondiale coordonnée, à commencer par un code de conduite pour les gouvernements, les entreprises technologiques et les annonceurs qui promeut la vérité et protège les droits de l'homme, selon une déclaration du secrétaire général de l'ONU.

    Antonio Guterres a déclaré qu'il prévoyait de nommer un conseil consultatif scientifique dans quelques jours et un conseil consultatif sur l'intelligence artificielle en septembre pour préparer les initiatives que l'ONU pourrait prendre. Il a déclaré qu'il réagirait favorablement à une nouvelle agence de l'ONU sur l'intelligence artificielle et a suggéré comme modèle l'Agence internationale de l'énergie atomique, qui est basée sur la connaissance et dispose de certains pouvoirs de réglementation.

    Guterres a déclaré lors d'une conférence de presse qu'il prévoyait de mener de larges consultations sur les principes du Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques, qu'il publiera avant le Sommet de l'avenir des Nations Unies de l'année prochaine.

    Il a exprimé l'espoir que le code sera largement soutenu, mais lorsqu'on lui a demandé si les gouvernements et les entreprises technologiques étaient disposés à prendre des mesures pour rendre l'espace numérique plus sûr, il a répondu : « C'est la question que je me pose ».

    « Nous avons affaire à une entreprise qui génère des profits énormes, et nous avons aussi affaire dans certaines situations à des gouvernements qui ne respectent pas entièrement les droits de l'homme, c'est donc une bataille constante - et dans cette bataille constante, nous devons mobiliser tous ceux qui sont attachés à l'intégrité de l'information sur les plateformes numériques », a-t-il déclaré.

    Heidi Beirich, cofondatrice du Projet mondial contre la haine et l'extrémisme, a convenu que même si c'est une étape positive que l'ONU appelle à des solutions internationales à ce problème mondial, son code de conduite ne sera probablement pas suffisant pour arrêter le torrent d'informations fausses et haineuses en ligne.

    « Le fait est que les codes volontaires, y compris les propres conditions de service des entreprises sur ces questions, n'ont pas réussi à les maîtriser », a déclaré Beirich. « Le problème pour l'ONU est qu'ils ne peuvent pas faire ce qu'il semble devoir faire pour régler ce problème, qui est essentiellement une législation ».

    Guterres a déclaré que de nombreuses initiatives étaient en cours, notamment une loi et un code de conduite dans l'Union européenne pour ses 27 pays membres et un sommet britannique sur la sécurité de l'IA à l'automne. D'autres gouvernements étudient également des formes de réglementation. Mais il a dit qu'il y a une opinion selon laquelle la réglementation n'est pas facile parce que les choses évoluent très rapidement, et qu'une approche globale est donc nécessaire.

    Guterres a déclaré qu'un problème clé est que le modèle commercial de l'entreprise technologique donne la priorité à l'engagement plutôt qu'à la confidentialité, à la vérité et aux droits de l'homme. Il a déclaré que les entreprises technologiques doivent comprendre que des profits massifs ne peuvent être créés « au détriment d'un modèle d'engagement qui passe avant toute autre considération ».

    Le chef de l'ONU a déclaré que le code de conduite ne sera pas une solution, « mais il sera mondial » et il permettra aux gouvernements, aux entreprises technologiques, aux annonceurs et autres « de s'engager sur ce qui doit être fait pour garantir ou au moins pour promouvoir sérieusement l'intégrité de l'information sur les plateformes numériques ».

    Nom : onu.png
Affichages : 1516
Taille : 443,8 Ko
    Le secrétaire général de l'ONU, Antonio Guterres

    Discours du secrétaire général de l'ONU

    Les nouvelles technologies évoluent à une vitesse fulgurante, tout comme les menaces qui les accompagnent. Les sonnettes d'alarme concernant la dernière forme d'intelligence artificielle (IA) - l'IA générative - sont assourdissantes, et elles sont plus fortes de la part des développeurs qui l'ont conçue. Ces scientifiques et experts ont appelé le monde à agir, déclarant l'IA comme une menace existentielle pour l'humanité au même titre que le risque de guerre nucléaire.

    Nous devons prendre ces avertissements au sérieux. Notre proposition de Pacte numérique mondial, Nouvel agenda pour la paix et Accord sur la gouvernance mondiale de l'IA offrira des solutions multilatérales fondées sur les droits de l'homme.

    Mais l'avènement de l'IA générative ne doit pas nous distraire des dommages que la technologie numérique cause déjà à notre monde. La prolifération de la haine et des mensonges dans l'espace numérique cause de graves dommages à l'échelle mondiale - maintenant. Elle alimente les conflits, la mort et la destruction - maintenant. Elle menace la démocratie et les droits de l'homme — maintenant. Cela sape la santé publique et l'action climatique - maintenant.

    Lorsque les médias sociaux ont émergé il y a une génération, les plateformes numériques ont été adoptées comme de nouvelles façons passionnantes de se connecter. Et, en effet, ils ont soutenu les communautés en temps de crise, élevé les voix marginalisées et aidé à mobiliser les mouvements mondiaux pour la justice raciale et l'égalité des sexes. Les plateformes de médias sociaux ont aidé les Nations Unies à impliquer les gens du monde entier dans notre quête de paix, de dignité et de droits de l'homme sur une planète saine. Mais aujourd'hui, cette même technologie est souvent une source de peur, pas d'espoir.

    Les plateformes numériques sont utilisées à mauvais escient pour subvertir la science et propager la désinformation et la haine à des milliards de personnes. Certaines de nos propres missions de maintien de la paix et opérations d'aide humanitaire des Nations Unies ont été ciblées, ce qui rend leur travail encore plus dangereux.

    Cette menace mondiale claire et actuelle exige une action mondiale claire et coordonnée.

    Notre note d'orientation sur l'intégrité de l'information sur les plateformes numériques propose un cadre pour une réponse internationale [concertée]. Ses propositions visent à créer des garde-fous pour aider les gouvernements à se rassembler autour de lignes directrices qui promeuvent les faits, tout en exposant les complots et les mensonges et en sauvegardant la liberté d'expression et d'information. Et pour aider les entreprises technologiques à résoudre des problèmes éthiques et juridiques difficiles et à construire des modèles commerciaux basés sur un écosystème d'informations sain.

    Les gouvernements ont parfois eu recours à des mesures drastiques - y compris des fermetures et des interdictions générales d'Internet - qui n'ont aucune base légale et enfreignent les droits de l'homme. Partout dans le monde, certaines entreprises technologiques ont fait beaucoup trop peu, trop tard pour empêcher leurs plateformes de contribuer à la violence et à la haine.

    Les recommandations de ce mémoire visent à rendre l'espace numérique plus sûr et plus inclusif tout en protégeant vigoureusement les droits de l'homme.

    Ils éclaireront un Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques que nous développons avant le Sommet du futur de l'année prochaine. Le Code de conduite sera un ensemble de principes que nous espérons que les gouvernements, les plateformes numériques et les autres parties prenantes appliqueront volontairement.

    Les propositions contenues dans cette note d'orientation, en préparation du Code de conduite, incluent :
    • un engagement des gouvernements, des entreprises technologiques et d'autres parties prenantes à s'abstenir d'utiliser, de soutenir ou d'amplifier la désinformation et les discours de haine à quelque fin que ce soit ;
    • un engagement des gouvernements à garantir un paysage médiatique libre, viable, indépendant et pluriel, avec de solides protections pour les journalistes ;
    • l'application cohérente de politiques et de ressources par les plateformes numériques du monde entier pour éliminer les doubles standards qui permettent aux discours de haine et à la désinformation de prospérer dans certaines langues et certains pays, alors qu'ils sont empêchés plus efficacement dans d'autres ;
    • des protocoles convenus pour une réponse rapide des gouvernements et des plateformes numériques lorsque les enjeux sont les plus importants - en période de conflit et de fortes tensions sociales ;
    • et un engagement des plateformes numériques pour s'assurer que tous les produits tiennent compte de la sécurité, de la confidentialité et de la transparence.

    Cela comprend des mesures urgentes et immédiates pour garantir que toutes les applications d'IA sont sûres, sécurisées, responsables et éthiques, et conformes aux obligations en matière de droits de l'homme.

    Le mémoire propose que les entreprises technologiques s'engagent à s'éloigner des modèles commerciaux préjudiciables qui privilégient l'engagement au-dessus des droits de l'homme, de la vie privée et de la sécurité. Il suggère que les annonceurs - qui sont profondément impliqués dans la monétisation et la diffusion de contenus préjudiciables - devraient assumer la responsabilité de l'impact de leurs dépenses. Il reconnaît la nécessité d'un changement fondamental dans les structures d'incitation.

    La désinformation et la haine ne doivent pas générer une exposition maximale et des profits massifs.

    Le mémoire suggère que les utilisateurs - y compris les jeunes qui sont particulièrement vulnérables - devraient avoir plus d'influence sur les décisions politiques, et il propose que les plateformes numériques s'engagent en faveur de la transparence des données. Les utilisateurs doivent pouvoir accéder à leurs propres données. Les chercheurs devraient avoir accès aux vastes quantités de données générées par les plateformes numériques, tout en respectant la vie privée des utilisateurs.

    J'espère que cette note d'orientation sera une contribution utile aux discussions en amont du Sommet du futur.

    Nous comptons sur un large engagement et des contributions solides de toutes les parties prenantes alors que nous travaillons à l'élaboration d'un code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques.

    Nous n'avons pas un instant à perdre et je vous remercie de votre attention et de votre présence.

    Source : ONU

    Et vous ?

    Que pensez-vous de l’idée d’un organe de surveillance mondial de l’IA comme l’agence nucléaire ?
    Quels sont les principaux défis et opportunités liés à la gouvernance de l’IA ?
    Quel rôle l’ONU peut-elle jouer pour promouvoir une utilisation éthique et responsable de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #65
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut Les eurodéputés adoptent des règles plus strictes en matière d'IA et le projet entre dans sa phase finale
    Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale
    la réglementation prévoit de lourdes amendes en cas de manquement

    Le Parlement européen a adopté mercredi le projet de loi "AI Act" qui imposerait de nouvelles restrictions aux utilisations considérées comme les plus risquées de cette technologie. Il limiterait considérablement l'utilisation des logiciels de reconnaissance faciale et exigerait des fabricants de systèmes d'IA tels que les chatbots qu'ils divulguent davantage d'informations sur les données utilisées pour créer leurs programmes. Le vote n'est qu'une étape dans un processus plus long. La version finale de la loi ne devrait pas être adoptée avant la fin de l'année. Mais elle est déjà perçue comme un modèle potentiel pour les décideurs politiques du monde entier.

    L'UE prend la tête du peloton en matière de réglementation de l'IA

    La loi européenne sur l'IA (EU AI Act) est une proposition visant à réglementer les systèmes d'IA modernes et à encadrer leur développement. Elle a été proposée par la Commission européenne le 21 avril 2021 et constitue la première loi sur l'IA émanant d'une autorité de régulation majeure dans le monde. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’IA. La pierre angulaire du projet de loi est un système de classification qui détermine le niveau de risque (inacceptable, élevé et limité ou minimal) qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne.

    Dans un premier temps, les applications et les systèmes qui créent un risque inacceptable - dont les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine - sont interdits. Ensuite, les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques. Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la législation. Le but est de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’UE.


    Les législateurs de l'UE ont approuvé mercredi plusieurs modifications au projet de règles sur l'IA pour inclure une interdiction de l'utilisation de la technologie dans la surveillance biométrique et obliger les systèmes d'IA générative comme ChatGPT à divulguer le contenu généré par l'IA. Selon certains critiques de la proposition, ces modifications pourraient provoquer un conflit avec les pays de l'UE qui s'opposent à une interdiction totale de l'utilisation de l'IA dans la surveillance biométrique. D'autres amendements n'ont toutefois pas été adoptés. Les législateurs de l'UE affirment que la loi est nécessaire pour prévenir les risques liés à l'IA.

    En effet, l'adoption rapide du chatbot d'IA ChatGPT d'OpenAI et d'autres chatbots a conduit des scientifiques de haut niveau spécialisés dans l'IA et des dirigeants d'entreprises - dont Elon Musk de Tesla et Sam Altman d'OpenAI - à évoquer les risques que cette technologie pourrait avoir sur la société. « Alors que les grandes entreprises technologiques tirent la sonnette d'alarme au sujet de leurs propres créations, l'Europe est allée de l'avant et a proposé une réponse concrète aux risques que l'IA commence à poser », a déclaré Brando Benifei, corapporteur du projet de loi. Le vote de mercredi n'est qu'une étape dans un processus plus long.

    La version finale de la loi ne devrait pas être adoptée avant la fin de l'année. L'UE est toutefois plus avancée que les États-Unis et d'autres grands gouvernements occidentaux en matière de réglementation de l'IA. Les 27 États membres débattent du sujet depuis plus de deux ans, et la question a pris une nouvelle ampleur après la sortie, à la fin de l'année dernière, de ChatGPT, qui a intensifié les inquiétudes concernant les effets potentiels de la technologie sur l'emploi et la société. La prochaine étape consiste en des négociations tripartites entre les États membres, le Parlement et la Commission européenne.

    Ces négociations risquent de subir d'autres changements lorsqu'ils s'efforceront de s'accorder sur la formulation. Les analystes estiment qu'il pourrait s'écouler des années avant que les règles n'entrent pleinement en vigueur. Brando Benifei, membre italien du Parlement européen qui codirige les travaux sur la loi sur l'IA, a déclaré qu'il ferait pression pour que les règles soient adoptées plus rapidement pour les technologies en évolution rapide telle que l'IA générative.

    Comment l'UE compte-t-elle appliquer sa nouvelle législation sur l'IA ?

    Comme mentionné plus haut, l'un des principaux objectifs de l'UE est de se prémunir contre les menaces que l'IA fait peser sur la santé et la sécurité et de protéger les valeurs et les droits fondamentaux. Cela signifie que certaines utilisations de l'IA sont absolument à proscrire, comme les systèmes de "notation sociale" qui jugent les gens en fonction de leur comportement. Est également interdite l'IA qui exploite les personnes vulnérables, y compris les enfants, ou qui utilise une manipulation subliminale susceptible de causer des dommages, par exemple un jouet interactif parlant qui encourage un comportement dangereux.

    Les outils de police prédictive, qui analysent les données pour prévoir qui commettra des crimes, sont également interdits. De plus, un amendement controversé visant à autoriser des exceptions pour les forces de l'ordre, telles que la recherche d'enfants disparus ou la prévention de menaces terroristes, n'a pas été adopté. Les systèmes d'IA utilisés dans des catégories telles que l'emploi et l'éducation, qui pourraient affecter le cours de la vie d'une personne, sont soumis à des exigences strictes, telles que la transparence avec les utilisateurs et la prise de mesures pour évaluer et réduire les risques de partialité des algorithmes.

    La plupart des systèmes d'IA, tels que les jeux vidéo ou les filtres antispam, entrent dans la catégorie des systèmes à risque faible ou nul. L'un des principaux ajouts est l'obligation de documenter de manière exhaustive tout matériel protégé par des droits d'auteur utilisé pour enseigner aux systèmes d'IA comment générer du texte, des images, des vidéos et de la musique semblables à du travail humain. Les créateurs de contenu sauraient ainsi si leurs billets de blogue, leurs livres numériques, leurs articles scientifiques ou leurs chansons ont été utilisés pour former des algorithmes qui alimentent des systèmes comme ChatGPT.

    Ils pourraient alors décider si leur travail a été copié et demander réparation. En fin de compte, il appartiendra aux 27 États membres de l'UE de faire appliquer les nouvelles règles sur l'IA. Les régulateurs étatiques pourraient obliger les entreprises à retirer leurs applications du marché. Dans les cas extrêmes, les infractions peuvent donner lieu à des amendes allant jusqu'à 40 millions d'euros (43 millions de dollars) ou 7 % du chiffre d'affaires annuel mondial d'une entreprise, ce qui, dans le cas des grandes entreprises technologiques telles que Google, Meta et Microsoft, peut représenter plusieurs milliards d'euros.

    Partout, de Washington à Pékin, les décideurs politiques se lancent dans une course pour contrôler l'évolution de l'IA qui inquiète même certains de ses premiers créateurs. Aux États-Unis, la Maison-Blanche a publié des idées politiques qui comprennent des règles pour tester les systèmes d'IA avant qu'ils ne soient accessibles au public et pour protéger les droits à la vie privée. En Chine, un projet de règles dévoilé en avril obligerait les créateurs de chatbots à adhérer aux règles strictes de censure du pays. Pékin exerce également un contrôle accru sur la manière dont les fabricants de systèmes d'IA utilisent les données.

    L'efficacité d'une réglementation de l'IA n'est pas claire. Signe que les nouvelles capacités de la technologie émergente apparemment plus vite que les législateurs ne sont en mesure d'y répondre, les premières versions de la loi européenne n'accordaient pas beaucoup d'attention aux systèmes d'IA dits génératifs, comme ChatGPT, qui peuvent produire du texte, des images et des vidéos en réponse à des messages-guides.

    Pourquoi la réglementation adoptée par l'UE est-elle si importante ?

    Les entreprises de l'UE ne figurent pas parmi les grands acteurs du développement de l'IA de pointe. Ce rôle est dévolu aux États-Unis et à la Chine. Cela dit, Bruxelles joue souvent un rôle de précurseur avec des réglementations qui tendent à devenir des normes mondiales de facto et est devenue une pionnière dans les efforts visant à cibler le pouvoir des grandes entreprises technologiques. Selon les experts, la taille même du marché unique de l'UE, qui compte 450 millions de consommateurs, permet aux entreprises de se conformer plus facilement à la réglementation que de développer des produits différents pour différentes régions.

    Mais selon les experts, il ne s'agit pas seulement d'une mesure de répression. En établissant des règles communes pour l'IA, Bruxelles tente également de développer le marché en inspirant confiance aux utilisateurs. « Le fait qu'il s'agisse d'une loi qui peut être appliquée et que les entreprises seront tenues pour responsables est important, car d'autres pays comme les États-Unis, Singapour et la Grande-Bretagne se sont contentés d'offrir des "orientations et des recommandations. D'autres pays pourraient vouloir adapter et copier les règles de l'UE », a déclaré Kris Shrishak, technologue et membre du Conseil irlandais pour les libertés civiles.

    Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.

    « L'UE est en passe de devenir un leader en matière de réglementation de l'IA, mais il reste à voir si elle sera à la pointe de l'innovation dans ce domaine. Les nouvelles règles de l'Europe en matière d'IA doivent traiter efficacement des risques clairement définis, tout en laissant suffisamment de flexibilité aux développeurs pour qu'ils puissent fournir des applications d'IA utiles au bénéfice de tous les Européens », a déclaré Boniface de Champris, responsable politique de la Computer and Communications Industry Association, un groupe de pression représentant les entreprises du secteur des technologies.

    Pour combler le vide avant l'entrée en vigueur de la législation, l'Europe et les États-Unis élaborent un code de conduite volontaire dont les responsables ont promis, fin mai, qu'il serait rédigé dans les semaines à venir et qu'il pourrait être étendu à d'autres "pays partageant les mêmes idées".

    Sources : Le Parlement européen, EU AI Act

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la réglementation de l'UE de sur l'IA ?
    La trouvez-vous complète ou souffre-t-elle d'insuffisances ?
    La réglementation de l'UE sur l'IA favorise-t-elle l'innovation ?

    Voir aussi

    L'Europe se prépare à voter une législation sur l'IA avec des amendes potentielles de 7% sur les revenus, cette législation pourrait créer des divergences avec les approches américaine et britannique

    Les contenus générés par l'IA générative devraient être étiquetés afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova

    Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #66
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 061
    Points : 2 855
    Points
    2 855
    Par défaut
    Je suis d'accord avec cette loi dans les grandes ligne.

    Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

    D'ailleurs :

    Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
    C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.

  7. #67
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 485
    Points
    36 485
    Par défaut L'UE vote pour interdire l'IA dans la surveillance biométrique et exiger la divulgation des systèmes d'IA
    L'UE vote pour interdire l'IA dans la surveillance biométrique et exiger la divulgation des systèmes d'IA
    Le projet de loi de l'UE sur l'IA se durcit, mais reste ouvert à la négociation

    Le Parlement européen a adopté une résolution qui vise à limiter l’utilisation de l’intelligence artificielle (IA) dans des domaines sensibles pour les droits humains. La résolution adoptée par 626 voix contre 25 vise à protéger les droits fondamentaux des citoyens face aux risques potentiels de l’IA. Elle interdit l’utilisation de l’IA dans la surveillance biométrique, comme la reconnaissance faciale, qui peut porter atteinte à la vie privée et à la dignité des personnes.

    La résolution exige également que les systèmes d’IA soient transparents et responsables, et qu’ils indiquent clairement aux utilisateurs qu’ils interagissent avec une machine et non avec un humain. La résolution appelle à une réglementation plus stricte de l’IA dans les domaines de la santé, de l’éducation, de la sécurité et de l’emploi, où l’IA peut avoir un impact significatif sur la qualité de vie et les opportunités des citoyens. Le Parlement européen demande à la Commission européenne de présenter une proposition législative sur l’IA d’ici la fin de l’année, en tenant compte des principes éthiques et juridiques de l’Union européenne.

    Nom : UEB.png
Affichages : 1465
Taille : 370,1 Ko

    Qu'est-ce que la loi européenne sur l'IA ?

    L'AI Act est une proposition de loi européenne sur l'intelligence artificielle (IA). Il s'agit de la première loi sur l'IA émanant d'une autorité de régulation majeure. La loi classe les applications de l'IA dans trois catégories de risque :

    • les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
    • les applications à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques ;
    • les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.

    Pourquoi faut-il s'en préoccuper ?

    Les applications d'IA influencent les informations que vous voyez en ligne en prédisant le contenu qui vous intéresse, capturent et analysent les données des visages pour faire appliquer les lois ou personnaliser les publicités, et sont utilisées pour diagnostiquer et traiter le cancer. En d'autres termes, l'IA affecte de nombreux aspects de votre vie.

    À l'instar du règlement général sur la protection des données (RGPD) de l'UE en 2018, la loi européenne sur l'IA pourrait devenir une norme mondiale, déterminant dans quelle mesure l'IA a un effet positif plutôt que négatif sur votre vie, où que vous soyez. Le règlement de l'UE sur l'IA fait déjà des vagues à l'échelle internationale. Fin septembre 2021, le Congrès brésilien a adopté un projet de loi créant un cadre juridique pour l'intelligence artificielle. Ce projet de loi doit encore être adopté par le Sénat brésilien.

    La proposition de loi comporte plusieurs lacunes et exceptions

    Les lacunes de la proposition de loi limitent la capacité de la loi à garantir que l'IA reste une force positive dans les vies. À l'heure actuelle, par exemple, la reconnaissance faciale par la police est interdite, sauf si les images sont capturées avec un retard ou si la technologie est utilisée pour retrouver des enfants disparus.

    En outre, la loi est rigide. Si, dans deux ans, une application dangereuse de l'IA est utilisée dans un secteur imprévu, la loi ne prévoit aucun mécanisme permettant de la qualifier de "à haut risque".

    Les législateurs de l'Union européenne ont approuvé mercredi des modifications au projet de règles sur l'intelligence artificielle afin d'inclure une interdiction de l'utilisation de la technologie dans la surveillance biométrique et d'obliger les systèmes d'IA générative comme ChatGPT à divulguer le contenu généré par l'IA.

    Les modifications apportées à la proposition de loi historique de la Commission européenne visant à protéger les citoyens des dangers de la technologie pourraient provoquer un conflit avec les pays de l'UE qui s'opposent à une interdiction totale de l'utilisation de l'IA dans la surveillance biométrique.

    Le Leverhulme Centre for the Future of Intelligence et le Centre for the Study of Existential Risk, deux institutions de premier plan de l'université de Cambridge, ont fait part à la Commission européenne de leurs commentaires sur la proposition de loi européenne sur l'IA. Ils espèrent que la loi contribuera à établir des normes internationales pour permettre les avantages et réduire les risques de l'IA. L'une de leurs recommandations est de permettre de proposer des modifications à la liste des systèmes restreints et à haut risque, afin d'accroître la flexibilité de la réglementation.

    Access Now, une organisation qui défend et étend les droits numériques des utilisateurs à risque, a également fait part de ses commentaires sur la loi européenne sur l'IA. Elle craint que la loi, dans sa forme actuelle, n'atteigne pas l'objectif de protection des droits fondamentaux. Plus précisément, elle estime que la proposition ne va pas assez loin pour protéger les droits fondamentaux en ce qui concerne les applications biométriques telles que la reconnaissance des émotions et les détecteurs de mensonges à l'aide de l'IA. Le projet actuel de loi sur l'IA préconise des obligations de transparence pour ces applications, mais Access Now recommande des mesures plus strictes pour réduire tous les risques associés, mesures telles que des interdictions.

    Nathalie A. Smuha, chercheuse à la faculté de droit de la KU Leuven, Emma Ahmed-Rengers, chercheuse en droit et en informatique à l'université de Birmingham, et leurs collègues affirment que la loi européenne sur l'IA ne reconnaît pas toujours avec précision les torts et les préjudices associés aux différents types de systèmes d'IA et qu'elle n'en attribue pas la responsabilité de manière adéquate. Ils affirment également que la proposition ne fournit pas un cadre efficace pour l'application des droits et des devoirs légaux. La proposition néglige de garantir la transparence, la responsabilité et les droits de participation du public.

    Le Center for Data Innovation, une organisation à but non lucratif axée sur l'innovation fondée sur les données, a publié un rapport affirmant que la loi européenne sur l'IA coûtera 31 milliards d'euros au cours des cinq prochaines années et réduira les investissements dans l'IA de près de 20 %. L'entrepreneur Meeri Haataja et l'universitaire Joanna Bryson ont publié leurs propres recherches, qui indiquent que le coût sera probablement bien moindre, car la réglementation ne couvre qu'une petite partie des applications de l'IA considérées comme présentant un risque élevé. En outre, l'analyse des coûts ne tient pas compte de tous les avantages de la réglementation pour le public. Enfin, le CEPS, un groupe de réflexion et un forum de débat sur les affaires européennes, a publié sa propre analyse des estimations de coûts et est parvenu à une conclusion similaire à celle de M. Haataja et de Mme Bryson.

    Dans le projet de loi européen actuel, les systèmes d'IA susceptibles d'être utilisés pour influencer les électeurs et le résultat des élections, ainsi que les systèmes utilisés par les plateformes de médias sociaux comptant plus de 45 millions d'utilisateurs, ont été ajoutés à la liste des systèmes à haut risque. Meta et Twitter font partie de cette catégorie.

    « L'IA soulève de nombreuses questions - sur le plan social, éthique et économique. Mais ce n'est pas le moment d'appuyer sur un bouton "pause". Au contraire, il faut agir vite et prendre ses responsabilités », a déclaré Thierry Breton, commissaire européen chargé de l'industrie. Il a indiqué qu'il se rendrait aux États-Unis la semaine prochaine pour rencontrer Mark Zuckerberg, PDG de Meta, et Altman, de l'OpenAI, afin de discuter du projet de loi sur l'IA.

    Sources : Reuters, EU

    Et vous ?

    Quel est votre avis sur le sujet ?

    À votre avis, le règlement proposé garantit-il le respect des droits fondamentaux et des principes éthiques de l’Union européenne ?

    Quels peuvent être les avantages et les inconvénients d’une approche harmonisée et horizontale de la réglementation de l’IA au niveau européen ?

    Voir aussi :

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    ChatGPT : un projet de loi de l'UE pourrait obliger les outils d'IA à révéler le matériel protégé par le droit d'auteur, utilisé dans la construction de leurs systèmes
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #68
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    545
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 545
    Points : 1 429
    Points
    1 429
    Par défaut
    Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction


    les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
    Le modèle Chinois c'est leur rêve....

    les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
    Normalement tout c'est qui n'est pas interdit est autorisé.
    Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.

  9. #69
    Nouveau Candidat au Club
    Femme Profil pro
    Collégien
    Inscrit en
    Juin 2023
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juin 2023
    Messages : 1
    Points : 0
    Points
    0
    Par défaut More on costs and controversies concerning the AI Act
    Thank you for mentioning our article (mine and Meeri Haataja) showing the true costs of the AI Act, which are nowhere near as high as the enemies of Europe's lead in digital regulation might have you believe, but are also not zero, as the EC had hoped. The full article is freely available here https://ideas.repec.org/p/osf/socarx/8nzb4.html

    We also just a week ago published our concerns about the new EP version of the Act, in a hope of influencing the final document. This is also freely available, here: https://journals.sas.ac.uk/amicus/article/view/5612

  10. #70
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA
    OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA
    et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

    OpenAI fait l'objet de critiques acerbes après qu'un rapport accablant a révélé les dessous du lobbying intense mené par le laboratoire d'IA contre la législation de l'UE sur l'IA (EU AI Act). Les efforts de lobbying d'OpenAI auraient permis d'apporter d'importantes modifications à la loi, réduisant ainsi le fardeau réglementaire qui pèse sur l'entreprise. Autrement dit, la version du texte de la législation adoptée par le Parlement européen le 14 juin contient plusieurs amendements proposés par OpenAI. Les critiques affirmant que les efforts de lobbying intense d'OpenAI visent davantage à protéger ses propres intérêts financiers qu'à promouvoir l'intérêt général.

    Le Parlement européen a adopté le 14 juin le projet de loi "Eu AI Act" qui impose des règles aux utilisations considérées comme les plus risquées de cette technologie. Il limite considérablement l'utilisation des logiciels de reconnaissance faciale et exige des fabricants de systèmes d'IA tels que les chatbots qu'ils divulguent davantage d'informations sur les données utilisées pour créer leurs programmes. Le vote n'est qu'une étape dans un processus plus long. La version définitive de la loi ne devrait pas être adoptée avant la fin de l'année. Il s'agit de la législation la plus complète à ce jour sur l'IA et elle est perçue comme un modèle potentiel pour le monde entier.

    Cependant, alors que l'on craignait une législation trop stricte qui entrave le développement de l'IA, un récent rapport suggère qu'elle est probablement très favorable à OpenAI. Le rapport révèle que pendant les semaines qui ont précédé le vote au Parlement européen, OpenAI a fait pression pour que des éléments importants de la loi européenne sur l'IA soient édulcorés de manière à réduire le fardeau réglementaire qui pèse sur la société. Ces informations sont issues de documents sur l'engagement d'OpenAI avec des fonctionnaires de l'UE obtenus par TIME auprès de la Commission européenne par le biais de demandes de liberté d'information.


    Dans plusieurs cas, OpenAI aurait proposé des amendements qui ont ensuite été intégrés à la version de la législation qui a été adoptée par le Parlement européen. Bien sûr, cette version doit encore faire l'objet d'une dernière série de négociations avant d'être finalisée dès le mois de janvier. Toutefois, les efforts de lobbying de l'entreprise ont été largement couronnés de succès. Les documents révèlent, par exemple, qu'en 2022, OpenAI a fait valoir à plusieurs reprises aux responsables de l'UE que la future réglementation sur l'IA ne devrait pas considérer ses systèmes d'IA à usage général - y compris GPT-3 et Dall-E 2 - comme étant à "haut risque".

    Cette désignation qui soumettrait GPT-3 et Dall-E 2 à des exigences légales strictes, notamment en matière de transparence, de traçabilité et de surveillance humaine. Cet argument a mis OpenAI en phase avec Microsoft et Google qui ont tous deux précédemment fait pression sur l'UE pour assouplir le fardeau réglementaire pour les grands fournisseurs d'IA. Ils ont fait valoir que la charge de la conformité aux exigences les plus strictes de la loi devrait incomber aux entreprises qui ont explicitement décidé d'appliquer une IA à un cas d'utilisation à haut risque, et non aux entreprises (souvent plus grandes) qui construisent des systèmes d'IA à usage général.

    « En soi, GPT-3 n'est pas un système à haut risque. Mais il possède des capacités qui peuvent potentiellement être employées dans des cas d'utilisation à haut risque », a écrit OpenAI dans un document intitulé "OpenAI White Paper on the European Union's Artificial Intelligence Act" qu'il a envoyé aux fonctionnaires de la Commission et du Conseil de l'UE en septembre 2022. Ainsi, la version finale de la loi approuvée par le Parlement européen mercredi ne contenait pas les formulations présentes dans les versions antérieures suggérant que les systèmes d'IA à usage général devraient être considérés comme étant intrinsèquement à haut risque.

    Au lieu de cela, la législation adoptée demande aux fournisseurs de "modèles de base" - ou de puissants systèmes d'IA entraînés sur de grandes quantités de données - de se conformer à une petite poignée d'exigences, y compris la prévention de la génération de contenu illégal, la divulgation du fait qu'un système a été entraîné sur du matériel protégé par le droit d'auteur, et la réalisation d'évaluations des risques. Un porte-parole a déclaré qu'OpenAI a soutenu l'introduction tardive des "modèles de base" en tant que catégorie distincte dans la loi. OpenAI a également réussi à faire supprimer un autre amendement de la législation de l'UE sur l'IA.

    Cet amendement à la loi sur l'IA aurait classé les systèmes d'IA comme "à haut risque" s'ils généraient des textes ou des images susceptibles de "donner faussement l'impression à une personne qu'il s'agit d'un texte généré par un être humain et authentique". « Ils ont obtenu ce qu'ils demandaient. Le document montre qu'OpenAI, comme de nombreuses entreprises Big Tech, a utilisé l'argument de l'utilité et du bénéfice public de l'IA pour masquer leur intérêt financier dans l'édulcoration de la réglementation », déclare Sarah Chander, conseillère politique principale chez European Digital Rights et experte de la loi, qui a examiné le livre blanc d'OpenAI.

    Dans une section du document, OpenAI décrit longuement les politiques et les mécanismes de sécurité qu'il a élaborés pour empêcher que ses outils d'IA générative ne soient utilisés à mauvais escient, notamment en interdisant la génération d'images de personnes spécifiques, en informant les utilisateurs qu'ils interagissent avec une IA et en développant des outils permettant de détecter si une image est générée par l'IA. OpenAI a semblé suggérer que ces mesures de sécurité devraient suffire à empêcher ses systèmes d'être considérés comme "à haut risque". Mais les problèmes entourant ChatGPT montrent que ces mesures sont loin d'être suffisantes.

    « Ce qu'ils disent, en gros, c'est : faites-nous confiance pour nous autoréguler. C'est très déroutant parce qu'ils s'adressent aux politiciens en leur disant : s'il vous plaît, réglementez-nous. Ils se vantent de toutes les mesures [de sécurité] qu'ils prennent, mais dès que vous leur dites : "eh bien, prenons-les au mot et fixons un plancher réglementaire", ils disent non », déclare Daniel Leufer, analyste politique principal spécialisé dans l'IA au bureau bruxellois d'Access Now. OpenAI a également plaidé en faveur d'amendements à la législation qui permettraient aux fournisseurs d'IA de mettre rapidement à jour leurs systèmes d'IA pour des raisons de sécurité.

    Dans ces cas, OpenAI estime que les fournisseurs d'IA ne devraient pas avoir à subir une évaluation potentiellement longue de la part des autorités de l'UE. Il a plaidé en faveur de dérogations qui permettraient certaines utilisations de l'IA dans l'éducation et l'emploi - des secteurs qui, selon le premier projet de loi, devraient être considérés comme des cas d'utilisation à "haut risque" de l'IA. OpenAI estime que la capacité d'un système d'IA à rédiger des descriptions d'emploi ne devrait pas être considérée comme un cas d'utilisation "à haut risque" ni l'utilisation d'une IA dans un cadre éducatif pour rédiger des questions d'examen pour la curation humaine.

    « Après qu'OpenAI a fait part de ces préoccupations en septembre dernier, une exemption a été ajoutée à la loi qui répond très largement aux demandes d'OpenAI de retirer du champ d'application les systèmes qui n'ont pas d'impact matériel sur la prise de décision [humaine] ou qui ne font que l'aider », selon Leufer d'Access Now. Après avoir relativement réussi à imposer ses volontés à l'UE, Sam Altman, PDG d'OpenAI, fait une tournée mondiale pour plaider en faveur d'une norme mondiale en matière d'IA. Au regard des révélations du rapport, il ne serait pas imprudent de suggérer qu'OpenAI compte également imposer sa politique au monde entier.

    Les efforts de lobbying d'OpenAI ont fait froncer les sourcils et suscité des débats sur le rôle des grandes entreprises technologiques dans l'élaboration de la législation européenne sur l'IA. Alors qu'OpenAI maintient qu'il soutient l'objectif de l'UE de s'assurer que les outils d'IA sont construits, déployés et utilisés en toute sécurité, les critiques affirment que les efforts de lobbying de l'entreprise visent davantage à protéger ses intérêts financiers qu'à promouvoir l'intérêt public. Altman mène donc un jeu de dupe au sein de la communauté internationale de l'IA, un stratagème qui lui permettrait à terme d'asseoir sa domination sur le secteur de l'IA.

    Par ailleurs, d'autres critiques accusent l'UE de s'être pliée une nouvelle fois aux désidératas des Américains, au mépris des intérêts de ses propres entreprises et de sa souveraineté numérique. Selon les critiques, il est fort probable que l'UE se retrouve à l'avenir à la traine dans la course à l'IA, comme cela est déjà le cas dans le secteur de la recherche où Google et Microsoft dominent le marché européen et le marché mondial ; et dans le secteur des plateformes sociales où Facebook et Twitter dictent leurs volontés aux Européens. « La loi européenne sur l'IA n'est rien d'autre qu'une copie de la stratégie interne d'OpenAI en matière d'IA », a écrit un critique.

    Source : Livre blanc d'OpenAI (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des révélations et des allégations du rapport ?
    Que pensez-vous de la législation européenne sur l'IA ? Est-elle suffisante ?
    Selon vous, qu'est-ce qui justifie la complaisance de l'UE à l'égard d'OpenAI ?
    Quels pourraient être les impacts de cette complaisance sur l'UE et ses entreprises d'IA ?

    Voir aussi

    Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

    Emmanuel Macron annonce un investissement de 500 millions d'euros visant à faire de la France un pôle européen de l'IA, il veut des modèles d'IA français qui rivalisent avec ceux de Google et OpenAI

    Le PDG d'OpenAI, Sam Altman, appelle les États-Unis à collaborer avec la Chine pour contrer les risques liés à l'IA, alors que Washington tente d'entraver les progrès de la Chine en matière d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #71
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut Un groupe de consommateurs demandent à l'UE d'enquêter d'urgence sur les risques liés à l'IA générative
    Un groupe de consommateurs demandent à l'UE d'enquêter d'urgence sur les risques liés à l'IA générative
    et d'appliquer la législation existante pour protéger les consommateurs

    Un groupe de consommateurs, présent dans plus d'une douzaine de pays européens, demande aux gouvernements d'enquêter d'urgence sur les risques liés à l'IA générative et d'appliquer la législation existante pour protéger les consommateurs. Malgré les possibilités et les avantages qu'ils offrent, le groupe affirme qu'il y a de nombreuses préoccupations concernant la manière dont les systèmes d'IA générative peuvent être utilisés pour tromper, manipuler et nuire aux gens. Cet appel intervient quelques jours seulement après l'adoption de la loi européenne sur l'IA, mais les groupes de défense estiment que l'UE traîne les pas et fait preuve de laxisme sur le sujet.

    Le plus grand groupe de consommateurs de l'UE, le Bureau européen des unions de consommateurs (BEUC), a lancé aujourd'hui un appel à l'endroit des autorités : « arrêtez de traîner les pieds et lancez des enquêtes urgentes sur les risques liés à l'IA générative dès à présent ». Le BEUC représente les intérêts des organisations de consommateurs dans 13 pays de l'UE. Le groupe considère l'IA générative comme une technologie disruptive qui a créé des changements importants dans la vie des consommateurs (emploi, éducation, etc.), mais dont les impacts potentiels n'avaient fait l'objet d'aucune évaluation avant qu'elle ne soit lancée dans la nature.

    Depuis que ChatGPT a été lancé à la fin de l'année dernière, le chatbot d'IA aurait établi le record de la croissance la plus rapide du nombre d'utilisateurs et suscité davantage de discussions sur la vitesse de développement de l'IA et sur la manière de la réglementer. Alors que certains technologues ont tiré la sonnette d'alarme sur l'IA en tant qu'instrument d'extinction de l'humanité, le débat en Europe a davantage porté sur les incidences de l'IA dans des domaines tels que l'accès équitable aux services, la désinformation et la concurrence. Dans un communiqué publié aujourd'hui, le BEUC énumère certaines des préoccupations clés liées à l'IA générative.

    Nom : knjhb.png
Affichages : 1500
Taille : 338,7 Ko

    « L'IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la manière dont ces systèmes d'IA peuvent tromper, manipuler et nuire aux consommateurs. Ils peuvent également être utilisés pour diffuser de la désinformation, perpétuer les préjugés existants qui amplifient la discrimination, ou être utilisés pour la fraude », a déclaré Ursula Pachl, directrice générale adjointe du BEUC. L'appel du BEUC coïncide avec un rapport publié aujourd'hui par le groupe norvégien de défense des consommateurs Forbrukerrådet, qui conclut à la nécessité d'élaborer davantage de règles.

    Le rapport de Forbrukerrådet est sans équivoque : « l'IA cause des préjudices aux consommateurs et pose de nombreux problèmes ». Dans son communiqué, le BEUC a déclaré avoir écrit aux responsables européens chargés de la sécurité et de la protection des consommateurs en avril pour leur demander d'ouvrir des enquêtes en raison de l'ampleur et de la rapidité du déploiement des modèles d'IA, tels que ChatGPT, et des préjudices possibles résultant de leur déploiement. Le Conseil européen de la protection des données a déjà créé un groupe de travail chargé d'examiner ChatGPT. Dans son rapport, Forbrukerrådet relève les préoccupations suivantes :

    • pouvoir, transparence et responsabilité : certains développeurs d'IA, y compris les entreprises Big Tech, ont fermé leurs systèmes à l'examen externe, ce qui rend très difficile la compréhension de la façon dont les données ont été collectées ou comment les algorithmes fonctionnent ;
    • résultats erronés ou inexacts : cela arrive lorsque les systèmes d'IA générative n'ont pas compris le contexte et ils peuvent même inventer des sources inexistantes pour étayer le contenu généré. Par exemple, si un chatbot d'IA donne des conseils médicaux erronés à un consommateur, cela pourrait entraîner un préjudice réel ;
    • utiliser la technologie pour manipuler ou induire en erreur les consommateurs : en imitant les modèles de discours humains et en utilisant un langage émotionnel, les chatbots d'IA peuvent inciter les consommateurs à interagir avec eux et les faire se sentir coupables de ne pas prendre certaines mesures ou les manipuler pour qu'ils paient pour un produit ou un service ;
    • les préjugés et la discrimination : étant donné que les modèles d'IA générative récupèrent d'énormes quantités d'informations sur Internet, leurs résultats peuvent contenir, perpétuer ou créer de nouveaux préjugés. Si les ensembles de données ne sont pas triés et nettoyés, ces facteurs peuvent s'intégrer dans les résultats des systèmes. Par exemple, les générateurs d'images ont tendance à sexualiser les femmes, en particulier les femmes de couleur, à un taux beaucoup plus élevé que les hommes ;
    • vie privée et intégrité personnelle : les générateurs d'images peuvent utiliser des ensembles de données provenant de moteurs de recherche ou de médias sociaux sans base juridique légale ou sans que les personnes figurant sur les images en soient informées. Les générateurs de texte peuvent inclure des données personnelles d'individus qui peuvent être prises hors contexte ;
    • vulnérabilités en matière de sécurité : les systèmes basés sur une IA générative pourraient être utilisés par des escrocs pour générer de grandes quantités de textes d'apparence convaincante afin de tromper les victimes.


    Le BEUC estime que ces préoccupations sont "urgentes" et demande aux autorités européennes de s'appuyer sur les règles existantes pour mener des enquêtes afin de protéger les consommateurs. « Nous appelons les responsables chargées de la sécurité, des données et de la protection des consommateurs à ouvrir des enquêtes dès maintenant et à ne pas attendre que toutes sortes de préjudices aient été subis par les consommateurs pour agir. Ces lois s'appliquent à tous les produits et services, qu'ils soient alimentés par l'IA ou non, et les autorités doivent les faire respecter », a déclaré Pachl dans le communiqué publié par le BEUC sur son site.

    De son côté, l'UE vient d'approuver la législation sur l'IA (EU AI Act), qui vise à résoudre des problèmes tels que ceux mis en évidence dans le rapport. La loi sur l'IA a été proposée pour la première fois par la Commission européenne en 2021 et l'UE espère conclure les négociations d'ici la fin de l'année. Il s'agit de la première loi de ce type dans le secteur de l'IA. Une fois mise en œuvre, la loi européenne sur l'IA tentera de codifier une certaine forme de compréhension et d'application juridique de l'utilisation commerciale et non commerciale de l'IA. La forme finale de la loi sera issue de négociations entre La Commission et les pays membres de l'UE.

    « Il est essentiel que l'UE rende cette loi aussi étanche que possible pour protéger les consommateurs. Tous les systèmes d'IA, y compris l'IA générative, doivent faire l'objet d'un examen public et les autorités publiques doivent réaffirmer leur contrôle sur ces systèmes. Les législateurs doivent exiger que les résultats de tout système d'IA générative soient sûrs, équitables et transparents pour les consommateurs », a déclaré Pachl. Cependant, un rapport sur les influences exercées sur la législation adoptée par l'UE a révélé qu'OpenAI a fait pression sur les législateurs européens et a réussi à apporter plusieurs amendements au projet de loi initial.

    Ce qui signifie que la version actuelle de la législation de l'UE sur l'IA est fortement influencée par la politique d'OpenAI en matière d'IA. Le laboratoire d'IA a réussi à réduire le fardeau réglementaire qui pèse sur ses systèmes d'IA, notamment ChatGPT et Dall-E. Les critiques affirmant que les efforts de lobbying intense d'OpenAI visent davantage à protéger ses propres intérêts financiers qu'à promouvoir l'intérêt général. Alors que les systèmes d'IA d'OpenAI souffrent des mêmes problèmes que les systèmes concurrents, les critiques cherchent à savoir dans quelle mesure la législation de l'UE serait contraignante pour l'entreprise.

    Sources : Communiqué du BEUC, Rapport du Forbrukerrådet (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

    Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

    Emmanuel Macron annonce un investissement de 500 millions d'euros visant à faire de la France un pôle européen de l'IA, il veut des modèles d'IA français qui rivalisent avec ceux de Google et OpenAI
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #72
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 426
    Points
    158 426
    Par défaut Le projet de règles européennes sur l'IA pourrait nuire à l'Europe, selon les dirigeants
    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises, allant de Renault à Meta

    Les législateurs de l'UE ont adopté ce mois-ci un projet de règles selon lesquelles les systèmes tels que ChatGPT devraient divulguer les contenus générés par l'IA, aider à distinguer les images dites "deep-fake" des images réelles et assurer la protection contre les contenus illégaux.

    Depuis que ChatGPT est devenu populaire, plusieurs lettres ouvertes ont été publiées pour réclamer une réglementation de l'IA et évoquer le "risque d'extinction de l'IA".

    Parmi les signataires des lettres précédentes figurent Elon Musk, Sam Altman, PDG d'OpenAI, ainsi que Geoffrey Hinton et Yoshua Bengio, deux des trois "parrains de l'IA".

    Le troisième, Yann LeCun, qui travaille chez Meta, a signé la lettre de vendredi pour contester la réglementation européenne. Parmi les autres signataires figurent des dirigeants de diverses entreprises telles que la société espagnole de télécommunications Cellnex, la société française de logiciels Mirakl et la banque d'investissement allemande Berenberg.

    "Nous visons principalement la version du Parlement européen parce qu'il a décidé de passer d'une approche basée sur le risque à une approche basée sur la technologie, ce qui ne figurait pas dans le texte initial", a déclaré Cédric O, ancien ministre français du numérique et l'un des trois initiateurs de la lettre.

    Il a organisé cette lettre ouverte avec Jeannette zu Fürstenberg, partenaire fondatrice de La Famiglia VC, et René Obermann, président d'Airbus.

    Nom : shutterstock_2283762011.jpg
Affichages : 1804
Taille : 25,9 Ko

    La lettre met en garde contre le fait qu'en vertu des règles proposées par l'UE, les technologies telles que l'IA générative deviendraient fortement réglementées et que les entreprises développant de tels systèmes seraient confrontées à des coûts de mise en conformité élevés et à des risques de responsabilité disproportionnés.

    Une telle réglementation pourrait conduire des entreprises très innovantes à transférer leurs activités à l'étranger et les investisseurs à retirer leurs capitaux du développement de l'IA européenne en général.

    M. Altman, d'OpenAI, qui avait menacé en mai de retirer ChatGPT de l'Europe s'il devenait trop difficile de se conformer aux futures lois sur l'IA, est revenu plus tard sur sa position et a déclaré que l'entreprise n'avait pas l'intention de se retirer.

    "Je suis convaincu qu'ils n'ont pas lu attentivement le texte, mais qu'ils ont plutôt réagi à l'impulsion de quelques personnes qui ont un intérêt direct dans ce sujet", a déclaré Dragos Tudorache, qui a codirigé la rédaction des propositions de l'UE.


    Source : Une lettre ouverte signée par plus de 160 dirigeants d'entreprises

    Et vous ?

    Les craintes évoquées par les chefs d'entreprise dans cette lettre ouverte sont-elles légitimes, selon vous ?
    Quel est votre avis sur ce projet de réglementation de l'IA par l'UE ?

    Voir aussi :

    Le chatbot d'IA ChatGPT d'OpenAI confronté à des problèmes de conformité au règlement européen sur la protection des données, les experts affirment qu'OpenAI aura du mal à se conformer au RGPD

    ChatGPT : un projet de loi de l'UE pourrait obliger les outils d'IA à révéler le matériel protégé par le droit d'auteur utilisé dans la construction de leurs systèmes

    Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA, les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #73
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 549
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 549
    Points : 3 950
    Points
    3 950
    Par défaut
    comme d'hab l'europe ce tire une balle dans le pied dans tous les domaines.

    a qui profite le crime ? aux etats unis !

    Donc les dirigeant de l'europe doivent etre a leur botte...

  14. #74
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 485
    Points
    36 485
    Par défaut La plupart des modèles de fondation ne sont pas conformes à la loi européenne sur l'IA
    La plupart des modèles de fondation ne sont pas conformes à la loi européenne sur l'IA,
    selon les chercheurs de l’université Stanford

    Au cours de la dernière décennie, nous avons assisté à une explosion des applications de l'intelligence artificielle. Au cours de cette période, l'intelligence artificielle est passée d'un projet purement académique à une force qui alimente des actions dans une myriade d'industries et qui affecte la vie de millions de personnes chaque jour. Les chercheurs du Centre de recherche sur les modèles de fondation de l’université Stanford examinent la conformité des fournisseurs de modèles de fondation, comme ChatGPT, au projet de loi de l’UE sur l’IA, qui vise à réguler l’IA de manière globale.

    Ils ont constaté que les fournisseurs ne respectent pas les exigences de transparence du projet de loi, notamment en ce qui concerne les données, le calcul et le déploiement de leurs modèles. Les chercheurs du Centre de recherche sur les modèles de fondation de l’université Stanford recommandent aux décideurs politiques de renforcer la transparence dans l’écosystème des modèles de fondation, qui ont un impact croissant sur la société.

    L’Institut de Stanford pour l’intelligence artificielle centrée sur l’homme (HAI) a lancé le Centre de recherche sur les modèles de fondation (CRFM), une initiative interdisciplinaire qui vise à faire progresser la recherche, le développement et le déploiement de modèles de fondation.

    Les modèles de fondation comme ChatGPT ont un impact profond sur la société avec leurs performances impressionnantes, leurs dangers potentiels, leur diffusion rapide, leur adoption massive et leur débat permanent. En même temps, l’Union européenne (UE) finalise sa loi sur l’IA, qui sera la première réglementation mondiale de l’IA. Le projet de loi a été approuvé par le Parlement européen avec 499 voix pour, 28 voix contre et 93 abstentions. Le projet de loi impose des obligations spécifiques aux fournisseurs de modèles de fondation tels qu’OpenAI et Google.

    Nom : mfo.jpg
Affichages : 1328
Taille : 129,5 Ko
    Évaluation de la conformité des fournisseurs de modèles de fondation avec le projet de loi de l'UE sur l'IA


    Selon le Centre de recherche sur les modèles de fondation, les fournisseurs de modèles de base divulguent rarement des informations adéquates concernant les données, le calcul et le déploiement de leurs modèles, ainsi que les principales caractéristiques des modèles eux-mêmes. En particulier, les fournisseurs de modèles de base ne respectent généralement pas les projets d'exigences visant à décrire l'utilisation de données de formation protégées par des droits d'auteur, le matériel utilisé et les émissions produites lors de la formation, ainsi que la manière dont ils évaluent et testent les modèles.

    Par conséquent, le CRFM recommande aux décideurs politiques de donner la priorité à la transparence, en s'appuyant sur les exigences de la loi sur l'IA. « Notre évaluation démontre qu'il est actuellement possible pour les fournisseurs de modèles de base de se conformer à la loi sur l'IA et que la divulgation des informations relatives au développement, à l'utilisation et aux performances des modèles de base améliorerait la transparence dans l'ensemble de l'écosystème », déclare le CRFM.

    Qu'est-ce qu'un modèle de fondation ?

    Ces dernières années, les chercheurs ont réussi à construire des systèmes d'IA capables d'apprendre à partir de milliers, voire de millions, d'exemples pour nous aider à mieux comprendre notre monde ou à trouver de nouvelles solutions à des problèmes difficiles. Ces modèles à grande échelle ont donné naissance à des systèmes capables de comprendre ce que nous disons ou écrivons, comme les programmes de traitement et de compréhension du langage naturel que nous utilisons tous les jours, qu'il s'agisse d'assistants numériques ou de programmes de conversion de la parole en texte.

    D'autres systèmes, formés sur des éléments tels que l'ensemble des œuvres d'artistes célèbres ou tous les manuels de chimie existants, nous ont permis de construire des modèles génératifs capables de créer de nouvelles œuvres d'art basées sur ces styles, ou de nouvelles idées de composés basées sur l'histoire de la recherche chimique.

    Bien que de nombreux nouveaux systèmes d'IA aident à résoudre toutes sortes de problèmes du monde réel, la création et le déploiement de chaque nouveau système nécessitent souvent beaucoup de temps et de ressources. Pour chaque nouvelle application, vous devez vous assurer qu'il existe un vaste ensemble de données bien étiquetées pour la tâche spécifique à laquelle vous souhaitez vous attaquer. Si l'ensemble de données n'existait pas, il faudrait que des personnes passent des centaines ou des milliers d'heures à trouver et à étiqueter des images, des textes ou des graphiques appropriés pour l'ensemble de données.

    Le modèle d'IA doit ensuite apprendre à reconnaître tout ce qui se trouve dans l'ensemble de données, puis il peut être appliqué au cas d'utilisation que vous avez, de la reconnaissance du langage à la génération de nouvelles molécules pour la découverte de médicaments. La formation d'un grand modèle de traitement du langage naturel, par exemple, a à peu près la même empreinte carbone que l'utilisation de cinq voitures pendant toute leur durée de vie.

    La prochaine vague d'IA vise à remplacer les modèles spécifiques à une tâche qui ont dominé le paysage de l'IA jusqu'à présent. L'avenir est aux modèles formés sur un large ensemble de données non étiquetées qui peuvent être utilisées pour différentes tâches, avec une mise au point minimale. C'est ce que l'on appelle les modèles de fondation, un terme popularisé pour la première fois par l’HAI du Stanford Institute. « Nous avons vu les premières lueurs du potentiel des modèles de fondation dans les mondes de l'imagerie et du langage. Les premiers exemples de modèles, comme GPT-3, BERT ou DALL-E 2, ont montré ce qu'il était possible de faire », IBM.

    Ce qui fait de ces nouveaux systèmes des modèles de fondation, c'est que, comme leur nom l'indique, ils peuvent servir de fondation à de nombreuses applications du modèle d'IA. Grâce à l'apprentissage auto-supervisé et à l'apprentissage par transfert, le modèle peut appliquer les informations qu'il a apprises sur une situation à une autre. Bien que la quantité de données soit considérablement plus importante que celle dont une personne moyenne a besoin pour transférer sa compréhension d'une tâche à une autre, le résultat final est relativement similaire : vous apprenez à conduire une voiture, par exemple, et sans trop d'efforts, vous pouvez conduire la plupart des autres voitures - ou même un camion ou un bus.

    L’écart entre les modèles de fondation et la loi sur l’IA : pourquoi la transparence est essentielle

    Les modèles de fondation sont au cœur du discours mondial sur l'IA : le paradigme technologique émergent a un impact concret et croissant sur l'économie, la politique et la société. Parallèlement, la loi européenne sur l'IA est l'initiative réglementaire la plus importante en matière d'IA dans le monde aujourd'hui. La loi imposera non seulement des exigences en matière d'IA dans l'UE, qui compte 450 millions d'habitants, mais créera également un précédent pour la réglementation de l'IA dans le monde entier (l'effet Bruxelles).

    Les décideurs politiques du monde entier s'inspirent déjà de la loi sur l'IA, et les entreprises multinationales pourraient modifier leurs pratiques mondiales afin de maintenir un processus unique de développement de l'IA. La manière dont nous réglementons les modèles de fondation structurera la chaîne d'approvisionnement numérique au sens large et façonnera l'impact sociétal de la technologie.

    Les publications de modèles de fondation sont généralement devenues moins transparentes, comme en témoignent les principales publications de ces derniers mois. Les rapports sur le GPT-4 d'OpenAI et le PaLM 2 de Google indiquent ouvertement qu'ils ne font pas état de nombreux aspects pertinents concernant les données et le calcul. Le document sur le GPT-4 indique que « compte tenu du paysage concurrentiel et des implications pour la sécurité des modèles à grande échelle tels que le GPT-4, ce rapport ne contient aucun détail supplémentaire sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction de l'ensemble de données, la méthode d'entraînement ou d'autres éléments similaires ».

    Selon le CRFM, une transparence suffisante pour satisfaire aux exigences de la loi en matière de données, de calcul et d'autres facteurs devrait être commercialement possible si les fournisseurs de modèles de fondations prennent collectivement des mesures résultant de normes ou de réglementations sectorielles.

    La loi sur l'IA est toujours en discussion et sera finalisée lors du prochain dialogue entre la Commission européenne, le Conseil et le Parlement. Les fournisseurs de modèles de fondation ont également des obligations en vertu des dispositions de la loi sur l'IA qui ne concernent pas uniquement les modèles de base, par exemple lorsque leurs modèles de base sont intégrés dans des systèmes d'IA à haut risque. Par conséquent, les évaluations pourraient diverger de la conformité des fournisseurs de modèles de fondation à la version finale de la loi sur l'IA.

    L'adoption et l'application de la loi européenne sur l'IA entraîneront des changements positifs importants dans l'écosystème des modèles de fondation. Selon le CRFM, le respect par les fournisseurs de modèles de fondation des exigences relatives aux droits d'auteur, à l'énergie, aux risques et à l'évaluation est particulièrement faible, ce qui indique les domaines dans lesquels les fournisseurs de modèles peuvent s'améliorer.

    Sources : CRFM

    Et vous ?

    Les conclusions du CRFM sur les modèles de fondation sont-elles pertinentes ?

    Selon vous, quels sont les avantages et les inconvénients de la transparence comme priorité pour responsabiliser les fournisseurs de modèles de fondation ?

    À votre avis, quels sont les risques et les opportunités liés à la réglementation des modèles de fondation au niveau mondial ?

    Comment les fournisseurs de modèles de fondation peuvent-ils s’adapter aux exigences du projet de loi de l’UE sur l’IA tout en préservant leur innovation et leur compétitivité ?

    Voir aussi :

    L'UE vote pour interdire l'IA dans la surveillance biométrique et exiger la divulgation des systèmes d'IA, le projet de loi de l'UE sur l'IA se durcit, mais reste ouvert à la négociation

    Un groupe de consommateurs demandent à l'UE d'enquêter d'urgence sur les risques liés à l'IA générative et d'appliquer la législation existante pour protéger les consommateurs

    Data Act : l'UE s'accorde sur des règles de protection des données face aux grandes enseignes du numérique, les entreprises les critiquent et un groupe paneuropéen de consommateurs affiche sa déception
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #75
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut Les législateurs de l'UE progressent dans leurs négociations sur les nouvelles règles en matière d'IA
    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

    Les législateurs de l'Union européenne se sont mis d'accord sur une partie essentielle des nouvelles règles relatives à l'intelligence artificielle lors d'une réunion qui s'est tenue mardi 24 octobre en fin de journée, se rapprochant ainsi d'un accord plus large sur la loi historique sur l'intelligence artificielle, selon cinq personnes au fait du dossier.

    Après deux ans de négociations, le projet de loi a été approuvé par le Parlement européen en mai. Le projet de règles sur l'intelligence artificielle doit maintenant être approuvé lors de réunions entre le Parlement et les États membres de l'UE afin de mettre au point les versions finales des lois, dans le cadre d'un processus connu sous le nom de trilogue.


    Lors de la réunion de mardi, qui a duré jusqu'à minuit, les législateurs se sont mis d'accord sur la plupart des parties de l'article 6 du projet de loi sur l'IA, l'une des pierres d'achoppement des négociations, ont déclaré les sources, refusant de donner plus de détails sur ce qui a été convenu. Elles ont refusé d'être identifiées car les discussions sont confidentielles.

    L'article 6 décrit les types de systèmes d'IA qui seront désignés comme étant "à haut risque" et donc soumis à un examen réglementaire plus approfondi, ont déclaré les sources.

    Le débat sur les applications à haut risque s'est récemment concentré sur la question de savoir s'il fallait prévoir des exemptions pour certains modèles d'IA à haut risque, tels que ceux qui effectuent des tâches "purement accessoires", ont indiqué les sources.

    Un système d'IA peut être considéré comme purement accessoire lorsqu'il est utilisé pour effectuer une tâche relativement mineure, secondaire à toute prise de décision humaine, telle que l'organisation de documents ou la traduction d'un texte d'une langue à l'autre.

    Avant la réunion de mardi, il a été rapporté que les législateurs européens n'étaient pas encore parvenus à un accord sur plusieurs questions, ce qui exclut tout accord jusqu'en décembre.

    Dragos Tudorache et Brando Benifei, membres du Parlement européen et co-rapporteurs de la loi européenne sur l'intelligence artificielle, ont déclaré mercredi 25 octobre qu'ils étaient confiants quant à la possibilité de parvenir à un accord lors d'un cinquième trilogue qui devrait se tenir début décembre.

    "Nous avons fait des progrès significatifs", a déclaré M. Benifei. "Si le Conseil fait preuve d'une approche constructive, nous pourrions approuver (au niveau du trilogue) d'ici la fin de l'année", a-t-il ajouté.

    L'absence d'accord pourrait repousser les négociations au début de l'année prochaine, ce qui augmenterait le risque de voir les discussions déraillées par les élections du Parlement européen en juin.

    Source : Dragos Tudorache et Brando Benifei, membres du Parlement européen et co-rapporteurs de la loi européenne sur l'intelligence artificielle

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de la réglementation européenne en matière d'IA ? Trouvez-vous que la démarche des législateurs de l'UE est pertinente ?

    Voir aussi

    Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA, les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright

    Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

    L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  16. #76
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la rép
    Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis, il prévoit la création d'un organisme international de l'IA.

    Une semaine après qu'Eric Schmidt, ancien dirigeant de Google, et Mustafa Suleyman, cofondateur d'Inflection et de Deepmind, ont déclaré qu'il était nécessaire de créer un organisme international similaire au Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) pour réglementer l'IA, Demis Hassabis est intervenu à son tour. Hassabis, qui est à la tête de Google Deepmind, estime que le risque lié à l'IA devrait être traité avec la même conviction que les efforts déployés pour lutter contre le changement climatique.

    Le chercheur britannique en IA a mis l'accent sur la nécessité de réglementer davantage l'IA afin de lutter contre les crises existentielles posées par une technologie qui possède des niveaux d'intelligence supérieurs à ceux de l'homme. Il a déclaré que le monde ne peut pas se permettre de retarder sa réponse. Le chercheur estime que la réglementation de l'IA commence par la création d'un organisme similaire au GIEC. Hassabis a déclaré qu'il était impératif de s'attaquer aux dangers de l'IA, y compris ceux liés à la création d'armes biologiques.

    Dans une interview accordée au Guardian, Hassabis a déclaré que la communauté internationale avait mis beaucoup trop de temps à coordonner une réponse mondiale efficace au changement climatique et que nous vivions les conséquences de ce retard. L'expert en IA a affirmé que le monde ne pouvait plus se permettre un tel retard. Il ne s'est toutefois pas contenté de brosser un tableau sombre de la situation. Il a ajouté que l'IA pourrait être "l'une des technologies les plus importantes et les plus bénéfiques jamais inventées".


    Hassabis a également exprimé son souhait de voir un équivalent du CERN (l'Organisation européenne pour la recherche nucléaire) pour la sécurité de l'IA, qui supervise la recherche à l'échelle mondiale. Il a également souhaité la création d'un équivalent de l'Agence internationale de l'énergie atomique. Ses commentaires interviennent alors que le Royaume-Uni prévoit d'accueillir son sommet mondial sur la gouvernance de l'IA les 1er et 2 novembre. Cet événement est considéré comme une occasion d'établir un consensus international sur les dangers de l'IA.

    Il est intéressant de noter qu'il y a deux jours, Sam Altman, PDG d'OpenAI, qui a révolutionné l'IA avec ChatGPT, a déclaré qu'il entrevoyait la possibilité d'une IAG dans les dix prochaines années. Dans l'entretien qu'il a accordé au Wall Street Journal, le PDG a déclaré que deux choses lui importaient au cours de la prochaine décennie : l'IAO et une énergie abondante et abordable. Contrairement aux inquiétudes largement répandues, M. Altman a dissipé les idées reçues en affirmant que l'AGI, qui se caractérise par une intelligence globale, sera un facteur de transformation. Selon lui, l'AGI sera probablement l'outil le plus puissant de l'humanité, promettant des capacités de résolution de problèmes et d'expression créative sans précédent.

    Source : Interview de Demis Hassabis avec The Guardian

    Et vous ?

    Pensez-vous que la règlementation de l'IA est aussi importante que les problèmes climatiques ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #77
    Membre expérimenté
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    389
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 389
    Points : 1 690
    Points
    1 690
    Par défaut
    il prévoit la création d'un organisme international de l'IA
    Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

    Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.

  18. #78
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA
    Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA, le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies".

    Le Groupe des sept pays industrialisés adoptera lundi un code de conduite pour les entreprises qui développent des systèmes avancés d'intelligence artificielle, selon un document du G7, alors que les gouvernements cherchent à atténuer les risques et la mauvaise utilisation potentielle de la technologie.

    Le code de conduite volontaire constituera une référence pour la manière dont les grands pays régissent l'IA, dans un contexte de préoccupations en matière de protection de la vie privée et de risques pour la sécurité. Les dirigeants du Groupe des sept économies (G7), composé du Canada, de la France, de l'Allemagne, de l'Italie, du Japon, de la Grande-Bretagne et des États-Unis, ainsi que de l'Union européenne, ont lancé le processus en mai lors d'un forum ministériel baptisé "processus d'Hiroshima sur l'IA".

    Le code en 11 points "vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournira des orientations volontaires pour les actions des organisations qui développent les systèmes d'IA les plus avancés, y compris les modèles de base les plus avancés et les systèmes d'IA génératifs", selon le document du G7. Il "vise à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies".


    Le code invite les entreprises à prendre des mesures appropriées pour identifier, évaluer et atténuer les risques tout au long du cycle de vie de l'IA, ainsi qu'à s'attaquer aux incidents et aux schémas d'utilisation abusive après la mise sur le marché des produits d'IA. Les entreprises devraient publier des rapports sur les capacités et les limites des systèmes d'IA, ainsi que sur leur utilisation et leur mauvaise utilisation, et investir dans des contrôles de sécurité robustes.

    L'Union européenne a été à l'avant-garde de la réglementation de la technologie émergente avec sa loi sur l'IA, très stricte, tandis que le Japon, les États-Unis et les pays d'Asie du Sud-Est ont adopté une approche plus souple que celle de l'Union européenne pour stimuler la croissance économique. Lors d'un forum sur la gouvernance de l'internet organisé à Kyoto, au Japon, au début du mois, Vera Jourova, responsable des questions numériques à la Commission européenne, a déclaré qu'un code de conduite constituait une base solide pour garantir la sécurité et qu'il servirait de passerelle jusqu'à ce qu'une réglementation soit mise en place.

    Source : Document du G7

    Et vous ?

    Que pensez-vous de ce code de conduite en matière d'IA ?

    Voir aussi :

    Les États-Unis et l'Union Européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir » d'après la responsable de la technologie de l'UE

    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

    Google, Microsoft, Anthropic et OpenAI lancent un fonds de 10 millions de dollars pour la sécurité de l'IA, afin de mener des recherches responsables dans ce domaine
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  19. #79
    Membre habitué Avatar de rsuinux
    Homme Profil pro
    Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Inscrit en
    Août 2007
    Messages
    128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Secteur : Santé

    Informations forums :
    Inscription : Août 2007
    Messages : 128
    Points : 170
    Points
    170
    Par défaut
    @jules34 :parce que vous êtes contre l'OMS ????
    Si tu ne sais pas: demande, si tu sais, partage.

  20. #80
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 843
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 843
    Points : 51 535
    Points
    51 535
    Par défaut Le patron de Google DeepMind répond au chef de la division IA de Meta sur ses propos alarmistes à propos d'IA
    Le patron de Google DeepMind répond au chef de la division IA de Meta qui l'accuse d’entretenir la peur d’un futur où l’IA deviendrait une menace pour l’humain
    Afin d’appeler à une réglementation

    Le patron de Google Deepmind répond au chef de la division IA de Meta. Ce dernier l’accuse d’entretenir la peur d’un futur où l’intelligence artificielle deviendrait une menace pour l’humain. L’objectif (selon le chef de la division IA de Meta) : appeler à une réglementation mondiale de la filière IA au profit des géants technologiques. L’implication serait alors la prolifération de systèmes d’IA propriétaires au détriment de ceux à code source ouvert. Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes d’entraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que l’avantage sera d’éviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? La question divise.

    Demis Hassabis, qui est à la tête de Google Deepmind, estime que le risque lié à l'IA devrait être traité avec la même conviction que les efforts déployés pour lutter contre le changement climatique.

    Le chercheur britannique en IA est d’avis qu’il est nécessaire de réglementer davantage l'IA afin de lutter contre les crises existentielles posées par une technologie qui possède des niveaux d'intelligence supérieurs à ceux de l'homme. Il déclare à ce propos que « le monde ne peut pas se permettre de retarder sa réponse. » Le chercheur estime que la réglementation de l'IA commence par la création d'un organisme similaire au GIEC. Hassabis ajoute qu'il est impératif de s'attaquer aux dangers de l'IA, y compris ceux liés à la création d'armes biologiques.

    Dans une récente interview, Hassabis souligne que la communauté internationale avait mis beaucoup trop de temps à coordonner une réponse mondiale efficace au changement climatique et que nous vivions les conséquences de ce retard. L'expert en IA a affirmé que le monde ne pouvait plus se permettre un tel retard.

    Hassabis a en sus exprimé son souhait de voir un équivalent du CERN (l'Organisation européenne pour la recherche nucléaire) pour la sécurité de l'IA, qui supervise la recherche à l'échelle mondiale. Il souhaite en plus la création d'un équivalent de l'Agence internationale de l'énergie atomique. Ses commentaires interviennent alors que le Royaume-Uni prévoit d'accueillir son sommet mondial sur la gouvernance de l'IA. Cet événement est considéré comme une occasion d'établir un consensus international sur les dangers de l'IA. Sa récente sortie en réponse au chef de la division IA de Meta est une redite de ce positionnement.


    C’est un débat open source contre systèmes propriétaires qui se joue en toile de fond

    Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence. C’est la raison pour laquelle il milite pour la transparence en matière de développement de l’intelligence artificielle au travers de l’open source.

    Nom : 1.png
Affichages : 1049
Taille : 141,8 Ko

    Au début de l'année, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint a estimé que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques. Puis OpenAI a amélioré son chatbot IA, lui imposant des limites éthiques et restreignant certaines fonctionnalités. C'était sans compter sur l'ingéniosité de certains intervenants de la sphère qui ont fini par mettre sur pied WormGPT. C’est un chatbot conçu pour aider les cybercriminels à développer des logiciels malveillants. WormGPT représente l’entrée en matière des possibilités qui seront accessibles aux cybercriminels au fur et à mesure de l’évolution des modèles d’intelligence artificielle. C’est la raison pour laquelle la question revient avec acuité sur la table : Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes d’entraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que l’avantage sera d’éviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? Ilya Sutskever explique les avantages et les inconvénients de chacun des points de vue :


    Source : Entretien (pièce jointe)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 281
    Dernier message: 21/04/2024, 23h26
  2. Réponses: 2
    Dernier message: 20/10/2020, 16h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 11h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 22h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo