IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #41
    Expert confirmé

    Profil pro
    Inscrit en
    Février 2006
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2006
    Messages : 2 387
    Points : 4 965
    Points
    4 965
    Par défaut
    Citation Envoyé par Nym4x Voir le message
    C'est un peu comme si j'allais braquer une banque puis j'utilisais l'argent pour devenir actionnaire majoritaire de la banque.
    pas vraiment non, dans le cas de la banque, tu dépossèdes la-dite banque de "son" argent qu'elle n'a donc plus.
    ici, de la même manière que la grande époque des copies pirates, du droit à la copie privée, etc. tu utilises des données donc déjà tu ne soustrais pas ces informations de celui qui les as publié.

    ensuite c'est stricto sensu identique à toi ou autre qui irait à gauche et à droite glaner, je sais pas trop, des styles de textes ou des dessins que tu aimes, et t'en servir pour produire toi même une nouvelle œuvre.
    surtout ici dans un forum sur la programmation, avec les copiés/collés provenant de stackoverflow, github ou autres, on serait les premier à tomber pour "vol".
    il me semble que dans cette optique les dévs de wine sont interdits de même lire les leaks du code de windows pour éviter de produire du code qui serait un peu ressemblant. bref.

    les gens sont enragés parce que le processus devient industriel, parce que sinon, ils devraient râler et faire interdire toutes les nouvelles œuvres qui sortent chaque jour (qui, sauf à ce que l'auteur créé un truc de toute pièce sans aucune ressemblance avec quelque chose déjà paru, ressemble forcément à de l’existant).

    là on est juste sur l'exemple typique d'un ralentisseur qu'on met que sur un coté de la route :
    - celui qui a commandé le projet peut se vanter de mériter son salaire sous couvert de sécurité routière ;
    - tout le monde passera à coté, y compris celui qui l'a commandé, parce qu'il y a suffisamment de place pour contourner.

  2. #42
    Expert éminent Avatar de CosmoKnacki
    Homme Profil pro
    Justicier interdimensionnel
    Inscrit en
    Mars 2009
    Messages
    2 886
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Justicier interdimensionnel

    Informations forums :
    Inscription : Mars 2009
    Messages : 2 886
    Points : 6 624
    Points
    6 624
    Par défaut
    Est-ce que ces règles trés strictes s'appliqueront également à Arlette Chabot?

  3. #43
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 110
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 110
    Points : 18 349
    Points
    18 349
    Par défaut Les législateurs européens réclament une nouvelle réglementation pour faire face à l'essor de l'IA
    Les législateurs européens réclament une nouvelle réglementation pour faire face à l'essor de l'IA, dans un contexte marqué par l'absence de règles de sécurité adéquates qui encadrent la technologie

    Des dizaines de législateurs de l'Union européenne expriment leur désarroi face à l'essor de la technologie de l'IA en l'absence de mesures de sécurité adéquates. C'est pourquoi ils réclament davantage de règles pour garantir que les outils d'IA ne soient pas utilisés sans contrôle, y compris ceux désignés comme étant à haut risque par la loi européenne sur l'IA.

    Une nouvelle lettre ouverte publiée le lundi 17 avril montre comment plusieurs membres du Parlement appellent à la coopération internationale. Il s'agit de mettre en place des garde-fous pour le développement d'outils d'IA qui, selon les experts du secteur, pourraient bientôt devenir les plus dangereux et les plus puissants du marché si des précautions adéquates n'étaient pas prises.


    Cette lettre nous parvient après qu'un grand groupe d'experts en IA ait appelé la nation européenne à établir davantage de règles en matière d'IA qui soient réellement étendues. Ils ont également fait valoir que l'objectif général de la technologie de l'IA pourrait finir par manquer sa cible.

    Cette catégorie englobe une large liste d'outils, dont ChatGPT, qui n'ont peut-être pas été conçus en tenant compte du facteur de risque élevé, mais qui pourraient être utilisés dans différents contextes présentant des risques plus importants.

    La lettre ouverte au public poursuit en mentionnant que les législateurs se sont mis d'accord sur la manière dont la loi sur l'IA vise à traiter les cas d'IA à haut risque. Mais dans le même temps, ils exigent également des réglementations préliminaires complémentaires pour créer et déployer des systèmes d'IA plus puissants qui pourraient être adoptés pour une série d'objectifs différents.

    Les législateurs ont ajouté une référence à une autre lettre publiée récemment, dans laquelle de nombreux milliardaires et scientifiques de premier plan du secteur technologique ont accepté de suspendre la formation à l'IA dans les laboratoires pendant six mois. Il s'agissait d'un système plus puissant que l'actuel modèle technologique GPT-4.

    Les législateurs de l'UE ont révélé qu'ils partageaient une grande partie des préoccupations exprimées dans la lettre, car le rythme auquel nous assistons aux progrès de la technologie de l'IA est tout simplement trop alarmant, ce qui justifie l'intervention nécessaire de l'attention politique avant que la situation ne devienne incontrôlable.

    Ils se sont même engagés à ce qu'un ensemble de règles soit mis en place dans le cadre de la loi sur l'IA afin de guider le développement de l'IA d'une manière plus sûre et plus fiable. De même, ils souhaitent que des personnalités politiques de premier plan telles que le président américain Biden et la présidente de la Commission européenne Ursula von der Leyen en prennent note et définissent de nouveaux principes pour le contrôle et l'utilisation de l'IA.

    Source : Twitter

    Et vous ?

    Quel est votre avis sur le sujet ?

    Selon vous, la démarche entreprise par les législateurs de l'UE est-elle justifiée ou pertinente ?

    Selon vous, en l'état actuel des choses, l'IA doit-elle être mieux réglementée pour éviter ses potentielles dérives ?

    Voir aussi

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base

    La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres, avertissent les experts de la Brookings Institution

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

  4. #44
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Ces gens ne connaissent que les règles et les coups de bâton.

  5. #45
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 696
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 696
    Points : 1 420
    Points
    1 420
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Une batterie amovible ça prend de la place et ça coute cher, c'est pour ça qu'il n'y en a plus dans les smartphones.
    Je ne sais pas où tu as pris cette idée. Car en pratique ce sont exactement les mêmes batteries. Et je ne parle pas de batterie AA ou AAA rechargeable. Mais de pile plate pour les téléphones. Sauf que maintenant les fils sont soudés alors qu'auparavant, ils étaient reliés avec un connecteur

    Ton téléphone est toujours raccordé au réseau, même quand il est fermé. Appel un ami et demande-lui de t'envoyer un texto dans 5 minutes et ferme ton téléphone. Je ne sais pas si c'est à la demande de la CIA ou de la NSA, mais la géo-position est activable à distance.

  6. #46
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 735
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 735
    Points : 18 756
    Points
    18 756
    Par défaut
    Citation Envoyé par Madmac Voir le message
    Car en pratique ce sont exactement les mêmes batteries.
    Oui mais si tu veux une batterie amovible il faut un système pour pouvoir enlever et mettre une batterie et ça prend de la place.
    Il faut également un système pour pouvoir ouvrir le téléphone.
    Je prefererais un téléphone avec une batterie amovible qu'un téléphone ultra plat.

    Les téléphones sont devenus chiant aujourd'hui, souvent il n'y a plus de sortie jack 3.5 et plus de port micro SD.

  7. #47
    Membre extrêmement actif
    Homme Profil pro
    Développeur Java
    Inscrit en
    Septembre 2011
    Messages
    749
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Java
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Septembre 2011
    Messages : 749
    Points : 2 878
    Points
    2 878
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Les téléphones sont devenus chiant aujourd'hui, souvent il n'y a plus de sortie jack 3.5 et plus de port micro SD.
    Et de plus en plus pas de carte sim externe.

  8. #48
    Membre régulier
    Homme Profil pro
    Inscrit en
    Mars 2011
    Messages
    62
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Maine et Loire (Pays de la Loire)

    Informations forums :
    Inscription : Mars 2011
    Messages : 62
    Points : 123
    Points
    123
    Par défaut
    J'ai une petite inquiétude qui trotte dans ma tête : les échanges (mails, forums, etc...) risquent-ils d'être aussi inclus (un jour) dans les données d'apprentissage de ces IA ? Idem pour les requêtes faites aux robots/moteurs de recherche ? Il me semble avoir lu que des sociétés comme GMail analysent déjà les mails privés de leurs utilisateurs pour le ciblage publicitaire ; la tentation d'une analyse au profit d'IA génératives va être grande pour eux.

    Parce que sinon, on va voir non seulement des oeuvres (finies) pillées par les IA mais aussi celles en cours de réalisation...

    Pour fixer un exemple : un écrivain/scénariste qui participe à un forum d'écrivain pour chercher du soutien ou des retours sur son projet, ou qui simplement en discute par mail avec son éditeur pourrait-il voir ses idées utilisées pour les réponses d'une IA avant même que son oeuvre soit achevée et soumise au droit d'auteur ?

  9. #49
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 696
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 696
    Points : 1 420
    Points
    1 420
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Les téléphones sont devenus chiant aujourd'hui, souvent il n'y a plus de sortie jack 3.5 et plus de port micro SD.
    Les batteries sont exactement identiques. Mais plutôt que les raccorder avec des connecteurs, ils ne mettent plus les connecteurs et soudent les fils directement.

    . Mais la partie pour le raccord avec la batterie est toujours présent.

    Citation Envoyé par Ryu2000 Voir le message
    Les téléphones sont devenus chiant aujourd'hui, fréquemment, il n'y a plus de sortie jack 3.5 et plus de port micro SD.
    C'est la raison, pour laquelle les téléphones sont plus difficiles à ouvrir. Parce que ces connecteurs sont très bons pour ramasser la poussière. Ils devaient fait en sort de pouvoir les ouvrir facilement.

    Ton téléphone est toujours connecté tant qu'il y a de l'énergie dans ta batterie.

    https://www.youtube.com/shorts/l-AU3nKb6II

  10. #50
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 700
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 700
    Points : 202 491
    Points
    202 491
    Par défaut AI Act : les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA
    AI Act : les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA,
    les IA génératives comme ChatGPT devraient fournir un résumé détaillé des données de formation couvertes par la loi sur le droit d'auteur

    Les législateurs européens se sont rapprochés de l'adoption de nouvelles règles régissant les outils d'intelligence artificielle tels que ChatGPT, à la suite d'un vote serré jeudi où ils ont convenu d'un projet de loi plus strict. Les commissions du Parlement européen chargées de la question ont approuvé jeudi des modifications au projet de règles visant à encadrer l’intelligence artificielle générative, comme ChatGPT, et ont proposé une interdiction de la surveillance faciale, rapprochant ainsi l’UE de la fixation de règles phares pour l’IA, ouvrant la voie à l'adoption en plénière à la mi-juin.

    La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Proposé par la Commission européenne il y a deux ans, il vise à établir la norme pour l’IA avant la Chine et les États-Unis, alors que l’utilisation croissante de la technologie a suscité des craintes de pertes d’emplois, de désinformation et d’atteintes aux droits d’auteur.

    Une question de classification

    L’AI Act est un projet de règlement proposé par la Commission européenne le 21 avril 2021, qui vise à introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.

    Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.

    La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.

    Les applications d’IA considérées comme inacceptables sont celles qui portent atteinte à la dignité humaine, comme la manipulation du comportement humain ou l’exploitation des vulnérabilités. Ces applications seront interdites dans l’UE.

    Les applications d’IA considérées comme à risque élevé sont celles qui peuvent avoir un impact important sur la vie ou les droits des personnes, comme la reconnaissance faciale, les systèmes de recrutement ou les notes de crédit. Ces applications seront soumises à des exigences strictes en matière de qualité des données, de documentation, de transparence, de supervision humaine et de robustesse.

    Les applications d’IA considérées comme à risque limité sont celles qui peuvent induire en erreur les utilisateurs ou les exposer à un choix limité, comme les chatbots ou les filtres vidéo. Ces applications devront être clairement signalées comme étant basées sur l’IA.

    Les applications d’IA considérées comme à risque minimal sont celles qui présentent un faible potentiel de préjudice pour les personnes ou la société, comme les jeux vidéo ou les filtres anti-spam. Ces applications seront exemptées de toute obligation spécifique.

    Selon le compromis trouvé par les députés européens, le texte sera soumis au vote de l’ensemble du Parlement le mois prochain, après quoi les législateurs finaliseront les détails avec les pays de l’UE et la Commission européenne. Les députés européens ont convenu d’interdire l’utilisation de la reconnaissance faciale dans les espaces publics, les outils de police prédictive et d’imposer de nouvelles mesures de transparence aux applications d’IA générative comme ChatGPT.

    Nom : europe.png
Affichages : 2387
Taille : 474,0 Ko

    IA à usage général

    La version originale de la loi sur l'IA n'incluait pas les systèmes sans objectif spécifique dans son champ d'application. Le succès rapide de ChatGPT et d'autres grands modèles de langage a poussé les législateurs européens à se demander comment réglementer au mieux ce type d'IA. Le résultat a été une approche à plusieurs niveaux.

    Le livre de règles de l'IA ne couvrira pas les systèmes d'IA à usage général par défaut. L'essentiel des obligations incombera aux opérateurs économiques qui intègrent ces systèmes dans une application considérée à haut risque.

    Cependant, les fournisseurs d'IA à usage général devraient soutenir la conformité des opérateurs en aval en fournissant toutes les informations et la documentation pertinentes sur le modèle d'IA.

    Des exigences plus strictes sont proposées pour les modèles de base, de puissants systèmes d'IA à usage général comme Stable Diffusion qui peuvent alimenter d'autres applications d'IA. Les obligations portent sur la gestion des risques, la gouvernance des données et le niveau de robustesse du modèle de fondation, à valider par des experts indépendants.

    Le niveau supérieur concerne les modèles d'IA génératifs comme ChatGPT, qui devraient divulguer chaque fois qu'un texte est généré par l'IA et fournir un résumé détaillé des données de formation couvertes par la loi sur le droit d'auteur.

    Catégorisation à haut risque

    Le règlement introduit un régime plus strict pour les applications d'IA à haut risque. Initialement, le risque élevé a été déterminé sur la base d'une liste de domaines critiques et de cas d'utilisation figurant à l'annexe III (voire texte original de la proposition de loi en source).

    Cependant, les députés ont supprimé cet automatisme, ajoutant comme couche supplémentaire que pour être classé comme à haut risque, un système d'IA devrait également présenter un risque important de nuire à la santé, à la sécurité ou aux droits fondamentaux des personnes.

    Si les systèmes d'IA relèvent de l'annexe III, mais que les fournisseurs estiment qu'il n'y a pas de risque significatif, ils devront en informer l'autorité compétente, qui disposera de trois mois pour s'y opposer. Les fournisseurs pourront lancer leur solution d'IA entre-temps, mais les erreurs de classification seront passibles de sanctions.

    L'annexe III a également été considérablement modifiée, ce qui rend la formulation plus précise dans les domaines des infrastructures critiques, de l'éducation, de l'emploi et de l'accès aux services essentiels. Les domaines de l'application de la loi, du contrôle des migrations et de l'administration de la justice ont été élargis.

    Les systèmes de recommandation des plateformes de médias sociaux désignées comme de très grandes plateformes en ligne en vertu de la loi sur les services numériques ont été ajoutés.

    Nom : intelligence.png
Affichages : 1543
Taille : 101,3 Ko

    Obligations à haut risque

    Le texte du Parlement européen a rendu les obligations des fournisseurs d'IA à haut risque beaucoup plus prescriptives, notamment en matière de gestion des risques, de gouvernance des données, de documentation technique et de tenue de registres.

    Une toute nouvelle exigence a été introduite pour les utilisateurs de solutions d'IA à haut risque de procéder à une évaluation de l'impact sur les droits fondamentaux en tenant compte d'aspects tels que l'impact négatif potentiel sur les groupes marginalisés et l'environnement.

    Gouvernance et application

    Parmi les législateurs de l'UE, il y a eu un consensus pour assurer un élément de centralisation de l'architecture d'exécution, en particulier pour les affaires transfrontalières. Le co-rapporteur Dragoș Tudorache a proposé la création d'un bureau de l'IA, un nouvel organe qui serait un peu en deçà d'une agence de l'UE.

    Au cours des négociations, les tâches de l'Office de l'IA ont été considérablement réduites en raison du manque de marge de manœuvre sur le budget de l'UE. Ainsi, l'Office de l'IA s'est limitée à un rôle de soutien, tel que la fourniture d'orientations et la coordination d'enquêtes conjointes.

    En revanche, la Commission a été chargée de régler les différends entre les autorités nationales sur les systèmes d'IA dangereux.

    Les élus se montrent plutôt satisfaits... pour le moment

    Dragos Tudorache, l’un des parlementaires chargés de rédiger les lois, a déclaré : « C’est un accord délicat. Mais c’est un package qui, je pense, donne quelque chose à tous ceux qui ont participé à ces négociations ». Et de continuer en disant « Nos sociétés attendent que nous fassions quelque chose de déterminé sur l’intelligence artificielle et l’impact qu’elle a sur leur vie. Il suffit d’allumer la télévision… ces deux ou trois derniers mois, et vous voyez chaque jour à quel point cela devient important pour les citoyens ».

    Svenja Hahn, députée allemande, a déclaré que les négociations avaient obligé les députés conservateurs et de gauche à se rencontrer à mi-chemin. « Nous avons réussi à trouver un compromis qui permettrait de réglementer l’IA de manière proportionnée, de protéger les droits civils et de stimuler l’innovation et l’économie », a-t-elle dit.

    « Ce vote est une étape importante dans la réglementation de l'IA et un signal clair du Parlement que les droits fondamentaux devraient en être la pierre angulaire », a déclaré l'eurodéputé des Verts Kim van Sparrentak. « L'IA doit être au service des personnes, de la société et de l'environnement, et non l'inverse ».

    Le projet de loi sera soumis à un vote en plénière du Parlement européen en juin avant que les termes définitifs ne soient convenus lors de pourparlers en « trilogue » impliquant des représentants du Parlement européen, du Conseil de l'Union européenne et de la Commission européenne. Une fois les conditions finalisées et le projet de loi devenu loi, il y aurait une période de grâce d'environ deux ans pour permettre aux parties concernées de se conformer à la réglementation.

    « Le Parlement européen doit entrer dans le trilogue avec la position la plus ferme possible pour protéger les droits de toutes les personnes à l'intérieur et à l'entrée de l'UE », a déclaré Caterina Rodelli, analyste des politiques européennes à l'organisation à but non lucratif Access Now.

    Sources : Commission européenne, site dédié

    Et vous ?

    Quelle lecture en faites-vous ?

    Voir aussi :

    Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur

  11. #51
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 780
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 780
    Points : 7 233
    Points
    7 233
    Par défaut
    Concernant les droits fondamentaux et la dignité humaine, rien dans cette loi ne parle de l'accès au travail en concurrence avec l'IA. Je crois qu'il s'agit d'une des principales préoccupations du peuple que l'accès à l'emploi, ou sa conservation, et la peur du grand remplacement. Peut-être un revenu universel en Europe ?

  12. #52
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 915
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 915
    Points : 37 422
    Points
    37 422
    Par défaut « La loi européenne sur l'IA arrive, cette fois-ci probablement réellement », estime Wolfgang Hauptfleisch
    « La loi européenne sur l'IA arrive, cette fois-ci probablement réellement », estime Wolfgang Hauptfleisch, architecte logiciel,
    deux commissions ont adopté un projet par 84 voix pour, 7 contre

    Dans un billet de blog publié la semaine dernière, Wolfgang Hauptfleisch, architecte logiciel, parle du projet de loi sur l’intelligence artificielle (IA) de l’Union européenne (UE), qui vise à réguler le développement et l’utilisation de l’IA dans différents domaines. Il explique que le projet de loi a été adopté par deux commissions du Parlement européen, qui ont ajouté des amendements importants, comme l’interdiction de certaines utilisations d’IA jugées intrusives ou discriminatoires, la classification des systèmes d’IA utilisés par les grandes plateformes numériques comme à haut risque, et de nouvelles exigences de transparence et d’évaluation des risques pour les fournisseurs de modèles fondamentaux génératifs, comme GPT.

    Hauptfleisch, qui est également passionné des machines et de l'espace, souligne que certains des amendements sont une réaction aux développements récents dans le domaine de l’IA, notamment l’impact potentiel des grands modèles de langage. Il conclut que le projet de loi sur l’IA pourrait être finalisé cette année, après un long processus de débat et de négociation.

    Nom : ParlementEuropéen.jpg
Affichages : 2823
Taille : 6,1 Ko

    Le Parlement européen a adopté le 3 mai un rapport sur l'intelligence artificielle, qui établit une liste de demandes visant à garantir la position de l'UE dans le domaine de l'IA, et désigne la recherche comme l'un des principaux moyens d'atteindre cet objectif. Le rapport vise notamment à établir une feuille de route pour l'intelligence artificielle (IA) à l'horizon 2030, avec plus de 150 recommandations politiques sur la gouvernance, le partage des données, l'infrastructure numérique, l'investissement, l'e-santé, l'e-gouvernance, l'industrie et la sécurité.

    Le rapport en question est l'aboutissement d'un an et demi de travail de la commission spéciale du Parlement sur l'IA (AIDA). Il alimentera les travaux sur la future loi sur l'IA, première réglementation majeure de l'IA au niveau mondial, qui fixera des règles pour les utilisations de l'IA en fonction de leur niveau de risque. Les députés européens estiment que l'UE doit agir rapidement pour établir des règles claires en matière d'IA si elle veut avoir son mot à dire sur l'avenir de cette technologie. « Nous avons l'occasion de fixer des normes mondiales », avait déclaré le rapporteur du Parlement pour le dossier, Axel Voss.

    Jeudi, la commission du marché intérieur et la commission des libertés civiles ont adopté un projet de mandat de négociation sur les premières règles relatives à l'intelligence artificielle par 84 voix pour, 7 contre et 12 abstentions. Dans leurs amendements à la proposition de la Commission, les députés visent à garantir que les systèmes d'intelligence artificielle soient supervisés par des personnes, qu'ils soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Ils souhaitent par ailleurs disposer d'une définition uniforme de l'IA, conçue pour être neutre sur le plan technologique, afin qu'elle puisse s'appliquer aux systèmes d'IA d'aujourd'hui et de demain. Pour Hauptfleisch, il pourrait s'agir du début de la phase finale de la loi européenne sur l'intelligence artificielle.

    La première tentative de l'UE de réglementer l'intelligence artificielle a parcouru un long chemin : lorsque la Commission européenne a présenté son premier projet de loi en avril 2021, beaucoup s'attendaient à ce que la loi soit finalisée pour l'été 2022, mais depuis lors, de nombreux détails de la loi ont fait l'objet d'un débat acharné.

    Approche de l'IA fondée sur les risques - Pratiques interdites en matière d'IA

    Les règles suivent une approche fondée sur le risque et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l'IA peut générer. Les systèmes d'IA présentant un niveau de risque inacceptable pour la sécurité des personnes seraient strictement interdits, y compris les systèmes qui déploient des techniques subliminales ou volontairement manipulatrices, qui exploitent les vulnérabilités des personnes ou qui sont utilisés pour le scoring social (classification des personnes en fonction de leur comportement social, de leur statut socio-économique ou de leurs caractéristiques personnelles).

    Les députés ont substantiellement modifié la liste pour y inclure l'interdiction des utilisations intrusives et discriminatoires des systèmes d'intelligence artificielle, telles que les systèmes d'identification biométrique à distance en temps réel dans les espaces accessibles au public :

    • les systèmes d'identification biométrique à distance « en temps réel » dans les espaces accessibles au public ;
    • Les systèmes d'identification biométrique à distance « a posteriori », à la seule exception des forces de l'ordre pour la poursuite de crimes graves et seulement après autorisation judiciaire ;
    • les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, le sexe, la race, l'appartenance ethnique, le statut de citoyen, la religion, l'orientation politique) ;
    • les systèmes de police prédictive (basés sur le profilage, la localisation ou le comportement criminel antérieur) ;
    • les systèmes de reconnaissance des émotions dans le cadre de l'application de la loi, de la gestion des frontières, sur le lieu de travail et dans les établissements d'enseignement ; et
    • l'extraction sans discernement de données biométriques des médias sociaux ou des images de vidéosurveillance pour créer des bases de données de reconnaissance faciale (en violation des droits de l'homme et du droit au respect de la vie privée).

    Les députés ont élargi la classification des domaines à haut risque pour inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l'environnement. Ils ont également ajouté les systèmes d'IA visant à influencer les électeurs dans les campagnes politiques et les systèmes de recommandation utilisés par les plateformes de médias sociaux (avec plus de 45 millions d'utilisateurs en vertu de la loi sur les services numériques) à la liste des domaines à haut risque.

    IA à usage général - mesures de transparence

    Les députés ont inclus des obligations pour les fournisseurs de modèles de fondation - un développement nouveau et en évolution rapide dans le domaine de l'IA - qui devraient garantir une protection solide des droits fondamentaux, de la santé et de la sécurité, de l'environnement, de la démocratie et de l'État de droit. Ils devront évaluer et atténuer les risques, se conformer aux exigences en matière de conception, d'information et d'environnement et s'enregistrer dans la base de données de l'UE.

    Les modèles de base génératifs, comme le GPT, devront respecter des exigences supplémentaires en matière de transparence, comme la divulgation du fait que le contenu a été généré par l'IA, la conception du modèle pour éviter qu'il ne génère du contenu illégal et la publication de résumés des données protégées par le droit d'auteur utilisées pour la formation.

    Soutenir l'innovation et protéger les droits des citoyens

    Afin de stimuler l'innovation en matière d'IA, les députés ont ajouté des exemptions à ces règles pour les activités de recherche et les composants d'IA fournis sous licence libre. La nouvelle loi encourage les bacs à sable réglementaires, ou environnements contrôlés, établis par les autorités publiques pour tester l'IA avant son déploiement.

    Les députés souhaitent renforcer le droit des citoyens à déposer des plaintes concernant les systèmes d'IA et à recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont un impact significatif sur leurs droits. Les députés ont également réformé le rôle de l'Office européen de l'IA, qui serait chargé de contrôler la mise en œuvre du règlement sur l'IA.

    Après le vote, le co-rapporteur Brando Benifei (S&D, Italie) a déclaré : « Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps. Il est essentiel de renforcer la confiance des citoyens dans le développement de l'IA, de définir la voie européenne pour faire face aux changements extraordinaires qui se produisent déjà, ainsi que d'orienter le débat politique sur l'IA au niveau mondial. Nous sommes convaincus que notre texte établit un équilibre entre la protection des droits fondamentaux et la nécessité d'offrir une sécurité juridique aux entreprises et de stimuler l'innovation en Europe ».

    Sources : blog posted by Wolfgang Hauptfleisch, European Parliament

    Et vous ?

    Quels sont les avantages et les inconvénients du projet de loi sur l’IA pour les développeurs, les utilisateurs et la société en général ?

    Quels sont les défis et les limites de la mise en œuvre et du contrôle du respect du projet de loi sur l’IA ?

    Comment le projet de loi sur l’IA se compare-t-il aux autres cadres réglementaires existants ?

    Quel est l’impact potentiel du projet de loi sur l’IA sur l’innovation et la compétitivité de l’UE dans le domaine de l’IA ?

    Voir aussi :

    La Commission européenne annonce l'Alliance européenne pour les données et le cloud, elle contribuera à façonner la prochaine génération de services, d'infrastructures et de cloud sécurisé

    L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

    La Commission européenne critiquée et poursuivie pour avoir enfreint ses propres lois sur la protection des données, l'organisme de réglementation aurait transféré aux États-Unis des données

    Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030

  13. #53
    Membre expert
    Avatar de e-ric
    Homme Profil pro
    Apprenti chat, bienfaiteur de tritons et autres bestioles
    Inscrit en
    Mars 2002
    Messages
    1 561
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Apprenti chat, bienfaiteur de tritons et autres bestioles

    Informations forums :
    Inscription : Mars 2002
    Messages : 1 561
    Points : 3 951
    Points
    3 951
    Par défaut
    Citation Envoyé par Anselme45 Voir le message


    C'est digne des meilleurs humoristes du monde...

    L'UE qui est incapable d'imposer des règles à l'ensemble de ses 27 pays membres se propose... d'établir des normes mondiales???

    C'est une vraie farce!

    Que l'UE commence par établir qui a le droit à une chaise quand l'UE va visiter le sultan de Turquie Erdogan...
    Bien vu, il faut veiller à normaliser le nombre de pieds de la dite chaise...

  14. #54
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 700
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 700
    Points : 202 491
    Points
    202 491
    Par défaut OpenAI menace de quitter l'Europe à cause du projet de loi AI Act que son PDG estime trop strict
    ChatGPT : le PDG d'OpenAI menace de quitter l'Europe à cause du projet de loi AI Act qu'il estime trop strict,
    après avoir déclaré au Congrès US qu'il était pour une réglementation de l'IA

    Le PDG d'OpenAI, Sam Altman, a déclaré mercredi que le fabricant de ChatGPT pourrait envisager de quitter l'Europe s'il ne pouvait pas se conformer aux réglementations à venir sur l'intelligence artificielle (IA) de l'Union européenne. L'UE travaille sur ce qui pourrait être le premier ensemble de règles à l'échelle mondiale pour régir l'IA. Dans le cadre du projet, les entreprises déployant des outils d'IA génératifs, tels que ChatGPT, devront divulguer tout matériel protégé par le droit d'auteur utilisé pour développer leurs systèmes. Elles devront également garantir la sécurité et la fiabilité de leurs systèmes et respecter les droits fondamentaux des utilisateurs.

    Plus tôt ce mois-ci, les législateurs européens se sont rapprochés de l'adoption de nouvelles règles régissant les outils d'intelligence artificielle tels que ChatGPT, à la suite d'un vote serré où ils ont convenu d'un projet de loi plus strict.

    La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Ce projet de loi vise à établir la norme pour l’IA avant la Chine et les États-Unis, alors que l’utilisation croissante de la technologie a suscité des craintes de pertes d’emplois, de désinformation et d’atteintes aux droits d’auteur.

    Sam Altman se dit favorable à une réglementation plus stricte...

    Il y a quelques jours, le patron de ChatGPT a comparu devant le Congrès pour mettre en garde contre le « dommage important pour le monde » que ces plates-formes de haute technologie peuvent avoir si leur supervision tourne mal. Altman a déclaré lors d'une audience au Capitol Hill devant le comité sénatorial sur la vie privée, la technologie et la loi: « Si cette technologie tourne mal, elle peut mal tourner et nous voulons en parler. Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise ».

    Il a fait cette déclaration devant le Congrès alors que les législateurs américains examinent de plus en plus les technologies de l'IA comme le très populaire ChatGPT d'Altman pour un usage personnel et sur le lieu de travail.

    Il a assuré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les « méfaits » de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman.

    Bien sûr, il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.


    Altman a déclaré qu'il ne pensait pas que des exigences lourdes devraient s'appliquer aux entreprises et aux chercheurs dont les modèles sont beaucoup moins avancés que ceux d'OpenAI. Ses propositions peuvent se résumer comme suit :
    • créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
    • créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
    • exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.


    Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.

    Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».

    Nom : AI Act.png
Affichages : 2323
Taille : 105,3 Ko

    ...mais s'oppose au projet de loi européen tel qu'il est formulé

    L'offensive de charme à l'étranger du PDG d'OpenAI, Sam Altman, poursuit le train de battage médiatique sur l'IA qu'il a commencé avec ses récents entretiens devant le Congrès américain. Bien que, contrairement aux États-Unis favorables à l'IA, Altman a menacé d'emmener ses gros jouets technologiques à l'autre bout du bac à sable si les législateurs européens ne sont pas disposés à respecter ses règles.

    Altman a été en mouvement, de Lagos, au Nigeria, à toute l'Europe. Enfin, à Londres, au Royaume-Uni, il a esquivé quelques manifestants pour dialoguer avec les grands noms de la technologie, les entreprises et les décideurs politiques à propos de ses modèles d'IA. Son discours principal a été de promouvoir son ChatGPT basé sur un grand modèle de langage et de soutenir les politiques réglementaires pro-IA. Lors d'une table ronde organisée par l'University College de Londres, Altman aurait déclaré que même si OpenAI « allait essayer de se conformer » aux réglementations de l'UE avec la loi sur l'IA, il était contrarié par la façon dont l'organisme européen définissait les systèmes « à haut risque ».

    La loi sur l'IA de l'UE est l'une des lois proposées par la Commission européenne en 2021 qui classerait l'IA en trois catégories de risque. Certaines IA présentent un « risque inacceptable » comme les systèmes de notation sociale, l'IA d'ingénierie sociale manipulatrice, ou vraiment tout ce qui « violerait les droits fondamentaux ». À l'extrémité inférieure, un « système d'IA à haut risque » dépend de son utilisation prévue, mais il devrait se conformer à des normes générales de transparence et de surveillance.

    Altman a déclaré que selon la manière dont le projet de loi est actuellement rédigé, ChatGPT et le grand modèle de langage GPT-4 pourraient être désignés à haut risque. Cela obligerait l'entreprise à se conformer à certaines exigences. Selon Time, le PDG d'OpenAI a déclaré : « Si nous pouvons nous conformer, nous le ferons, et si nous ne pouvons pas, nous cesserons nos activités… Nous essaierons. Mais il y a des limites techniques à ce qui est possible ».

    En réalité, la loi a été conçue pour lutter contre les utilisations potentielles de l'IA comme le système de crédit social chinois et la reconnaissance faciale. Puis vinrent OpenAI et d'autres startups dans le domaine de l'IA, d'abord avec la génération d'images d'IA de diffusion, puis avec le très populaire ChatGPT basé sur un grand modèle de langage. L'UE a rédigé de nouvelles dispositions à la loi en décembre qui imposeraient des contrôles de sécurité et une gestion des risques sur les « modèles fondamentaux » tels que les LLM qui exécutent les chatbots d'IA. Une commission du Parlement européen a approuvé ces modifications au début du mois.

    L'UE a été plus disposée à examiner OpenAI que les États-Unis. Le comité européen de la protection des données de l'UE a déclaré qu'il surveillait ChatGPT pour s'assurer qu'il respectait ses lois sur la confidentialité. Bien sûr, la loi sur l'IA n'est pas gravée dans le marbre et le langage peut changer, ce qui est probablement une autre raison de sa tournée mondiale.

    À Londres, Altman a réitéré certains des mêmes points de discussion qu'il a donnés devant le Congrès américain. Il a notamment fait savoir qu'il était inquiet face aux dangers de l'IA, mais qu'il y avait aussi de nombreux avantages potentiels. Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire. Il a appelé à une certaine régulation « entre l'approche européenne traditionnelle et l'approche américaine traditionnelle », quoi que cela signifie.

    Il a déclaré à son auditoire londonien qu'il ne voulait rien qui puisse nuire aux petites entreprises ou au mouvement de l'IA open source. Cela ne veut pas dire que toute nouvelle réglementation bénéficierait intrinsèquement à OpenAI. Cependant, de nouveaux contrôles de conformité rendraient également plus coûteux le développement de nouveaux modèles d'IA à partir de zéro, donnant à l'entreprise une longueur d'avance dans la course effrénée à l'IA en cours.

    Il y a eu quelques pays qui ont déjà interdit ChatGPT. L'Italie a interdit le service en mars puis s'est ravisée, estimant qu'OpenAI a donné aux utilisateurs un meilleur accès aux contrôles de confidentialité. Peut-être qu'OpenAI peut continuer à faire suffisamment de petites améliorations pour rendre les gouvernements du monde heureux. Bien sûr, tant qu'il peut contenir ses plus de 100 millions d'utilisateurs actifs de ChatGPT.

    Source : PDG d'OpenAI

    Et vous ?

    Que pensez-vous de la possibilité que OpenAI quitte l’Europe?
    Quels sont les avantages et les inconvénients d’une réglementation stricte de l’IA?
    Comment pensez-vous que l’IA va évoluer dans les prochaines années?
    Quels sont les domaines d’application de l’IA qui vous intéressent le plus?
    Quelles sont les mesures que vous prenez pour vous protéger des risques liés à l’IA?

  15. #55
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    274
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 274
    Points : 945
    Points
    945
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire.
    Oui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?

  16. #56
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    943
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 943
    Points : 2 882
    Points
    2 882
    Par défaut
    Citation Envoyé par Prox_13 Voir le message
    Oui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?
    Et qu'est ce qui pourrait se passer si a la place du gouvernement, ce sont des entreprises privées sans aucune régulation ? Qu'est ce qui pourrait mail se passer après tout

  17. #57
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    274
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 274
    Points : 945
    Points
    945
    Par défaut
    Citation Envoyé par walfrat Voir le message
    Et qu'est ce qui pourrait se passer si a la place du gouvernement, ce sont des entreprises privées sans aucune régulation ? Qu'est ce qui pourrait mail se passer après tout
    C'est pas précisément ce que dis l'article justement ? Que les entreprises privées doivent ployer à une réglementation européenne ? Et qu'OpenAI refuse de coopérer ?

  18. #58
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 622
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 622
    Points : 7 563
    Points
    7 563
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    [
    Que pensez-vous de la possibilité que OpenAI quitte l’Europe?
    Qu'ils se barrent! C'est OpenAI qui y perdra, de toutes les façons.

    De toutes les façons, Microsoft a investi beaucoup trop d'argent dans cette boîte pour laisser Sam Altman faire n'importe quoi. Ils ne le laisseront pas partir de l'Europe et se fermer ainsi une partie du marché, qui sera bouffée par les autres GAFAM.

  19. #59
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 780
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 780
    Points : 7 233
    Points
    7 233
    Par défaut
    Le lobbying, ça fonctionne très bien en Europe : Sam Altman déclare qu'open ai ne quittera pas l'Europe.

  20. #60
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 039
    Points
    58 039
    Par défaut Les USA et l'UE devraient inciter le secteur de l'IA à adopter un code de conduite volontaire.
    Les États-Unis et l'Union européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir »,
    d'après la responsable de la technologie de l'UE

    La responsable européenne de la technologie, Margrethe Vestager, a déclaré, mercredi 31 mai 22023, qu'elle pense qu'un projet de code de conduite sur l'intelligence artificielle (IA) pourrait être rédigé dans les semaines à venir, permettant à l'industrie de s'engager sur une proposition finale "très, très bientôt". Les décideurs politiques et de nombreux acteurs de l'industrie ont exprimé leur inquiétude face à l'IA, en particulier l'IA générative créatrice de contenu telle que ChatGPT, certains l'assimilant aux risques posés par les pandémies ou les guerres nucléaires.

    Nom : Screenshot_2023-06-01 EU tech chief calls for voluntary AI code of conduct within months – Reche.png
Affichages : 1418
Taille : 405,2 Ko

    Vestager a déclaré que les États-Unis et l'Union européenne devraient promouvoir un code volontaire afin de fournir des garanties pendant que de nouvelles lois sont élaborées. « L'IA générative change complètement la donne », a déclaré Vestager, vice-présidente de la Commission européenne, lors d'une conférence de presse organisée à l'issue d'une réunion du Conseil du commerce et de la technologie (Trade and Technology Council : TTC) entre l'Union européenne et les États-Unis.

    « Tout le monde sait qu'il s'agit d'une nouvelle technologie puissante. Dans les prochaines semaines, nous présenterons donc un projet de code de conduite sur l'IA », a-t-elle déclaré, ajoutant qu'elle espérait qu'une proposition finale serait présentée « très, très bientôt » et que l'industrie pourrait y adhérer.

    Dans un tweet ultérieur, elle a mentionné le filigrane et les audits externes parmi les idées qui pourraient figurer dans le code. La loi sur l'IA de l'Union européenne, qui contient des règles sur la reconnaissance faciale et la surveillance biométrique, est encore en cours d'élaboration. « Dans le meilleur des cas, elle entrera en vigueur dans deux ans et demi ou trois ans. C'est manifestement beaucoup trop tard. Nous devons agir maintenant », a déclaré Vestager à la presse avant la réunion du Comité technique suédois.

    La déclaration de clôture de la réunion du TTC indique que les deux partenaires ont créé des groupes d'experts chargés d'évaluer les risques liés à l'IA, de coopérer sur les normes relatives à l'IA et de surveiller les risques existants et émergents.

    Les dirigeants des pays du G7 ont appelé ce mois-ci à l'élaboration de normes techniques pour que l'IA reste « digne de confiance », en préconisant des discussions internationales sur des sujets tels que la gouvernance, les droits d'auteur, la transparence et la menace de la désinformation. Vestager a déclaré qu'il est nécessaire de parvenir à un accord sur des points précis, suggérant que Bruxelles et Washington pourraient aider à conduire le processus, notant que le processus génératif "se développe à une vitesse étonnante".

    Source : Margrethe Vestager, commissaire européenne chargée de la technologie

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

    L'UE pourrait commencer à appliquer des règles pour réglementer les Big Tech au printemps 2023, le DMA devrait permettre d'agir contre toute violation commise par les "gatekeepers"

    Le PDG d'Apple estime que la politique technologique de l'UE menace la sécurité des iPhone, Tim Cook craint que l'application de DMA ne conduise à davantage de téléchargements hors de l'App Store

    L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite, en raison de son intrusion profonde et non démocratique dans la vie privée des gens

Discussions similaires

  1. Réponses: 284
    Dernier message: 19/05/2024, 00h47
  2. Réponses: 2
    Dernier message: 20/10/2020, 16h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 11h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 22h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo