IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Les articles scientifiques frauduleux sont en forte augmentation

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre chevronné Avatar de electroremy
    Homme Profil pro
    Ingénieur sécurité
    Inscrit en
    Juin 2007
    Messages
    999
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Doubs (Franche Comté)

    Informations professionnelles :
    Activité : Ingénieur sécurité
    Secteur : Industrie

    Informations forums :
    Inscription : Juin 2007
    Messages : 999
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Et du temps de Vercingétorix c'était comment ?
    La réponse est dans une chanson de France Gall

    Charlemagne n'avait pas encore inventé l'école à cette époque

  2. #2
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 712
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 712
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Et du temps de Vercingétorix c'était comment ?
    Ils pratiquaient l'immigration choisie et voulue. Et la capacité d'intégration était un critère majeur. Tous les pays qui ont abandonné ce modèle sont en déclin ou carrément en crise. Alors que les pays asiatiques ont des politiques d'immigration qui tournent autour de zéro contrôlent les secteurs de pointes.

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Par défaut Le chatbot d'IA ChatGPT d'OpenAI confronté à des problèmes de conformité au RGPD de l'Union européenne
    Le chatbot d'IA ChatGPT d'OpenAI confronté à des problèmes de conformité au règlement européen sur la protection des données
    les experts affirment qu'OpenAI aura du mal à se conformer au RGPD

    OpenAI a été sommé en Italie de mettre ChatGPT en conformité avec le règlement général sur la protection des données (RGPD), mais les experts juridiques estiment que la perspective d'adhérer aux réglementations de l'UE est "proche de l'impossible" pour le laboratoire d'IA de San Francisco. La position italienne n'est que le début des ennuis de ChatGPT, qui fait l'objet de plusieurs plaintes en matière de violation de la vie privée dans tout le bloc et exploite une technologie de pointe qui irrite les gouvernements en raison de risques allant de la violation des données à la désinformation, en passant par la cybercriminalité, la fraude et la tricherie aux tests scolaires.

    OpenAI se prépare à affronter les puissants chiens de garde européens en matière de protection de la vie privée. En effet, lorsqu’OpenAI a dévoilé son modèle de langage GPT-3 en juillet 2020, il a offert un aperçu des données utilisées pour entraîner le grand modèle de langage. Selon un document technique, des millions de pages extraites du Web, de posts Reddit, de livres et autres sont utilisés pour créer le système de texte génératif. Ces données contiennent certaines des informations personnelles que vous partagez en ligne. Elles posent aujourd'hui des problèmes à OpenAI, les régulateurs estimant que l'entreprise n'a pas le doit de les utiliser.

    Le 31 mars, l'autorité italienne de protection des données (Garante per la Protezione dei Dati Personali) a pris une décision d'urgence temporaire demandant à OpenAI de cesser d'utiliser les informations personnelles de millions d'Italiens incluses dans ses données de formation. Selon le régulateur italien, OpenAI n'a pas le droit légal d'utiliser les informations personnelles des personnes dans ChatGPT. En réponse, OpenAI a temporairement empêché les Italiens d'accéder à son chatbot d'IA pendant qu'il fournit des réponses aux autorités italiennes. Il s'agit de la première mesure prise à l'encontre de ChatGPT par un organisme de réglementation occidental.

    Nom : mlkn.png
Affichages : 7235
Taille : 385,7 Ko

    Le modèle GPT-2 d'OpenAI a utilisé 40 Go de texte, tandis que GPT-3 en a utilisé 570 Go. OpenAI a refusé de divulguer les données utilisées pour le modèle GPT-4, ce qui a frustré les chercheurs. L'autorité italienne de régulation des données a interdit le ChatGPT au motif qu'il enfreignait les règles du RGPD. La décision de l'Italie a déclenché des enquêtes similaires en France, en Allemagne, en Irlande et au Canada, incitant le Conseil de protection des données de l'UE à mettre en place un groupe de travail pour la coordination et l'application concernant ChatGPT. Des parties civiles européennes ont également intenté des actions en justice contre OpenAI.

    Après son interdiction temporaire par l'Italie, OpenAI dispose maintenant de moins de deux semaines pour mettre en œuvre des mesures correctives. Cependant, les experts juridiques européens prévoient qu'il pourrait être presque impossible pour OpenAI de se conformer aux réglementations italiennes et aux exigences plus larges du RGPD. Le non-respect de ces règles peut entraîner de graves conséquences, allant de pénalités financières à une interdiction pure et simple de ChatGPT à l'échelle du pays. Mais la tâche s'annonce compliquée pour l'entreprise. L'Italie a demandé à OpenAI de mettre en œuvre plusieurs mesures correctives, notamment :

    • l'obtention du consentement des personnes pour la collecte de leurs données ou la preuve d'un "intérêt légitime" dans la collecte des données ;
    • expliquer aux utilisateurs comment ChatGPT utilise leurs données ;
    • permettre aux utilisateurs de corriger les inexactitudes les concernant produites par le chatbot ;
    • permettre aux utilisateurs de demander l'effacement de leurs données ;
    • offrir aux utilisateurs la possibilité de révoquer leur consentement à l'utilisation de leurs données par ChatGPT.


    Les experts juridiques européens estiment que la collecte de données par OpenAI est la question de conformité la plus litigieuse. Il est peu probable qu'OpenAI puisse prouver qu'il a obtenu le consentement des utilisateurs pour les données utilisées pour entraîner ses modèles d'IA. Mais le test de l'"intérêt légitime" pose également un problème, car les entreprises doivent présenter des raisons rigoureuses pour justifier l'utilisation ou la conservation de données sans consentement. Le régulateur européen des données cite des scénarios tels que la prévention de la fraude, la sécurité des réseaux et la prévention du crime comme des raisons valables.

    Margaret Mitchell, chercheuse en IA, a expliqué : « OpenAI va trouver presque impossible d'identifier les données des individus et de les retirer de ses modèles ». Elle était auparavant coresponsable de l'éthique de l'IA chez Google. Aujourd'hui, Mitchell est responsable de l'éthique chez Hugging Face, une entreprise américaine qui développe des outils pour créer des applications utilisant l'apprentissage automatique. Cependant, il est important de noter qu'OpenAI n'est pas la seule entreprise concernée. La collecte désordonnée des données est un problème qui touche l'ensemble de l'industrie de l'IA, y compris les acteurs comme Meta et Google.

    Historiquement, les entreprises d'IA ont considéré la collecte de données comme un moyen d'arriver à leurs fins, négligeant souvent l'exactitude et l'étiquetage. Pour recueillir les quantités massives de données nécessaires à l'entraînement de leurs modèles, les sociétés d'IA achètent des données en vrac à des fournisseurs, utilisent des racleurs sans discernement et dépendent de sous-traitants pour le filtrage de base et la vérification des erreurs. Une enquête publiée récemment a rapporté que de nombreuses entreprises d'IA, y compris les acteurs tels que Google et Meta, ignorent le contenu de leurs ensembles de données d'entraînement.

    Même l'ensemble de données "Colossal Clean Crawled Corpus" (C4) de Google, fortement filtré et utilisé pour l'entraînement de divers modèles d'IA, s'est avéré contenir du contenu provenant du forum Stormfront, fortement peuplé de suprémacistes blancs, et du forum 4chan, réputé pour sa modération laxiste. Nithya Sambasivan, chercheur chez Google, a conclu dans une étude que les pratiques en matière de données sont "désordonnées, longues et opaques". En fin de compte, Sambasivan a noté que ces défis sont dus au fait que "tout le monde veut faire le travail de modélisation, pas le travail de données". Mais l'UE pourrait bientôt exiger un changement.

    En outre, selon d'autres sources, OpenAI marche avec une cible dans le dos : l'entreprise n'a pas établi de siège local dans l'un des 27 pays de l'UE, ce qui signifie que l'autorité de protection des données de n'importe quel pays membre peut lancer de nouvelles enquêtes et appliquer des interdictions. Précédemment, Google a dû s'acquitter d'une amende de 50 millions d'euros en France au titre du RGPD, imposée avant que le géant américain de la technologie ne centralise officiellement son dispositif juridique européen en Irlande, dont l'autorité de la protection des données (DPC) fait office de régulateur principal des entreprises dans l'UE.

    TikTok a également fait l'objet de plusieurs enquêtes sur la protection de la vie privée et d'amendes de la part des autorités néerlandaises, italiennes et françaises avant de s'installer légalement en Irlande en 2021. Les autorités de l'UE de régulation des données réfléchissent aux prochaines mesures à prendre pour examiner les abus présumés, comme leurs homologues italiens. La DPC a déclaré qu'elle se coordonnera avec tous les régulateurs de l'UE en ce qui concerne cette question. L'autorité belge de protection des données a également déclaré que les infractions potentielles de ChatGPT "devraient être discutées au niveau européen".

    En France, la Commission nationale de l'informatique et des libertés (CNIL) a enregistré au moins deux plaintes contre ChatGPT, pour des raisons de violation de la vie privée, y compris du RGPD. En Norvège, les autorités ont indiqué qu'ils n'ont lancé aucune enquête sur ChatGPT à ce jour. Toutefois, Tobias Judin, responsable du travail international pour l'organisme de réglementation de la protection des données du pays, Datatilsynet, a déclaré que la Norvège n'excluait rien pour l'avenir. OpenAI a réfuté les accusations de violation du RGPD, mais le PDG Sam Altman a déclaré sur Twitter que l'entreprise était prête à collaborer avec les autorités de l'UE.

    Source : l'autorité italienne de protection des données (GPDP)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des accusations de violation du RGPD qui visent OpenAI ?
    Que pensez-vous des exigences de l'autorité italienne de la protection des données ? Sont-elles réalistes ?
    Selon vous, OpenAI est-il en mesure de se conformer à ces exigences dans le délai imparti ?
    Selon vous, OpenAI parviendra-t-il à se conformer aux exigences du RGPD ? Pourquoi ?
    Quid des concurrents d'OpenAI qui sont confrontés aux mêmes problèmes de conformité au RGPD ?

    Voir aussi

    OpenAI, le développeur de ChatGPT, va proposer des mesures correctives concernant l'interdiction en Italie, et s'engage à plus de transparence sur le traitement des données des utilisateurs

    L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI

    Les régulateurs européens de la vie privée surveillent de près la suspension de ChatGPT en Italie. Plusieurs envisageraient de lui emboîter le pas, évoquant des problèmes de confidentialité

    ChatGPT bientôt interdit en France comme en Italie ? La CNIL enregistre les premières plaintes contre le logiciel d'IA d'OpenAI, la société est accusée d'avoir violé plusieurs dispositions du RGPD
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Même si le sujet ne relève pas que du Café du Commerce, j'imagine qu'on peut verser sa petite dose ...

    De même qu'Einstein a amèrement regretté ses apports dans le domaine de l'atome en voyant ce qu'il advenait de la bombe qui en était issue, les avancées techniques sont une chose, ce qu'on en fait une autre.

    Hier, un zozo a pris son micro pour parler à son moteur d'intelligence artificielle, pour lui dire Eh Bidule, si tu me balançais un mail à un maximum de monde pour essayer de leur faire peur au sujet de l'intelligence artificielle ?

    Et Bidule de s'exécuter, et de m'envoyer une tirade dont une partie de la première phrase m'enjoignait d'"insérer [mon] nom", avant de me mettre en garde que mon mail allait être gonflé par les déchets de l'intelligence artificielle (je précise que c'est une citation en style indirect). Sans parler d'un massacre à l'encontre de la syntaxe comme du bon sens, où la victime était invitée à corriger les fautes de frappe, en gros à faire le boulot du gars qui a pris le micro.

    Et encore là n'y avait-il relativement pas trop de quoi se plaindre, les mots avaient l'air de s'agencer en phrases, ce qui n'est hélas pas un cas universel.

    Alors, à ce genre de zozo, j'aurais envie de dire : mais bon sang, ce n'est pas parce qu'on peut faire des conneries, qu'on a même des outils remarquables pour le faire, qu'on y est obligé.

  5. #5
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    18 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 18 264
    Par défaut
    Je vous conseille cette vidéo de Luc Julia: un pape de inintelligence artificielle qui a travaillé au CNRS, à la Silicon Valley chez les GAGAMS, mais aussi chez Samsung.
    C'est juste le créateur de Siri.

    Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
    Mon article sur le P2V, mon article sur le cloud
    Consultez nos FAQ : Windows, Linux, Virtualisation

  6. #6
    Membre émérite

    Homme Profil pro
    Cyber Security & AI
    Inscrit en
    Février 2009
    Messages
    506
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Oise (Picardie)

    Informations professionnelles :
    Activité : Cyber Security & AI

    Informations forums :
    Inscription : Février 2009
    Messages : 506
    Billets dans le blog
    2
    Par défaut
    C'est déjà ou outil d'idee dans l'illétrisme !!!

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 537
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 537
    Par défaut Les systèmes d'IA comme ChatGPT pourraient avoir un impact sur 300 Mns d'emplois à temps plein dans le monde
    Les systèmes d'IA générative comme ChatGPT pourraient avoir un impact sur 300 millions d'emplois à temps plein dans le monde,
    selon un rapport de Goldman Sachs qui redoute des « perturbations importantes »

    Les dernières avancées en matière d'intelligence artificielle pourraient conduire à l'automatisation d'un quart du travail effectué aux États-Unis et dans la zone euro, selon une étude de Goldman Sachs. La banque d'investissement a déclaré lundi que les systèmes d'IA générative tels que ChatGPT, qui peuvent créer un contenu indiscernable de la production humaine, pourraient déclencher un boom de la productivité qui finirait par augmenter le produit intérieur brut mondial annuel de 7% sur une période de 10 ans.

    Mais si la technologie tenait ses promesses, elle entraînerait également une « perturbation significative » du marché du travail, exposant l'équivalent de 300 millions de travailleurs à temps plein dans les grandes économies à l'automatisation, selon Joseph Briggs et Devesh Kodnani, les auteurs de l'article. Les avocats et le personnel administratif seraient parmi ceux qui risquent le plus d'être licenciés.


    Les systèmes d'intelligence artificielle générative pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d'emplois à temps plein dans le monde, selon une nouvelle étude de Goldman Sachs.

    L'IA générative, un type d'intelligence artificielle capable de générer du texte ou d'autres contenus en réponse aux invites de l'utilisateur, a explosé en popularité ces derniers mois après le lancement public de ChatGPT d'OpenAI. Le chatbot est rapidement devenu viral auprès des utilisateurs et a semblé inciter plusieurs autres entreprises technologiques à lancer leurs propres systèmes d'IA.

    Sur la base d'une analyse des données sur les tâches professionnelles aux États-Unis et en Europe, les chercheurs de Goldman ont extrapolé leurs conclusions et estimé que l'IA générative pourrait exposer 300 millions d'emplois à temps plein dans le monde à l'automatisation si elle respecte les capacités promises.

    Le rapport, rédigé par Joseph Briggs et Devesh Kodnani, indique qu'environ les deux tiers des emplois actuels sont exposés à un certain degré d'automatisation de l'IA, tandis que l'IA générative pourrait remplacer jusqu'à un quart du travail actuel.

    Les cols blancs sont parmi les plus susceptibles d'être touchés par les nouveaux outils d'IA. Le rapport Goldman a souligné que les travailleurs juridiques et le personnel administratif américains sont particulièrement menacés par la nouvelle technologie. Une étude antérieure menée par des chercheurs de l'Université de Princeton, de l'Université de Pennsylvanie et de l'Université de New York a également estimé que les services juridiques étaient le secteur le plus susceptible d'être affecté par une technologie telle que ChatGPT.

    Manav Raj, l'un des auteurs de l'étude, et professeur adjoint de gestion à la Wharton School de l'Université de Pennsylvanie, a déclaré que c'était parce que le secteur des services juridiques était composé d'un nombre relativement restreint de professions qui étaient déjà hautement exposées à l'automatisation de l'IA.

    Selon le rapport, environ les deux tiers des emplois aux États-Unis et en Europe sont exposés à un certain degré d'automatisation de l'IA, sur la base de données sur les tâches généralement effectuées dans des milliers de professions. La plupart des gens verraient moins de la moitié de leur charge de travail automatisée et continueraient probablement à travailler, une partie de leur temps étant libérée pour des activités plus productives.

    Aux États-Unis, cela devrait s'appliquer à 63% de la main-d'œuvre, ont-ils calculé. 30% supplémentaires travaillant dans des emplois physiques ou extérieurs ne seraient pas affectés, bien que leur travail puisse être sensible à d'autres formes d'automatisation. Mais environ 7% des travailleurs américains occupent des emplois où au moins la moitié de leurs tâches pourraient être effectuées par l'IA générative et sont vulnérables au remplacement.

    Goldman a déclaré que ses recherches indiquaient un impact similaire en Europe. Au niveau mondial, étant donné que les emplois manuels représentent une part plus importante de l'emploi dans le monde en développement, il estime qu'environ un cinquième du travail pourrait être effectué par l'IA, soit environ 300 millions d'emplois à temps plein dans les grandes économies.

    Le rapport alimentera le débat sur le potentiel des technologies d'intelligence artificielle à la fois pour relancer la croissance de la productivité en berne du monde riche et pour créer une nouvelle classe de cols blancs dépossédés, qui risquent de subir un sort similaire à celui des travailleurs de l'industrie manufacturière dans les années 1980.

    La naissance de nouveaux rôles

    Le rapport de Goldman suggère que si l'IA générative est largement mise en œuvre, elle pourrait entraîner d'importantes économies sur les coûts de main-d'œuvre et la création de nouveaux emplois. Le battage médiatique actuel autour de l'IA a déjà donné naissance à de nouveaux rôles, y compris les ingénieurs de requêtes (prompt engineers). Le Prompt Engineer est un professionnel de l’écriture de prompt pour les IA génératives comme ChatGPT ou MidJourney.

    L'ingénierie de requête est donc le processus de conception et de création de requêtes pour les modèles IA. Le but peut être de créer des données d’entraînement de haute qualité, ou tout simplement d’obtenir le résultat souhaité auprès d’une IA générative. Un ingénieur de requête est un expert spécialisé dans la communication avec les systèmes d’intelligence artificielle et plus particulièrement les chatbots IA basés sur les larges modèles de langage, comme ChatGPT et Google Bard. Contrairement aux ingénieurs informatiques traditionnels utilisant le code, ces ingénieurs écrivent en langage naturel. À l’origine, leur rôle est notamment de tester les IA pour développer et améliorer les modèles d’interaction humain-machine.

    Alex Shoop explique que ces ingénieurs aident à s’assurer que les chatbots sont rigoureusement testés, que leurs réponses soient reproductibles, et que les protocoles de sécurité sont respectés. Avec l’essor de ChatGPT et des autres IA génératives, ce métier connaît un véritable essor : ces professionnels luttent contre les biais, les dérapages et les erreurs commises par ces outils.

    Les IA génératives pourraient également stimuler la productivité mondiale du travail, Goldman estimant que l'IA pourrait même éventuellement augmenter le PIB mondial annuel de 7 %.

    Nom : chat.png
Affichages : 6917
Taille : 357,7 Ko

    L'IA générative pourrait aider les cybercriminels également

    Les estimations de l'impact de Goldman sont plus conservatrices que celles de certaines études universitaires, qui incluaient les effets d'un plus large éventail de technologies connexes.

    Un article publié la semaine dernière par OpenAI, le créateur de GPT-4, a révélé que 80 % de la main-d'œuvre américaine pouvait voir au moins 10 % de ses tâches effectuées par l'IA générative, sur la base d'analyses effectuées par des chercheurs humains et le modèle de langage machine de l'entreprise. (LLM).

    Europol, l'agence chargée de l'application de la loi, a également averti cette semaine que les progrès rapides de l'IA générative pourraient aider les fraudeurs en ligne et les cybercriminels, de sorte que les « LLM sombres... » pourraient devenir un modèle commercial clé du futur.

    Goldman a déclaré que si les investissements des entreprises dans l'IA continuaient de croître à un rythme similaire à celui des investissements dans les logiciels dans les années 1990, les investissements américains à eux seuls pourraient approcher 1% du PIB américain d'ici 2030.

    Les estimations de Goldman sont basées sur une analyse des données américaines et européennes sur les tâches généralement effectuées dans des milliers de professions différentes. Les chercheurs ont supposé que l'IA serait capable d'accomplir des tâches telles que remplir les déclarations de revenus d'une petite entreprise*; évaluer une réclamation d'assurance complexe; ou documenter les résultats d'une enquête sur une scène de crime.

    Ils n'envisageaient pas l'adoption de l'IA pour des tâches plus sensibles telles que rendre une décision de justice, vérifier le statut d'un patient en soins intensifs ou étudier les lois fiscales internationales.

    « 80% des travailleurs auront au moins 10% de leurs tâches touchées », selon OpenAI

    Des chercheurs d'OpenAI et de l'Université de Pennsylvanie ont fait valoir que 80 % de la main-d'œuvre américaine pourrait avoir au moins 10 % de ses tâches affectées par l'introduction des GPT, la série de grands modèles de langage populaires réalisés par OpenAI. Ils ont également estimé qu'environ 19 % des travailleurs verront au moins 50 % de leurs tâches affectées. L'exposition au GPT est plus élevée pour les emplois à revenu élevé, ont-ils écrit dans l'étude, mais s'étend à presque toutes les industries. Ils soutiennent que les modèles GPT sont des technologies à usage général comme la machine à vapeur ou la presse à imprimer.

    L'article est baptisé « Les GPT sont des GPT : un premier aperçu du potentiel d'impact sur le marché du travail des grands modèles linguistiques ».

    Les chercheurs ont utilisé la base de données O*NET, qui est la principale base de données sur les professions aux États-Unis et répertorie 1 016 professions avec des descriptions normalisées, pour déterminer les tâches à mesurer pour chaque profession. Ils ont ensuite collecté des annotations humaines et générées par GPT-4 à l'aide d'une rubrique pour déterminer si l'accès direct à GPT ou à un système secondaire alimenté par GPT réduirait le temps nécessaire à un humain pour effectuer une tâche spécifique d'au moins 50 %. Une exposition plus élevée signifiait que GPT réduirait le temps nécessaire pour accomplir la tâche d'au moins la moitié tout en maintenant un travail de haute qualité.

    « Nos résultats indiquent que l'importance des compétences en sciences et en pensée critique est fortement associée négativement à l'exposition, ce qui suggère que les professions nécessitant ces compétences sont moins susceptibles d'être affectées par les modèles linguistiques actuels », ont écrit les chercheurs. « À l'inverse, les compétences en programmation et en écriture montrent une forte association positive avec l'exposition, ce qui implique que les professions impliquant ces compétences sont plus susceptibles d'être influencées par les modèles linguistiques ».

    Les professions les plus exposées comprennent les mathématiciens, les préparateurs d'impôts, les écrivains, les concepteurs de sites Web, les comptables, les journalistes et les secrétaires juridiques. Les professions avec la variance la plus élevée, ou moins susceptibles d'être affectées par GPT, comprennent les graphistes, les stratégies de marketing de recherche et les gestionnaires financiers.

    Nom : gpt.png
Affichages : 3910
Taille : 282,4 Ko

    Les chercheurs énumèrent également l'impact global prévu de GPT sur différentes industries, l'impact le plus important étant sur les services de traitement de données, les services d'information, les industries de l'édition et les compagnies d'assurance, tandis que l'impact le moins important concerne la fabrication de produits alimentaires, la fabrication de produits en bois, les activités de soutien à l'agriculture et la foresterie.

    Des limites dans cette étude

    Les chercheurs reconnaissent que leur étude présente des limites, du fait que les annotateurs humains connaissaient les capacités des modèles et n'appartenaient pas à certaines des professions mesurées. L'étude elle-même admet qu'il y a un parti pris inhérent à essayer de résumer chaque profession en utilisant de simples étiquettes pour décrire les tâches professionnelles. L'étude ajoute : « On ne sait pas dans quelle mesure les professions peuvent être entièrement décomposées en tâches, et si cette approche omet systématiquement certaines catégories de compétences ou de tâches qui sont tacitement requises pour l'exécution compétente d'un travail ».

    L'autre problème est que GPT a montré qu'il peut commettre des erreurs évidentes, y compris inventer des informations, ce qui oblige un humain à superviser le travail. C'est un facteur que l'étude n'a pas pu prendre en compte. En outre, l'étude a uniquement examiné si ChatGPT pouvait réduire le temps nécessaire pour accomplir diverses tâches par profession. Cela ne signifie pas que ChatGPT est nécessairement suffisamment intelligent pour automatiser entièrement certaines tâches.

    Bien sûr, il convient de noter qu'OpenAI a elle-même produit le travail, et en tant qu'entreprise cherchant à rentabiliser ses modèles d'IA, elle est fortement incitée à présenter ses outils comme perturbateurs dans les industries où ils vont permettre d'automatiser les tâches, ce qui profite en fin de compte aux employeurs.

    D'autre part, dans une récente interview, Altman a déclaré que ChatGPT devrait être considéré comme un outil, et non comme un remplacement pour n'importe quel travail. Il a expliqué que l'humanité a prouvé cela à maintes reprises en s'adaptant constamment à différents types de technologie. « La créativité humaine est sans limites et nous trouvons de nouveaux emplois. Nous trouvons de nouvelles choses à faire », a déclaré Altman.

    D'ailleurs, le rapport révèle comment les modèles GPT seront bientôt un outil couramment utilisé. Google et Microsoft ont déjà annoncé qu'ils intégreraient l'IA dans leurs produits bureautiques tels que les e-mails, les documents et dans leurs moteurs de recherche. Déjà, les startups utilisent GPT-4 et ses capacités de codage pour réduire leurs dépenses en développeurs humains.

    Source : Goldman Sachs

    Et vous ?

    Trouvez-vous ces analyses pertinentes ? Dans quelle mesure ?
    Que pensez-vous des nouveaux métiers comme Prompt Engineer ? Un métier pérenne ? Une exception qui confirme la règle ? Une illustration du fait que plusieurs métiers pourraient simplement être transformés ?
    Pensez-vous que ces nouveaux Chatbots sont des outils utiles ou plutôt des gadgets inutiles voir nuisibles ?
    Avez-vous testé ChatGPT ou Bard ? Quel est le meilleur selon vous et pourquoi ?

    Voir aussi :

    Des employés partageraient des données professionnelles sensibles avec ChatGPT, ce qui suscite des craintes en matière de sécurité, ChatGPT pourrait mémoriser ces données et les divulguer plus tard
    Europol tire la sonnette d'alarme sur l'utilisation criminelle du chatbot ChatGPT et entrevoit de sombres perspectives
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 061
    Par défaut
    pour l'it il va difficilement remplacer les développeurs, l'utilisant tous les jours il est incapable d'écrire du code qui s'exécute sans erreur.
    sauf a lui demander des petits de code simple et de les assembler... mais avec cette méthode on perds 4 fois plus de temps que de coder soit même.
    C'est pas rentable.

    Je sais pas si cette outil est si révolutionnaire que ca en faite, le "nouveau bing" est vraiment nul, taper une requête sur google et lire la réponse est beaucoup plus rapide.
    Le potentiel semble énorme à 1ere vu mais des qu'on l'utilise pour de vrai on se rends compte que c'est très limité en faite.

    il est parfaitement capable de remplacer les "journalistes" people et news pute a clic poubelle du style "vous devinerez jamais ce que fait ce chat", mais sinon...

    Et j'aimerais bien connaitre le potentiel d'amélioration de cette outil, car il a déjà le plus gros dataset possible (internet), il a déjà eu ca grosse maj (gpt4), avec surtout l'ajout multimodal, mais la qualité des réponses reste toujours aussi pauvres.
    Faut pas oublier que derrière c'est des formules mathématique et des stats qui tournent, nul aujourd'hui ne peut affirmer que ce genre d'algo peut atteindre un niveau humain.
    Ils ont beau avoir augmenté à 1000 milliards de paramètres pour GPT-4, on voit que la techno n'a pas des masses évolué.

    ca va être intéressant de voir la prochaine version, voir si on dépasse ou si cette techno plafonne. Les réseaux de neurones ont leurs limites et un nouveau paradigme sera surement nécessaire pour réellement avoir des voitures autonomes et remplacer des métiers comme developeur.

  9. #9
    Membre confirmé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    235
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 235
    Par défaut
    Il doit parler de la première version de ChatGPT, qui disait que les oeufs de vache/mouton/porc existent

  10. #10
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 35
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Par défaut L'organisme italien de surveillance de la vie privée a déclaré qu'il avait bloqué le robot controversé ChatGPT
    L'organisme italien de surveillance de la vie privée a déclaré vendredi qu'il avait bloqué le robot controversé ChatGPT, car il ne respectait pas les données des utilisateurs et ne pouvait pas vérifier leur âge

    La décision "avec effet immédiat" entraînera "la limitation temporaire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI", a déclaré l'Autorité italienne de protection des données.

    L'agence a lancé une enquête.

    ChatGPT, créé par la startup américaine OpenAI et soutenu par Microsoft, peut répondre clairement à des questions difficiles, écrire du code, des sonnets ou des essais, et même réussir des examens difficiles pour les étudiants.

    Mais l'application qui est apparue en novembre est controversée, les enseignants craignant que les étudiants ne l'utilisent pour tricher et les décideurs préoccupés par la propagation de la désinformation.

    L'organisme de surveillance a déclaré que le 20 mars, l'application avait subi une violation de données impliquant des conversations d'utilisateurs et des informations de paiement.

    Il a déclaré qu'il n'y avait aucune base légale pour justifier "la collecte et le stockage massifs de données personnelles dans le but de 'former' les algorithmes sous-jacents au fonctionnement de la plateforme".

    Il a également déclaré que puisqu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application "expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de sensibilisation".

    Il a déclaré que la société avait 20 jours pour répondre à la manière dont elle répondrait aux préoccupations du chien de garde, sous peine d'une amende de 20 millions d'euros (21,7 millions de dollars), soit jusqu'à 4% des revenus annuels.

    Le blocage de ChatGPT en Italie intervient quelques jours après que l'agence de police européenne Europol a averti que les criminels étaient sur le point d'utiliser l'application pour commettre des fraudes et d'autres cybercrimes, du phishing aux logiciels malveillants.

    Nom : 6RNLWPVMCNBPNFDAXBG3NESLSI.jpg
Affichages : 5019
Taille : 36,9 Ko

    Source : AFP

    Et vous ?

    Qu'en pensez-vous ?
    Les autorités italiennes ont-elles pris la bonne décision à votre avis ?
    Pensez-vous que la même décision devrait être appliquée en France ?

    Voir aussi :

    Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat », l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs, « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

    Une enquête révèle que certaines entreprises remplacent déjà les travailleurs par ChatGPT, malgré les avertissements selon lesquels il ne faut pas s'y fier pour "quoi que ce soit d'important"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #11
    Membre confirmé Avatar de jvallois
    Homme Profil pro
    Enseignant
    Inscrit en
    Février 2013
    Messages
    193
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : France, Aisne (Picardie)

    Informations professionnelles :
    Activité : Enseignant
    Secteur : Enseignement

    Informations forums :
    Inscription : Février 2013
    Messages : 193
    Par défaut
    La vraie raison pour laquelle les Italiens ont bloqué Chat GPT : https://twitter.com/olexandr/status/1642180293409796096


  12. #12
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Ah ça y est, les Italiens ne savent plus faire de capuccino sans intelligence artificielle ?

  13. #13
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 35
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Par défaut Un ministre italien estime que l'interdiction du ChatGPT est excessive
    Un ministre italien, Matteo Salvini, a critiqué dimanche la décision de l'autorité de protection des données du gouvernement d'interdire temporairement le chatbot ChatGPT, l'estimant excessive

    OpenAI, soutenu par Microsoft, a mis ChatGPT hors ligne en Italie vendredi, après que l'agence nationale des données a exprimé des inquiétudes quant à d'éventuelles violations de la vie privée et à l'absence de vérification que les utilisateurs fussent âgés de 13 ans ou plus, comme elle l'avait demandé.

    "Je trouve disproportionnée la décision de la Commission de surveillance de la vie privée qui a forcé #ChatGPT à empêcher l'accès depuis l'Italie", a écrit sur Instagram Matteo Salvini, qui est le chef du parti de la Ligue, la coalition au pouvoir.

    Salvini, qui est également ministre des Transports, a déclaré que la décision du régulateur était "hypocrite" et qu'il fallait faire preuve de bon sens, car "les questions de confidentialité concernent pratiquement tous les services en ligne".

    L'autorité italienne de protection des données a refusé de commenter le message de M. Salvini.


    Depuis son lancement l'année dernière, ChatGPT a suscité un engouement pour la technologie, incitant ses rivaux à lancer des produits similaires et les entreprises à l'intégrer, ou à intégrer des technologies similaires, dans leurs applications et leurs produits.

    Nom : Q327TNQZJFHLNDHPVGLXXN76A4.jpg
Affichages : 4406
Taille : 21,2 Ko

    OpenAI, qui a désactivé ChatGPT pour les utilisateurs italiens à la suite de la demande de l'agence, a déclaré vendredi qu'elle travaillait activement à la réduction de l'utilisation des données personnelles dans la formation de ses systèmes d'IA comme ChatGPT.

    "Nous sommes impatients de travailler en étroite collaboration avec (l'agence italienne des données) et de l'informer sur la manière dont nos systèmes sont construits et utilisés", a déclaré l'entreprise.

    L'interdiction pourrait nuire aux entreprises nationales et à l'innovation, a déclaré M. Salvini, ajoutant qu'il espérait qu'une solution rapide serait trouvée et que l'accès du chatbot à l'Italie serait rétabli.

    "Chaque révolution technologique apporte de grands changements, des risques et des opportunités. Il est juste de contrôler et de réglementer par le biais d'une coopération internationale entre les régulateurs et les législateurs, mais on ne peut pas la bloquer", a-t-il déclaré.

    Source : Matteo Salvini

    Et vous ?

    Qu'en pensez-vous ?
    Êtes-vous du même avis que Matteo Salvini ?
    Cette décision de l'Italie pourrait-elle influencer les autres pays à en faire de même ?

    Voir aussi :

    Une enquête révèle que certaines entreprises remplacent déjà les travailleurs par ChatGPT, malgré les avertissements selon lesquels il ne faut pas s'y fier pour "quoi que ce soit d'important"

    ChatGPT réussit l'entretien de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $, tout en indiquant qu'il ne peut pas reproduire la créativité humaine

    L'organisme italien de surveillance de la vie privée a déclaré vendredi qu'il avait bloqué le Chatbot controversé ChatGPT, car il ne respectait pas les données des utilisateurs
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Aussi, l'affirmation de Bill Gates que temporiser sur la question ne résoudra pas les problèmes, fait se demander quels problèmes les applications d'intelligence artificielle lui posent personnellement.

    Est-ce que le moratoire doit avoir pour but de résoudre les problèmes, ou d'éviter d'en poser de nouveaux, le temps qu'on comprenne où on en est ?

  15. #15
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 537
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 537
    Par défaut Les régulateurs européens de la vie privée s'intéressent de près à la suspension de ChatGPT en Italie
    Les régulateurs européens de la vie privée s'intéressent de près à la suspension de ChatGPT en Italie,
    plusieurs seraient tentés de lui emboîter le pas en raison de problèmes de confidentialité des données

    La décision de l'Italie de suspendre temporairement ChatGPT a incité d'autres pays européens à étudier si des mesures plus sévères sont nécessaires pour freiner les chatbots extrêmement populaires et s'il faut coordonner de telles actions. Le commissaire fédéral allemand à la protection des données et à la liberté d'information, Ulrich Kelber, a déclaré que le pays pourrait, en théorie, également suspendre temporairement ChatGPT s'il décidait de déterminer si la technologie violait le règlement général sur la protection des données (RGPD) de l'Union européenne.

    Lancée l'année dernière en novembre par OpenAI, ChatGPT serait devenue l'application Internet à la croissance la plus rapide de l'histoire en attirant 100 millions d'utilisateurs actifs par mois en seulement deux mois.

    Le bot non intelligent (est-il besoin de le rappeler ?) peut recevoir des instructions et des invites des utilisateurs et les utiliser pour produire des blocs correspondants de prose, de code et d'autres sorties de texte. Cependant, il est loin d'être parfait et peut produire un texte offensant, perpétrer des préjugés, tout simplement se tromper et diffuser des informations erronées (comme à peu près tous les grands modèles de langage).

    Le Garante per la protezione dei dati personali (en français Garant de la protection des données personnelles que nous allons abréger GPDP) a bloqué le site Web d'OpenAI hébergeant le modèle la semaine dernière. Les autorités cherchent à savoir si le logiciel collecte illégalement des données sur les citoyens et si la technologie pourrait nuire aux mineurs de moins de 13 ans. L'Italie est ainsi devenue le premier pays à réglementer ChatGPT, et d'autres pays de l'UE pourraient lui emboîter le pas.

    L'organisme de surveillance a déclaré que le 20 mars, l'application avait subi une violation de données impliquant des conversations d'utilisateurs et des informations de paiement. Il a déclaré qu'il n'y avait aucune base légale pour justifier « la collecte et le stockage massifs de données personnelles dans le but de 'former' les algorithmes sous-jacents au fonctionnement de la plateforme ». Il a également déclaré que puisqu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application « expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de sensibilisation ».

    OpenAI, indique le GPDP, a désormais 20 jours pour répondre à ses préoccupations, sous peine d'une amende de 20 millions d'euros, soit jusqu'à 4% des revenus annuels.

    Le blocage de ChatGPT en Italie intervient quelques jours après que l'agence de police européenne Europol a averti que les criminels étaient sur le point d'utiliser l'application pour commettre des fraudes et d'autres cybercrimes, du phishing aux logiciels malveillants.

    La décision n'a pas fait l'unanimité en Italie. Par exemple, Matteo Salvini, qui est le chef du parti de la Ligue (la coalition au pouvoir) a déclaré : « Je trouve disproportionnée la décision de la Commission de surveillance de la vie privée qui a forcé #ChatGPT à empêcher l'accès depuis l'Italie ». Salvini, qui est également ministre des Transports, a déclaré que la décision du régulateur était « hypocrite » et qu'il fallait faire preuve de bon sens, car « les questions de confidentialité concernent pratiquement tous les services en ligne ».

    OpenAI, qui a désactivé ChatGPT pour les utilisateurs italiens à la suite de la demande de l'agence, a déclaré vendredi qu'elle travaillait activement à la réduction de l'utilisation des données personnelles dans la formation de ses systèmes d'IA comme ChatGPT. « Nous sommes impatients de travailler en étroite collaboration avec (l'agence italienne des données) et de l'informer sur la manière dont nos systèmes sont construits et utilisés », a déclaré l'entreprise.

    L'interdiction pourrait nuire aux entreprises nationales et à l'innovation, a déclaré Salvini, ajoutant qu'il espérait qu'une solution rapide serait trouvée et que l'accès du chatbot à l'Italie serait rétabli. « Chaque révolution technologique apporte de grands changements, des risques et des opportunités. Il est juste de contrôler et de réglementer par le biais d'une coopération internationale entre les régulateurs et les législateurs, mais on ne peut pas la bloquer », a-t-il déclaré.

    Sur son site, le GPDP a indiqué qu'une réunion est prévue en vidéoconférence avec OpenAI demain 5 avril, OpenAI n'ayant pas de bureaux sur le territoire :

    Un appel vidéo est prévu demain soir entre des représentants d'OpenAI et la SA italienne (Garante per la protezione dei dati personali), qui a ordonné il y a quelques jours à la plateforme de limiter temporairement le traitement des données des utilisateurs italiens jusqu'à ce qu'elle se conforme à [l'italien et Législation européenne sur la protection de la vie privée.

    L'initiative d'appel vidéo, que la SA italienne salue, fait suite à la lettre de réponse envoyée hier par la société américaine pour signaler sa volonté de collaborer rapidement avec l'autorité italienne afin de se conformer aux réglementations européennes en matière de confidentialité et de parvenir à une solution partagée qui peut surmonter les critiques que la SA italienne a signalées concernant le traitement des données des utilisateurs italiens.
    Nom : open.png
Affichages : 12381
Taille : 393,8 Ko

    L'Allemagne, la France et l'Irlande surveillent de près l'enquête italienne

    Alors que les parlementaires européens ne sont pas d'accord sur le contenu et la portée de la loi sur l'IA de l'UE, certains régulateurs constatent que les outils existants, tels que le règlement général sur la protection des données (RGPD) qui donne aux utilisateurs le contrôle de leurs informations personnelles, peuvent s'appliquer à la catégorie en plein essor des entreprises d'IA générative.

    L'agence italienne a accusé OpenAI, soutenu par Microsoft Corp, de ne pas avoir vérifié l'âge des utilisateurs de ChatGPT ainsi que « l'absence de toute base légale justifiant la collecte et le stockage massifs de données personnelles » pour « former » le chatbot. « Les points qu'ils soulèvent sont fondamentaux et montrent que le RGPD offre des outils permettant aux régulateurs de s'impliquer et de s'engager à façonner l'avenir de l'IA », a déclaré Dessislava Savova, associée du cabinet d'avocats Clifford Chance.

    Les régulateurs de la vie privée en France et en Irlande ont contacté leurs homologues en Italie pour en savoir plus sur le fondement de la suspension. L'Allemagne pourrait suivre les traces de l'Italie en bloquant ChatGPT pour des raisons de sécurité des données, a déclaré le commissaire allemand à la protection des données au journal Handelsblatt.

    « Nous suivons le régulateur italien », a déclaré un porte-parole du commissaire irlandais à la protection des données. « Nous nous coordonnerons avec toutes les autorités de protection des données de l'UE en ce qui concerne cette question ».

    Les régulateurs espagnols ont déclaré qu'ils n'avaient pas reçu de plainte officielle concernant ChatGPT et qu'ils pourraient lancer leur propre enquête à l'avenir si nécessaire. La Suède, cependant, n'aurait pas l'intention d'interdire le logiciel et n'a pas contacté le GDPD italien pour obtenir des conseils.

    Certains experts juridiques pensent qu'une répression de ChatGPT pourrait signifier que d'autres chatbots IA comme Bard de Google ou Bing de Microsoft (qui s'appuie sur le même moteur que ChatGPT) pourraient également être examinés et réglementés.

    « Contrairement à ChatGPT, Google est plus susceptible d'avoir déjà pris en compte [la confidentialité] en raison de son histoire en Europe et de la taille de l'organisation », a déclaré Dessislava Savova.

    On ne sait pas comment des modèles comme ChatGPT seront touchés par la prochaine loi sur l'IA de l'UE (la législation conçue pour réglementer le développement et le déploiement de l'IA dans les États membres est toujours en débat).

    Le projet de loi est retardé alors que les responsables négocient ses politiques finales, dans l'espoir de trouver un équilibre entre la réglementation des risques de confidentialité et de sécurité tout en soutenant le développement technique et le potentiel économique de l'IA.

    « Il ne suffit pas de suspendre le développement de l'IA. Nous devons tout arrêter »

    Tandis que ce débat a lieu sur la scène européenne, dans un premier temps en Italie, plus de 1 100 experts en intelligence artificielle, chefs d'entreprise et chercheurs ont signé une pétition appelant les développeurs d'IA à cesser de former des modèles plus puissants que le ChatGPT-4 d'OpenAI pendant au moins six mois.

    Parmi ceux qui se sont abstenus de signer la pétition figure Eliezer Yudkowsky, théoricien américain de la décision et chercheur principal à la Machine Intelligence Research Institute. Il travaille sur l'alignement de l'intelligence artificielle générale depuis 2001 et est largement considéré comme l'un des fondateurs de ce domaine.

    « Ce moratoire de six mois serait préférable à l'absence de moratoire », écrit Yudkowsky dans une tribune publiée dans Time Magazine. « Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre ».

    Yudkowsky pousse la rhétorique à son paroxysme, en écrivant : « Si quelqu'un construit une centrale électrique trop puissante, il n'y a pas de raison de l'arrêter : "Si quelqu'un construit une IA trop puissante, dans les conditions actuelles, je m'attends à ce que chaque membre de l'espèce humaine et toute vie biologique sur Terre meurent peu de temps après ».

    Voici un extrait de sa tribune :

    Citation Envoyé par Eliezer Yudkowsky,
    La question essentielle n'est pas celle de l'intelligence "compétitive avec l'homme" (comme le dit la lettre ouverte) ; il s'agit de savoir ce qui se passe une fois que l'IA a atteint une intelligence supérieure à celle de l'homme. Les seuils clés ne sont peut-être pas évidents, nous ne pouvons certainement pas calculer à l'avance ce qui se passera à ce moment-là, et il semble actuellement imaginable qu'un laboratoire de recherche franchisse les limites critiques sans s'en apercevoir. [...] Ce n'est pas que vous ne puissiez pas, en principe, survivre à la création d'un objet beaucoup plus intelligent que vous ; c'est que cela nécessiterait de la précision, de la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d'IA composés de gigantesques tableaux impénétrables de nombres fractionnaires. [...]

    Il s'est écoulé plus de 60 ans entre le moment où la notion d'intelligence artificielle a été proposée et étudiée pour la première fois et le moment où nous avons atteint les capacités d'aujourd'hui. Résoudre la sécurité d'une intelligence surhumaine - pas une sécurité parfaite, une sécurité dans le sens de "ne pas tuer littéralement tout le monde" - pourrait très raisonnablement prendre au moins la moitié de ce temps. Et le problème avec l'intelligence surhumaine, c'est que si l'on se trompe du premier coup, on ne peut pas apprendre de ses erreurs, car on est mort. L'humanité n'apprend pas de ses erreurs, ne se dépoussière pas et ne recommence pas, comme dans d'autres défis que nous avons relevés au cours de notre histoire, parce que nous sommes tous morts.

    Essayer de réussir quelque chose du premier coup est une tâche extraordinaire, que ce soit en science ou en ingénierie. Nous n'avons pas l'approche nécessaire pour y parvenir. Si nous appliquions au domaine naissant de l'intelligence artificielle générale les mêmes normes de rigueur technique que celles qui s'appliquent à un pont destiné à accueillir quelques milliers de voitures, l'ensemble du domaine serait fermé demain. Nous ne sommes pas prêts. Nous ne sommes pas en mesure de nous préparer dans un délai raisonnable. Il n'y a pas de plan. Les progrès en matière de capacités d'IA sont très, très en avance sur les progrès en matière d'alignement de l'IA ou même sur les progrès en matière de compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir.
    Source : CNIL italienne

    Et vous ?

    Que pensez-vous de la décision de la CNIL italienne ?
    Les autres pays européens gagneraient-ils à suivre son exemple ? Pourquoi ?
    Comprenez-vous la motivation des experts en intelligence artificielle, chefs d'entreprise et chercheurs qui ont signé une pétition appelant les développeurs d'IA à cesser de former des modèles plus puissants que le ChatGPT-4 d'OpenAI pendant au moins six mois ? La partagez-vous ? Dans quelle mesure ?

    Voir aussi :

    Un YouTubeur incite ChatGPT à générer des clés d'activation Windows 95 utilisables. ChatGPT « ne peut pas compter la somme des chiffres et ne connaît pas la divisibilité », regrette le YouTubeur
    Alors que l'Amérique est focalisée sur ChatGPT, elle perd la course avec la Chine sur la technologie dans 37 des 44 domaines clés, selon une étude financée par le Département d'État US
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #16
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 721
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 721
    Par défaut L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation du chatbot d'IA ChatGPT
    L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI

    L'Allemagne pourrait suivre l'exemple de l'Italie en interdisant ChatGPT pour des raisons de sécurité des informations personnelles, a déclaré le responsable de la protection des données du pays.

    Le lundi 3 avril, le commissaire allemand à la protection des données, Ulrich Kelber, a déclaré au journal Handelsblatt que son pays pourrait s'inspirer de la récente interdiction de ChatGPT par l'Italie et prendre une mesure similaire.

    Après que l'agence italienne de protection des données a lancé une enquête sur une violation présumée des règles de confidentialité par ChatGPT, M. Kelber a déclaré que, "en principe, une telle action est également possible en Allemagne".

    Il a ajouté que cela relèverait de la compétence de chacun des États fédéraux du pays.

    M. Kelber a indiqué que les autorités de régulation allemandes avaient communiqué avec leurs homologues italiens à la suite de l'interdiction prononcée dans ce pays.

    Les organismes de surveillance de la confidentialité des données d'autres pays de l'UE, tels que la France et l'Irlande, ont également contacté l'autorité italienne de régulation des données pour discuter de ses conclusions.

    Un porte-parole du commissaire irlandais à la protection des données (DPC) a déclaré à Reuters : "Nous suivons l'évolution de la situation avec l'autorité italienne de régulation des données pour comprendre les raisons de son action et nous nous coordonnerons avec toutes les autorités de protection des données de l'UE sur cette question."

    Le DPC irlandais est le principal régulateur de l'UE pour de nombreux géants mondiaux de la technologie dans le cadre du "guichet unique" de réglementation des données de l'Union européenne.

    Toutefois, elle n'exerce aucun contrôle réglementaire direct sur la manière dont OpenAI opère au sein de l'Union, car l'entreprise d'intelligence artificielle n'a pas de bureaux dans l'UE.

    Nom : chatgpt germany.png
Affichages : 6408
Taille : 301,4 Ko

    L'interdiction de ChatGPT en Italie

    OpenAI, soutenue par Microsoft, a mis ChatGPT hors ligne en Italie après que l'agence nationale de protection des données a temporairement interdit le chatbot.

    Vendredi, l'autorité italienne de protection des données (GPDP) a annoncé qu'elle interdisait ChatGPT d'OpenAI "avec effet immédiat" et qu'elle enquêtait à son sujet.

    Le régulateur italien a accusé OpenAI d'avoir négligé d'installer une fonction empêchant les mineurs d'utiliser le service et d'avoir "collecté illégalement des données personnelles".

    Le GPDP a déclaré qu'il n'existait aucune base juridique justifiant "la collecte et le stockage massifs de données à caractère personnel dans le but d'"entraîner" les algorithmes qui sous-tendent le fonctionnement de la plateforme".

    Il a également déclaré qu'étant donné qu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application "expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de conscience".

    Le régulateur italien a ordonné à OpenAI de cesser de collecter des données auprès de clients italiens et de divulguer les mesures prises pour remédier aux plaintes déposées par l'autorité indépendante du pays.

    L'organisme de régulation américain reçoit une plainte concernant ChatGPT

    Le Centre for AI and Digital Policy a déposé une plainte auprès de la Commission fédérale du commerce des États-Unis (FTC) pour qu'elle empêche OpenAI de lancer de nouvelles versions commerciales au-delà de sa version actuelle, appelée GPT-4.

    La plainte du centre a été publiée sur le site web du groupe, où elle qualifie GPT-4 de "biaisé, trompeur et une menace pour la vie privée et la sécurité publique".

    La plainte officielle fait suite à une lettre ouverte approuvée par Elon Musk, des spécialistes de l'IA et des leaders de l'industrie qui ont demandé une suspension de six mois du développement de systèmes plus avancés que GPT-4 récemment introduit par OpenAI, en soulignant les risques sociétaux potentiels.

    Source : Ulrich Kelber, commissaire allemand à la protection des données

    Et vous ?

    Quelle lecture en faites-vous ?

    Pensez-vous que les pays membres de l'UE devraient suivre l'exemple de l'Italie concernant l'interdiction de ChatGPT ?

    Selon vous, quelles pourraient être les autres raisons de l'interdiction de l'utilisation du chatbot d'IA ? Et plus généralement du développement des systèmes plus avancés que GPT-4 ?

    Voir aussi

    L'organisme italien de surveillance de la vie privée a déclaré vendredi qu'il avait bloqué le Chatbot controversé ChatGPT, car il ne respectait pas les données des utilisateurs

    Un ministre italien, Matteo Salvini, a critiqué dimanche la décision de l'autorité de protection des données du gouvernement d'interdire temporairement le chatbot ChatGPT, l'estimant excessive

    Les régulateurs européens de la vie privée surveillent de près la suspension de ChatGPT en Italie. Plusieurs envisageraient de lui emboîter le pas, évoquant des problèmes de confidentialité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #17
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 721
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 721
    Par défaut Que peut nous apporter l'outil ChatGPT ? L'essence même du puissant chatbot d'IA générative dévoilée
    Que peut nous apporter l'outil ChatGPT ? L'essence même du puissant chatbot d'IA générative est dévoilée, à travers une enquête auprès des utilisateurs d'Internet

    Il y a fort à parier que vous avez rencontré le terme ChatGPT à plusieurs reprises ces derniers temps. Cet outil a révolutionné le monde de la technologie d'une manière que la plupart d'entre nous n'auraient jamais pu imaginer. Les créateurs du programme récoltent aujourd'hui les fruits de leur dur labeur. Mais à quoi sert exactement cet outil et quelles sont ses capacités ?

    Si vous faites une recherche en ligne, vous trouverez une pléthore d'informations sur ce sujet. Mais pour bien comprendre l'essence même de cette entreprise, nous avons pensé qu'il serait intéressant de noter quelques résultats intéressants issus de recherches récentes qui, selon nous, aideraient nos utilisateurs à découvrir son potentiel illimité.

    Alors que certains y voient un puissant programme d'IA, d'autres vont jusqu'à considérer qu'il s'agit de la fin du monde et de l'augmentation du chômage.

    De nouvelles études montrent que 40 % des personnes craignent que cet outil ne soit responsable de la perte de leur emploi et ne les mette au chômage. Par ailleurs, 60 % des personnes interrogées estiment que ChatGPT offre des conseils médicaux gratuits et d'autres consultations liées au domaine de la santé.

    Mais seulement 9 % ont révélé comment ils l'utiliseraient dans le cadre de leurs activités académiques et même 57 % utiliseraient l'outil pour rédiger leur thèse.

    À l'autre bout du spectre, 86 % estiment que l'outil peut être utilisé à des fins de manipulation et de contrôle de la population. Pas moins de 63 % estiment que les entreprises devraient commercialiser des produits sur cet outil, comme elles le font sur Google Search.

    Enfin, 13 % pensent qu'il s'agit du meilleur moyen de faire des ragots et de flirter en ligne, tandis que 22 % l'utiliseraient pour se faire passer pour une autre personne. Ensuite, 17 % affirment qu'ils l'utiliseraient pour rédiger des discours de mariage, tandis que 14 % pourraient s'en servir pour envoyer des messages de rupture à leur partenaire.

    Un autre incident choquant s'est produit lorsque des utilisateurs ont confondu un poème produit par l'IA avec un poème de la grande poétesse Sylvia Plath.

    Nom : 1-ChatGPT-fears-hopes-1.png
Affichages : 6183
Taille : 436,9 Ko

    En ce qui concerne les craintes et les espoirs associés à ce type d'outil, la plupart des utilisateurs en ligne affirment avoir eu une expérience pratique avec cet outil d'IA. Si 78 % d'entre eux l'ont utilisé à diverses fins, seul 1 % déclare n'en avoir jamais entendu parler. Parmi ces 78 %, la question de savoir ce que les utilisateurs faisaient exactement avec cet outil a suscité beaucoup d'interrogations.

    • 20 % - Recherche d'informations
    • 19 % - Produire du contenu court
    • 14 % - Jouer
    • 11 % - Recherche de recommandations
    • 11 % - Activités académiques
    • 10 % - Rédaction

    D'autres l'ont utilisé pour des conseils médicaux et des problèmes thérapeutiques.

    La recherche a ensuite montré que 83 % des personnes interrogées craignaient que les informations affichées ne soient biaisées en faveur des communautés minoritaires, tandis que 87 % craignaient que cette technologie ne soit utilisée pour contrôler la population. En outre, 70 % des personnes interrogées estiment que cette technologie pourrait améliorer la vie de l'humanité en général.

    63 % estiment que les entreprises pourraient en tirer profit à des fins de marketing, tandis qu'une petite majorité craint que l'outil ne permette de se faire passer pour une autre personne en ligne.

    Un autre élément d'information intéressant est que les gens craignent vraiment pour leur emploi. Parmi ceux qui pensent qu'ils vont être remplacés très bientôt, les développeurs de logiciels sont en tête de liste.

    Viennent ensuite les emplois liés à l'analyse des données et au service à la clientèle. Les créateurs de contenu et les spécialistes du marketing suivent de près. Mais encore une fois, l'outil comporte sa part d'inexactitudes, donc nous ne pensons pas qu'il faille trop s'inquiéter à ce sujet pour le moment.

    Source : Tidio

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous des informations présentées dans cette enquête ? Sont-elles pertinentes, voir utiles ?

    Avez-vous déjà utilisé ChatGPT ? Trouvez-vous que c'est outil utile ou plutôt un gadget superflu ?

    Voir aussi

    ChatGPT a enregistré une augmentation de 83 % en termes de trafic Web, et rivalise désormais avec Bing, la France est la 5e source de trafic pour le chatbot d'OpenAI, selon Similarweb

    Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat », l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »

    ChatGPT aurait réussi à trouver des bogues dans les bases de données après avoir été entraîné par l'équipe de StarRocks pour effectuer des tests automatisés

    Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat », l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Par défaut La CNIL enregistre les premières plaintes contre le logiciel d’IA d'OpenAI, l'accusant de violation du RGPD
    ChatGPT bientôt interdit en France comme en Italie ? La CNIL enregistre les premières plaintes contre le logiciel d’IA d'OpenAI
    la société est accusée d'avoir violé plusieurs dispositions du RGPD

    En France, la Commission nationale de l’informatique et des libertés (CNIL) a enregistré au moins deux plaintes visant le chatbot d'IA ChatGPT. La première, déposée par l’avocate Zoé Villain, présidente de l’association de sensibilisation aux enjeux du numérique Janus International, reproche à OpenAI de distribuer son outil d'IA sans aucune condition d'utilisation et sans aucune politique de confidentialité. Elle demande à la CNIL de l'aider à accéder aux données personnelles collectées par ChatGPT sur sa personne. Dans la seconde plainte, le développeur français David Libeau accuse ChatGPT d'inventer des informations erronées à son sujet.

    L'arrivée de ces deux plaintes auprès de la CNIL place davantage ChatGPT dans le viseur du gendarme français des données personnelles. Depuis le précédent créé par l'Italie, le chatbot d'IA d'OpenAI fait l'objet d'une surveillance accrue de la part de l'Union européenne et d'autres régulateurs étatiques. ChatGPT est rapidement devenu l'application grand public à la croissance la plus rapide de tous les temps, mais après l'émerveillement, place désormais au traitement de nombreuses préoccupations qu'il pose, notamment en matière de désinformation, de sécurité et de confidentialité. En France, la perspective d'un blocage de ChatGPT est plus forte que jamais.

    Jusque-là silencieuse, la CNIL française est maintenant confrontée à deux plaintes qui dénoncent les manquements d'OpenAI dans la distribution de son logiciel d'IA et les problèmes de désinformation de ce dernier. Les plaintes de Zoé Villain et de David Libeau, développeur très engagé dans la protection des données personnelles, auraient été déposées ce mardi 4 avril 2023 et ont été signalées dans un premier temps par le média L'Informé. Dans sa plainte, Villain explique qu'après avoir créé un compte pour utiliser ChatGPT, elle a remarqué l'absence de « conditions générales d’utilisation » à accepter et d’« une quelconque politique de confidentialité ».


    Villain s'étonne d'un tel manquement, car, selon elle, ces deux choses devraient être présentes sur le site de ChatGPT du moment où elle a fourni des données personnelles lors de son inscription et de son utilisation du service. Elle accuse OpenAI de ne pas informer suffisamment les utilisateurs sur la façon dont le laboratoire d'IA de San Francisco traite les données personnelles. De plus, elle explique avoir pris contact avec OpenAI pour tenter d'obtenir une copie que des données personnelles dont l'entreprise dispose sur sa personne, mais n'a pas obtenu gain de cause. Ainsi, à travers sa plainte, Villain demande à la CNIL de l'aider dans cette démarche.

    « OpenAI n’a pas été en mesure de donner droit à ma demande d’accès à mes données personnelles dans les délais impartis, et ce sans justification », écrit-elle dans sa plainte. Or, le RGPD (le règlement général sur la protection des données) de l'UE exige que le responsable du traitement - OpenAI dans le cas présent - facilite les droits des personnes concernées, sauf s’il est prouvé que l’identification est impossible. « On n’est pas antitechnologique, mais on souhaite une technologie éthique », a déclaré Villain à l’AFP. Elle espère que la CNIL parviendra à contraindre OpenAI à se conformer la réglementation européenne sur les données personnelles.

    De son côté, David Libeau allègue dans sa plainte auprès de la CNIL avoir repéré des informations personnelles le concernant en interrogeant ChatGPT sur son profil. Il ajoute que ses informations sont fausses. « Lorsque je demandais plus d’informations, l’algorithme a commencé à affabuler et à m’attribuer la création de sites Web ou l’organisation de manifestations en ligne, ce qui est totalement faux », écrit-il. Il s'agit d'une entorse grave au RGPD. En fait, cette faille serait contraire à l'article 5 du RGPD, qui exige que les informations délivrées portant sur une personne soient exactes. Une enquête de la CNIL doit déterminer l'exactitude de l'accusation.

    Selon certains critiques, l'instruction des deux plaintes par l’autorité de protection des données personnelles pourrait déboucher - en théorie - sur une interdiction du chatbot en France. Mais il s'agit de l'option la plus radicale et la CNIL dispose d'autres mesures moins drastiques qu'elle pourrait déployer si OpenAI est condamné. On pourrait citer : un simple rappel à l'ordre, une injonction de mise en conformité ou encore une amende pouvant aller jusqu'à 4 % du chiffre d'affaires annuel mondial de l'entreprise. Selon certains analystes, il peut arriver qu'OpenAI décide de son propre chef de quitter l'Hexagone par crainte des effets de certaines décisions.


    D'autres pensent néanmoins que c'est un scénario très peu probable. Tout compte fait, après plusieurs mois d'enchantement, OpenAI doit maintenant faire face aux préoccupations suscitées par son logiciel d'IA dans de nombreuses juridictions dans le monde. Vendredi dernier, l'Italie est devenue le premier pays à bloquer provisoirement ChatGPT. L'organisme italien de surveillance de la vie privée (l'équivalent italien de la CNIL) a évoqué des craintes sur la sécurité des données personnelles, l'absence d'une note d'information aux utilisateurs, et l'absence de filtre pour vérifier l'âge des utilisateurs. Il a également fait d'autres remarques mineures sur ChatGPT.

    Le régulateur a déclaré que l'entreprise disposait de 20 jours pour l'informer sur la manière dont elle répondrait à ses préoccupations, sous peine d'une amende de 20 millions d'euros (environ 21,7 millions de dollars), soit jusqu'à 4 % des revenus annuels d'OpenAI. Le blocage de ChatGPT en Italie est intervenu quelques jours après qu'Europol a averti que les criminels utilisent l'outil d'IA pour commettre des fraudes et d'autres cybercrimes, de l'hameçonnage aux logiciels malveillants. Le blocage est également intervenu après que ChatGPT a divulgué les titres de l'historique des conversations de certains utilisateurs et certaines informations de paiement.

    En outre, l'Allemagne pourrait suivre l'exemple de l'Italie et interdire ChatGPT pour des raisons de sécurité des informations personnelles. Le lundi 3 avril, le commissaire allemand à la protection des données, Ulrich Kelber, a déclaré au journal Handelsblatt que son pays pourrait s'inspirer de la récente interdiction de ChatGPT par l'Italie et prendre une mesure similaire. Kelber a déclaré que les autorités de régulation allemandes ont communiqué avec leurs homologues italiens à la suite de l'interdiction prononcée dans ce pays. Les autorités de régulations d'autres pays de l'UE, tels que la France et l'Irlande, auraient également fait la même chose.

    Cette semaine, un porte-parole du commissaire irlandais à la protection des données (DCP) a déclaré : « nous suivons l'évolution de la situation avec l'autorité italienne de régulation des données pour comprendre les raisons de son action et nous nous coordonnerons avec toutes les autorités de protection des données de l'UE sur cette question ». Le DPC est le principal régulateur de l'UE pour de nombreux géants mondiaux de la technologie dans le cadre du "guichet unique" de réglementation des données de l'Union européenne. Toutefois, elle n'exerce aucun contrôle réglementaire direct sur la manière dont OpenAI opère au sein du bloc des 27.

    En fait, OpenAI n'a pas de bureaux dans l'UE. Il faut également rappeler que le "Center for AI and Digital Policy" a déposé une plainte auprès de la Commission fédérale du commerce (FTC) des États-Unis lui demandant d'empêcher OpenAI de lancer de nouvelles versions commerciales au-delà de sa version actuelle, GPT-4. La plainte allègue que GPT-4 de "biaisé et trompeur" et l'accuse d'être une menace pour la vie privée et la sécurité publique. La plainte fait suite à une lettre ouverte cosignée par plusieurs experts en IA réclamant une suspension de six mois du développement de systèmes plus avancés que GPT-4, en évoquant des risques sociétaux.

    Sources : CNIL, AFP

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des plaintes visant ChatGPT en France ?
    Les allégations de ces plaintes sont-elles fondées ?
    Pensez-vous que ces plaintes aboutiront à une condamnation ?
    Pensez-vous que ChatGPT sera interdit en France ? Pourquoi ?

    Voir aussi

    L'organisme italien de surveillance de la vie privée a déclaré vendredi qu'il avait bloqué le Chatbot controversé ChatGPT, car il ne respectait pas les données des utilisateurs

    L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI

    Les régulateurs européens de la vie privée surveillent de près la suspension de ChatGPT en Italie. Plusieurs envisageraient de lui emboîter le pas, évoquant des problèmes de confidentialité

    Un ministre italien, Matteo Salvini, a critiqué dimanche la décision de l'autorité de protection des données du gouvernement d'interdire temporairement le chatbot ChatGPT, l'estimant excessive
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  19. #19
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Interdire ChatGPT, en France ou ailleurs, est stupide.

    A moins que l'Europe est mieux à proposé et qu'eux considère que leur "outil chat récole les données, certes, mais ... c'est pour l'europe, Môsieur".
    ChatGPT est entrain de faire prendre un tournant majeure à tous le monde, les entreprises de devs. en ont besoin, interdire ça en Europe comme l'ont fait stupidement les italiens, c'est se mettre un balle dans le pieds.

  20. #20
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Interdire ChatGPT, en France ou ailleurs, est stupide.

    A moins que l'Europe est mieux à proposé et qu'eux considère que leur "outil chat récole les données, certes, mais ... c'est pour l'europe, Môsieur".
    ChatGPT est entrain de faire prendre un tournant majeure à tous le monde, les entreprises de devs. en ont besoin, interdire ça en Europe comme l'ont fait stupidement les italiens, c'est se mettre un balle dans le pieds.
    Certes, affirmer comme le font péremptoirement par leur silence les négociateurs sur la question des retraites, que l'intelligence artificielle n'aura aucun impact sur l'emploi, et ne saurait en aucun cas être impliquée dans le financement des retraites, est un challenge en matière de mauvaise foi.

    Pour autant, affirmer que ce qu'on faisait jusque là n'est tout-à-coup plus possible, demande à être quelque peu étayé.

Discussions similaires

  1. Réponses: 0
    Dernier message: 24/06/2024, 11h26
  2. Réponses: 0
    Dernier message: 21/03/2024, 20h09
  3. Réponses: 0
    Dernier message: 31/12/2022, 21h09
  4. Réponses: 8
    Dernier message: 04/06/2016, 17h36
  5. Les vieux sont très fort au Basket
    Par kOrt3x dans le forum Sports
    Réponses: 2
    Dernier message: 08/08/2013, 16h43

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo