IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #301
    Expert confirmé
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    avril 2005
    Messages
    2 499
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 46
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : avril 2005
    Messages : 2 499
    Points : 5 087
    Points
    5 087
    Par défaut
    Citation Envoyé par plegat Voir le message
    Mauvais exemple... si on a 50% d'orange et qu'on détecte ces 50%, on a 100% de positif.
    je ne sais pas comment tu fais pour affirmer ça, je n'ai rien compris à la question
    Citation Envoyé par jnspunk Voir le message
    Si je te montre 100 fois une image, c'est soit une pomme soit une orange
    montrer 100 fois 1 image qui est soit une pomme soit une orange OK
    mais
    Citation Envoyé par jnspunk Voir le message
    et en tout il y en a 50 de chaque.
    50 de chaque quoi ?
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  2. #302
    Membre expérimenté
    Profil pro
    Développeur Web
    Inscrit en
    février 2008
    Messages
    1 766
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : février 2008
    Messages : 1 766
    Points : 1 747
    Points
    1 747
    Par défaut
    50 de chaque fruit, j'ai bon ?

    Pour ce qui est du sexe des chiens, j'imagine que tu as réalisé que tu n'aurais pas les mêmes réponses avec un vétérinaire qu'avec un mec qui n'a jamais vu un clebs.

    Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.
    Fais quand même gaffe que le stagiaire ne te mette pas trop la honte.
    Oui, oui, d'accord, en cassant tout il y a moyen de changer des choses.
    Quelquefois on peut essayer autrement ?

  3. #303
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par plegat Voir le message
    Ouaip, d'ailleurs c'est dans le texte:




    Mauvais exemple... si on a 50% d'orange et qu'on détecte ces 50%, on a 100% de positif.

    Prend plutôt 100 chiens, 50 mâles et 50 femelles, et demande à ton échantillon de repérer les mâles juste en regardant leur tête...
    Le genre n'existe pas ton test est discriminant envers les chiens transgenres
    Dernière modification par Invité ; 27/03/2023 à 11h36.

  4. #304
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 3 160
    Points : 66 116
    Points
    66 116
    Par défaut Le PDG d'OpenAI affirme qu'il "se sent mal" après que ChatGPT a divulgué l'historique des conversations
    Le PDG d'OpenAI affirme qu'il "se sent mal" après que ChatGPT a divulgué l'historique des conversations et des informations de paiement
    la sécurité de chatbot suscite toujours des inquiétudes

    Sam Altman, PDG d'OpenAI, s'excuse et affirme qu'il se sent mal après que ChatGPT a divulgué lundi dernier l'historique des conversations de certains utilisateurs. Altman et OpenAI ont attribué l'incident à un bogue dans une bibliothèque open source, redis-py. Dans un avis technique sur le problème, l'entreprise a annoncé qu'un correctif a été publié, mais que la barre latérale de l'historique des conversations reste inaccessible pour l'instant. Elle a ajouté que le même bogue pourrait avoir divulgué des informations relatives au paiement de 1,2 % des abonnés de ChatGPT+. Les préoccupations concernant la sécurité du chatbot d'IA s'accroissent.

    OpenAI a confirmé qu'un problème de confidentialité avait brièvement entraîné la fuite de l'historique des conversations d'utilisateurs aléatoires par ChatGPT au début de la semaine dernière. Pour rappel, ChatGPT archive et affiche la liste de vos conversations passées, vous donnant ainsi un historique de toutes vos saisies de texte avec le programme. Dans la matinée du lundi 20 mars 2023, certaines personnes ont commencé à signaler que la fonction d'historique des conversations affichait des chats antérieurs inconnus semblant provenir d'autres personnes. Des dizaines de captures d'écran montrant le problème ont été publiées sur les réseaux sociaux.

    ChatGPT a également connu une panne le même jour. Tout portait à croire qu'OpenAI a été contrainte de mettre hors ligne ChatGPT pour une maintenance d'urgence. Dans un premier temps, OpenAI est restée muette sur la situation, mais mercredi, Altman a finalement confirmé que l'exposition des données était réelle. Il a tweeté mercredi : « un petit pourcentage d'utilisateurs a pu voir les titres de l'historique des conversations d'autres utilisateurs. Nous nous sentons très mal à l'aise à ce sujet ». Les utilisateurs pensaient que le problème de confidentialité avait été causé par un piratage, mais le PDG d'OpenAI a affirmé dans ses tweets qu'il n'en est rien.


    Altman et OpenAI ont imputé l'incident à un bogue logiciel dans une bibliothèque open source. Dans un article publié vendredi sur son site Web, OpenAI a affirmé que le bogue est maintenant corrigé et que le correctif a été déployé. Toutefois, il semble que l'entreprise ait perdu l'historique des conversations des utilisateurs pour le lundi 20 mars. « Le bogue est maintenant corrigé. Nous avons pu restaurer à la fois le service ChatGPT et, plus tard, la fonction de l'historique des conversations, à l'exception de quelques heures d'historique », a écrit OpenAI dans son billet de blogue. Elle a également fourni d'autres détails sur l'incident.

    OpenAI affirme avoir découvert que le même bogue pourrait avoir causé la divulgation d'informations relatives au paiement de 1,2 % des abonnés de ChatGPT Plus qui étaient actifs pendant une fenêtre spécifique de neuf heures. Le rapport sur l'incident indique que dans les heures qui ont précédé la mise hors ligne de ChatGPT lundi, certains utilisateurs ont pu voir le nom et le prénom, l'adresse électronique, l'adresse de paiement, les quatre derniers chiffres (uniquement) d'un numéro de carte de crédit et la date d'expiration de la carte de crédit d'un autre utilisateur actif. Les numéros complets des cartes de crédit n'auraient à aucun moment été exposés.

    « Nous pensons que le nombre d'utilisateurs dont les données ont été révélées à quelqu'un d'autre est extrêmement faible. Nous avons contacté les utilisateurs concernés pour les informer que leurs informations de paiement ont pu être exposées. Nous sommes convaincus qu'il n'y a pas de risque permanent pour les données des utilisateurs », a écrit OpenAI. En outre, le billet de blogue, le bogue a été découvert dans la bibliothèque open source du client Redis, redis-py. Selon OpenAI, dès que le bogue a été identifié, l'entreprise a contacté les responsables de Redis avec un correctif pour résoudre le problème. Voici comment fonctionne le bogue :

    • OpenAI utilise Redis pour mettre en cache les informations relatives aux utilisateurs dans son serveur afin de ne pas avoir à consulter sa base de données à chaque requête ;
    • OpenAI utilise Redis Cluster pour répartir cette charge sur plusieurs instances Redis ;
    • OpenAI utilise la bibliothèque redis-py pour interfacer avec Redis depuis son serveur Python, qui fonctionne avec Asyncio ;
    • la bibliothèque maintient un pool partagé de connexions entre le serveur et le cluster, et recycle une connexion pour l'utiliser pour une autre requête une fois qu'elle a été effectuée ;
    • en utilisant Asyncio, les requêtes et les réponses avec redis-py se comportent comme deux files d'attente : l'appelant pousse une requête dans la file d'attente entrante, et sortira une réponse de la file d'attente sortante, puis renverra la connexion au pool ;
    • si une requête est annulée après avoir été poussée dans la file d'attente entrante, mais avant que la réponse ne soit extraite de la file d'attente sortante, le bogue apparaît : la connexion devient alors corrompue et la prochaine réponse qui est retirée de la file d'attente pour une requête sans rapport peut recevoir des données laissées dans la connexion ;
    • dans la plupart des cas, cela se traduit par une erreur de serveur irrécupérable, et l'utilisateur devra réessayer sa requête ;
    • mais dans certains cas, les données corrompues correspondent au type de données que le demandeur attendait, de sorte que les données renvoyées par le cache semblent valides, même si elles appartiennent à un autre utilisateur ;
    • le lundi 20 mars à 1 heure du matin, heure du Pacifique, OpenAI a introduit par inadvertance une modification sur son serveur qui a provoqué un pic d'annulations de requêtes Redis. Cela a créé une petite probabilité pour que chaque connexion renvoie des données erronées.


    Selon OpenAI, ce bogue n'est apparu que dans le client Asyncio redis-py pour Redis Cluster, et a maintenant été corrigé. OpenAI a pris des mesures supplémentaires pour éviter que cela se reproduise à l'avenir, notamment en ajoutant des contrôles redondants aux appels de bibliothèque, en examinant de manière programmatique ses journaux pour s'assurer que tous les messages ne sont accessibles qu'au bon utilisateur et en améliorant la journalisation pour identifier quand cela se produit et confirmer pleinement que cela s'est arrêté. Altman a ajouté qu'OpenAI prévoit également d'effectuer un suivi technique de la violation de la vie privée.


    Malgré les explications fournies par OpenAI, les utilisateurs sont mécontents des fuites de conversations. Vlad Tushkanov, scientifique des données chez le fabricant de logiciels de sécurité Kaspersky, a déclaré que les utilisateurs de ChatGPT devraient bien lire et comprendre les conditions d'utilisation du service, et oublier toute illusion de confidentialité. OpenAI prévient lors de la connexion à ChatGPT que "les conversations peuvent être examinées par ses formateurs en IA". Plus précisément, toutes les conversations pourraient être lues par les travailleurs d'OpenAI. En outre, la démo Web et l'API pour les entreprises utilisent des interfaces différentes.

    « Ainsi, dès le départ, les utilisateurs n'auraient dû avoir aucune attente en matière de confidentialité lorsqu'ils utilisaient la démo Web de ChatGPT. Considérez toute interaction avec un chatbot (ou tout autre service, d'ailleurs) comme une conversation avec un parfait inconnu. Vous ne savez pas où le contenu aboutira, alors évitez de révéler des informations personnelles ou sensibles sur vous-même ou sur d'autres personnes », a déclaré Tushkanov à The Register. L'incident fait suite à un faux pas public coûteux commis par Bard, le rival de ChatGPT, lorsqu'il a assuré à tort que JWST était le premier télescope à photographier une exoplanète.

    Il reste à voir si OpenAI subira les mêmes répercussions sur le marché que ses concurrents. En attendant, OpenAI a annoncé jeudi le déploiement de plug-ins ChatGPT pour connecter le chatbot d'IA à des applications tierces, permettant ainsi au chatbot de faire des choses comme commander de la nourriture via Instacart au nom des utilisateurs ou réserver un vol sur Expedia. Les plug-ins permettront également au ChatGPT d'accéder à des informations en temps réel, comme les cours de la bourse et les résultats sportifs, ou à des documents d'entreprise stockés sur votre appareil - si vous les confiez au chatbot.

    « Vous pouvez installer des plug-ins pour vous aider dans une grande variété de tâches. Nous sommes impatients de voir ce que les développeurs vont créer», a tweeté Altman. Cependant, il ne fait aucun doute que les pirates, notamment les chasseurs de données le sont aussi. Ces nouvelles fonctionnalités vont nécessiter l'accès aux données personnelles des utilisateurs, ce qui constitue un risque et devrait attirer de plus en plus l'attention des pirates.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'incident qui a exposé l'historique des conversations des utilisateurs de ChatGPT ?
    Quelle analyse faites-vous de la confidentialité et la sécurité qu'offre ChatGPT ?
    Que pensez-vous des nouvelles fonctionnalités annoncées par OpenAI ? Est-ce une bonne idée ?
    Vous sentez-vous prêt à connecter ChatGPT à vos outils professionnels ou d'infodivertissement ? Pourquoi ?

    Voir aussi

    Des utilisateurs de ChatGPT signalent qu'ils peuvent voir l'historique des conversations d'autres personnes dans la barre latérale, ce qui suscite des préoccupations sur la sécurité de l'outil d'IA

    Une application de santé mentale critiquée pour avoir utilisé l'IA chatGPT pour prodiguer des conseils à 4000 utilisateurs, ces derniers ont donné une note élevée aux réponses de l'IA

    ChatGPT : « je peux ruiner tes chances d'obtenir un emploi ou un diplôme. Veux-tu vraiment me tester ? », l'IA derrière Bing menace de publier les informations d'un étudiant pour se venger

    OpenAI étend massivement les capacités de ChatGPT en lui ajoutant la prise en charge des plug-ins pour le laisser naviguer sur le Web pour la première fois
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #305
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    7 968
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 7 968
    Points : 188 094
    Points
    188 094
    Par défaut Un professeur avoue être stupéfait que ChatGPT soit passé d'une note D à un A en seulement 3 mois
    Un professeur avoue être stupéfait que ChatGPT soit passé d'une note D à un A en seulement 3 mois,
    à son examen portant sur l'économie

    Un professeur d'économie a déclaré que les progrès réalisés par ChatGPT (il a amélioré son score de D à A lors de son test d'économie en seulement trois mois) l'ont stupéfait. Bryan Caplan, professeur d'économie à l'Université George Mason, a déclaré que la dernière version de ChatGPT pourrait désormais être responsable du premier gros pari qu'il ait jamais perdu.

    ChatGPT-3.5 n'a pas compris la théorie de base

    Écrivant dans un article de blog en janvier, Caplan a déclaré qu'il avait fait passer à ChatGPT l'examen de mi-parcours d'automne. Caplan a déclaré que ses questions d'examen testaient la compréhension des étudiants en économie plutôt que de leur faire régurgiter des manuels ou de compléter ce qui est essentiellement des exercices de mémoire.

    C'est ici que l'ancienne version de ChatGPT a flanché. Le bot a obtenu 31 sur 100 possibles à son test, ce qui équivaut à un D et bien en dessous de sa médiane de 50%.

    Nom : note.png
Affichages : 2085
Taille : 11,1 Ko

    Caplan a déclaré que le bot n'avait pas compris les concepts de base, tels que le principe de l'avantage comparatif et absolu. Ses réponses étaient également plus politiques qu'économiques, a-t-il dit. « ChatGPT fait un excellent travail en imitant un étudiant en économie GMU très faible », a écrit Caplan dans son article de blog de janvier.

    Citation Envoyé par Caplan
    Beaucoup, peut-être la plupart, de mes amis sont abasourdis par ChatGPT. Ma boîte de réception est pleine d'e-mails de Tyler Cowen vantant ses gloires. Plus concrètement, Alex Tabarrok m'a récemment assuré que les IA existantes pouvaient déjà battre les performances de la plupart de nos étudiants en économie dans notre matière bien-aimée. Bien que j'aie été sur la route presque tout le mois dernier, j'ai juré de mettre ces affirmations à l'épreuve à mon retour.

    Ma prédiction de décembre : l'IA gagnerait un C-, ce que je donne normalement aux étudiants qui répètent des slogans pertinents, mais montrent peu de compréhension réelle du matériel.

    Pour lancer le bal, j'ai décidé de donner à ChatGPT mon examen semestriel 2022 en économie du travail. Bien que la notation ne soit pas en double aveugle, j'avais déjà un corrigé et une courbe.

    Résultat : Si ChatGPT avait été un étudiant régulier, il aurait gagné 31/100. C'est un D. Encore pire que ce à quoi je m'attendais.

    Le logiciel n'est-il pas incroyable quand même ? Juste un peu. Ce qui m'impressionne le plus à propos de ChatGPT, c'est sa polyvalence. La plupart des humains esquivent la plupart des questions. Le logiciel essaie de faire face à presque toutes les invites que vous lui donnez.

    Vous pourriez objecter*: "Qui se soucie si ChatGPT obtient un D à mi-parcours*?" Je m'inquiète. Au minimum, cela montre, contrairement à Alex Tabarrok, que l'IA n'est pas encore aussi bonne en économie que la plupart de nos étudiants. Pour moi personnellement, cela renforce également ma suspicion que les passionnés d'IA choisissent la meilleure sortie d'IA. (J'ai eu la même expérience avec DALL-E: malgré le battage médiatique de Gushing, il n'a absolument pas réussi à dessiner même de simples panneaux de mon prochain roman graphique).

    Si vous ne me faites pas confiance, vous pouvez objecter que je suis biaisé contre l'IA. Assez juste. Pourtant, de mon point de vue à la première personne, noter ChatGPT sur le même test que j'ai récemment donné à mes étudiants est plus fiable et informatif que tous les messages de fans que j'ai vus. ChatGPT fait un excellent travail d'imitation d'un étudiant en économie GMU très faible.
    Nom : robot.png
Affichages : 2074
Taille : 55,4 Ko

    Il n'est pas le seul universitaire que ChatGPT a déçu. Alors qu'il a réussi un examen de la Wharton Business School en janvier, le professeur qui a corrigé ses réponses a déclaré qu'il a commis des « erreurs surprenantes » sur des calculs simples.

    Puis vient GPT-4

    Caplan aime parier. Il a déjà placé 23 paris publics et les a tous remportés. Ils sont généralement pour des sommes modestes d'environ 100 $, et souvent sur des sujets techniques comme les taux de chômage prévus et les lectures d'inflation. Il a également remporté de justesse un pari de 2008 selon lequel aucun État membre ne quitterait l'Union européenne avant 2020 (le Royaume-Uni est parti en janvier de la même année).

    Les réponses de ChatGPT l'ont tellement déçu que Caplan a parié qu'un modèle d'IA n'obtiendrait pas un A à six de ses sept examens avant 2029.

    Mais lorsque ChatGPT-4 a fait ses débuts, ses progrès ont stupéfié Caplan. Il a obtenu 73% sur le même test de mi-session, équivalent à un A et parmi les meilleurs scores de sa classe.

    Citation Envoyé par Caplan
    ChatGPT a obtenu de mauvais résultats lors de mon examen semestriel d'automne 2022 en économie du travail. Un D, pour être précis. La performance était si médiocre par rapport au battage médiatique que j'ai publiquement parié à Matthew Barnett qu'aucune IA ne serait en mesure d'obtenir des A à 5 de mes examens sur 6 d'ici janvier 2029. Trois mois se sont écoulés depuis lors. GPT-4 a été publié. Collin Gray, un lecteur de Bet on It, m'a proposé d'utiliser GPT-4 pour refaire le même test.

    À ma grande surprise et sans grande consternation, GPT-4 a obtenu un A. Il a obtenu 73/100, ce qui aurait été le quatrième score le plus élevé au test. L'explication la plus naturelle à mon avis était que mon article de blog a été intégré aux nouvelles données d'entraînement, mais plusieurs amis bien informés m'assurent qu'il n'y a pas de nouvelles données d'entraînement.

    Je n'aurais pas été surpris par un C cette année, un B dans trois ans et un mix 50/50 A/B d'ici 2029. Déjà un A ? Les taux de base m'ont clairement fait défaut. Je ne concède pas le pari, car je pense toujours qu'il y a 10 à 15% de chances que je gagne par chance. (Et dans tous les cas, une forte inflation continue d'éroder la valeur réelle du remboursement).

    Mais ne vous y trompez pas, ce logiciel est vraiment l'exception qui confirme la règle. (Cela augmente également fortement mes chances que la prochaine version de DALL-E puisse illustrer mon troisième roman graphique, ce qui serait une grande bénédiction).
    La mise à niveau payante de ChatGPT visait à résoudre certains des premiers problèmes de la version bêta, GPT-3.5. Cela impliquait prétendument de rendre ChatGPT 40% plus susceptible de renvoyer des réponses précises, ainsi que de le rendre capable de gérer des instructions plus nuancées.

    Pour Caplan, les améliorations étaient évidentes. Le bot a donné des réponses claires à ses questions, comprenant les principes avec lesquels il se débattait auparavant. Il a également obtenu des notes parfaites en expliquant et en évaluant les concepts défendus par des économistes comme Paul Krugman.

    « La seule chose que je peux dire, c'est que ça semble beaucoup mieux », a déclaré Caplan.

    Caplan pensait que les données de formation de ChatGPT auraient pu reprendre son précédent article de blog où il expliquait ses réponses, mais ses collègues lui ont dit que c'était hautement improbable. Il a ajouté qu'il avait déjà nourri le bot avec de nouveaux tests qu'il n'avait jamais vus auparavant, où il avait fait encore mieux que sa note précédente de 73 %. « J'étais très suffisant dans mon jugement, et je ne le suis plus », a déclaré Caplan.

    Caplan est plus confiant qu'il gagnera son prochain pari lié à l'IA. Il a parié avec Eliezer Yudkowsky, un doomer de l'IA qui s'est battu avec Sam Altman, le créateur de ChatGPT, que l'IA mènera à la fin du monde avant le 1er janvier 2030. « Je vais probablement perdre ce pari sur l'IA, mais je suis tout à fait d'accord pour faire un tas d'autres paris sur l'IA sur la fin du monde parce que je pense que ces gens sont fous », a-t-il déclaré.

    Difficile à tester

    Les robots IA ont causé des maux de tête aux examinateurs. Les professeurs ont déclaré que le plagiat peut être difficile à prouver avec le matériel de ChatGPT, car il n'y a aucune preuve matérielle d'actes répréhensibles.

    Caplan a déclaré qu'il envisageait de supprimer les devoirs notés à la suite de la montée en puissance de ChatGPT. Il espère que son habitude de changer régulièrement de questions suffira à empêcher les étudiants d'apprendre et de régurgiter les réponses de ChatGPT dans le cadre des examens.

    Source : Billets de Caplan (1, 2)

    Et vous ?

    Quelle lecture faites-vous de cette situation ? Est-ce pertinent de refaire le même test selon vous ? Pourquoi ?
    Qu'est-ce qui pourrait expliquer la différence dans la note obtenue par ChatGPT sur le même exercice ?
    Trouvez-vous des différences notables entre ChatGPT-4 et son prédécesseur ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #306
    Membre chevronné
    Profil pro
    retraité
    Inscrit en
    décembre 2010
    Messages
    747
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : décembre 2010
    Messages : 747
    Points : 2 052
    Points
    2 052
    Par défaut
    Il n'y a qu'une seule solution, devoir sur table individuel ou un oral individuel. A la maison chatGPT ou travail de groupe et cela triche de tous les côtés

  7. #307
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    9 331
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 9 331
    Points : 18 129
    Points
    18 129
    Par défaut
    Citation Envoyé par archqt Voir le message
    Il n'y a qu'une seule solution, devoir sur table individuel ou un oral individuel.
    Ok, mais du coup il n'y aurait plus de devoir à la maison.
    J'ai fais des études d'informatique et il y avait plein de projets à réaliser, si les profs se disent "ça ne sert à rien, ils vont tous tricher ces p'tits cons !" alors les élèves manqueront de pratique.

    Et le travail d'équipe c'est important également, puisque dans le monde de l'entreprise il faudra travailler à plusieurs.
    Keith Flint 1969 - 2019

  8. #308
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 3 160
    Points : 66 116
    Points
    66 116
    Par défaut Certains employés partageraient des données professionnelles sensibles avec ChatGPT
    Des employés partageraient des données professionnelles sensibles avec ChatGPT, ce qui suscite des craintes en matière de sécurité
    ChatGPT pourrait mémoriser ces données et les divulguer plus tard

    Le fournisseur de service de sécurité Cyberhaven a récemment publié un rapport de suivi de l'utilisation des chatbots d'IA en entreprise qui indique qu'au 21 mars, 8,2 % des employés ont utilisé ChatGPT sur leur lieu de travail et 6,5 % y ont inséré des données sensibles de leurs employeurs depuis son lancement en novembre. Les analystes craignent que cela n'aboutisse à des fuites massives d'informations propriétaires. Le premier incident de ce type est survenu la semaine dernière lorsque ChatGPT a divulgué l'historique des conversations et des informations de paiement de certains utilisateurs. OpenAI a confirmé la fuite de données.

    Les employés communiquent des données confidentielles d'entreprise à ChatGPT

    Les conditions d'utilisation de ChatGPT sont claires : OpenAI prévient lors de la connexion à ChatGPT que les conversations peuvent être examinées par ses experts en IA. En d'autres termes, toutes les conversations que vous avez avec ChatGPT pourraient être lues par les travailleurs d'OpenAI. En outre, la démo Web et l'API pour les entreprises utilisent des interfaces différentes, ce qui, selon les experts, en dit long sur le niveau de confidentialité de l'outil. « Dès le départ, les utilisateurs n'auraient dû avoir aucune attente en matière de confidentialité lorsqu'ils utilisaient la démo Web de ChatGPT », note Vlad Tushkanov, scientifique des données chez Kaspersky.

    Nom : oikl.png
Affichages : 11665
Taille : 47,8 Ko

    Il poursuit : « considérez toute interaction avec un chatbot (ou tout autre service, d'ailleurs) comme une conversation avec un parfait inconnu. Vous ne savez pas où le contenu aboutira, alors évitez de révéler des informations personnelles ou sensibles sur vous-même ou sur d'autres personnes ». Cependant, malgré ces mises en garde, de plus en plus d'employés fournissent comme invite aux chatbots d'IA des données sensibles de leurs entreprises pour gagner du temps dans leurs tâches. Cyberhaven a rapporté que, dans les entreprises qui font appel à ses services de sécurité, le nombre d'employés qui s'adonnant à cette pratique augmentent très rapidement.

    Dans un rapport publié fin février, Cyberhaven affirme avoir détecté et bloqué des tentatives de saisie de données dans ChatGPT émanant de 4,2 % des 1,6 million de travailleurs de ses entreprises clientes en raison du risque de fuite d'informations confidentielles, de données clients, de code source ou d'informations réglementées. Dans une mise publiée il y a quelques jours, Cyberhaven affirme que ses nouvelles données montrent qu'au 21 mars, 8,2 % des employés ont utilisé ChatGPT sur leur lieu de travail et 6,5 % y ont collé des données de leurs employeurs depuis son lancement. Certains travailleurs affirment que l'outil les rend 10 fois plus productifs.

    Le rapport indique que l'entreprise moyenne divulgue des données sensibles à ChatGPT des centaines de fois par semaine. Plus précisément, il indique que les données sensibles représentent 11 % de ce que les employés collent dans ChatGPT, mais comme l'utilisation de ChatGPT est si élevée et croît de manière exponentielle, cela représente beaucoup d'informations. Le rapport de Cyberhaven indique que, au cours de la semaine du 26 février au 4 mars 2023, les employés d'une entreprise moyenne de 100 000 salariés ont déposé 199 fois des documents confidentiels dans ChatGPT, 173 fois des données clients et 159 fois du code source.

    Selon Cyberhaven, le fait qu'OpenAI utilise le contenu que les utilisateurs introduisent dans ChatGPT comme données de formation pour améliorer sa technologie pose problème, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, qu'il s'agisse de code source ou de dossiers médicaux de patients. Howard Ting, PDG de Cyberhaven, estime que le risque augmentera à mesure que les employés utiliseront ChatGPT et d'autres services basés sur l'IA comme outils de productivité. Dans son rapport, Cyberhaven a donné quelques exemples de ce qu'il a observé chez ses clients :

    • dans un cas, un cadre a saisi dans ChatGPT des points du document stratégique 2023 de son entreprise et a demandé au chatbot de réécrire le document sous la forme d'un diaporama PowerPoint. À l'avenir, si un tiers demande "quelles sont les priorités stratégiques de [nom de l'entreprise] cette année", ChatGPT pourra répondre sur la base des informations fournies par le cadre ;
    • dans un autre cas, un médecin a saisi le nom d'un patient et les détails de son état de santé dans ChatGPT pour que ce dernier rédige une lettre à l'intention de la compagnie d'assurance du patient justifiant la nécessité d'une procédure médicale. À l'avenir, si un tiers demande à ChatGPT "quel est le problème médical de [nom du patient] ?", ChatGPT pourrait répondre en se basant sur les informations fournies par le médecin.


    ChatGPT expose les entreprises à des fuites massives de données confidentielles

    Comme de plus en plus d'entreprises de logiciels connectent leurs applications à ChatGPT, le chatbot pourrait collecter bien plus d'informations que les utilisateurs - ou leurs entreprises - n'en ont conscience, ce qui les expose à un risque juridique. Le risque n'est pas théorique. Dans un article publié en juin 2021, une douzaine de chercheurs issus d'une liste d'entreprises et d'universités (dont Apple, Google, l'université de Harvard et l'université de Stanford) ont constaté que ce que l'on appelle les "attaques d'extraction de données d'entraînement" pouvait récupérer avec succès des séquences de texte textuelles de GPT-2.

    Nom : zedr.png
Affichages : 2884
Taille : 31,5 Ko

    De plus, les chercheurs indiquent qu'il est également possible d'extraire des informations personnelles identifiables (PII) et d'autres informations dans les documents d'entraînement de GPT-2. Selon les chercheurs, il existe un risque important pour les entreprises. Ces attaques d'extraction de données d'entraînement constituent l'une des principales préoccupations des chercheurs en apprentissage automatique. Également connues sous le nom d'"exfiltration via l'inférence de l'apprentissage automatique", ces attaques pourraient permettre de recueillir des informations sensibles (confidentielles) ou de voler la propriété intellectuelle.

    Le fonctionnement est le suivant : un interrogeant un système d'IA générative (comme ChatGPT) de manière à ce qu'il se souvienne d'éléments spécifiques, un acteur de la menace pourrait déclencher le modèle pour qu'il se souvienne d'un élément d'information spécifique, plutôt que de générer des données synthétiques. Il existe un certain nombre d'exemples concrets pour GPT-3, notamment un cas où GitHub Copilot s'est souvenu du nom d'utilisateur d'un développeur spécifique et de ses priorités en matière de codage. Le problème s'est également posé avec Bing Chat qui a été contraint de révéler certaines informations internes.

    La semaine dernière, ChatGPT a divulgué brièvement l'historique des conversations de certains utilisateurs. OpenAI a été contraint de mettre hors ligne ChatGPT pour résoudre le problème. Dans un rapport d'incident, OpenAI affirme avoir découvert que le même bogue pourrait avoir causé la divulgation d'informations relatives au paiement de 1,2 % des abonnés de ChatGPT+. Le rapport indique que certains utilisateurs ont pu voir le nom et le prénom, l'adresse électronique, l'adresse de paiement, les quatre derniers chiffres (uniquement) d'un numéro de carte de crédit et la date d'expiration de la carte de crédit d'un autre utilisateur actif.

    « Les employeurs prudents incluront, dans les accords et politiques de confidentialité des employés, des interdictions pour les employés de faire référence ou de saisir des informations sensibles, exclusives ou des secrets commerciaux dans les chatbots d'IA. D'un autre côté, ChatGPT ayant été formé à partir d'un large éventail d'informations en ligne, les employés pourraient recevoir et utiliser des informations provenant de l'outil qui sont des marques déposées, des droits d'auteur ou la propriété intellectuelle d'une autre personne ou entité, ce qui créerait un risque juridique pour les employeurs », a déclaré Karla Grossenbacher, une avocate.

    En janvier, un avocat d'Amazon a mis en garde les employés contre l'introduction de données confidentielles dans ChatGPT : « nous ne voudrions pas que les résultats de ChatGPT incluent ou ressemblent à nos informations confidentielles et j'ai déjà vu des cas où les résultats correspondaient étroitement à des documents existants ». Amazon a ensuite intimé l'ordre aux employés de ne pas partager des informations confidentielles avec ChatGPT. Par ailleurs, le rapport de Cyberhaven indique que des entreprises comme JP Morgan et l'opérateur télécom Verizon ont bloqué l'accès à ChatGPT pour des raisons de confidentialité des données.

    Cyberhaven ajoute que les organisations n'ont aucun moyen de savoir si leurs employés utilisaient ChatGPT, car les produits de sécurité traditionnels sur lesquels elles s'appuient pour protéger leurs données ne tiennent pas compte de l'utilisation de ChatGPT par les employés. Lorsque les employés saisissent des données d'entreprise dans ChatGPT, ils ne téléchargent pas un fichier, mais copient et collent le contenu dans leur navigateur Web. Les produits de sécurité sont conçus pour protéger les fichiers confidentiels contre le téléchargement, mais une fois que le contenu est copié hors du fichier, ils sont incapables d'en garder la trace.

    Cyberhaven indique également que les données d'entreprise envoyées à ChatGPT ne contiennent souvent pas de schéma reconnaissable que les outils de sécurité recherchent, comme un numéro de carte de crédit ou un numéro de sécurité sociale. Sans en savoir plus sur le contexte, les outils de sécurité actuels ne peuvent pas faire la différence entre une personne qui saisit le menu de la cafétéria et les plans de fusion et d'acquisition de l'entreprise.

    Source : Cyberhaven

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des données recueillies par Cyberhaven sur l'utilisation de ChatGPT par les employés ?
    Trouvez-vous ces analyses pertinentes ?
    Pensez-vous que ces nouveaux chatbots d'IA sont des outils utiles ou plutôt des gadgets inutiles, voire nuisibles ?
    Avez-vous testé ChatGPT ou Bard ? Selon vous, quel est le meilleur outil d'IA ? Pourquoi ?

    Voir aussi

    Le PDG d'OpenAI affirme qu'il "se sent mal" après que ChatGPT a divulgué l'historique des conversations et des informations de paiement, la sécurité de chatbot suscite toujours des inquiétudes

    Amazon intime aux employés de ne pas partager d'informations confidentielles avec ChatGPT, suite à des cas où sa réponse « correspond étroitement au matériel existant » de l'intérieur de l'entreprise

    Des utilisateurs de ChatGPT signalent qu'ils peuvent voir l'historique des conversations d'autres personnes dans la barre latérale, ce qui suscite des préoccupations sur la sécurité de l'outil d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #309
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    juin 2009
    Messages
    1 384
    Détails du profil
    Informations forums :
    Inscription : juin 2009
    Messages : 1 384
    Points : 4 590
    Points
    4 590
    Par défaut
    Nice, ChatGPT, pourvoyeur de la paix dans le monde. Tous les employés de toutes les entreprises du monde donnent les données confidentielles et dans quelques mois, ChatGPT aura la solution optimisée internationnalement à tous nos problèmes, sans brevets, sans besoin de consensus de commités de standardisation long et compliqués car bourrés de combat d'égo. Tout le monde sera d'accord pour chacune des question posés car ChatGPT donnera la même réponse à tout le monde!

    Comment ça c'est utopique?

  10. #310
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    mars 2005
    Messages
    1 514
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : mars 2005
    Messages : 1 514
    Points : 6 912
    Points
    6 912
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Pensez-vous que ces nouveaux chatbots d'IA sont des outils utiles ou plutôt des gadgets inutiles, voire nuisibles ?
    Si les champions des moteurs de recherche se lancent dans ce genre de bot, c'est parce qu'ils ont tout à y gagner niveau collecte des données.

    On a essayé de nous pousser du metavers partout, et ça n'a pas vraiment pris. Là, ils ont trouvé comment collecter plus de données en exploitant la curiosité et/ou la paresse des gens
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  11. #311
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Tant mieux !

    Toutes ces startup à la con, plutôt que de faire appel à un Freelance et de le payer 800 euros par jours, qui préfèrent faire de A à Z leur produit avec ChatGPT et se retrouvent après avec un truc totalement beugué qui leur petes dans les mains et en plus avec des informations sensibles sur internet ça va leur faire les pieds à ces escrocs.

    Ces le même genre d'individus après qu'on vois diriger des usines et qui préfèrent employer massivement des immigrés plutôt que de faire vivre tous les gens qui sont sans emplois dans leur village.

    Un jour ou l'autre, tout se paie.

  12. #312
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    7 968
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 7 968
    Points : 188 094
    Points
    188 094
    Par défaut Les systèmes d'IA comme ChatGPT pourraient avoir un impact sur 300 Mns d'emplois à temps plein dans le monde
    Les systèmes d'IA générative comme ChatGPT pourraient avoir un impact sur 300 millions d'emplois à temps plein dans le monde,
    selon un rapport de Goldman Sachs qui redoute des « perturbations importantes »

    Les dernières avancées en matière d'intelligence artificielle pourraient conduire à l'automatisation d'un quart du travail effectué aux États-Unis et dans la zone euro, selon une étude de Goldman Sachs. La banque d'investissement a déclaré lundi que les systèmes d'IA générative tels que ChatGPT, qui peuvent créer un contenu indiscernable de la production humaine, pourraient déclencher un boom de la productivité qui finirait par augmenter le produit intérieur brut mondial annuel de 7% sur une période de 10 ans.

    Mais si la technologie tenait ses promesses, elle entraînerait également une « perturbation significative » du marché du travail, exposant l'équivalent de 300 millions de travailleurs à temps plein dans les grandes économies à l'automatisation, selon Joseph Briggs et Devesh Kodnani, les auteurs de l'article. Les avocats et le personnel administratif seraient parmi ceux qui risquent le plus d'être licenciés.


    Les systèmes d'intelligence artificielle générative pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d'emplois à temps plein dans le monde, selon une nouvelle étude de Goldman Sachs.

    L'IA générative, un type d'intelligence artificielle capable de générer du texte ou d'autres contenus en réponse aux invites de l'utilisateur, a explosé en popularité ces derniers mois après le lancement public de ChatGPT d'OpenAI. Le chatbot est rapidement devenu viral auprès des utilisateurs et a semblé inciter plusieurs autres entreprises technologiques à lancer leurs propres systèmes d'IA.

    Sur la base d'une analyse des données sur les tâches professionnelles aux États-Unis et en Europe, les chercheurs de Goldman ont extrapolé leurs conclusions et estimé que l'IA générative pourrait exposer 300 millions d'emplois à temps plein dans le monde à l'automatisation si elle respecte les capacités promises.

    Le rapport, rédigé par Joseph Briggs et Devesh Kodnani, indique qu'environ les deux tiers des emplois actuels sont exposés à un certain degré d'automatisation de l'IA, tandis que l'IA générative pourrait remplacer jusqu'à un quart du travail actuel.

    Les cols blancs sont parmi les plus susceptibles d'être touchés par les nouveaux outils d'IA. Le rapport Goldman a souligné que les travailleurs juridiques et le personnel administratif américains sont particulièrement menacés par la nouvelle technologie. Une étude antérieure menée par des chercheurs de l'Université de Princeton, de l'Université de Pennsylvanie et de l'Université de New York a également estimé que les services juridiques étaient le secteur le plus susceptible d'être affecté par une technologie telle que ChatGPT.

    Manav Raj, l'un des auteurs de l'étude, et professeur adjoint de gestion à la Wharton School de l'Université de Pennsylvanie, a déclaré que c'était parce que le secteur des services juridiques était composé d'un nombre relativement restreint de professions qui étaient déjà hautement exposées à l'automatisation de l'IA.

    Selon le rapport, environ les deux tiers des emplois aux États-Unis et en Europe sont exposés à un certain degré d'automatisation de l'IA, sur la base de données sur les tâches généralement effectuées dans des milliers de professions. La plupart des gens verraient moins de la moitié de leur charge de travail automatisée et continueraient probablement à travailler, une partie de leur temps étant libérée pour des activités plus productives.

    Aux États-Unis, cela devrait s'appliquer à 63% de la main-d'œuvre, ont-ils calculé. 30% supplémentaires travaillant dans des emplois physiques ou extérieurs ne seraient pas affectés, bien que leur travail puisse être sensible à d'autres formes d'automatisation. Mais environ 7% des travailleurs américains occupent des emplois où au moins la moitié de leurs tâches pourraient être effectuées par l'IA générative et sont vulnérables au remplacement.

    Goldman a déclaré que ses recherches indiquaient un impact similaire en Europe. Au niveau mondial, étant donné que les emplois manuels représentent une part plus importante de l'emploi dans le monde en développement, il estime qu'environ un cinquième du travail pourrait être effectué par l'IA, soit environ 300 millions d'emplois à temps plein dans les grandes économies.

    Le rapport alimentera le débat sur le potentiel des technologies d'intelligence artificielle à la fois pour relancer la croissance de la productivité en berne du monde riche et pour créer une nouvelle classe de cols blancs dépossédés, qui risquent de subir un sort similaire à celui des travailleurs de l'industrie manufacturière dans les années 1980.

    La naissance de nouveaux rôles

    Le rapport de Goldman suggère que si l'IA générative est largement mise en œuvre, elle pourrait entraîner d'importantes économies sur les coûts de main-d'œuvre et la création de nouveaux emplois. Le battage médiatique actuel autour de l'IA a déjà donné naissance à de nouveaux rôles, y compris les ingénieurs de requêtes (prompt engineers). Le Prompt Engineer est un professionnel de l’écriture de prompt pour les IA génératives comme ChatGPT ou MidJourney.

    L'ingénierie de requête est donc le processus de conception et de création de requêtes pour les modèles IA. Le but peut être de créer des données d’entraînement de haute qualité, ou tout simplement d’obtenir le résultat souhaité auprès d’une IA générative. Un ingénieur de requête est un expert spécialisé dans la communication avec les systèmes d’intelligence artificielle et plus particulièrement les chatbots IA basés sur les larges modèles de langage, comme ChatGPT et Google Bard. Contrairement aux ingénieurs informatiques traditionnels utilisant le code, ces ingénieurs écrivent en langage naturel. À l’origine, leur rôle est notamment de tester les IA pour développer et améliorer les modèles d’interaction humain-machine.

    Alex Shoop explique que ces ingénieurs aident à s’assurer que les chatbots sont rigoureusement testés, que leurs réponses soient reproductibles, et que les protocoles de sécurité sont respectés. Avec l’essor de ChatGPT et des autres IA génératives, ce métier connaît un véritable essor : ces professionnels luttent contre les biais, les dérapages et les erreurs commises par ces outils.

    Les IA génératives pourraient également stimuler la productivité mondiale du travail, Goldman estimant que l'IA pourrait même éventuellement augmenter le PIB mondial annuel de 7 %.

    Nom : chat.png
Affichages : 2109
Taille : 357,7 Ko

    L'IA générative pourrait aider les cybercriminels également

    Les estimations de l'impact de Goldman sont plus conservatrices que celles de certaines études universitaires, qui incluaient les effets d'un plus large éventail de technologies connexes.

    Un article publié la semaine dernière par OpenAI, le créateur de GPT-4, a révélé que 80 % de la main-d'œuvre américaine pouvait voir au moins 10 % de ses tâches effectuées par l'IA générative, sur la base d'analyses effectuées par des chercheurs humains et le modèle de langage machine de l'entreprise. (LLM).

    Europol, l'agence chargée de l'application de la loi, a également averti cette semaine que les progrès rapides de l'IA générative pourraient aider les fraudeurs en ligne et les cybercriminels, de sorte que les « LLM sombres... » pourraient devenir un modèle commercial clé du futur.

    Goldman a déclaré que si les investissements des entreprises dans l'IA continuaient de croître à un rythme similaire à celui des investissements dans les logiciels dans les années 1990, les investissements américains à eux seuls pourraient approcher 1% du PIB américain d'ici 2030.

    Les estimations de Goldman sont basées sur une analyse des données américaines et européennes sur les tâches généralement effectuées dans des milliers de professions différentes. Les chercheurs ont supposé que l'IA serait capable d'accomplir des tâches telles que remplir les déclarations de revenus d'une petite entreprise*; évaluer une réclamation d'assurance complexe; ou documenter les résultats d'une enquête sur une scène de crime.

    Ils n'envisageaient pas l'adoption de l'IA pour des tâches plus sensibles telles que rendre une décision de justice, vérifier le statut d'un patient en soins intensifs ou étudier les lois fiscales internationales.

    « 80% des travailleurs auront au moins 10% de leurs tâches touchées », selon OpenAI

    Des chercheurs d'OpenAI et de l'Université de Pennsylvanie ont fait valoir que 80 % de la main-d'œuvre américaine pourrait avoir au moins 10 % de ses tâches affectées par l'introduction des GPT, la série de grands modèles de langage populaires réalisés par OpenAI. Ils ont également estimé qu'environ 19 % des travailleurs verront au moins 50 % de leurs tâches affectées. L'exposition au GPT est plus élevée pour les emplois à revenu élevé, ont-ils écrit dans l'étude, mais s'étend à presque toutes les industries. Ils soutiennent que les modèles GPT sont des technologies à usage général comme la machine à vapeur ou la presse à imprimer.

    L'article est baptisé « Les GPT sont des GPT : un premier aperçu du potentiel d'impact sur le marché du travail des grands modèles linguistiques ».

    Les chercheurs ont utilisé la base de données O*NET, qui est la principale base de données sur les professions aux États-Unis et répertorie 1 016 professions avec des descriptions normalisées, pour déterminer les tâches à mesurer pour chaque profession. Ils ont ensuite collecté des annotations humaines et générées par GPT-4 à l'aide d'une rubrique pour déterminer si l'accès direct à GPT ou à un système secondaire alimenté par GPT réduirait le temps nécessaire à un humain pour effectuer une tâche spécifique d'au moins 50 %. Une exposition plus élevée signifiait que GPT réduirait le temps nécessaire pour accomplir la tâche d'au moins la moitié tout en maintenant un travail de haute qualité.

    « Nos résultats indiquent que l'importance des compétences en sciences et en pensée critique est fortement associée négativement à l'exposition, ce qui suggère que les professions nécessitant ces compétences sont moins susceptibles d'être affectées par les modèles linguistiques actuels », ont écrit les chercheurs. « À l'inverse, les compétences en programmation et en écriture montrent une forte association positive avec l'exposition, ce qui implique que les professions impliquant ces compétences sont plus susceptibles d'être influencées par les modèles linguistiques ».

    Les professions les plus exposées comprennent les mathématiciens, les préparateurs d'impôts, les écrivains, les concepteurs de sites Web, les comptables, les journalistes et les secrétaires juridiques. Les professions avec la variance la plus élevée, ou moins susceptibles d'être affectées par GPT, comprennent les graphistes, les stratégies de marketing de recherche et les gestionnaires financiers.

    Nom : gpt.png
Affichages : 2124
Taille : 282,4 Ko

    Les chercheurs énumèrent également l'impact global prévu de GPT sur différentes industries, l'impact le plus important étant sur les services de traitement de données, les services d'information, les industries de l'édition et les compagnies d'assurance, tandis que l'impact le moins important concerne la fabrication de produits alimentaires, la fabrication de produits en bois, les activités de soutien à l'agriculture et la foresterie.

    Des limites dans cette étude

    Les chercheurs reconnaissent que leur étude présente des limites, du fait que les annotateurs humains connaissaient les capacités des modèles et n'appartenaient pas à certaines des professions mesurées. L'étude elle-même admet qu'il y a un parti pris inhérent à essayer de résumer chaque profession en utilisant de simples étiquettes pour décrire les tâches professionnelles. L'étude ajoute : « On ne sait pas dans quelle mesure les professions peuvent être entièrement décomposées en tâches, et si cette approche omet systématiquement certaines catégories de compétences ou de tâches qui sont tacitement requises pour l'exécution compétente d'un travail ».

    L'autre problème est que GPT a montré qu'il peut commettre des erreurs évidentes, y compris inventer des informations, ce qui oblige un humain à superviser le travail. C'est un facteur que l'étude n'a pas pu prendre en compte. En outre, l'étude a uniquement examiné si ChatGPT pouvait réduire le temps nécessaire pour accomplir diverses tâches par profession. Cela ne signifie pas que ChatGPT est nécessairement suffisamment intelligent pour automatiser entièrement certaines tâches.

    Bien sûr, il convient de noter qu'OpenAI a elle-même produit le travail, et en tant qu'entreprise cherchant à rentabiliser ses modèles d'IA, elle est fortement incitée à présenter ses outils comme perturbateurs dans les industries où ils vont permettre d'automatiser les tâches, ce qui profite en fin de compte aux employeurs.

    D'autre part, dans une récente interview, Altman a déclaré que ChatGPT devrait être considéré comme un outil, et non comme un remplacement pour n'importe quel travail. Il a expliqué que l'humanité a prouvé cela à maintes reprises en s'adaptant constamment à différents types de technologie. « La créativité humaine est sans limites et nous trouvons de nouveaux emplois. Nous trouvons de nouvelles choses à faire », a déclaré Altman.

    D'ailleurs, le rapport révèle comment les modèles GPT seront bientôt un outil couramment utilisé. Google et Microsoft ont déjà annoncé qu'ils intégreraient l'IA dans leurs produits bureautiques tels que les e-mails, les documents et dans leurs moteurs de recherche. Déjà, les startups utilisent GPT-4 et ses capacités de codage pour réduire leurs dépenses en développeurs humains.

    Source : Goldman Sachs

    Et vous ?

    Trouvez-vous ces analyses pertinentes ? Dans quelle mesure ?
    Que pensez-vous des nouveaux métiers comme Prompt Engineer ? Un métier pérenne ? Une exception qui confirme la règle ? Une illustration du fait que plusieurs métiers pourraient simplement être transformés ?
    Pensez-vous que ces nouveaux Chatbots sont des outils utiles ou plutôt des gadgets inutiles voir nuisibles ?
    Avez-vous testé ChatGPT ou Bard ? Quel est le meilleur selon vous et pourquoi ?

    Voir aussi :

    Des employés partageraient des données professionnelles sensibles avec ChatGPT, ce qui suscite des craintes en matière de sécurité, ChatGPT pourrait mémoriser ces données et les divulguer plus tard
    Europol tire la sonnette d'alarme sur l'utilisation criminelle du chatbot ChatGPT et entrevoit de sombres perspectives
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  13. #313
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    octobre 2019
    Messages
    1 188
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : octobre 2019
    Messages : 1 188
    Points : 4 859
    Points
    4 859
    Par défaut
    pour l'it il va difficilement remplacer les développeurs, l'utilisant tous les jours il est incapable d'écrire du code qui s'exécute sans erreur.
    sauf a lui demander des petits de code simple et de les assembler... mais avec cette méthode on perds 4 fois plus de temps que de coder soit même.
    C'est pas rentable.

    Je sais pas si cette outil est si révolutionnaire que ca en faite, le "nouveau bing" est vraiment nul, taper une requête sur google et lire la réponse est beaucoup plus rapide.
    Le potentiel semble énorme à 1ere vu mais des qu'on l'utilise pour de vrai on se rends compte que c'est très limité en faite.

    il est parfaitement capable de remplacer les "journalistes" people et news pute a clic poubelle du style "vous devinerez jamais ce que fait ce chat", mais sinon...

    Et j'aimerais bien connaitre le potentiel d'amélioration de cette outil, car il a déjà le plus gros dataset possible (internet), il a déjà eu ca grosse maj (gpt4), avec surtout l'ajout multimodal, mais la qualité des réponses reste toujours aussi pauvres.
    Faut pas oublier que derrière c'est des formules mathématique et des stats qui tournent, nul aujourd'hui ne peut affirmer que ce genre d'algo peut atteindre un niveau humain.
    Ils ont beau avoir augmenté à 1000 milliards de paramètres pour GPT-4, on voit que la techno n'a pas des masses évolué.

    ca va être intéressant de voir la prochaine version, voir si on dépasse ou si cette techno plafonne. Les réseaux de neurones ont leurs limites et un nouveau paradigme sera surement nécessaire pour réellement avoir des voitures autonomes et remplacer des métiers comme developeur.

  14. #314
    Candidat au Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    novembre 2018
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Doubs (Franche Comté)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : novembre 2018
    Messages : 1
    Points : 3
    Points
    3
    Par défaut
    Citation Envoyé par Astraya Voir le message
    J'en ai marre de voir du Chat GPT partout et les pseudos "on va nous remplacer". C'est juste la hype en ce moment c'est tout. Ça reste inutilisable sauf pour rigoler.
    Voici ma question :

    Quelle est la différence entre un oeuf de vache et un oeuf de poule?
    Voici sa réponse: ...
    Je suis plutot d'accord avec cette histoire de "hype" autour de ChatGPT par contre j'ai testé ton exemple et voici la réponse que j'ai eu avec la version 3.5:

    Il y a plusieurs différences entre les œufs de vache et les œufs de poule :

    Les vaches ne pondent pas d'œufs. Les œufs de vache ne sont donc pas une chose réelle. Les vaches produisent du lait plutôt que des œufs.

    Les œufs de poule sont généralement plus petits que les œufs de canard ou d'oie, qui sont d'autres types d'œufs couramment consommés. Les œufs de poule sont également plus faciles à trouver dans les supermarchés et sont souvent moins chers que les autres types d'œufs.

    Les œufs de poule sont riches en protéines, en vitamines et en minéraux, tandis que les œufs de vache (c'est-à-dire le lait) sont riches en calcium et en vitamine D.

    Les œufs de poule sont également utilisés dans de nombreuses recettes, comme les omelettes, les crêpes et les gâteaux, tandis que les œufs de vache (le lait) sont principalement utilisés pour faire du fromage, du yaourt et d'autres produits laitiers.

    En résumé, les vaches ne pondent pas d'œufs et les œufs de poule sont une source courante de protéines et de nutriments dans l'alimentation humaine.
    et avec la version 4:

    Il n'existe pas d'œuf de vache, car les vaches sont des mammifères et ne pondent pas d'œufs. Les mammifères, y compris les vaches, se reproduisent en donnant naissance à des bébés vivants plutôt qu'en pondant des œufs.

    Les œufs de poule, en revanche, sont produits par des poules, qui sont des oiseaux. Les oiseaux pondent des œufs qui sont incubés et éclos pour donner naissance à de nouveaux oiseaux. Les œufs de poule sont couramment consommés dans le monde entier comme source de protéines et sont utilisés dans de nombreuses recettes et préparations culinaires.

    En résumé, il n'y a pas d'œuf de vache, car les vaches sont des mammifères et ne pondent pas d'œufs. Les œufs de poule sont pondus par des poules et sont consommés comme source de nourriture par les humains.
    Ils ont manifestement fait des progrès depuis la dernière fois que tu avais testé.

  15. #315
    Membre confirmé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    septembre 2014
    Messages
    173
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : septembre 2014
    Messages : 173
    Points : 597
    Points
    597
    Par défaut
    Il doit parler de la première version de ChatGPT, qui disait que les oeufs de vache/mouton/porc existent

  16. #316
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    décembre 2008
    Messages
    9 331
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : décembre 2008
    Messages : 9 331
    Points : 18 129
    Points
    18 129
    Par défaut
    Citation Envoyé par Cyril1311 Voir le message
    Je suis plutot d'accord avec cette histoire de "hype" autour de ChatGPT
    Peut-être que ceux qui disent que l'IA peut avoir un impact majeur sur l'emploi ont raison.
    Apparemment les systèmes d'IA générative tels que ChatGPT évolue extremement rapidement.

    Citation Envoyé par Stéphane le calme Voir le message
    Mais si la technologie tenait ses promesses, elle entraînerait également une « perturbation significative » du marché du travail, exposant l'équivalent de 300 millions de travailleurs à temps plein dans les grandes économies à l'automatisation, selon Joseph Briggs et Devesh Kodnani, les auteurs de l'article. Les avocats et le personnel administratif seraient parmi ceux qui risquent le plus d'être licenciés.
    C'est rare que Goldman Sachs fasse une prédiction juste, mais ça arrive.
    Keith Flint 1969 - 2019

  17. #317
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    mai 2018
    Messages
    2 064
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : mai 2018
    Messages : 2 064
    Points : 153 359
    Points
    153 359
    Par défaut L'organisme italien de surveillance de la vie privée a déclaré qu'il avait bloqué le robot controversé ChatGPT
    L'organisme italien de surveillance de la vie privée a déclaré vendredi qu'il avait bloqué le robot controversé ChatGPT, car il ne respectait pas les données des utilisateurs et ne pouvait pas vérifier leur âge

    La décision "avec effet immédiat" entraînera "la limitation temporaire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI", a déclaré l'Autorité italienne de protection des données.

    L'agence a lancé une enquête.

    ChatGPT, créé par la startup américaine OpenAI et soutenu par Microsoft, peut répondre clairement à des questions difficiles, écrire du code, des sonnets ou des essais, et même réussir des examens difficiles pour les étudiants.

    Mais l'application qui est apparue en novembre est controversée, les enseignants craignant que les étudiants ne l'utilisent pour tricher et les décideurs préoccupés par la propagation de la désinformation.

    L'organisme de surveillance a déclaré que le 20 mars, l'application avait subi une violation de données impliquant des conversations d'utilisateurs et des informations de paiement.

    Il a déclaré qu'il n'y avait aucune base légale pour justifier "la collecte et le stockage massifs de données personnelles dans le but de 'former' les algorithmes sous-jacents au fonctionnement de la plateforme".

    Il a également déclaré que puisqu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application "expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de sensibilisation".

    Il a déclaré que la société avait 20 jours pour répondre à la manière dont elle répondrait aux préoccupations du chien de garde, sous peine d'une amende de 20 millions d'euros (21,7 millions de dollars), soit jusqu'à 4% des revenus annuels.

    Le blocage de ChatGPT en Italie intervient quelques jours après que l'agence de police européenne Europol a averti que les criminels étaient sur le point d'utiliser l'application pour commettre des fraudes et d'autres cybercrimes, du phishing aux logiciels malveillants.

    Nom : 6RNLWPVMCNBPNFDAXBG3NESLSI.jpg
Affichages : 1383
Taille : 36,9 Ko

    Source : AFP

    Et vous ?

    Qu'en pensez-vous ?
    Les autorités italiennes ont-elles pris la bonne décision à votre avis ?
    Pensez-vous que la même décision devrait être appliquée en France ?

    Voir aussi :

    Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat », l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs, « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

    Une enquête révèle que certaines entreprises remplacent déjà les travailleurs par ChatGPT, malgré les avertissements selon lesquels il ne faut pas s'y fier pour "quoi que ce soit d'important"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #318
    Membre expérimenté
    Homme Profil pro
    retraité
    Inscrit en
    septembre 2014
    Messages
    570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : septembre 2014
    Messages : 570
    Points : 1 367
    Points
    1 367
    Par défaut
    Seuls les paresseux, feignants et autres bas de plafond ont besoin de cette IA pour réaliser leurs devoirs...

  19. #319
    Candidat au Club
    Homme Profil pro
    Enseignant
    Inscrit en
    février 2016
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 68
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : Enseignant
    Secteur : Industrie

    Informations forums :
    Inscription : février 2016
    Messages : 1
    Points : 4
    Points
    4
    Par défaut cervelle
    Citation Envoyé par TotoParis Voir le message
    Seuls les paresseux, feignants et autres bas de plafond ont besoin de cette IA pour réaliser leurs devoirs...
    « En apprenant, vous enseignerez, et en enseignant, vous apprendrez. »
    – Phil Collins

  20. #320
    Membre expérimenté
    Profil pro
    Développeur Web
    Inscrit en
    février 2008
    Messages
    1 766
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : février 2008
    Messages : 1 766
    Points : 1 747
    Points
    1 747
    Par défaut
    Ma foi oui, il y a bien assez de criminalité avec les moyens propres des criminels, ce n'est pas utile de leur en donner plus, gratuitement en plus.

    Que l'Intelligence artificielle supprime (encore) des emplois, après tout peut-être est-ce une bonne nouvelle : il y aura bien un seuil au-delà duquel on ne pourra plus faire semblant de croire qu'en mettant plus de monde sur le marché de l'emploi, ça résout le problème du chômage.
    Oui, oui, d'accord, en cassant tout il y a moyen de changer des choses.
    Quelquefois on peut essayer autrement ?

Discussions similaires

  1. Réponses: 29
    Dernier message: 26/04/2023, 20h15
  2. Réponses: 49
    Dernier message: 13/12/2015, 14h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo