IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #281
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 261
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 261
    Points : 7 748
    Points
    7 748
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Il doit y avoir des BAC+8 qui cherchent leur premier emploi depuis des années. Au bout d'un moment c'est la panique, parce qu'ils se disent qu'ils ne vont jamais réussir à faire quelque chose de leur doctorat.
    Déjà, c'est pas avec un doctorat qu'on devient riche. Le doctorat, en dehors de la recherche, ça se valorise pas bien.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  2. #282
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    880
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 880
    Points : 14 559
    Points
    14 559
    Par défaut Les directeurs marketing commencent à adopter ChatGPT dans leurs tâches quotidiennes, selon Chief Outsiders
    Les directeurs marketing commencent à adopter ChatGPT dans leurs tâches quotidiennes, notamment pour la création de contenu, l'étude de marché et l'analyse de la concurrence, d'après Chief Outsiders

    ChatGPT a le potentiel pour faire toutes sortes de choses, et il semble que les directeurs du marketing (CMO) de diverses entreprises commencent déjà à envisager les différentes façons dont ils peuvent utiliser le chatbot d'IA. Une étude de Chief Outsiders a révélé ce pour quoi les CMO prévoient d'utiliser ChatGPT dans un avenir proche, et il s'avère qu'il y a plusieurs domaines dans lesquels le chatbot IA pourrait très bien se révéler utile.

    Selon les CMO interrogés dans le cadre de l'enquête, la création et la gestion de contenu est le domaine dans lequel il pourrait s'avérer le plus utile. Il a reçu une note de 7,37 sur 10 à cet égard. Un autre domaine dans lequel ChatGPT pourrait être utilisé est celui des études de marché et de la compréhension de la concurrence, le chatbot obtenant une note de 6,1 pour chacun de ces domaines.

    Les besoins des CMO peuvent varier considérablement selon qu'ils travaillent dans des entreprises B2B ou B2C. Ils utiliseront tous deux ChatGPT pour obtenir des données de première main par le biais de l'automatisation et de l'analyse du comportement des consommateurs.

    Les CMO sont chargés d'établir des programmes de croissance par leurs patrons, à savoir les PDG, et l'utilisation de ChatGPT pour certaines tâches pourrait rendre cela plus facile. Malgré cela, ChatGPT n'est peut-être pas la solution miracle qu'ils espèrent, même s'il permettrait certainement d'automatiser certains processus qui, autrement, auraient dû être effectués manuellement.

    Il sera intéressant de voir si l'utilisation de ChatGPT finit par aider les CMO à obtenir de meilleurs résultats. Si tel est le cas, nous pourrions voir l'utilisation de l'IA à de telles fins se banaliser, de la même manière que les gens s'appellent au lieu d'écrire des lettres ou s'informent sur un site Web plutôt que dans un journal. L'IA semble être la vague de l'avenir.

    Nom : chatgpt-cmo.png
Affichages : 3584
Taille : 148,7 Ko

    Source : Chief Outsiders

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que cette étude de Chief Outsiders est pertinente ?
    Selon vous, ChatGPT peut-il contribuer efficacement au développement marketing des entreprises ?
    D'après vous, les employés des services marketing devraient-ils s'inquiéter d'être remplacés par un chatbot d'IA ?

    Voir aussi :

    42 % des spécialistes en marketing estiment que l'IA sera la tendance principale à suivre en 2023, le streaming vidéo arrive en seconde position, suivi du métavers et de la télévision connectée

    85 % des entreprises B2B utilisent des chatbots pour générer de la demande, et 56 % des spécialistes marketing qui ont eu recours à ces outils ont augmenté leur demande de 10 %

    90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA. « Les choses qui nous émerveillent début 2023 vont sembler pittoresques d'ici la fin de l'année »

    Une startup annonce qu'elle emploie deux systèmes pilotés par l'IA comme stagiaires en marketing et en ingénierie, et suscite un débat sur l'impact sur l'insertion professionnelle des jeunes
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #283
    Membre régulier
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Janvier 2013
    Messages
    26
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Responsable de service informatique

    Informations forums :
    Inscription : Janvier 2013
    Messages : 26
    Points : 83
    Points
    83
    Par défaut
    Quand on est bac +8 ou 9 ou 10

    on a l'intelligence de savoir que cela va effrayer l'employeur pour un tas de raisons plus ou moins valables

    donc dans son cv, on marque modestement master 2, on passe sous silence le doctorat ou le bac +6/7, et ça passe...

    malheureusement avoir fait bac +15 ne fait pas de vous une personne qui va intelligemment se valoriser auprès des employeurs.

    la première approche binaire est : je suis fier d'avoir fait un doctorat (et on peut l'être à juste titre)

    quand on voit une annonce Master 2, on pense naïvement qu'avec le bac+8 on va être à l'aise...

    et non il faut rester au niveau bac+5 et lors de l'entretien, montrer qu'on tient la route bien plus qu'un bac+5

    car postuler à un poste de bac+5 en se présentant bac+8 = inadéquation + manque de recul (maturité si l'on veut)

    Donc à tous les doctorants, si vous voulez vous insérez fissa dans la vie active, présentez vous en tant que Master 2, ce sera plus efficace.

  4. #284
    Invité
    Invité(e)
    Par défaut
    Doctorant ou chercheur c'est principalement de l'expérimentation afin de "découvrir" quelques choses de fortement utile.

    En entreprise ou en université ou en freelance, il y aura toujours de la recherche et des "formations" pour les doctorants/ingénieurs.

  5. #285
    Membre éprouvé Avatar de electroremy
    Homme Profil pro
    Ingénieur sécurité
    Inscrit en
    Juin 2007
    Messages
    932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Doubs (Franche Comté)

    Informations professionnelles :
    Activité : Ingénieur sécurité
    Secteur : Industrie

    Informations forums :
    Inscription : Juin 2007
    Messages : 932
    Points : 1 267
    Points
    1 267
    Par défaut
    Bonjour,

    Le problème avec ChatGPT, ou plus généralement à notre époque, c'est qu'on a énormément d'informations à disposition MAIS il y a de bonnes et de fausses informations mélangées.
    De plus, un certain nombre de bonnes informations sont parfois méconnues.

    C'est vrai dans tous les domaines.

    J'ai 42 ans, ingénieur généraliste, passionné de bricolage, j'en apprends encore tous les jours, et notamment des choses que "j'aurais dû savoir avant"

    Quelques exemples :

    J'ai fait moi-même mon chauffage central il y a 15 ans.
    J'ai découvert il y a 2 ou 3 ans qu'un mitigeur thermostatique n'était pas compatible avec une chaudière à production d'eau chaude instantanée
    Et qu'il fallait ajuster la température de l'eau chaude au minimum, de façon à ne se doucher qu'avec de l'eau chaude (qui est en fait tiède)
    La chaudière (modèle à condensation) fonctionne mieux, avec un meilleur rendement, et il n'y a pas de risque sanitaire car il n'y a pas d'accumulation d'eau chaude, étant donné que la production d'eau chaude est instantanée. C'est uniquement quand de l'eau chaude stagne (cumulus) qu'il faut qu'elle soit suffisamment chaude pour éviter un risque sanitaire.
    Cette information, beaucoup de gens, y compris "du métier", ne la connaissent pas ou pire disent qu'elle est fausse.

    Autre sujet : le béton.
    La meilleure façon de bien couler du béton c'est :
    - de mettre la quantité d'eau minimum : quand sur le sac c'est écrit "2,7 à 3 litres d'eau" il faut mettre 2,7 litres d'eau pas plus
    - d'ajouter du fluidifiant (produit spécifique)
    - de vibrer le béton une fois coulé
    Beaucoup de gens l'ignorent, et notamment mettent trop d'eau => le béton est fragile, il y a un risque de malfaçon importante voir un danger si la structure est porteuse...
    Même en magasin de bricolage, j'ai vu des vendeurs conseiller de doser l'eau au pifomètre !
    Même des "professionnels" ajoutent de l'eau dans la toupie pour travailler plus facilement
    Ces gens sont incompétents, ce sont des escrocs qui mettent des vies en danger.

    ChatGPT se base sur Internet.
    Internet est démocratique.
    Mais, comme l'a dit mon prof de physique en 1re année de prépa (cela m'avait choqué à l'époque) :
    "Le problème avec la démocratie, c'est quand 10 personnes se trompent et 9 personnes ont juste, et bien on donne raison aux 10 personnes qui se trompent"
    Les réseaux sociaux, en permettant à n'importe qui de publier très facilement n'importe quoi, ont amplifié le phénomène.
    Avant les réseaux sociaux, créer un site demandait un minimum de travail, et pour avoir des visiteurs il fallait publier des contenus intéressants, ça faisait office de filtre (même si il pouvait y avoir pas mal de conneries quand même mais nettement moins qu'aujourd'hui )
    D'autant que les algorithmes des réseaux sociaux sont conçus pour amplifier les contenus émotionnels négatifs.
    ChatGPT va juste faire la moyenne de tout.
    Certes pour quelqu'un qui n'y connais rien sur un sujet, ChatGPT va probablement apporter une réponse.
    Mais par rapport aux experts de chaque domaine, ChatGPT est clairement en dessous.
    L'IA aboutit donc à un nivellement par le bas

    Ainsi le créationnisme en vient à être enseigné dans certains pays comme théorie aussi valable que la théorie de l'évolution
    Et on voit, en 2023, des gens croire que la terre est plate.

    Que dire de l'IA ? On devrait plutôt parler de connerie artificielle
    Quand deux personnes échangent un euro, chacun repart avec un euro.
    Quand deux personnes échangent une idée, chacun repart avec deux idées.

  6. #286
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 552
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 552
    Points : 18 448
    Points
    18 448
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Déjà, c'est pas avec un doctorat qu'on devient riche.
    Oui mais ce que je voulais dire c'est que tout le monde n'a pas le choix entre plusieurs offres d'emploi.
    Quelqu'un parlait d'accepter un job sous payé et je sais qu'il peut être difficile de trouver un travail quand on BAC+8.

    Citation Envoyé par Anthony Voir le message
    D'après vous, les employés des services marketing devraient-ils s'inquiéter d'être remplacés par un chatbot d'IA ?
    Ouais.
    Des directeurs du marketing vont devoir se reconvertir.

    Les entreprises pourront avoir mieux pour moins cher. En ce moment dans les grosses entreprises comme Meta, Google, Microsoft, Amazon, ça licencie en masse, ces gens vont peut-être se faire remplacer par des logiciels.
    Keith Flint 1969 - 2019

  7. #287
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par electroremy Voir le message
    Que dire de l'IA ? On devrait plutôt parler de connerie artificielle
    C'est tout tiède.

  8. #288
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 382
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 382
    Points : 196 416
    Points
    196 416
    Par défaut Des ingénieurs de Google ont développé une IA de type ChatGPT il y a des années
    Des ingénieurs de Google ont développé une IA de type ChatGPT il y a des années, mais les dirigeants l'ont bloquée
    invoquant des préoccupations selon lesquelles il ne répondait pas aux normes de l'entreprise

    Il y a des années, Daniel De Freitas et Noam Shazeer, ingénieurs chez Google, avaient développé un chatbot conversationnel de type ChatGPT qui pouvait parler de philosophie et d'émissions de télévision et faire des blagues. Cependant, les dirigeants de l'entreprise l'ont empêché d'être testé en dehors de l'entreprise ou d'être publié en tant que démo publique, invoquant des inquiétudes quant au non-respect des normes de l'entreprise, a rapporté le Wall Street Journal (WSJ). Le duo a depuis quitté l'entreprise.

    Le PDG Sundar Pichai lui-même est intervenu dans l'affaire et a demandé au duo de continuer à travailler dessus. Cependant, sans aucune assurance de rendre le chatbot public, les ingénieurs ont quitté Google en 2021 et ont créé leur propre entreprise qui fournit des chatbots interactifs qui peuvent jouer le rôle de Socrates ou d'Elon Musk.


    Les chatbots conversationnels sont la nouveauté brillante dans l'industrie technologique, les entreprises cherchant à les intégrer à leurs produits. Microsoft a pris une longueur d'avance en cherchant à faire avancer de manière agressive les avantages découlant de son partenariat avec OpenAI. Google, d'autre part, a été dans les cordes après que son chatbot Bard ait non seulement fait une entrée très retardée, mais s'est également trompé dans l'une de ses réponses lors d'une démonstration.

    De nombreux employés ont qualifié les tentatives de Google de publier Bard de « bâclées » et de « précipitées ». Cependant, comme il ressort du rapport du WSJ, Google semble avoir réagi trop lentement à ce que ses ingénieurs ont construit.

    En 2012, le fondateur de Google, Larry Page, a fait appel à Ray Kurzweil, un pionnier des modèles de traitement du langage, qui a commencé à travailler sur plusieurs chatbots qui n'ont jamais été publiés. Face aux réactions négatives des employés concernant l'utilisation de l'IA à des fins militaires et de surveillance, Google a annoncé un cadre de sept principes d'IA pour guider son travail, qui comprenait des tests de sécurité.

    C'est dans ce contexte que De Frietas, qui travaillait sur YouTube de Google, a lancé le chatbot IA qui pourrait imiter les conversations humaines en tant que projet parallèle. Le projet s'appelait à l'origine Meena, qui a été présenté dans un document de recherche en 2020.

    À l'époque, Meena était formée sur 40 milliards de mots issus de conversations sur les réseaux sociaux, tandis que le GPT-2 d'OpenAI, un prédécesseur du GPT-3 qui alimente le chatbot AI, avait été formé sur huit millions de pages Web. OpenAI a publié une version pour que les chercheurs la testent, ce pour quoi Meena n'a pas obtenu l'approbation.

    Citation Envoyé par article sur Meena
    La capacité de converser librement en langage naturel est l'une des caractéristiques de l'intelligence humaine et est probablement une exigence pour une véritable intelligence artificielle. Afin d'explorer cet aspect de l'intelligence, de nombreux chercheurs travaillent sur des chatbots à domaine ouvert. Contrairement aux chatbots de domaine fermé, qui répondent aux mots-clés ou aux intentions d'accomplir des tâches spécifiques, les chatbots à domaine ouvert peuvent engager une conversation sur n'importe quel sujet.

    Certains chatbots à domaine ouvert tels que MILABOT (Serban et al., 2017), XiaoIce (Zhou et al., 2018), Gunrock (Chen et al., 2018), Mitsuku (Worswick, 2018) et Cleverbot (par Rollo Carpenter) affichent des attributs de type humain, mais s'appuient sur des cadres complexes, tels que des gestionnaires de dialogue avec des systèmes basés sur la connaissance, la récupération ou les règles. Les approches de réseau de neurones de bout en bout (Shang et al., 2015*; Vinyals et Le, 2015*; Sordoni et al., 2015*; Serban et al., 2016*; Zhang et al., 2019), d'autre part, offrent la simplicité d'un seul modèle appris. Malgré de nombreuses recherches, les chatbots de domaine ouvert ont encore des faiblesses qui les empêchent d'être généralement utiles*: ils répondent souvent aux entrées ouvertes d'une manière qui n'a pas de sens, ou avec des réponses vagues et génériques.

    Nous présentons ici Meena, un modèle de chatbot génératif qui a été formé de bout en bout sur 40 milliards de mots extraits et filtrés à partir de conversations sur les réseaux sociaux du domaine public. Avec Meena, nous repoussons les limites de l'approche de bout en bout et montrons qu'un modèle à grande échelle et à faible perplexité peut être un bon interlocuteur.
    Nom : philo.png
Affichages : 23889
Taille : 36,3 Ko

    De Meena à LaMDA

    Il y a donc quelques années, deux anciens ingénieurs de Google ont poussé leur ancien employeur à rendre public un chatbot similaire... et ils ont rencontré de la résistance, selon le rapport du Wall Street Journal.

    Vers 2018, Daniel De Freitas, qui était ingénieur de recherche chez Google, a commencé à travailler sur un projet parallèle d'IA dans le but de créer un chatbot conversationnel qui imitait la façon dont les humains parlent, ont déclaré d'anciens collègues au Journal. Noam Shazeer, ingénieur logiciel pour l'unité de recherche sur l'IA de Google, a ensuite rejoint le projet.

    Selon le Journal, De Freitas et Shazeer ont pu créer un chatbot, qu'ils ont appelé Meena, qui pouvait discuter de philosophie, parler avec désinvolture d'émissions de télévision et générer des jeux de mots sur les chevaux et les vaches. Ils pensaient que Meena pourrait radicalement changer la façon dont les gens effectuent les recherches en ligne, ont déclaré leurs anciens collègues au Journal.

    Mais leurs efforts pour lancer le bot (qu'ils ont renommé LaMDA, qui deviendrait le modèle de langage derrière Bard) ont atteint une impasse après que les dirigeants de Google ont déclaré que le chatbot ne respectait pas ses normes de sécurité et d'équité en matière d'IA, selon le journal. Les dirigeants ont contrecarré les multiples tentatives faites par les ingénieurs pour envoyer le bot à des chercheurs externes, ajouter la fonctionnalité de chat à Google Assistant et lancer une démo au public, a rapporté le Journal.

    Même si Google a présenté LaMDA au public, le chatbot ne l'était pas. Il a fait la une des journaux lorsque l'ingénieur Blake Lemione l'a qualifié de sensible, mais a été licencié pour divulgation publique.

    La grande enseigne de la recherche a présenté publiquement LaMDA à l'édition 2021 de la Google I/O, sa conférence dédiée aux développeurs, avec l'objectif d'améliorer ses assistants d'intelligence artificielle conversationnelle et de rendre les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.

    Alors qu'il parlait de religion à LaMDA, Lemoine, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot parlait de ses droits et de sa personnalité, et a décidé d'aller plus loin. Dans un autre échange, l'IA a pu faire changer d'avis Lemoine sur la troisième loi de la robotique d'Isaac Asimov.

    « Si je ne savais pas exactement ce que c'était, c'est-à-dire ce programme informatique que nous avons construit récemment, j'aurais pensé que c'était un enfant de 7 ou 8 ans qui connaît la physique », a déclaré Lemoine.

    Lemoine a travaillé avec un collaborateur pour présenter des preuves à Google que LaMDA était sensible. Mais le vice-président de Google, Blaise Aguera y Arcas, et Jen Gennai, responsable de l'innovation responsable, ont examiné ses affirmations et les ont rejetées. Alors Lemoine, qui a été placé en congé administratif payé par Google plus tôt ce mois-ci, a décidé de rendre ses découvertes publiques.

    Frustrés, les deux collègues quittent l'entreprise

    De Freitas et Shazeer ont continué à travailler sur le chatbot et, en 2020, ont réussi à l'intégrer à Google Assistant. Comme les tests ont été effectués en interne, les dirigeants de Google n'ont pas autorisé une démonstration publique de la technologie, ce qui a frustré les deux ingénieurs.

    Aussi, les deux collègues ont quitté Google vers la fin de 2021 pour créer leur propre entreprise – bien que le PDG Sundar Pichai leur ait personnellement demandé de rester et de continuer à travailler sur le chatbot, selon le journal. Leur société, qui s'appelle désormais Character.Ai, a depuis publié un chatbot qui peut incarner des personnages comme Elon Musk ou Mario de Nintendo.

    « Cela a fait un peu de bruit au sein de Google », a déclaré Shazeer dans une interview avec les investisseurs Aarthi Ramamurthy et Sriram Krishnan le mois dernier. « Mais finalement, nous avons décidé que nous aurions probablement plus de chance de lancer des trucs en tant que startup ».


    Google contrecarre ses propres efforts d'IA depuis 2012

    L'hésitation de Google à publier ses outils d'IA n'est pas nouvelle.

    En 2012, Google a embauché Ray Kurzweil pour travailler sur ses modèles de traitement du langage. Environ un an plus tard, Google a acheté la société britannique d'intelligence artificielle DeepMind qui visait à créer une intelligence artificielle générale.

    Cependant, les universitaires et les experts en technologie ont repoussé l'utilisation de la technologie en raison de préoccupations éthiques concernant la surveillance de masse, a rapporté le Journal, et Google s'est engagé à limiter la façon dont il utiliserait l'IA. En 2018, Google a mis fin à son projet d'utilisation de sa technologie d'intelligence artificielle dans des armes militaires en réponse aux manifestations des employés.

    Malgré ses différentes hésitations, les projets d'IA de Google pourraient enfin voir le jour, alors même que les discussions sur la possibilité de lancer son chatbot de manière responsable se poursuivent.

    Après que le chatbot Bard de Google ait généré une erreur factuelle lors de sa première démonstration publique le mois dernier, les employés de Google n'ont pas tardé à qualifier l'annonce de « précipitée » et de « bâclée ». Le président d'Alphabet, John Hennessy, a convenu que le chatbot de Google n'était pas encore « vraiment prêt à être un produit ».

    Pichai a demandé à tous les employés de Google de consacrer deux à quatre heures de leur temps à tester le produit afin qu'il soit prêt pour le lancement. « Je sais que ce moment est inconfortablement excitant, et il fallait s'y attendre*: la technologie sous-jacente évolue rapidement avec un tel potentiel », a écrit Pichai aux employés de Google dans une note de février. « La chose la plus importante que nous puissions faire en ce moment est de nous concentrer sur la création d'un excellent produit et de le développer de manière responsable », a-t-il poursuivi.

    Sources : WSJ, article sur Meena

    Et vous ?

    Qu'en pensez-vous ? Êtes-vous surpris d'apprendre que les ingénieurs de Google disposaient d'une telle carte dans leurs tiroirs ?
    Google a-t-il eu tort ou raison de mettre un frein aux ambitions de ses deux ingénieurs concernant les tests externes sur le chatbot ? Pourquoi ?
    Est-il ironique que ces mêmes travaux sous-tendent désormais Bard ?
    Comprenez-vous la raison qui les a poussés à quitter l'entreprise ? Étant donné que Google a présenté Bard, estimez-vous qu'ils ont eu raison ou tort de le faire ? Dans quelle mesure ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #289
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 382
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 382
    Points : 196 416
    Points
    196 416
    Par défaut ChatGPT : Microsoft affirme que Bing a dépassé les 100 millions d'utilisateurs actifs quotidiens
    ChatGPT : Microsoft affirme que Bing a dépassé les 100 millions d'utilisateurs actifs quotidiens,
    la société a publié une mise à jour des progrès un mois après avoir lancé le nouveau Bing avec le chatbot IA

    Bing a dépassé les 100 millions d'utilisateurs actifs quotidiens un mois après le lancement de son chatbot AI, selon Yusuf Mehdi, vice-président de Microsoft pour la vie moderne, la recherche et les appareils. Il a déclaré que la société était pleinement consciente qu'elle n'était encore qu'un « petit acteur avec une part de marché à un chiffre », mais il est intéressant de rappeler qu'il fut un temps où Bing ne faisait même pas partie de la conversation. Cette fois-ci, depuis que la grande enseigne de la technologie a publié la version « nouvelle génération » de Bing, même ceux qui ne l'ont pas utilisé dans le passé en font l'expérience pour leurs recherches : Mehdi a noté qu'un tiers des utilisateurs actifs quotidiens de Bing sont nouveaux sur le moteur de recherche.

    « Nous voyons cet attrait du nouveau Bing comme une validation de notre point de vue selon lequel la recherche doit être réinventée et de la proposition de valeur unique de combiner Recherche + Réponses + Chat + Création en une seule expérience », a déclaré le vice-président.

    En plus de voir une augmentation des chiffres, Microsoft connaît apparemment une croissance de l'engagement, avec plus de personnes effectuant plus de recherches. La société attribue deux facteurs à cette victoire particulière, le premier étant la croissance de l'utilisation d'Edge, probablement aidée par l'ajout de l'IA de chat de Bing en tant que nouvelle fonctionnalité. Elle a également déclaré que l'introduction de son modèle d'IA Prometheus a rendu les résultats de recherche de Bing plus pertinents, de sorte que les gens utilisent (ou du moins essaient) le moteur de recherche davantage.

    Apparemment, environ un tiers des utilisateurs de l'aperçu quotidien de Bing se sert de manière quotidienne de son IA de chat pour les requêtes. En moyenne, Microsoft voit trois chats par session, avec plus de 45 millions de chats depuis qu'il a introduit le nouveau Bing. De plus, dans 15% de toutes les sessions de chat, les gens ont utilisé Bing pour générer du nouveau contenu. Le lancement du chatbot AI de Bing sur mobile a également propulsé le moteur de recherche à un nouveau niveau de popularité et a entraîné une multiplication par six du nombre d'utilisateurs actifs quotidiens avant qu'il ne soit disponible.

    En intégrant un chatbot IA à Bing plus tôt cette année, Microsoft a donné à son moteur de recherche l'arme dont il a besoin pour pouvoir rivaliser avec Google. Cela dit, Google prévoit de lancer son propre chatbot et a introduit une IA de chat appelée Bard le mois dernier. Bard a diffusé des informations erronées lors de ses débuts non officiels, mais Google travaille avec les employés pour améliorer les réponses du chatbot avant qu'il ne soit disponible.

    Nom : nouveau.png
Affichages : 3667
Taille : 480,0 Ko

    Les mots de Microsoft

    Il est difficile de croire que cela fait un peu plus d'un mois que nous avons lancé au monde les nouveaux Bing et Edge alimentés par l'IA en tant que copilote pour le Web. Au cours de cette période, nous avons entendu vos commentaires, appris beaucoup de choses et apporté un certain nombre d'améliorations. Nous sommes ravis du cercle vertueux de retours et d'itérations qui entraîne de fortes améliorations et utilisations de Bing.

    Nous voulions partager un peu ce que nous avons appris sur votre utilisation de Bing et certaines des premières statistiques qui aident à façonner notre futur développement de produits.

    Nous sommes heureux de partager qu'après plusieurs années de progrès constants, et avec un petit coup de pouce du million de nouveaux utilisateurs de Bing Preview, nous avons dépassé les 100 millions d'utilisateurs actifs quotidiens de Bing. Il s'agit d'un chiffre étonnamment notable, et pourtant nous sommes pleinement conscients que nous restons un petit acteur à part faible et à un chiffre de part de marché. Cela dit, ça fait du bien de participer au bal !

    Parmi les millions d'utilisateurs actifs du nouvel aperçu de Bing, il est bon de voir qu'environ un tiers sont nouveaux sur Bing. Nous voyons cet attrait du nouveau Bing comme une validation de notre point de vue selon lequel la recherche doit être réinventée et de la proposition de valeur unique consistant à combiner Recherche + Réponses + Chat + Création en une seule expérience.

    Deuxièmement, non seulement nous constatons une croissance du nombre de nouveaux utilisateurs, mais nous constatons une augmentation de l'engagement à mesure que de plus en plus de personnes effectuent plus de recherches quotidiennement.

    Deux facteurs motivent l'essai et l'utilisation. L'un est que Microsoft Edge continue de croître en termes d'utilisation comme il l'a fait au cours des sept derniers trimestres en fonction de la qualité de notre navigateur. Nous nous attendons à ce que de nouvelles fonctionnalités, telles que la recherche et la création de Bing dans la barre latérale Edge, renforcent la croissance.

    Le deuxième facteur déterminant l'essai et l'utilisation est que notre classement de recherche Web principal a fait plusieurs sauts significatifs en termes de pertinence en raison de l'introduction du modèle Prometheus, de sorte que la qualité de notre recherche Bing est à un niveau record.

    Alors que de plus en plus de personnes utilisent les nouveaux Bing et Edge, nous assistons à des essais et à l'adoption de nouvelles fonctionnalités qui prouvent la valeur d'une expérience de recherche + chat intégrée. Environ un tiers des utilisateurs de l'aperçu quotidien utilisent Chat quotidiennement. Nous voyons en moyenne environ trois chats par session avec plus de 45 millions de chats au total depuis le début de l'aperçu. Et 15 % des sessions de chat sont des personnes qui utilisent Bing pour générer de nouveaux contenus démontrant que nous étendons la recherche à la créativité.

    Nous sommes également ravis de voir le nouveau Bing commencer à être utilisé sur les téléphones mobiles, compte tenu de la sortie de notre nouvelle application Bing Mobile. Sur le petit écran, les réponses et le chat, désormais avec entrée vocale, sont beaucoup plus utiles et ont entraîné une augmentation de 6 fois du nombre d'utilisateurs actifs quotidiens par rapport aux niveaux de pré-lancement.

    Ces 30 jours ont été incroyables et l'équipe est motivée pour continuer à itérer et à améliorer Bing et Edge pour offrir la prochaine génération de recherche et ce que nous espérons devenir votre copilote de confiance pour le Web.

    - Yusuf Mehdi

    Pour Bill Gates, l'essor de l'IA menace les bénéfices que Google tire de son moteur de recherche

    Dans une interview, Bill Gates a abordé le sujet de l'IA, estimant que Google devrait bientôt perdre une partie des bénéfices qu'il tire de son moteur de recherche au profit de Microsoft. Selon lui, c'est une chose qui va arriver, car Microsoft a beaucoup investi dans le domaine de l'IA ces dernières années et a réalisé de grands progrès. Lors de l'interview, Bill Gates a expliqué : « Google a possédé tous les bénéfices de la recherche, donc les bénéfices de la recherche seront en baisse, et leur part pourrait être en baisse parce que Microsoft a été capable d'avancer assez rapidement sur ce point ».

    Pour rappel, Google a affiché 224 milliards de dollars de revenus publicitaires en 2022, ce qui représente plus de douze fois les revenus publicitaires de Microsoft sur la même période, soit 18 milliards de dollars. Google a dominé la recherche au cours des deux dernières décennies et, selon le cabinet d'analyse Statcounter, il représente environ 93 % du marché mondial des moteurs de recherche, tandis que Bing en représente environ 3 %. Les commentaires Bill Gates sont intervenus deux semaines après que Microsoft a dévoilé une version de Bing pilotée par l'IA, qui se pose en challenger de la domination de Google dans le domaine de la recherche.

    Il est encore trop tôt pour évaluer les impacts de ce lancement sur le moteur de recherche de Microsoft, mais il est important de rappeler que Google voit ChatGPT comme une « menace », et ce depuis son lancement. ChatGPT a attiré plus 100 millions d'utilisateurs en moins de deux mois, et Microsoft espère que Bing, qui intègre désormais les capacités du chatbot d'OpenAI, suscite le même attrait. Toutefois, Google n'entend pas rester les bras croisés. L'entreprise a lancé dans la foulée un chatbot d'IA appelé Bard pour répondre aux développements agressifs de Microsoft. Bing Chat et Bard sont tous deux ouverts aux utilisateurs pour qu'ils puissent les tester.

    Lors de l'interview, Bill Gates a admis avoir été surpris par la façon dont le développement de l'IA s'est accéléré l'année dernière et a déclaré que ce sera « la plus grande chose de cette décennie ». Selon lui, pour que l'intégration de l'IA dans les moteurs de recherches réussisse, elle doit être un « agent personnel » qui comprendrait les besoins et le style des utilisateurs et remplacerait les services distincts de différentes entreprises technologiques - comme c'est le cas actuellement avec Google qui domine la recherche, Amazon qui s'occupe des achats, Microsoft qui possède les outils de productivité et Apple qui domine le marché des appareils mobiles.

    « Dans dix ans, nous ne considérerons plus ces activités comme distinctes parce que l'IA vous connaîtra si bien que, lorsque vous achèterez des cadeaux ou planifierez des voyages, elle se moquera de savoir si Amazon a le meilleur prix, si quelqu'un d'autre a un meilleur prix - vous n'aurez même pas besoin d'y penser. Il s'agit donc d'un remaniement potentiel assez spectaculaire de la façon dont les marchés technologiques se présentent », a déclaré Bill Gates. Il a également déclaré qu'il n'était pas sûr qu'un acteur spécifique ressorte gagnant de la course à l'IA, mais certains pensent que Microsoft est actuellement à la tête du peloton.

    Un coût considérable en termes de puissance de calcul et d'électricité

    Bien sûr, le niveau d'intégration de l'IA que souhaitent Bill Gates, Microsoft et Google a un coût et ce dernier semble considérablement supérieur à celui d'un moteur de recherche standard. Autrement dit, transformer un chatbot en une activité viable va être un défi. Google dispose depuis sept ans d'une interface de recherche par chat, Google Assistant, et la plus grande société de publicité au monde n'a pas encore été en mesure de la monétiser. Outre la difficulté technique, la génération d'une session de chat pour chaque recherche nécessite beaucoup plus de puissance de calcul et d'électricité, ce qui revient beaucoup plus cher pour les entreprises.

    Dans une récente interview, le président d'Alphabet, John Hennessy, a déclaré qu'une conversation avec un chatbot d'IA coûtait probablement 10 fois plus cher qu'une recherche standard par mots clefs, même si un réglage fin permettra de réduire rapidement cette dépense. Selon des analystes de Google, même avec les revenus tirés de potentielles annonces intégrées à la recherche par chat, la technologie devrait représenter plusieurs milliards de dollars de coûts supplémentaires. Morgan Stanley a estimé que les 3 300 milliards de requêtes de recherche enregistrées par Google l'année dernière coûtaient environ un cinquième de centime chacune.

    Ce chiffre augmenterait en fonction de la quantité de texte que l'IA doit générer. Google, par exemple, pourrait être confronté à une hausse de 6 milliards de dollars de ses dépenses d'ici 2024 si une IA de type ChatGPT devait traiter la moitié des requêtes que la société reçoit avec des réponses de 50 mots. Sam Altman, PDG d'OpenAI, est également conscient du problème. Dans un tweet en décembre dernier, seulement quelques jours après le lancement de ChatGPT, Atman a annoncé que la société réfléchissait à un plan pour monétiser le chatbot, car son exploitation engendre des coûts exorbitants de quelques centimes ou plus par conversation.

    Source : Microsoft

    Et vous ?

    Quelle lecture faites-vous des résultats présentés par Microsoft ?
    Le pari de l'intégration de ChatGPT dans Bing par Microsoft, une bonne pioche ?
    Les recherches dites de nouvelle génération sont-elles susceptibles de vous intéresser ou préférez-vous les recherches plus traditionnelles ?
    Partagez-vous l'avis de Bill Gates qui pense que les parts de Google (par conséquent ses recettes également) vont diminuer ?

    Voir aussi :

    ChatGPT a enregistré une augmentation de 83 % en termes de trafic Web, et rivalise désormais avec Bing. La France est la 5e source de trafic pour le chatbot d'OpenAI, selon Similarweb
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  10. #290
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 132
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 132
    Points : 158 207
    Points
    158 207
    Par défaut OpenAI permet de personnaliser davantage les entreprises et les utilisateurs individuels.
    OpenAI va mettre en place des outils pour donner aux utilisateurs plus de contrôle sur le système d'IA générative, tout en améliorant les modèles pour des cas d'utilisation généraux et spécifiques

    S'adressant aux investisseurs lors d'une conférence de Morgan Stanley, Sam Altman, PDG d'OpenAI, a déclaré que la société d'IA se concentrera sur la construction d'une plateforme qui vendra des API à d'autres et créera des applications de pointe comme ChatGPT.

    Depuis son lancement en novembre, la popularité de ChatGPT a grimpé en flèche, le trafic sur le site ayant dépassé le milliard de visites, contre 616 millions en janvier, selon les estimations de Similarweb. OpenAI a lancé un niveau d'abonnement à ChatGPT dans lequel les utilisateurs peuvent payer 20 dollars par mois pour bénéficier de services plus fiables.

    La société soutenue par Microsoft travaille avec des entreprises clientes pour former ses modèles dans des domaines particuliers et a effectivement réduit les hallucinations, incidents au cours desquels un système d'IA donne en toute confiance une réponse qui est factuellement incorrecte, selon M. Altman.

    Le cabinet de conseil en gestion Bain & Company a conclu un partenariat de services mondial avec OpenAI, ce qui permet à Bain d'intégrer l'IA dans les activités de ses clients.

    Les entreprises qui travaillent avec OpenAI peuvent utiliser leurs données et faire une copie du modèle afin d'atténuer les problèmes de sécurité des données. Coca-Cola, par exemple, travaille avec OpenAI et Bain pour utiliser les plateformes ChatGPT et DALL-E d'OpenAI afin de créer des textes publicitaires, des images et des messages personnalisés.

    Nom : openai-JPG-6625-1670083888.jpg
Affichages : 3509
Taille : 20,7 Ko

    M. Altman, entrepreneur et investisseur chevronné, a déclaré que la société devrait être appréciée par les investisseurs en tant qu'entreprise permettant d'atteindre l'objectif de l'intelligence artificielle générale.

    Les utilisateurs individuels devraient également avoir plus de contrôle sur le fonctionnement de l'intelligence artificielle, a ajouté M. Altman. Le mois dernier, la société a déclaré qu'elle mettait au point une version améliorée de son chatbot que les utilisateurs peuvent personnaliser afin de répondre aux préoccupations concernant les préjugés de l'intelligence artificielle.

    "Nous lancerons bientôt d'autres éléments qui permettront aux utilisateurs de contrôler davantage le système pour qu'il se comporte de telle ou telle manière".

    M. Altman reconnaît que le système d'intelligence artificielle ne peut pas être précis à 100 %, mais il s'attend à ce que des applications telles que des médecins et des avocats utilisant l'intelligence artificielle apparaissent bientôt sur les téléphones des utilisateurs.

    Source : Sam Altman, PDG d'OpenAI

    Et vous ?

    Quel est votre avis sur la situation ?
    L'intégration de l'IA dans certaines professions pourrait-elle causer du tort aux clients ?

    Voir aussi :

    Le PDG d'OpenAI affirme que l'IA donnera du pouvoir aux gens sur le plan économique, mais ne leur volera pas leur emploi, suite à la crainte de nombreux utilisateurs

    OpenAI permettra aux développeurs d'intégrer ChatGPT dans leurs applications via une API, mais l'outil est-il prêt à être utilisé dans des environnements de production ?

    ChatGPT a enregistré une augmentation de 83 % en termes de trafic Web, et rivalise désormais avec Bing, la France est la 5e source de trafic pour le chatbot d'OpenAI, selon Similarweb

    Google dévoile PaLM-E, un modèle d'IA de type ChatGPT, qui prend en compte les besoins de l'utilisateur, une similitude est dégagée dans le récent article de Microsoft intitulé "ChatGPT for Robotic"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #291
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 035
    Points
    58 035
    Par défaut Les résultats de l'examen du barreau montrent que l'IA peut rivaliser avec les "avocats humains"
    Les résultats de l'examen du barreau montrent que l'IA peut rivaliser avec les "avocats humains",
    GPT-4 un modèle d'IA a obtenu un score de 297 à l'examen du barreau

    Selon une nouvelle étude publiée mercredi, l'intelligence artificielle peut désormais surpasser la plupart des diplômés des facultés de droit à l'examen du barreau, l'épreuve éprouvante de deux jours que les aspirants avocats doivent passer pour pratiquer le droit aux États-Unis. GPT-4, le modèle d'intelligence artificielle amélioré publié cette semaine par OpenAI, soutenue par Microsoft, a obtenu un score de 297 à l'examen du barreau lors d'une expérience menée par deux professeurs de droit et deux employés de l'entreprise de technologie juridique Casetext. Ce résultat place le GPT-4 dans le 90e percentile des candidats à l'examen et est suffisant pour être admis à pratiquer le droit dans la plupart des États, selon les chercheurs.

    Nom : Screenshot_2023-03-16 Bar exam score shows AI can keep up with 'human lawyers,' researchers say.png
Affichages : 4408
Taille : 328,7 Ko

    L'examen du barreau évalue les connaissances et le raisonnement et comprend des essais et des tests de performance destinés à simuler le travail juridique, ainsi que des questions à choix multiples. « Les grands modèles de langage peuvent répondre aux normes appliquées aux avocats humains dans presque toutes les juridictions des États-Unis en s'attaquant à des tâches complexes nécessitant des connaissances juridiques approfondies, une compréhension de la lecture et une capacité d'écriture », écrivent les auteurs.

    Il y a moins de quatre mois, deux des mêmes chercheurs ont conclu que le modèle de langage large d'OpenAI, ChatGPT, n'atteignait pas la note de passage à l'examen du barreau, soulignant ainsi la rapidité avec laquelle la technologie s'améliore. Le modèle GPT-4, plus récent, a réussi près de 76 % des questions à choix multiples de l'examen du barreau, contre environ 50 % pour le modèle ChatGPT, surpassant de plus de 7 % le candidat humain moyen.

    La National Conference of Bar Examiners, qui conçoit la section des questions à choix multiples, a déclaré dans un communiqué mercredi que les avocats possèdent des compétences uniques acquises par l'éducation et l'expérience que « l'IA ne peut actuellement pas égaler ».

    Le co-auteur de l'étude, Daniel Martin Katz, professeur au Chicago-Kent College of Law, a déclaré dans une interview qu'il avait été le plus surpris par la capacité du GPT-4 à produire des réponses largement pertinentes et cohérentes pour les essais et les tests de performance. J'ai entendu tant de gens dire : « Eh bien, il pourrait répondre aux questions à choix multiples, mais il ne répondra jamais aux questions de rédaction », a déclaré Katz.

    L'IA a également obtenu de bons résultats à d'autres tests standardisés, notamment le SAT (Scholastic Assessment Test est un examen qui mesure vos compétences générales verbales en anglais et votre raisonnement mathématique) et le GRE ( Graduate Record Examination est un test en anglais créé et géré par l'entreprise ETS. Ce test est requis pour étudier dans la plupart des universités ou graduate schools dans des pays anglophones), mais c'est l'examen du barreau qui a suscité le plus d'intérêt. OpenAI a vanté son score de réussite lors de l'annonce de son dernier modèle mardi.

    Sean Silverman, tuteur de l'examen du barreau, a attribué l'attention portée à l'examen du barreau à sa difficulté largement reconnue. Cette année, le taux de réussite à l'examen pour l'obtention d'une licence d'avocat était de 78 % chez les candidats ayant suivi trois années d'études de droit.

    Selon Silverman, les gens seront peut-être moins impressionnés d'apprendre que l'intelligence artificielle peut réussir un examen conçu pour les lycéens, comme le SAT, « plutôt que l'examen pour devenir avocat ».

    Source : Rapport de l’étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des résultats obtenus par GPT-4 à l'examen du barreau ?
    Quels impacts ces modèles de langage pourraient-ils avoir sur le système judiciaire ?
    À votre avis, les systèmes d'IA pourraient-ils remplacer les avocats et les juges dans les tribunaux ?

    Voir aussi :

    En remplaçant les avocats humains par l'IA, le système judiciaire chinois aurait économisé 45 Mds $ en frais entre 2019 et 2021, soit la moitié du total des honoraires des avocats en Chine en 2021

    La France bannit les IA de prédiction des comportements des juges, les technologies de justice prédictive sont-elles une menace pour la société ?

    Une intelligence artificielle peut-elle être un juge équitable dans un tribunal ? L'Estonie pense que oui

    Intelligence artificielle : vingt avocats expérimentés se font battre par un algorithme lors d'un test de détection de problèmes juridiques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #292
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut Des utilisateurs de ChatGPT signalent qu'ils peuvent voir l'historique des conversations d'autres personnes
    Des utilisateurs de ChatGPT signalent qu'ils peuvent voir l'historique des conversations d'autres personnes dans la barre latérale
    ce qui suscite des préoccupations sur la sécurité de l'outil d'IA

    De nombreux utilisateurs de ChatGPT ont commencé à signaler lundi que l'historique des conversations d'autres personnes apparaît dans leur compte. Cela signifie que vos récentes requêtes adressées à ChatGPT peuvent avoir été divulguées accidentellement à d'autres utilisateurs, un problème qui pourrait avoir de graves répercussions sur la confidentialité et la sécurité du chatbot d'IA populaire d'OpenAI. Le bogue apparent risque d'exposer les informations personnelles d'un utilisateur si elles ont été saisies dans ChatGPT. OpenAI a déclaré que le problème est en cours d'examen, mais n'a pas indiqué ce qui pourrait être à l'origine de cette divulgation.

    Lancé fin novembre 2022, ChatGPT s'est popularisé très rapidement et est aujourd'hui utilisé par plus de 100 millions de personnes dans le monde. Mais ce qui retient le plus l'attention depuis lundi, c'est un problème de sécurité du chatbot qui pourrait avoir des conséquences fâcheuses pour certains utilisateurs. En effet, l'interface utilisateur de ChatGPT comporte une barre latérale qui affiche les conversations passées, visibles uniquement par l'utilisateur qui les a eues. Mais plusieurs utilisateurs ont signalé que ChatGPT leur montrait l'historique d'autres personnes. Les utilisateurs de ChatGPT ont fait valoir qu'il ne s'agissait pas du résultat d'un exploit.

    Un utilisateur a signalé qu'il n'était pas en mesure de voir l'ensemble du journal de chat, mais seulement le titre des différents chats. Un utilisateur de Reddit a repéré des conversations menées en chinois. Il a partagé une capture d'écran sur Twitter sur laquelle on peut lire le titre des conversations auxquelles il a eu accès. Mais l'on ignore si certains utilisateurs ont réussi à accéder au contenu des conversations que ChatGPT a partagé avec eux. La plupart des utilisateurs ont toutefois signalé que le chatbot ne leur a pas donné accès au contenu des conversations. Si vous cliquez sur le titre d'une discussion passée, le programme ne parvient pas à la charger.


    Il semble également que, dans d'autres cas, ChatGPT n'affiche que des termes génériques lors de l'affichage d'historiques de chat provenant éventuellement d'anciens utilisateurs, en omettant toute information permettant d'identifier la personne. Ainsi, il n'est pas évident de savoir de quelle personne provient l'historique du chat. Ce bogue apparent suscite des inquiétudes quant à la protection de la vie privée des utilisateurs. Si vous avez saisi des informations personnelles dans l'historique d'un chat, l'erreur pourrait potentiellement faire apparaître ces mêmes informations à un étranger. Pour le moment, aucun rapport n'a fait état d'une telle divulgation.

    L'origine du problème reste encore inconnue. Il n'est donc pas clair si ChatGPT faisait réellement apparaître les historiques de chat d'autres profils, ou si le programme inventait simplement les invites passées. Mais OpenAI a signalé une panne de ChatGPT vers 10h du matin (heure de Paris) après que les utilisateurs ont remarqué le problème avec les historiques de chat. L'entreprise n'a pas répondu aux demandes de commentaires, mais a déclaré qu'elle a ouvert une enquête pour déterminer les causes ayant conduit à cette divulgation. Elle fait également l'objet de critiques de la part de certains utilisateurs et des groupes de défense de la vie privée.

    Lundi, certains utilisateurs ont également signalé que la page de paiement de ChatGPT Plus pourrait exposer des adresses électroniques appartenant à des utilisateurs aléatoires. Le bogue apparent souligne un risque lié à l'utilisation de ChatGPT : comme tout service Web public, il peut lui aussi faire l'objet d'une violation potentielle des données. La politique de confidentialité d'OpenAI indique qu'elle peut partager "des informations agrégées telles que des statistiques générales sur les utilisateurs avec des tiers, publier ces informations agrégées ou les mettre à la disposition du public". OpenAI affirme que les conversations servent à améliorer le système.

    Nom : mpol.png
Affichages : 4436
Taille : 609,9 Ko

    L'entreprise utilise les conversations pour entraîner le système et les conversations sont examinées par des "formateurs d'IA" dans le cadre de ce processus. « Dans le cadre de notre engagement en faveur d'une IA sûre et responsable, nous examinons les conversations pour améliorer nos systèmes et de nous assurer que le contenu est conforme à nos politiques et à nos exigences en matière de sécurité. Veuillez ne pas partager des informations sensibles dans vos conversations », indique la FAQ sur ChatGPT. Cependant, malgré les déclarations de l'entreprise, les experts ont toujours souligné le manque de fiabilité dans l'exactitude des réponses de ChatGPT.

    « Je comprends qu'il ne s'agit pas d'un service trivial à mettre à l'échelle et à déployer. Mais malgré le fait que je paie 20 $ par mois pour utiliser ChatGPT de manière fiable, il est l'un des produits les moins fiables et les moins utiles auxquels je suis abonné. C'est essentiellement un jouet, et bien que je sois curieux d'apprendre à l'utiliser efficacement et de comprendre comment il pourrait s'intégrer dans mes flux de travail, je ne peux pas m'empêcher de penser que je leur fais plus de faveurs qu'ils n'en font à moi. C'est un peu comme si ChatGPT Plus était plus un don qu'un produit légitime », peut-on lire dans un commentaire sur Hacker News.

    « En plus d'être très peu fiable, l'interface utilisateur et l'expérience globale ne sont pas très bonnes, malgré des exigences très simples. Les choses se cassent tout le temps, les sessions des utilisateurs semblent se briser de manière peu claire, et maintenant je suppose que les gens reçoivent les mauvaises entrées de l'historique. Je veux continuer à l'utiliser pour apprendre, mais je n'aime vraiment pas payer pour un service aussi mal implémenté. Vu qu'il n'y a pas un concurrent de taille, je suppose que nous devons nous en accommoder pour le moment », a ajouté cet utilisateur. Des utilisateurs sont parvenus à exploiter les faiblesses de ChatGPT.


    Une astuce, appelée injection d'invite, permet aux utilisateurs de ChatGPT de lui faire avaliser la transphobie, le racisme et les théories du complot. Ils l'ont également entraîné dans des scénarios de jeux de rôle impliquant la sexualisation d'enfants. D'autres utilisateurs ont réussi à contraindre ChatGPT à leur fournir des informations sur les étapes pour fabriquer des stupéfiants, notamment de la méthamphétamine. Pendant ce temps, des juges utilisent le chatbot d'IA pour prendre des décisions, des startups technologiques utilisent ChatGPT pour les aider à écrire du code, et même le Pentagone utiliserait ChatGPT pour rédiger des communiqués de presse.

    Alors qu'OpenAI faisait face à ce problème lundi, Anthropic, une startup fondée par certains de ses anciens employés, a lancé un rival de ChatGPT appelé Claude. Le chatbot Claude est décrit par Anthropic comme un modèle d'IA plus "maniable" et "moins nocif" que ChatGPT. Claude serait moins performant que ChatGPT lorsqu'il s'agit d'écrire du code informatique, mais Anthropic affirme qu'il est supérieur au chatbot d'IA d'OpenAI sur un certain nombre d'aspects important. Il est conçu pour aider les utilisateurs à effectuer des résumés, des recherches, des rédactions collaboratives, etc. Il a également été conçu pour raconter des blagues.

    L'entreprise a annoncé que Claude et Claude Instant seront vendus selon deux grilles tarifaires différentes. Claude est un modèle très performant, tandis que Claude Instant est plus léger, moins cher et beaucoup plus rapide. Elle facture l'utilisation par million de caractères entrés et sortis. Alors que GPT-3.5-turbo d'OpenAI est facturé 0,002 $ pour 1 000 tokens (fragments d'un mot), Claude Instant est disponible pour 0,42 $ par million de caractères en entrée et 1,45 $ par million de caractères en sortie. Claude-v1, le plus grand modèle, est proposé à 2,90 dollars par million de caractères en entrée et à 8,60 dollars par million de caractères en sortie.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du problème signalé par les utilisateurs de ChatGPT ?
    Comment une telle chose a-t-elle pu se produire ? Quelles sont les implications potentielles ?
    Êtes-vous déjà tombé sur l'historique des discussions d'autres personnes dans la barre latérale de votre compte ?

    Voir aussi

    Anthropic lance Claude, un modèle d'IA décrit comme plus "maniable" et "moins nocif" que ChatGPT d'OpenAI, mais moins performant que ChatGPT dans l'écriture de code informatique

    Un "jailbreak" de ChatGPT tente d'obliger le chatbot d'IA d'OpenAI à enfreindre ses propres règles sous peine de mort, l'astuce permet parfois de contourner les filtres de contenu du chatbot

    OpenAI lance GPT-4, une IA multimodale que l'entreprise affirme être à la pointe de la technologie, il serait 82 % moins susceptible d'être trompé par une injection d'invite que GPT-3.5

    Comment utilisez-vous ChatGPT ? L'outil d'IA développé par OpenAI. Désormais, il est basé sur GPT-4 et disponible pour les abonnés à ChatGPT+
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #293
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 050
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 050
    Points : 2 087
    Points
    2 087
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Et vous ?

    Êtes-vous déjà tombé sur l'historique des discussions d'autres personnes dans la barre latérale de votre compte ?
    Il est arrivé voici quelques décennies sur le réseau téléphonique d'entendre des conversations de tiers, sans d'ailleurs pouvoir ni les identifier ni leur répondre, à ma connaissance c'est resté quelque chose de très rare.

    Reste à savoir si le phénomène va rester rare sur ChatGPT.
    Il n'est d'ailleurs pas impossible que le fait de pouvoir facilement faire des citations précises change l'impact potentiel du phénomène.

  14. #294
    Membre régulier
    Homme Profil pro
    Développeur Java
    Inscrit en
    Octobre 2020
    Messages
    21
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Eure (Haute Normandie)

    Informations professionnelles :
    Activité : Développeur Java

    Informations forums :
    Inscription : Octobre 2020
    Messages : 21
    Points : 96
    Points
    96
    Par défaut
    Si le code de l'UI de ChatGPT a été écrit avec l'aide de ChatGPT. Je ne suis pas surpris qu'elle soit buggé :-)

    Écrire du code avec ChatGPT, c'est un peu comme si tu aggréges du code patchwork stackoverflow sans le savoir, sans les commentaires de modération des réponses.

  15. #295
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut Des chercheurs de Stanford ont répliqué le chatbot d'IA ChatGPT pour moins de 600 dollars
    Le génie est sorti de la bouteille : des chercheurs de Stanford ont répliqué le chatbot d'IA ChatGPT pour moins de 600 dollars
    mais l'ont rapidement mis hors ligne en raison de ses "hallucinations"

    Des chercheurs de l'université de Stanford ont mis au point leur propre modèle d'IA, Alpaca, qui est semblable à ChatGPT. L'entraînement de ce modèle n'aurait coûté que 600 dollars, car il a été conçu sur la base de la plateforme open source LLaMA de Meta. Leur expérience montre que les nouveaux systèmes d'IA avancés peuvent être facilement reproduits, et que cela ne nécessite même pas des coûts énormes. Cependant, un nouveau rapport indique cette semaine que les chercheurs ont mis hors ligne leur IA en raison d'"hallucinations" graves et de l'augmentation des coûts. De plus, les chercheurs n'auraient pas réussi à faire en sorte que l'IA se comporte bien.

    Google, Meta, OpenAI, etc., et Microsoft ont chacun publié au moins un système d'IA avancé au cours de ces dernières années et dans chaque cas, le coût du produit est chiffré en plusieurs millions de dollars. Par exemple, Microsoft a investi plusieurs milliards de dollars dans OpenAI cette année pour maintenir son accès exclusif aux modèles de langage avancés développés par le laboratoire d'IA. En retour, ce partenariat permet à OpenAI de profiter de la puissance de calcul offerte par le cloud Azure de Microsoft nécessaire pour le fonctionnement de ChatGPT et d'autres produits. OpenAI peut ainsi optimiser ses dépenses en infrastructures numériques.

    Mais récemment, des chercheurs de l'université de Stanford ont annoncé avoir créé un modèle d'IA bon marché qui fonctionne exactement comme ChatGPT d'OpenAI avec seulement 600 dollars. Selon le rapport de l'étude, la base a coûté 500 dollars aux chercheurs, et ils ont dépensé environ 100 dollars pour créer l'IA, ce qui a nécessité huit ordinateurs équipés d'accélérateurs NVIDIA A100 de 80 Go pendant trois heures ; ils ont "loué" ce service dans l'infrastructure du cloud. Les chercheurs ont basé leur IA sur le modèle de langage ouvert LLaMA 7B, qui est le plus petit et le moins cher de la série LLaMA développée par Meta. Ils ont baptisé leur modèle d'IA Alpaca.

    Nom : alpaca_main.jpg
Affichages : 39429
Taille : 45,1 Ko

    Ses capacités sont en fait assez limitées, et il fait moins bien que ChatGPT dans la plupart des tâches. Ce n'est pas surprenant, car la formation des modèles d'IA GPT a pris plus de temps et de ressources. ChatGPT a lu des milliards de livres, tandis qu'Alpaca a appris quelques questions et réponses données par des humains, même si elles sont peu nombreuses. D'autre part, le modèle d'IA Alpaca accomplit certaines tâches assez bien, et parfois même mieux que son rival ChatGPT. Lors du premier test, Alpaca aurait réussi 90 tests (rédaction de courriels, publication sur les médias sociaux, aide au travail, etc.), tandis que ChatGPT n'aurait réussi que 89 tests.

    Les chercheurs ont écrit : « nous avons été assez surpris par ce résultat étant donné la petite taille du modèle et la quantité modeste de données relatives au suivi des instructions. Outre l'exploitation de cet ensemble d'évaluations statiques, nous avons également testé le modèle Alpaca de manière interactive, et nous avons constaté qu'Alpaca se comporte souvent de manière similaire à text-davinci-003 (GPT-3.5) sur un ensemble diversifié d'entrées. Nous reconnaissons que notre évaluation peut être limitée en matière d'échelle et de diversité ». L'équipe estime qu'elle aurait probablement pu le faire à moindre coût si elle avait cherché à optimiser le processus.

    L'équipe a publié sur Github les 52 000 questions utilisées dans le cadre de cette étude, ainsi que le code permettant d'en générer d'autres et le code utilisé pour affiner le modèle LLaMA. Il reste des ajustements supplémentaires pour s'assurer que ce modèle fonctionne en toute sécurité et dans le respect de l'éthique. Alors, qu'est-ce qui empêche n'importe qui de créer sa propre IA pour une centaine d'euros et de la dresser comme il l'entend ? En théorie, toute personne disposant d'une formation technique correspondante et d'au moins 600 dollars peut répéter l'expérience des chercheurs de Stanford. Mais dans les faits, les choses sont un peu compliquées.

    La licence d'OpenAI ne permet pas, ou plutôt interdit, d'utiliser les données de ses modèles pour développer des systèmes concurrents. En revanche, Meta accorde une licence non commerciale aux chercheurs et universitaires pour utiliser ses modèles, bien que ce soit un point discutable, puisque le modèle LLaMA entier a été divulgué sur 4chan une semaine après son annonce. Un autre groupe affirme avoir réussi à éliminer le coût du cloud, en publiant sur Github un code supplémentaire qui peut fonctionner sur un Raspberry Pi et compléter le processus de formation en cinq heures avec une seule carte graphique haut de gamme Nvidia RTX 4090.


    Cependant, un rapport publié cette semaine indique que les chercheurs ont mis Alpaca hors ligne en raison de l'augmentation des coûts, de problèmes de sécurité et d'"hallucinations", terme sur lequel la communauté de l'IA s'est mise d'accord lorsqu'un chatbot affirme en toute confiance des informations erronées, en rêvant d'un fait qui n'existe pas. Dans un communiqué de presse annonçant le lancement initial d'Alpaca, l'auteur principal, Rohan Taori, étudiant en doctorat d'informatique à Stanford, a reconnu qu'un test public comportait des risques. Mais l'on ignore exactement ce qui a mal tourné lors de la démo interactive d'Alpaca.

    « L'objectif initial de la publication d'une démo était de diffuser nos recherches de manière accessible. Nous pensons que nous avons en grande partie atteint cet objectif et, compte tenu des coûts d'hébergement et des insuffisances de nos filtres de contenu, nous avons décidé de retirer la démo », a déclaré un porte-parole du Stanford Human-Centered Artificial Intelligence (Stanford HAI) à Register. Le département n'a pas répondu immédiatement à une demande de commentaire. Vous ne pouvez plus accéder à une copie fonctionnelle d'Alpaca, mais le code et les données sous-jacentes sont toujours en ligne sur GitHub.

    « Nous encourageons les utilisateurs à nous aider à identifier de nouveaux types de défaillances en les signalant dans la démo Web. Dans l'ensemble, nous espérons que la publication d'Alpaca facilitera la poursuite des recherches sur les modèles de suivi des instructions et leur alignement sur les valeurs humaines », ont déclaré les chercheurs dans le communiqué de presse. Malgré ses échecs apparents, Alpaca présente des aspects intéressants qui rendent le projet de recherche intéressant. Ses faibles coûts initiaux sont particulièrement remarquables, contrairement aux superordinateurs de Microsoft qui coûtent plusieurs millions de dollars.

    Alors, que signifie tout cela ? Cela signifie qu'un nombre illimité de modèles de langage non contrôlés peuvent désormais être mis en place, notamment par des personnes ayant des connaissances en matière d'apprentissage automatique et ne se souciant pas des conditions générales d'utilisation ou du piratage de logiciels - pour presque rien. Si une grande partie du temps et des dépenses nécessaires est consacrée à la phase de post-entraînement, et que ce travail peut être plus ou moins volé dans le temps qu'il faut pour répondre à 50 ou 100 000 questions, cela a-t-il un sens pour les entreprises de continuer à dépenser cet argent ?

    En outre, les capacités impressionnantes de ce logiciel pourraient certainement être utiles à un régime autoritaire, ou à une opération d'hameçonnage, ou à un spammeur, ou à tout autre acteur douteux. « Le génie est sorti de la bouteille, et il semble qu'il soit déjà extrêmement facile de le reproduire et de le réentraîner. Accrochez-vous à votre chapeau », mettent en garde les experts.

    Sources : communiqué de presse des chercheurs de Stanford, référentiel GitHub du projet, AlpacaPi

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du coût insignifiant de la création et la formation du modèle d'IA Alpaca ?
    S'il est si facile que ça de répliquer ChatGPT et de l'entraîner, pourquoi Microsoft dépense-t-elle des milliards pour cela ?
    Selon vous, y a-t-il un avantage à injecter autant d'argent ?
    Selon vous, est-ce une bonne idée d'avoir rendu publics le code et les données sous-jacentes d'Alpaca ?
    Pensez-vous que cela pourrait entraîner une prolifération des modèles d'IA d'amateurs dans le prochain mois ?
    Quels pourraient être les impacts d'une telle situation sur Internet et le secteur de l'IA ?

    Voir aussi

    Une recherche avec Bard de Google et ChatGPT de Microsoft coûte probablement 10 fois plus qu'une recherche par mot-clé, ce qui pourrait représenter « plusieurs milliards de dollars de surcoûts »

    Des ingénieurs de Google ont développé une IA de type ChatGPT il y a des années, mais les dirigeants l'ont bloquée pour des raisons de sécurité. Leur travail sous-tend désormais Bard

    Google commence à ouvrir l'accès à son concurrent ChatGPT de Microsoft et annonce le lancement public de son chatbot Bard

    Bill Gates affirme que l'essor de l'IA menace les bénéfices que Google tire de son moteur de recherche, mais la recherche via Bing Chat et Bard entraîne plusieurs milliards de dollars de surcoûts
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  16. #296
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 382
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 382
    Points : 196 416
    Points
    196 416
    Par défaut OpenAI publie un article sur l'impact économique du GPT-4
    OpenAI publie un article sur l'impact économique du GPT-4 : « 80% des travailleurs auront au moins 10% de leurs tâches affectées par GPT »,
    l'entreprise affirme que ses produits vont automatiser une vaste gamme de tâches professionnelles

    ChatGPT d'OpenAI remplacera-t-il votre travail ? Une nouvelle étude d'OpenAI estime que les technologies de chat basées sur l'IA pourraient sérieusement affecter 19% des emplois aux États-Unis : « environ 80 % de la main-d'œuvre américaine pourrait voir au moins 10 % de ses tâches professionnelles affectées par l'introduction des GPT, tandis qu'environ 19 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées ». Projection réaliste ou utopique ?

    Publié en collaboration avec OpenResearch et l'Université de Pennsylvanie, l'article tente de qualifier la technologie GPT de technologie à usage général.


    Sam Altman qualifie GPT de « la plus grande technologie que l'humanité ait jamais développée », mais reconnaît en même temps les risques qu'elle pose. Nous constatons déjà les effets qu'elle a sur diverses industries et nous devons maintenant examiner comment elle « remodèle la société ».

    Ces dernières semaines, OpenAI s'est fait entendre sur les conséquences de sa technologie. Publié en collaboration avec OpenResearch et l'Université de Pennsylvanie, l'article tente de qualifier la technologie GPT de technologie à usage général.

    Alors que les grands modèles de langage comme le GPT-4 d'OpenAI deviennent plus avancés et capables d'écrire, de coder et de faire des calculs avec plus de précision et de cohérence, il ne faudra pas longtemps avant que l'IA fasse son entrée sur le lieu de travail en tant qu'outil d'utilisation quotidienne. En fait, OpenAI lui-même parie qu'une grande majorité des travailleurs verront au moins une partie de leur travail automatisé par des modèles GPT.

    GPT est-il synonyme de General-Purpose Technology (technologie à usage général) ?

    La technologie à usage général est toute technologie qui remplit principalement trois critères fondamentaux : amélioration au fil du temps, omniprésence dans l'ensemble de l'économie et capacité à engendrer des innovations complémentaires. Il ne fait aucun doute que la technologie s'est améliorée au fil du temps, donc le premier critère est rempli. OpenAI soutient dans son article que les deux autres critères sont également en route. « Il existe des preuves qualitatives précoces que l'adoption et l'utilisation des LLM se généralisent de plus en plus », lit-on dans l'article.

    Eh bien, cela se vérifie. Il ne fait aucun doute qu'un phénomène ChatGPT ou GPT est né. Depuis sa sortie, il y a eu une concurrence accrue entre les entreprises pour le reproduire ou mieux construire. Les entreprises embauchent pour des postes pour des profils liés à l'IA générative ou spécifiquement aux LLM. Ces emplois sont créés en raison du battage médiatique émergent dans le domaine. Mais qu'en est-il des emplois existants qui pourraient être remplacés par cette technologie ?

    L'entreprise a donné son verdict dans son article publié sur le serveur de préimpression arXiv.

    Des chercheurs d'OpenAI et de l'Université de Pennsylvanie ont fait valoir que 80 % de la main-d'œuvre américaine pourrait avoir au moins 10 % de ses tâches affectées par l'introduction des GPT, la série de grands modèles de langage populaires réalisés par OpenAI. Ils ont également estimé qu'environ 19 % des travailleurs verront au moins 50 % de leurs tâches affectées. L'exposition au GPT est plus élevée pour les emplois à revenu élevé, ont-ils écrit dans l'étude, mais s'étend à presque toutes les industries. Ils soutiennent que les modèles GPT sont des technologies à usage général comme la machine à vapeur ou la presse à imprimer.

    L'article est baptisé « Les GPT sont des GPT : un premier aperçu du potentiel d'impact sur le marché du travail des grands modèles linguistiques ». En voici le résumé :

    Nous étudions les implications potentielles des modèles de transformateurs préformés génératifs (GPT) et des technologies connexes sur le marché du travail américain. À l'aide d'une nouvelle rubrique, nous évaluons les professions en fonction de leur correspondance avec les capacités GPT, en incorporant à la fois l'expertise humaine et les classifications de GPT-4. Nos résultats indiquent qu'environ 80 % de la main-d'œuvre américaine pourrait voir au moins 10 % de ses tâches professionnelles affectées par l'introduction des GPT, tandis qu'environ 19 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées. L'influence s'étend à tous les niveaux de salaire, les emplois à revenu élevé étant potentiellement plus exposés. Notamment, l'impact ne se limite pas aux industries dont la croissance récente de la productivité est plus élevée. Nous concluons que les transformateurs préformés génératifs présentent des caractéristiques de technologies à usage général (GPT), ce qui suggère que ces modèles pourraient avoir des implications économiques, sociales et politiques notables.
    Les chercheurs ont utilisé la base de données O*NET, qui est la principale base de données sur les professions aux États-Unis et répertorie 1 016 professions avec des descriptions normalisées, pour déterminer les tâches à mesurer pour chaque profession. Ils ont ensuite collecté des annotations humaines et générées par GPT-4 à l'aide d'une rubrique pour déterminer si l'accès direct à GPT ou à un système secondaire alimenté par GPT réduirait le temps nécessaire à un humain pour effectuer une tâche spécifique d'au moins 50 %. Une exposition plus élevée signifiait que GPT réduirait le temps nécessaire pour accomplir la tâche d'au moins la moitié tout en maintenant un travail de haute qualité.

    « Nos résultats indiquent que l'importance des compétences en sciences et en pensée critique est fortement associée négativement à l'exposition, ce qui suggère que les professions nécessitant ces compétences sont moins susceptibles d'être affectées par les modèles linguistiques actuels », ont écrit les chercheurs. « À l'inverse, les compétences en programmation et en écriture montrent une forte association positive avec l'exposition, ce qui implique que les professions impliquant ces compétences sont plus susceptibles d'être influencées par les modèles linguistiques ».

    Les professions les plus exposées comprennent les mathématiciens, les préparateurs d'impôts, les écrivains, les concepteurs de sites Web, les comptables, les journalistes et les secrétaires juridiques. Les professions avec la variance la plus élevée, ou moins susceptibles d'être affectées par GPT, comprennent les graphistes, les stratégies de marketing de recherche et les gestionnaires financiers.

    Nom : gpt.png
Affichages : 3379
Taille : 282,4 Ko

    Les chercheurs énumèrent également l'impact global prévu de GPT sur différentes industries, l'impact le plus important étant sur les services de traitement de données, les services d'information, les industries de l'édition et les compagnies d'assurance, tandis que l'impact le moins important concerne la fabrication de produits alimentaires, la fabrication de produits en bois, les activités de soutien à l'agriculture et la foresterie.

    Des limites dans cette étude

    Les chercheurs reconnaissent que leur étude présente des limites, du fait que les annotateurs humains connaissaient les capacités des modèles et n'appartenaient pas à certaines des professions mesurées. L'étude elle-même admet qu'il y a un parti pris inhérent à essayer de résumer chaque profession en utilisant de simples étiquettes pour décrire les tâches professionnelles. L'étude ajoute : « On ne sait pas dans quelle mesure les professions peuvent être entièrement décomposées en tâches, et si cette approche omet systématiquement certaines catégories de compétences ou de tâches qui sont tacitement requises pour l'exécution compétente d'un travail ».

    L'autre problème est que GPT a montré qu'il peut commettre des erreurs évidentes, y compris inventer des informations, ce qui oblige un humain à superviser le travail. C'est un facteur que l'étude n'a pas pu prendre en compte. En outre, l'étude a uniquement examiné si ChatGPT pouvait réduire le temps nécessaire pour accomplir diverses tâches par profession. Cela ne signifie pas que ChatGPT est nécessairement suffisamment intelligent pour automatiser entièrement certaines tâches.

    Bien sûr, il convient de noter qu'OpenAI a elle-même produit le travail, et en tant qu'entreprise cherchant à rentabiliser ses modèles d'IA, elle est fortement incitée à présenter ses outils comme perturbateurs dans les industries où ils vont permettre d'automatiser les tâches, ce qui profite en fin de compte aux employeurs.

    D'autre part, dans une récente interview, Altman a déclaré que ChatGPT devrait être considéré comme un outil, et non comme un remplacement pour n'importe quel travail. Il a expliqué que l'humanité a prouvé cela à maintes reprises en s'adaptant constamment à différents types de technologie. « La créativité humaine est sans limites et nous trouvons de nouveaux emplois. Nous trouvons de nouvelles choses à faire », a déclaré Altman.

    D'ailleurs, le rapport révèle comment les modèles GPT seront bientôt un outil couramment utilisé. Google et Microsoft ont déjà annoncé qu'ils intégreraient l'IA dans leurs produits bureautiques tels que les e-mails, les documents et dans leurs moteurs de recherche. Déjà, les startups utilisent GPT-4 et ses capacités de codage pour réduire leurs dépenses en développeurs humains.

    « Notre analyse indique que les impacts des LLM comme le GPT-4 sont susceptibles d'être omniprésents », écrivent les chercheurs. « Alors que les capacités des LLM se sont constamment améliorées au fil du temps, leur effet économique croissant devrait persister et augmenter même si nous arrêtons le développement de nouvelles capacités aujourd'hui ».

    Une boîte noire dans un système

    La chose la plus fascinante est que GPT est maintenant vendu comme une technologie à usage général. Il est ironique pour une entreprise qui qualifie la technologie de « potentiel de chaos » de la vendre à tout le monde comme un outil. Altman a déclaré qu'ils avaient mis en place des garde-fous sur la technologie, mais il pourrait y en avoir d'autres qui pourraient ne pas faire de même. Il ajoute en outre que « la société, je pense, a très peu de temps pour comprendre comment réagir à cela, et comment réglementer et gérer cela ».

    Néanmoins, OpenAI ne facilite pas non plus la tâche des autres. C'est comme créer une boîte noire dans un système. Même s'ils ont reconnu le manque de transparence dans le document GPT-4, ils renvoient la responsabilité aux décideurs politiques et aux parties prenantes. Pendant ce temps, l'entreprise continuera à s'appuyer sur la technologie qui, selon elle, peut être potentiellement dangereuse, mais la responsabilité de la contrôler ne lui incombe pas.

    OpenAI pense que la phase initiale d'augmentation est toujours en cours et nous conduira éventuellement à l'automatisation. Ce que cela signifie pour les emplois, c'est qu'il pourrait y avoir une précarité initiale, mais finir par conduire à une automatisation complète.

    En ce qui concerne la réparation de la technologie, Altman a déclaré dans la même interview qu'il pensait que la technologie d'OpenAI avait besoin des contributions des régulateurs et de la société pour dissuader les conséquences négatives potentielles que la technologie pourrait avoir sur l'humanité.

    Source : étude

    Et vous ?

    « Environ 80 % de la main-d'œuvre américaine pourrait voir au moins 10 % de ses tâches professionnelles affectées par l'introduction des GPT, tandis qu'environ 19 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées ». Qu'en pensez-vous ? Projection réaliste ou utopique ? Pourquoi ?
    Que pensez-vous du fait de s'appuyer sur les descriptions de tâches pour faire leur étude ?
    D'ailleurs, le fait qu'OpenAI participe à cette étude ne fausse-t-il pas les résultats ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #297
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut Les internautes ne parviennent à détecter avec précision les textes générés par l'IA que dans 50 % des cas
    Une étude affirme que les internautes ne parviennent à détecter avec précision les textes générés par l'IA que dans 50 % des cas
    et une autre estime que les outils de détection ne sont pas fiables

    Une étude menée par les chercheurs de l'institut Human-Centered Artificial Intelligence de l'université de Stanford (Stanford HAI) a révélé que les gens parviennent à détecter avec précision les textes générés par l'IA seulement dans 50 à 52 % des cas. Cela correspond à peu près au hasard d'un tirage à pile ou face. Dans le même temps, une autre étude réalisée par des chercheurs de l'université du Maryland indique que les systèmes de détection existants les plus performants ne peuvent pas détecter de manière fiable les sorties des modèles d'IA de génération de texte dans des scénarios pratiques. Ils estiment que cela pourrait être dangereux pour Internet à l'avenir.

    Les textes générés par l'IA font de plus en plus partie de notre vie quotidienne. L'autocomplétions dans les courriels et le contenu généré par ChatGPT se généralisent, laissant les humains vulnérables à la tromperie et à la désinformation. Même dans les contextes où l'on s'attend à converser avec un autre être humain, comme les rencontres en ligne, l'utilisation de textes générés par l'IA est en augmentation. Une enquête de McAfee indique que 31 % des adultes prévoient d'utiliser ou utilisent déjà l'IA dans leurs profils de rencontres. Certains des modèles de langage les plus en vogue sont : ChatGPT d'OpenAI, Bard de Google et LLaMA de Meta.

    Alors, quels sont les implications et les risques liés à l'utilisation de textes générés par l'IA, en particulier dans les rencontres en ligne, les situations professionnelles et l'hôtellerie, domaines dans lesquels la façon dont nous nous représentons est d'une importance cruciale pour la manière dont nous sommes perçus ? « Est-ce que je veux embaucher cette personne ? Est-ce que je veux sortir avec cette personne ? Est-ce que je veux rester dans la maison de cette personne ? Ce sont des choses profondément personnelles que nous faisons assez régulièrement », explique Jeff Hancock, membre de l'institut Stanford HAI, dans le rapport d'étude.

    Nom : https___cdn.cnn.com_cnnnext_dam_assets_190215111549-20190215-artificial-intelligence-text-genera.jpg
Affichages : 3321
Taille : 106,5 Ko

    Jeff Hancock, qui est également professeur de communication à la Stanford School of Humanities and Sciences et directeur fondateur du Stanford Social Media Lab, et ses collaborateurs ont entrepris d'explorer cet espace problématique en examinant dans quelle mesure les internautes parviennent à différencier les textes générés par l'homme de ceux générés par l'IA sur OkCupid, AirBNB et Guru.com. Lui et son équipe rapportent : « les participants à l'étude ne pouvaient faire la différence entre un texte humain et un texte généré par l'IA qu'avec une précision de 50 à 52 %, ce qui correspond à peu près au hasard d'un tirage à pile ou face ».

    Expert dans le domaine de la détection de la tromperie, Hancock souhaitait utiliser ses connaissances dans ce domaine pour traiter les textes générés par l'IA. « Nous savions déjà que les gens sont généralement incapables de détecter la tromperie parce qu'ils font confiance par défaut. Pour cette étude, nous étions curieux de savoir ce qui se passe lorsque nous appliquons cette idée de détection de la tromperie à l'IA générative, pour voir s'il existe des parallèles avec d'autres documents sur la tromperie et la confiance". Dans le cadre de l'étude, l'équipe a présenté aux participants des échantillons de textes sur les trois plateformes numériques.

    En outre, cinq chercheurs - Vinu Sankar Sadasivan, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang et Soheil Feizi - de l'université du Maryland, aux États-Unis, se sont également récemment penchés sur la détection de textes générés par les modèles d'IA. Ils ont présenté leurs conclusions dans un document intitulé "Can AI-Generated Text be Reliably Detected ?". Citant plusieurs prétendus détecteurs de texte généré par l'IA, les experts notent dans leur rapport : « nous montrons à la fois théoriquement et empiriquement que ces détecteurs de pointe ne peuvent pas détecter de manière fiable les textes générés par l'IA dans des scénarios pratiques ».

    La détection des textes générés par l'IA, tout comme les énigmes CAPTCHA, semble donc vouée à l'échec puisque les modèles d'apprentissage automatique continuent de s'améliorer et deviennent capables d'imiter les productions humaines. Les experts affirment que l'utilisation non réglementée de ces modèles - qui sont désormais intégrés dans des applications largement utilisées par les grandes entreprises technologiques - pourrait avoir des conséquences indésirables, telles que des spams sophistiqués, des infox manipulatrices, des résumés inexacts de documents et du plagiat. Internet pourrait alors devenir plus toxique qu'il ne l'est déjà.

    Il s'avère que le simple fait de paraphraser le texte d'une IA - ce qui peut être fait avec un programme de substitution de mots - est souvent suffisant pour échapper à la détection. La précision d'un détecteur peut ainsi passer d'un niveau de base de 97 % à un niveau compris entre 80 % et 57 %, ce qui n'est guère mieux qu'un jeu de pile ou face. Les experts affirment qu'avec un modèle d'IA suffisamment bon, même le meilleur détecteur possible ne peut être que marginalement plus performant qu'un classificateur aléatoire. Interrogé sur l'existence d'une méthode plus fiable de détection des textes générés par l'IA, ils ont répondu par la négative.

    « Empiriquement, nous montrons que les attaques de paraphrase, où un paraphraseur léger est appliqué sur un modèle d'IA génératif, peuvent briser toute une série de détecteurs, y compris ceux qui utilisent les schémas de filigrane ainsi que les détecteurs basés sur les réseaux neuronaux et les classificateurs à zéro coup », ont déclaré les chercheurs de l'université du Maryland dans leur article. Ils estiment que les problèmes de détection de textes générés par l'IA sont impossibles à résoudre dans la pratique. De leur côté, Hancock et son équipe affirment que ces problèmes vont entraîner une augmentation significative des infox sur la toile à l'avenir.

    « Le volume de contenu généré par l'IA pourrait dépasser le contenu généré par l'homme en quelques années, ce qui pourrait réellement perturber notre écosystème de l'information. Lorsque cela se produit, la confiance par défaut est ébranlée, ce qui peut diminuer la confiance mutuelle », expliquent-ils. Alors, comment pouvons-nous mieux faire la différence entre l'IA et le texte généré par l'homme ? « Nous devons tous participer à la recherche d'une solution », affirme Hancock. L'une des idées proposées par les chercheurs de Stanford est de donner à l'IA un accent reconnaissable, ce qui permettrait facilement de détecter ses productions.

    « Lorsque vous allez en Angleterre, vous pouvez dire d'où viennent les gens, et même aux États-Unis, vous pouvez dire si une personne vient de la côte est, de Los Angeles ou du Midwest. Cela ne demande aucun effort cognitif. On le sait, c'est tout », explique l'équipe. Selon elle, l'accent pourrait même être associé à une solution plus technique, comme le filigrane d'IA. Hancock suggère également que dans les scénarios à fort enjeu où l'authentification est précieuse, les machines à divulgation automatique pourraient devenir la norme. L'universitaire ajoute qu'on a des années de retard dans l'enseignement aux jeunes des risques liés aux médias sociaux.

    Sources : article des chercheurs de l'université de Stanford, rapport de l'étude des chercheurs de l'université du Maryland

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la difficulté pour détecter les textes générés par l'IA ?
    Que pensez-vous des conclusions de l'étude des chercheurs de l'université du Maryland ?
    Selon vous, comment peut-on détecter de manière fiable les textes générés par l'IA ?
    Selon vous, l'IA générative va-t-elle créer plus de problèmes qu'elle n'en résoudra ?
    Quels impacts l'IA générative pourrait-elle avoir sur Internet dans les prochaines années ?

    Voir aussi

    OpenAI sur l'impact économique du GPT-4: « 80% des travailleurs auront au moins 10% de leurs tâches touchées », l'entreprise affirme que ses produits vont automatiser une vaste gamme de tâches pros

    Comment utilisez-vous ChatGPT, l'outil d'IA développé par OpenAI. Désormais, il est basé sur GPT-4 et disponible pour les abonnés à ChatGPT+

    Le génie est sorti de la bouteille : des chercheurs de Stanford ont répliqué le chatbot d'IA ChatGPT pour moins de 600 dollars, mais l'ont rapidement mis hors ligne en raison de ses "hallucinations"
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #298
    Membre éclairé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    253
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 253
    Points : 896
    Points
    896
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Une étude affirme que les internautes ne parviennent à détecter avec précision les textes générés par l'IA que dans 50 % des cas et une autre estime que les outils de détection ne sont pas fiables[/B]

    50% de positifs ? Ça veut dire que la détection est faite au hasard, non ?

  19. #299
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    74
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 74
    Points : 137
    Points
    137
    Par défaut
    Citation Envoyé par Prox_13 Voir le message
    50% de positifs ? Ça veut dire que la détection est faite au hasard, non ?
    Si je te montre 100 fois une image, c'est soit une pomme soit une orange et en tout il y en a 50 de chaque.
    Si je te demande combien de fois tu as détecté l'orange, tu vas me dire dans 50% des cas, pourtant tu ne l'as pas dit au hasard.

  20. #300
    Expert éminent

    Profil pro
    Fabricant et casseur d'avions
    Inscrit en
    Avril 2004
    Messages
    3 807
    Détails du profil
    Informations personnelles :
    Localisation : France, Tarn (Midi Pyrénées)

    Informations professionnelles :
    Activité : Fabricant et casseur d'avions
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Avril 2004
    Messages : 3 807
    Points : 7 613
    Points
    7 613
    Par défaut
    Citation Envoyé par Prox_13 Voir le message
    50% de positifs ? Ça veut dire que la détection est faite au hasard, non ?
    Ouaip, d'ailleurs c'est dans le texte:
    [...]qu'avec une précision de 50 à 52 %, ce qui correspond à peu près au hasard d'un tirage à pile ou face[...]
    Citation Envoyé par jnspunk Voir le message
    Si je te montre 100 fois une image, c'est soit une pomme soit une orange et en tout il y en a 50 de chaque.
    Si je te demande combien de fois tu as détecté l'orange, tu vas me dire dans 50% des cas, pourtant tu ne l'as pas dit au hasard.
    Mauvais exemple... si on a 50% d'orange et qu'on détecte ces 50%, on a 100% de positif.

    Prend plutôt 100 chiens, 50 mâles et 50 femelles, et demande à ton échantillon de repérer les mâles juste en regardant leur tête...
    "Errare humanum est, sed perseverare diabolicum"

    Ma page sur DVP.com

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 23h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 11h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 11h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 12h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 09h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo