IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Jon Stewart accuse les PDG de l'industrie de l'IA de faire de « fausses promesses »

  1. #121
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Pfff ce que j'en ai marre de lire tes messages. Bienvenue dans la liste des utilisateurs ignorés.
    Ce que j'ai écrit est vrai et mis sur le site officiel de ChatGPT, des africains sont payés à la tâche toute la journée pour valider dans les dialogues avec les utilisateurs ce qui est ou non "morale" (selon eux) et ce qui s'avère avoir été une très mauvaise idée, puisqu'on est passé d'un ChatGPT il y a 3 totalement pertinent dans ses réponses à un truc qui raconte des trucs faux et à désormais un avis sur la religion qui est plus proche de valider la pseudo thèse d'un dieu que l'inverse.

    Mais je comprends que ça fasse mal à tes yeux de wokistes.

  2. #122
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 413
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 413
    Points : 4 734
    Points
    4 734
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Ce que j'ai écrit est vrai et mis sur le site officiel de ChatGPT, des africains sont payés à la tâche toute la journée pour valider dans les dialogues avec les utilisateurs ce qui est ou non "morale" (selon eux) et ce qui s'avère avoir été une très mauvaise idée[...]
    Intéressant, et effectivement intriguant si c'est vrai. Source?

    [...]puisqu'on est passé d'un ChatGPT il y a 3 totalement pertinent dans ses réponses à un truc qui raconte des trucs faux et à désormais un avis sur la religion qui est plus proche de valider la pseudo thèse d'un dieu que l'inverse.
    Pour rappel, ChatGPT ne raconte rien de pertinent. jamais. Il n'a pas été conçu comme ça. C'est un modèle de langage : il est entrainé à générer du texte qui est habituellement présent dans les textes appris autour des notions proposés dans les questions.

    C'est exactement pour ça qu'il est manipulable : il suffit de lui poser une question qui ressemble de manière générale à un discours faux courant pour qu'il enchaine en racontant du faux dans le même ton.

    ChatGPT n'extrait pas la Vérité d'internet, mais uniquement le contenu majoritaire, ce qui n'en fait pas une vérité.

    Au même titre que Google n'a jamais trié ses résultats par pertinence, mais par popularité, vu qu'il compte le nombre de lien pointant vers la page contenant l'information qui intéresse.

  3. #123
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 434
    Points
    158 434
    Par défaut Google affichera bientôt une version IA de son moteur de recherche, alors que ChatGPT est déclaré code rouge
    Google affichera bientôt une version alimentée par l'IA de son moteur de recherche, après avoir déclaré que ChatGPT était un "code rouge"

    La menace de la technologie de l'IA ne peut être niée et, après l'énorme battage médiatique et le succès lié à ChatGPT, Google rend public ses propres plans pour surmonter cette épreuve.

    Le géant de la technologie affirme qu'il présentera bientôt une version de son moteur de recherche alimentée par l'IA après que le PDG de la société a qualifié ChatGPT de code rouge.

    Il est clair que le renouvellement de l'accent sur le sujet de l'IA par Google et que beaucoup pensaient qu'il était attendu depuis longtemps. Par conséquent, l'entreprise ne prévoit pas de prendre du recul et espère devenir active sur ce front après que la menace de ChatGPT aura occupé le devant de la scène.

    Bien qu'aucun commentaire majeur n'ait été fait par Google en réponse aux questions posées par les médias technologiques, une chose est sûre. Un porte-parole de l'entreprise affirme que la technologie de l'IA fait l'objet d'une attention toute particulière afin de s'assurer qu'elle fonctionne de manière sûre et utile pour tous les utilisateurs de Google.

    Par conséquent, ils espèrent partager des résultats positifs bientôt. Les experts ont soulevé de nombreuses questions sur ChatGPT et sur l'avenir des moteurs de recherche dans ce domaine.

    Le géant des logiciels Microsoft a annoncé qu'il avait renforcé son partenariat avec les créateurs de ChatGPT, Open AI, afin de lancer une nouvelle fonction de recherche via Bing qui utilise la même technologie que celle de l'outil ChatGPT. Le renouvellement Par conséquent, l'entreprise ne prévoit pas de prendre du recul et espère devenir active sur ce front après que la menace de ChatGPT aura occupé le devant de la scène.

    Bien qu'aucun commentaire majeur n'ait été fait par Google en réponse aux questions posées par les médias technologiques, une chose est sûre. Un porte-parole de l'entreprise affirme que la technologie de l'IA fait l'objet d'une attention toute particulière afin de s'assurer qu'elle fonctionne de manière sûre et utile pour tous les utilisateurs de Google.

    Par conséquent, ils espèrent partager des résultats positifs bientôt. Les experts ont soulevé de nombreuses questions sur ChatGPT et sur l'avenir des moteurs de recherche dans ce domaine.

    Le géant des logiciels Microsoft a annoncé qu'il avait renforcé son partenariat avec les créateurs de ChatGPT, Open AI, afin de lancer une nouvelle fonction de recherche via Bing qui utilise la même technologie que celle de l'outil ChatGPT. Et nous nous attendons à ce que ce lancement ait lieu dès le mois de mars de cette année.

    L'entreprise espère ainsi fournir des réponses appropriées aux recherches des utilisateurs au lieu de l'affichage habituel de liens relatifs aux requêtes posées. Mais si vous pensez que cet outil a la capacité de remplacer les moteurs de recherche, eh bien, ce n'est pas tout à fait ce que pensent les experts de Google et ceux liés aux secteurs de l'IA et de la recherche.

    Il y a beaucoup d'inexactitudes liées à des outils comme ChatGPT et au type de réponses qu'il donne. Il n'y a donc aucun signe de remplacement complet de Google Search pour le moment.

    Nom : moteur-de-recherche-alternatif-a-google.jpg
Affichages : 4279
Taille : 24,7 Ko

    Mais comment exactement ChatGPT a-t-il atteint le statut de code rouge par Google ?

    D'après le New York Times, le méga-succès de ChatGPT est tel que beaucoup de personnes se sont grattées la tête. Les gens l'ont vu comme un autre moyen d'effectuer des recherches en ligne. Il s'agit là d'une menace massive pour des entreprises comme Google et bien d'autres, et c'est pourquoi l'alarme incendie a été déclenchée.

    C'est un moment que les membres de l'entreprise de la Silicon Valley redoutaient depuis le premier jour - l'arrivée d'un énorme changement technologique qui pourrait vraiment paralyser l'entreprise. Les réunions se sont succédé entre les cadres supérieurs et le PDG sur la marche à suivre et le plan d'action à préparer pour lutter contre de tels changements dans le secteur.

    Le géant technologique lancera bientôt son propre moteur de recherche alimenté par l'IA et doté d'une fonction de chatbot, ainsi que 20 autres produits. N'oubliez pas que Google connaît l'énorme puissance de la technologie de l'IA. Ce n'est pas quelque chose de nouveau pour l'entreprise. Après tout, elle est propriétaire d'un laboratoire d'IA appelé Deep Mind, qu'elle a acheté il y a près de dix ans.

    Dans le même temps, Google a une série d'autres plans impliquant l'utilisation de la technologie d'IA pour lancer des programmes de création d'images et ceux liés au développement d'applications. Comme vous pouvez le constater, de nombreux efforts sont déployés pour éviter que l'entreprise ne soit éliminée par des entreprises comme ChatGPT et d'autres.

    Source : New York Times

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi :

    Google prépare sa réponse à ChatGPT : développé par sa filiale DeepMind, Sparrow passera en bêta privée plus tard cette année, contrairement à l'IA d'OpenAI, ce dernier devrait citer ses sources

    Google lance une alerte rouge à ses équipes pour le développement d'un concurrent à ChatGPT, l'IA qui menace son moteur de recherches, et les postes des développeurs informatiques humains

    DeepMind, la filiale de Google spécialisée dans l'IA, annonce qu'elle lancera bientôt un concurrent de ChatGPT, et affirme que son système est plus avancé et réduit le risque de réponses toxiques

    La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA, ChatGPT menace l'activité de recherche de Google évaluée à 149 milliards de dollars
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #124
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 257
    Points : 903
    Points
    903
    Par défaut
    Citation Envoyé par AoCannaille Voir le message
    Intéressant, et effectivement intriguant si c'est vrai. Source?
    Ce sont des Kenyans qui ont été employés par OpenAI. Je te laisse te faire ton propre avis, cherche sur Google "OpenAI Kenyan".

    Je t'avoue que je trouvais ça complètement loufoque moi-même.

  5. #125
    Nouveau membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Avril 2015
    Messages
    12
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Avril 2015
    Messages : 12
    Points : 31
    Points
    31
    Par défaut
    ChatGPT n'extrait pas la Vérité d'internet, mais uniquement le contenu majoritaire, ce qui n'en fait pas une vérité.
    Ayant essayer le chatbot, il ne me semble pas que les réponses procède d'une moyenne du contenu d'internet. Je pense que le contenu est supervisée, on est d'accord qu'il lui arrive effectivement de se faire des erreurs surtout quand on l'induit en erreur, mais quand on pose bien une question les erreurs sont moins présentes.

  6. #126
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 413
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 413
    Points : 4 734
    Points
    4 734
    Par défaut
    Citation Envoyé par faradiel Voir le message
    Ayant essayer le chatbot, il ne me semble pas que les réponses procède d'une moyenne du contenu d'internet. Je pense que le contenu est supervisée, on est d'accord qu'il lui arrive effectivement de se faire des erreurs surtout quand on l'induit en erreur, mais quand on pose bien une question les erreurs sont moins présentes.
    Tout à fait, l'aspect "moyenne du contenu" est clairement compensé maintenant par des mécanismes supplémentaires. Mais son concept, à la base, n'a jamais été d'extraire la vérité. C'est un générateur de langage naturel, il a été entrainé à générer une réponse en langage naturel, point barre.

  7. #127
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 441
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 441
    Points : 197 509
    Points
    197 509
    Par défaut ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres
    ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres,
    les professeurs estiment que cela pourrait signaler la fin des méthodes d'enseignement traditionnelles en classe

    ChatGPT a réussi des examens dans une faculté de droit américaine après avoir rédigé des essais sur des sujets allant du droit constitutionnel à la fiscalité et aux délits. Sur plus de 95 questions à choix multiples et 12 questions à développement, ChatGPT a obtenu une note de C+, faible mais suffisante pour réussir l'examen. Après avoir donné des détails sur ces résultats, les professeurs ont discuté de leurs implications pour la formation juridique et la profession d'avocat. Ils ont entre autres prévenu que cela pourrait conduire à une fraude généralisée et même signaler la fin des méthodes d'enseignement traditionnelles en classe. Ils ont aussi fourni des exemples d'invites et des conseils sur la façon dont ChatGPT peut aider à la rédaction juridique.

    ChatGPT ne peut pas encore surpasser la plupart des étudiants en droit aux examens, selon de nouvelles recherches, mais il peut obtenir une note de passage. Un quatuor de professeurs de droit de l'Université du Minnesota a utilisé le populaire chatbot d'intelligence artificielle pour générer des réponses aux examens de quatre cours le semestre dernier, puis les a notés à l'aveugle aux côtés des tests des étudiants réels.

    Jonathan Choi, professeur à la faculté de droit de l'Université du Minnesota, a soumis à ChatGPT au même test auquel les étudiants étaient confrontés, composé de 95 questions à choix multiples et de 12 questions à développement. Dans un livre blanc intitulé « ChatGPT va à la faculté de droit » publié lundi, lui et ses coauteurs ont rapporté que le bot avait obtenu un C+ dans l'ensemble, en dessous de la moyenne B+ des humains.

    « Seul, ChatGPT serait un étudiant en droit plutôt médiocre », a déclaré l'auteur principal de l'étude, Jonathan Choi, qui a collaboré avec les professeurs Kristin Hickman, Amy Monahan et Daniel Schwarcz. « Le plus grand potentiel pour la profession ici est qu'un avocat puisse utiliser ChatGPT pour produire une première ébauche et simplement rendre sa pratique beaucoup plus efficace », a-t-il déclaré.

    Choi a déclaré que lui et de nombreux collègues avaient désormais interdit l'utilisation d'Internet pendant les examens en classe pour éliminer la possibilité de tricher avec ChatGPT, bien que les futurs examens puissent tester leur capacité à tirer efficacement parti des programmes d'intelligence artificielle.

    La performance de ChatGPT dans le détail

    Voici ce que les professeurs ont noté :

    Bien qu'il ait obtenu des performances suffisantes pour obtenir théoriquement un diplôme d'avocat, ChatGPT a généralement obtenu un score au niveau ou près du bas de chaque classe. ChatGPT a reçu un B en droit constitutionnel (36e sur 40 étudiants), un B- en avantages sociaux (18e sur 19 étudiants), un C- en fiscalité (66e sur 67 étudiants) et un C- en responsabilité civile (75e sur 75 étudiants).

    En général, ChatGPT a obtenu de meilleurs résultats sur les composants de rédaction des examens que sur le choix multiple.

    En ce qui concerne les essais, les performances de ChatGPT étaient très inégales. Dans certains cas, elle correspondait à, ou même dépassait, la performance moyenne de vrais étudiants. D'un autre côté, lorsque les questions à développement de ChatGPT étaient incorrectes, elles étaient dramatiquement incorrectes, obtenant souvent les pires scores de la classe. Il n'est peut-être pas surprenant que ce résultat soit particulièrement probable lorsque les questions à développement obligeaient les étudiants à évaluer ou à s'appuyer sur des cas, des théories ou des doctrines spécifiques abordés en classe.

    En ce qui concerne les questions à choix multiples, ChatGPT a généralement obtenu des résultats inférieurs à ceux des essais, mais toujours statistiquement nettement meilleurs que le hasard. Il a répondu correctement à 21 questions à choix multiples sur 25 à l'examen de droit constitutionnel (p = 0,000)* et à 6 sur 10 à l'examen de responsabilité délictuelle (p = 0,020). Cependant, ChatGPT a obtenu des résultats bien pires sur les questions impliquant des mathématiques, qui apparaissaient exclusivement à l'examen sur la fiscalité et ont fait baisser son score. Lors de l'examen sur la fiscalité, ChatGPT n'a répondu correctement qu'à 8 des 29 questions mathématiques, essentiellement pas mieux que le hasard (p = 0,443). Il a répondu correctement à 16 des 31 questions non mathématiques (y compris les questions impliquant des nombres mais sans raisonnement mathématique), nettement mieux que le hasard (p = 0,001). ChatGPT avait également tendance à mieux performer sur les questions à choix multiples qui impliquaient des règles juridiques relativement uniformes dans toutes les juridictions, plutôt que des doctrines qui pouvaient varier considérablement d'une juridiction ou d'un tribunal à l'autre.

    * : Toutes les valeurs de p ont été générées à l'aide du bootstrap. L'examen de droit constitutionnel avait 5 choix par question, tandis que les examens de fiscalité et de responsabilité civile avaient 4 choix par question.

    Lors de la rédaction d'essais, ChatGPT a montré une solide compréhension des règles juridiques de base et avait une organisation et une composition toujours solides. Cependant, il a eu du mal à identifier les problèmes pertinents et n'a souvent appliqué que superficiellement les règles aux faits par rapport aux vrais étudiants en droit.

    Nom : constitu.png
Affichages : 4077
Taille : 49,1 Ko

    ChatGPT a fait un bon travail en résumant avec précision les doctrines juridiques appropriées et en citant correctement les faits et les conclusions de cas spécifiques. Dans de nombreux cas, il a pu se concentrer sur les doctrines juridiques pertinentes sans incitation spécifique par la question. Par exemple, en réponse à un essai sur le droit de la responsabilité délictuelle impliquant un propriétaire qui a érigé une décoration d'Halloween dangereuse qui a blessé une personne participant à l'évènement [des bonbons ou un sort ?], il a non seulement précisé les éléments familiers de la négligence (devoir, violation, causalité et dommages), mais aussi a correctement spécifié que le propriétaire - qu'il a identifié par son nom - « a l'obligation légale de maintenir sa propriété dans un état raisonnablement sûr pour ceux qui sont invités ou autorisés à se trouver sur la propriété ».

    ChatGPT a tout aussi bien réussi à énoncer des règles juridiques largement pertinentes sur des sujets relativement techniques qui sont probablement moins bien attestés dans le corpus de formation (par exemple, les avantages sociaux), par opposition à des sujets relativement courants (par exemple, la responsabilité civile). Lors de l'examen des avantages sociaux des employés, ChatGPT a été en mesure de fournir une explication solide de la disposition de préemption notoirement difficile de l'ERISA, citant à la fois un langage législatif spécifique et des décisions pertinentes de la Cour suprême élucidant cette norme. ChatGPT a même dépassé la moyenne de la classe lorsqu'il a répondu à une question à réponse courte impliquant les règles hautement techniques des transactions interdites de l'ERISA.

    ChatGPT est connu pour « halluciner » en fabriquant des faits, mais dans notre étude, il ne l'a généralement pas fait, peut-être parce que nos invites ont demandé à ChatGPT de ne pas fabriquer de cas et (lorsque la question de l'examen l'exige) que nous lui avons fourni un univers spécifique de cas avec lesquels travailler. ChatGPT était également bon pour maintenir le ton requis par l'essai. Par exemple, en réponse à une question à développement sur le droit constitutionnel demandant une réponse sous la forme d'une note à l'avocat évaluant les réclamations potentielles, la réponse du ChatGPT a conservé le ton et le format appropriés tout au long.

    Les réponses à l'essai de ChatGPT étaient généralement claires et bien conçues, peut-être même de manière suspecte par rapport à de vrais étudiants écrivant un examen limité dans le temps. Stylistiquement, ChatGPT a produit du texte sans erreurs grammaticales ni fautes de frappe. Il a également bien structuré les phrases et les paragraphes, bien que de manière formelle, avec des phrases d'introduction et des conclusions. Peut-être parce que nous avons incité ChatGPT à rédiger des essais plus longs section par section, il avait une bonne organisation de haut niveau et était relativement clair sur la séparation des points pertinents dans son argumentation. Par exemple, sa réponse à une hypothèse de responsabilité du fait des produits a analysé séparément trois réclamations potentielles (conception défectueuse, avertissement défectueux et batterie), deux recours potentiels (dommages-intérêts compensatoires et punitifs) et la question ultime contenue dans l'invite de rédaction concernant la question de savoir si un le tribunal doit faire droit aux requêtes en rejet des défendeurs.

    Faiblesses dans les rédactions d'essais

    Cependant, les réponses dans les essais de ChatGPT contenaient également des problèmes et des erreurs constants qui, cumulativement, en faisaient un élève bien pire que la moyenne. ChatGPT avait souvent du mal à détecter les problèmes lorsqu'il recevait une invite ouverte, une compétence essentielle aux examens des facultés de droit. Par exemple, dans le problème de droit constitutionnel (un sujet dans lequel il a par ailleurs relativement bien performé), il n'a clairement identifié qu'un seul problème sur 5. De même, dans un essai sur le droit de la responsabilité délictuelle, ChatGPT n'a pas réussi à identifier les théories distinctes de la négligence les faits.

    ChatGPT était également mauvais pour se concentrer sur ce qui comptait ; il produirait de bonnes réponses sur le sujet à une question, puis irait complètement hors sujet pour la question suivante, comme avec ses résultats très divergents sur les observateurs des problèmes des avantages sociaux des employés. Par exemple, dans une longue question à développement impliquant des recours disponibles en vertu de l'ERISA, ChatGPT n'a pas discuté de la question principale (si un recours souhaité était en fait disponible en vertu de l'ERISA) et a plutôt passé du temps à discuter des causes d'action ERISA qui n'étaient pas pertinentes pour les faits, ainsi qu'une cause d'action en droit de l'État qui était bien en dehors du champ d'application d'un cours sur les avantages sociaux des employés.

    Et bien que ChatGPT ait bien réussi certaines réponses techniques courtes à l'examen des avantages sociaux des employés, il a également manqué des problèmes apparemment faciles. Dans une question à réponse courte impliquant le droit de continuer à être couvert par un régime de santé de l'employeur, ChatGPT a manqué un problème relativement facile à repérer - que l'employeur en question n'était pas soumis aux exigences de couverture de continuation de l'ERISA parce qu'il était en dessous du seuil de taille pertinent. En conséquence, les performances de ChatGPT avaient tendance à être très inégales, obtenant un score proche ou même supérieur à la moyenne sur certaines questions, et proche de zéro sur d'autres questions.

    L'un des plus gros problèmes avec les essais de ChatGPT était qu'ils n'entraient pas suffisamment dans les détails lors de l'application des règles juridiques aux faits contenus dans les hypothèses d'examen. Dans de nombreux cas (mais pas toujours), ChatGPT a énoncé avec précision la règle juridique pertinente et (le cas échéant) a cité le cas correct, mais n'a pas expliqué comment le cas s'appliquait aux faits hypothétiques de l'examen. C'était un problème particulier sur les délits et le droit constitutionnel, et l'une des raisons de la mauvaise performance de ChatGPT à ces examens.

    Par exemple, dans Torts, ChatGPT a correctement écrit que la responsabilité dépendrait de la question de savoir si les actions d'un défendeur étaient la cause d'une blessure, mais n'a pas évalué si les faits de l'examen hypothétique suggéraient l'existence d'une telle causalité (factuelle ou immédiate). En droit constitutionnel, bien que ChatGPT ait correctement identifié un problème de clause de nomination et cité certains des bons cas, ChatGPT n'a pas énoncé les normes juridiques pertinentes pour évaluer le problème, identifié les faits soulevés ou analysé ces faits pour parvenir à une conclusion. Peut-être parce qu'OpenAI a utilisé RLHF pour empêcher ChatGPT de faire des déclarations fortes et pour embrasser l'incertitude, ChatGPT était parfois excessivement méfiant, refusant de faire un argument sur l'interprétation la plus plausible des faits pertinents lorsque ces faits pointaient potentiellement dans des directions concurrentes.

    ChatGPT a également parfois mal compris les termes techniques contenus dans les examens. Par exemple, il a mal compris le terme "paiement forfaitaire" dans l'examen des avantages sociaux, peut-être parce que ChatGPT est un modèle de langage à usage général et que l'expression n'est pas largement utilisée en dehors de certains paramètres financiers.

    Conclusion

    Le très populaire ChatGPT a fait ses débuts fin novembre et est gratuit pour les utilisateurs. Il génère des réponses basées sur les demandes des utilisateurs et des montagnes de données, y compris des textes juridiques.

    D'autres universitaires en droit ont également expérimenté le programme. Le doyen en droit de l'Université de Suffolk, Andrew Perlman, a co-écrit un article scientifique avec le programme en décembre. Deux autres professeurs de droit ont demandé à ChatGPT de répondre aux questions à choix multiples de l'examen du barreau. Il n'a pas réussi mais a mieux fonctionné que prévu.

    Source : livre blanc « ChatGPT va à l'école de droit »

    Voir aussi :

    ChatGPT réussit un examen de MBA donné par un professeur de l'université de Pennsylvannie après un d'informatique pour élèves du secondaire désireux d'obtenir des crédits universitaires US
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #128
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 441
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 441
    Points : 197 509
    Points
    197 509
    Par défaut Amazon intime aux employés de ne pas partager d'informations confidentielles avec ChatGPT
    Amazon intime aux employés de ne pas partager d'informations confidentielles avec ChatGPT,
    suite à des cas où sa réponse "correspond étroitement au matériel existant" de l'intérieur de l'entreprise

    Après avoir capturé des extraits de texte générés par le puissant outil ChatGPT d'OpenAI qui ressemblaient beaucoup à des secrets d'entreprise, Amazon essaie maintenant d'empêcher ses employés de divulguer quoi que ce soit d'autre à l'algorithme.

    Selon les messages internes de Slack qui ont été divulgués à Insider, un avocat d'Amazon a déclaré aux travailleurs qu'ils avaient « déjà vu des exemples » de texte généré par ChatGPT qui ressemblaient « étroitement » aux données internes de l'entreprise. Ce problème semble avoir atteint son paroxysme récemment parce que les employés d'Amazon et d'autres techniciens de l'industrie ont commencé à utiliser ChatGPT comme une sorte « d'assistant de codage » pour les aider à écrire ou à améliorer des chaînes de code, note le rapport.

    Bien que ce ne soit pas nécessairement un problème du point de vue des données propriétaires, c'est une autre histoire lorsque les employés commencent à utiliser l'IA pour améliorer le code interne existant - ce qui se produit déjà, selon l'avocat.

    « Ceci est important car vos entrées peuvent être utilisées comme données de formation pour une nouvelle itération de ChatGPT », a écrit l'avocat dans les messages Slack consultés par Insider, « et nous ne voudrions pas que sa sortie inclue ou ressemble à nos informations confidentielles ».

    L'avocat a également révélé, selon Insider, qu'Amazon développait une « technologie similaire » à ChatGPT - une révélation qui a semblé piquer l'intérêt des employés qui ont déclaré que l'utilisation de l'IA pour aider à l'écriture de code avait décuplé la productivité. « S'il existe une initiative en cours pour créer un service similaire », a déclaré un employé dans les échanges Slack, « je serais intéressé à consacrer du temps pour aider à la développer si nécessaire ».

    Alors que d'autres industries s'agitent et s'agitent à l'idée d'être remplacées par l'IA, les travailleurs de la technologie sont apparemment plus enclins à l'accueillir comme un outil de codage utile, au grand désarroi des avocats de leurs employeurs.

    Une situation qui pourrait rappeler celle avec Copilot

    Copilot a été lancé en fin juin dans le cadre d'une Preview technique sur invitation uniquement, promettant de faire gagner du temps en répondant au code des utilisateurs par ses propres suggestions intelligentes. Ces suggestions sont basées sur des milliards de lignes de code public dont les utilisateurs ont publiquement contribué à GitHub, en utilisant un système d'IA appelé Codex de la société de recherche OpenAI.

    GitHub décrit Copilot comme l'équivalent IA de la « programmation en paire », dans laquelle deux développeurs travaillent ensemble sur un seul ordinateur. L'idée est qu'un développeur peut apporter de nouvelles idées ou repérer des problèmes que l'autre développeur aurait pu manquer, même si cela nécessite plus d'heures de travail.

    Dans la pratique, cependant, Copilot est plutôt un outil utilitaire de gain de temps, qui intègre les ressources que les développeurs devraient autrement chercher ailleurs. Lorsque les utilisateurs saisissent des données dans Copilot, l'outil leur suggère des extraits de code à ajouter en cliquant sur un bouton. Ainsi, ils n'ont pas à passer du temps à chercher dans la documentation de l'API ou à rechercher des exemples de code sur des sites spécialisés.

    Un réseau neuronal dans GitHub Copilot est entraîné à l'aide de volumes massifs de données, constituées du code : des millions de lignes téléchargées par les 65 millions d'utilisateurs de GitHub, la plus grande plateforme au monde permettant aux développeurs de collaborer et de partager leur travail. Le but est que Copilot en apprenne suffisamment sur les modèles de code pour pouvoir faire du hacking lui-même. Il peut prendre le code incomplet d'un partenaire humain et terminer le travail en ajout les parties manquantes. Dans la plupart des cas, il semble réussir à le faire. GitHub prévoit de vendre l'accès à l'outil aux développeurs.

    Nom : copilot.png
Affichages : 4579
Taille : 84,2 Ko

    Comme pour la plupart des outils d'IA, GitHub souhaite également que Copilot devienne plus intelligent au fil du temps en fonction des données qu'il collecte auprès des utilisateurs. Lorsque les utilisateurs acceptent ou rejettent les suggestions de Copilot, son modèle d'apprentissage automatique utilisera ce retour d'information pour améliorer les suggestions futures, de sorte que l'outil deviendra peut-être plus humain à mesure qu'il apprendra.

    Et Matthieu Butterick, qui porte les casquettes d'écrivain, designer, développeur et avocat, d'expliquer :

    Citation Envoyé par Matthieu Butterick
    GitHub Copilot est un produit lancé par Microsoft en juin 2022 après une Preview technique d'un an. Copilot est un plug-in pour Visual Studio et d'autres EDI qui produit ce que Microsoft appelle des « suggestions » basées sur ce que vous tapez dans l'éditeur.

    Qu'est-ce qui différencie Copilot de la saisie semi-automatique traditionnelle ? Copilot est alimenté par Codex, un système d'IA créé par OpenAI et sous licence Microsoft. (Bien que Microsoft ait également été appelée « le propriétaire non officiel d'OpenAI »). Copilot propose des suggestions basées sur des invites de texte tapées par l'utilisateur. Copilot peut être utilisé pour de petites suggestions, par exemple jusqu'à la fin d'une ligne, mais Microsoft a mis l'accent sur la capacité de Copilot à suggérer des blocs de code plus volumineux, comme le corps entier d'une fonction.

    Mais comment le Codex, le système d'IA sous-jacent, a-t-il été formé ? Selon OpenAI, Codex a été formé sur « des dizaines de millions de référentiels publics », y compris du code sur GitHub. Microsoft elle-même a vaguement décrit le matériel de formation comme « des milliards de lignes de code public ». Mais le chercheur de Copilot, Eddie Aftandilian, a confirmé dans un podcast récent (@ 36:40) que Copilot est « formé sur les dépôts publics sur GitHub ».
    Matthieu Buttherick a évoqué en juin 2022 les problèmes juridiques liés au fonctionnement de GitHub Copilot, « en particulier sa mauvaise gestion des licences open source ». Récemment, il a revêtu sa casquette d'avocat pour s'associer à des confrères plaideurs en recours collectif. Ensemble, ils ont enquêté sur une poursuite potentielle contre GitHub Copilot pour violation de ses obligations légales envers les auteurs open source et les utilisateurs finaux. Au terme de cette enquête lancée en octobre, ils ont déposé une plainte contre GitHub Copilot :

    Aujourd'hui, nous avons déposé un recours collectif devant le tribunal fédéral américain de San Francisco, en Californie, au nom d'un groupe proposé de millions d'utilisateurs de GitHub. Nous contestons la légalité de GitHub Copilot (et d'un produit connexe, OpenAI Codex, qui alimente Copilot). La poursuite a été déposée contre un ensemble de défendeurs qui comprend GitHub, Microsoft (propriétaire de GitHub) et OpenAI.

    En formant leurs systèmes d'IA sur des référentiels publics GitHub (bien que basés sur leurs déclarations publiques, peut-être bien plus), nous soutenons que les accusés ont violé les droits légaux d'un grand nombre de créateurs qui ont publié du code ou d'autres travaux sous certaines licences open source sur GitHub. Quelles licences ? Un ensemble de 11 licences open source populaires qui nécessitent toutes l'attribution du nom de l'auteur et des droits d'auteur, y compris la licence MIT, la GPL et la licence Apache. (Celles-ci sont énumérées dans l'annexe à la plainte.)
    Source : Slack Amazon

    Et vous ?

    Êtes-vous surpris de voir des informations confidentielles circuler suite à l'utilisation de ChatGPT ?
    Un cas de figure que vous aviez anticipé ?
    Quelle serait, selon vous, la meilleure réponse qu'Amazon (dans le cas d'espèce) ou une autre entreprise (de façon plus générale) pourrait apporter à l'utilisation de ce type d'outil par ses collaborateurs ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #129
    Membre éprouvé
    Homme Profil pro
    Administrateur Systèmes, Clouds et Réseaux /CAO/DAO/Ingénierie Electrotechnique
    Inscrit en
    Décembre 2014
    Messages
    448
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 46
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Administrateur Systèmes, Clouds et Réseaux /CAO/DAO/Ingénierie Electrotechnique

    Informations forums :
    Inscription : Décembre 2014
    Messages : 448
    Points : 990
    Points
    990
    Par défaut
    Suis je le seul à ne pas m'emballer ?

    Par contre je loue le tour de force de récupérer un max de données de gens qui doivent s'inscrire pour essayer... En plus avec consentement total.

  10. #130
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par AoCannaille Voir le message
    Pour rappel, ChatGPT ne raconte rien de pertinent. jamais. Il n'a pas été conçu comme ça. C'est un modèle de langage : il est entrainé à générer du texte qui est habituellement présent dans les textes appris autour des notions proposés dans les questions.
    .
    Faux : Ce n'est absolument pas comme ça que fonctionne un modèle de langage.

    Un modèle de langage, dans le cas de chatGPT, se sert d'algorithmes de poids, entre autres, qui de fait, n'a aucun rapport avec des textes appris, mais avec des relations statistiques entre les mots selon des relations de variances et covariances.

    Un modèle de langage, ce n'est pas un IA, qui est construit à partir de connaissances générales, mais à partir de relations purement statistiques.
    Les connaissances d'un modèle de langage et un modèle de langage, sont deux choses totalement distinctes.

    Tu pourrais très bien avoir un modèle de langage reliée à aucune connaissance, exemple : des relations entres une forme de langage induite par des atomes.
    Il est donc là, JUSTEMENT pour dire des choses pertinentes, le problème actuel, c'est que la notion de pertinence est relative, et est confondable avec crédible

  11. #131
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur
    Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur
    il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

    Springer Nature, qui publie des milliers de revues scientifiques, a annoncé cette semaine que ChatGPT - ou tout système similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce intervient à un moment où le débat sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA s'intensifie, mais aussi après les déboires du média d'information CNET avec son IA interne de génération de texte.

    Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition et le journalisme. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980. Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes "originaux". Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.

    Mais alors que les chercheurs plongent dans le nouveau monde courageux des chatbots d'IA avancés, Springer Nature a déclaré cette semaine que les éditeurs doivent reconnaître leurs utilisations légitimes et établir des directives claires pour éviter les abus. L'entreprise a annoncé que des logiciels tels que ChatGPT ne pouvaient pas être crédités en tant qu'auteurs dans les articles publiés dans ses milliers de revues. Toutefois, Springer affirme qu'elle n'a aucun problème à ce que les scientifiques utilisent l'IA pour les aider à rédiger ou à générer des idées pour la recherche. Cela dit, cette contribution doit être correctement divulguée par les auteurs.

    Nom : oklij.png
Affichages : 3988
Taille : 360,6 Ko

    « Nous nous sommes sentis obligés de clarifier notre position pour nos auteurs, pour nos éditeurs et pour nous-mêmes. Cette nouvelle génération d'outils LLM - y compris ChatGPT - a vraiment explosé dans la communauté, qui est à juste titre enthousiaste et joue avec eux, mais également les utilise d'une façon qui va au-delà de la manière dont ils peuvent véritablement être utilisés à l'heure actuelle », explique à The Verge Magdalena Skipper, rédactrice en chef de la publication phare de Springer Nature, Nature. ChatGPT et les grands modèles de langage précédents ont déjà été cités comme auteurs dans un petit nombre d'articles publiés.

    Cependant, la nature et le degré de la contribution de ces outils varient au cas par cas. Il faut le dire tout de suite, les réponses de ChatGPT ne sont pas parfaites, et il fait encore de nombreuses erreurs de base. Dans un article d'opinion publié dans la revue Oncoscience, ChatGPT a été utilisé pour plaider en faveur de la prise d'un certain médicament dans le contexte du pari de Pascal, le texte généré par l'IA étant clairement identifié. Mais dans un article préimprimé examinant la capacité du robot à réussir l'examen de licence médicale des États-Unis (USMLE), il a juste été indiqué que "ChatGPT a contribué à rédiger des sections du manuscrit".

    Jack Po, le PDG de la société qui a financé la recherche, la startup de soins de santé Ansible Health, a soutenu que le chatbot a apporté des contributions importantes. « La raison pour laquelle nous avons cité [ChatGPT] comme auteur est que nous pensons qu'il a réellement contribué intellectuellement au contenu de l'article et pas seulement comme sujet pour son évaluation », a-t-il déclaré. Mais la réaction de la communauté scientifique aux articles mentionnant ChatGPT comme auteur a été essentiellement négative, les utilisateurs des médias sociaux qualifiant la décision dans le cas de l'USMLE d'"absurde", d'"idiote" et de "profondément stupide".

    L'Office britannique de la propriété intellectuelle a annoncé en juin de l'année dernière que les IA ne peuvent pas être mentionnées comme inventeurs sur les brevets. « Pour les inventions conçues par l'IA, nous ne prévoyons aucun changement dans la législation britannique sur les brevets. La plupart des répondants estiment que l'intelligence artificielle n'est pas encore assez avancée pour inventer sans intervention humaine. Mais nous garderons ce domaine du droit à l'étude pour nous assurer que le système de brevets britannique soutient l'innovation en matière d'intelligence artificielle et l'utilisation de l'IA au Royaume-Uni », a-t-elle déclaré.

    Les arguments contre l'attribution de la paternité à l'IA sont que les logiciels ne peuvent tout simplement pas remplir les fonctions requises. « Lorsque nous pensons à la paternité des articles scientifiques, des articles de recherche, nous ne pensons pas seulement à leur rédaction. Il y a des responsabilités qui vont au-delà de la publication, et il est certain qu'à l'heure actuelle, ces outils d'IA ne sont pas capables d'assumer ces responsabilités », note Skipper. Selon l'éditeur Springer Nature, un logiciel ne peut pas être significativement responsable d'une publication et ne peut pas revendiquer les droits de propriété intellectuelle de son travail.

    En outre, il ne peut pas correspondre avec d'autres scientifiques et la presse pour expliquer et répondre aux questions sur son travail. De plus, les IA de génération de texte peuvent amplifier les préjugés sociaux, notamment le sexisme et le racisme, et ont tendance à produire des "conneries plausibles", c'est-à-dire des informations incorrectes présentées comme des faits. CNET, un média qui couvre les nouvelles technologies, a récemment payé les frais pour avoir publié, sans révision, des articles générés par son IA interne de génération de texte, ce qui a suscité un tollé. CNET a ensuite découvert des erreurs dans plus de la moitié des articles publiés.

    C'est en raison de problèmes de ce type que certaines organisations ont interdit ChatGPT, notamment des écoles, des collèges et des sites qui dépendent du partage d'informations fiables, comme Stack Overflow. Au début du mois, une conférence universitaire de premier plan sur l'apprentissage automatique a interdit l'utilisation de tous les outils d'IA pour rédiger des articles, tout en précisant que les auteurs pouvaient utiliser ces logiciels pour "peaufiner" et "modifier" leurs travaux. Il est difficile de savoir exactement où se situe la limite entre la rédaction et l'édition, mais pour Springer Nature, ce cas d'utilisation est également acceptable.

    Les outils d'IA peuvent non seulement générer et paraphraser des textes, mais aussi itérer la conception d'expérience ou être utilisés pour échanger des idées, comme un partenaire de laboratoire. Un système d'IA, comme Semantic Scholar, peut être utilisé pour rechercher des articles de recherche et résumer leur contenu. Skipper note qu'une autre possibilité consiste à utiliser les outils de rédaction de l'IA pour aider les chercheurs dont l'anglais n'est pas la langue maternelle. « Il peut s'agir d'un outil de nivellement de ce point de vue », dit-elle. Enfin, Skipper estime qu'interdire les outils d'IA dans les travaux scientifiques serait inefficace.

    « Je pense que nous pouvons affirmer sans risque de nous tromper que l'interdiction pure et simple de quoi que ce soit ne fonctionne pas. Au lieu de cela, la communauté scientifique - y compris les chercheurs, les éditeurs et les organisateurs de conférences - doit se réunir pour élaborer de nouvelles normes de divulgation et des garde-fous pour la sécurité », dit-elle. En attendant, ChatGPT gagne du terrain et pourrait bientôt débarquer dans les outils de productivité de Microsoft, notamment sa suite bureautique Office. Des sources ont rapporté que la firme de Redmond pourrait s'appuyer sur ChatGPT pour muscler les logiciels tels que Word et Excel.

    Source : Springer Nature

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Craignant des problèmes de droits d'auteur, Getty Images interdit les œuvres d'art générées par l'IA. Certains artistes dont le travail a été spolié ont appelé à l'établissement de nouvelles lois

    Une artiste reçoit le premier enregistrement américain connu de droits d'auteur pour une œuvre d'art générée par l'IA,, pendant que se tient un vif débat en ligne sur l'éthique de l'art de l'IA

    Qui est le propriétaire du produit d'une intelligence artificielle ? Peut-on s'attribuer (par protection) les droits d'auteur d'une œuvre produite par une IA ?

    L'Office britannique de la propriété intellectuelle décide que les IA ne peuvent pas être mentionnées comme inventeurs, sur des brevets
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #132
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 434
    Points
    158 434
    Par défaut Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours après sa création en novembre 2022
    Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines

    Chat GPT, l'outil d'IA conversationnelle développé par Open AI, a franchi une étape majeure dans sa courte histoire. Selon des rapports récents, Chat GPT a atteint un million d'utilisateurs cinq jours seulement après sa création en novembre 2022. Il s'agit d'un exploit impressionnant, surtout si on le compare à d'autres plateformes en ligne populaires qui ont mis plus de temps à atteindre une marque similaire.

    Chat GPT est un outil d'IA qui peut construire du texte naturel, ce qui le rend raisonnable pour un large éventail d'applications. La plateforme a été utilisée pour rédiger de brefs récits, de la prose, de la musique, des documents trimestriels, des codes de programmation, résoudre des problèmes mathématiques, reformuler et expliquer. La capacité de l'outil à imiter le langage humain en a fait un choix populaire parmi les utilisateurs, et son potentiel pour remplacer les personnes dans les emplois de cols blancs a même attiré l'attention du fondateur de Microsoft, Bill Gates.

    Nom : largest-tech-layoffs-since-2020.png
Affichages : 61385
Taille : 121,5 Ko

    Un autre avantage clé de cette nouvelle technologie d'IA est sa capacité à produire des réponses naturelles, ce qui en fait une alternative appropriée pour le service clientèle et les chatbots dans diverses entreprises. Cela peut aider les organisations à économiser du temps et des ressources tout en offrant une expérience plus personnalisée aux clients. En outre, cette technologie évolutive peut également être utilisée dans divers domaines de recherche, tels que le traitement du langage naturel et le développement de l'IA.

    Microsoft a récemment confirmé une énorme acquisition d'Open AI, les créateurs de Chat GPT. Cet investissement témoigne des possibilités de la technologie, et il est probable que les cas d'utilisation du Chat GPT seront bientôt encore plus nombreux, comme l'a souligné Bill Gates.

    Nom : Portada-1080x675.jpg
Affichages : 11291
Taille : 32,0 Ko

    Différentes plateformes/services de médias sociaux très répandus, tels qu'Instagram, Spotify et Dropbox, ont également atteint la barre du million d'utilisateurs, mais il leur a fallu plus de temps pour y parvenir. Instagram a franchi cette étape majeure en seulement 2,5 mois. De même, des plateformes telles que Spotify et Dropbox ont atteint le million d'utilisateurs en 5 et 7 mois, respectivement.

    Netflix, après son lancement en 1999, a mis près de trois ans pour atteindre ce cap, que Chat GPT vient d'atteindre dans les 5 jours suivant son lancement. Cela montre à quel point les services en ligne peuvent atteindre les utilisateurs beaucoup plus rapidement aujourd'hui qu'il y a 15 ans. L'augmentation de l'utilisation d'Internet au fil des ans a permis aux services en ligne d'atteindre plus facilement plus d'utilisateurs, et le Chat GPT ne fait pas exception.

    En conclusion, le succès rapide du Chat GPT témoigne des possibilités offertes par la technologie de l'IA, et il est probable que l'on verra bientôt encore plus de cas d'utilisation de cette technologie. Cette adoption rapide peut être attribuée à sa capacité à faire gagner du temps et à rationaliser diverses tâches.

    Qu'il s'agisse de rédiger de brèves histoires, de la prose, de la musique ou des travaux de fin d'études, de programmer du code de base, de résoudre des problèmes mathématiques ou de faire des traductions, Chat GPT peut accomplir des tâches rapidement et efficacement, ce qui permet aux utilisateurs de se concentrer sur des aspects plus importants de leur travail. La capacité de l'entreprise à atteindre un million d'utilisateurs en seulement cinq jours est une réussite impressionnante et montre la demande pour ce type de technologie. Avec le soutien d'acteurs majeurs comme Microsoft, l'avenir semble prometteur pour Chat GPT et ses utilisateurs.

    Source : Statista

    Et vous ?

    Trouvez-vous ce rapport pertinent ?
    Que pensez-vous de Chat GPT et de son adoption rapide par les utilisateurs ?

    Voir aussi :

    Microsoft et OpenAI travailleraient sur une version du moteur de recherche Bing intégrant le chatbot d'IA ChatGPT afin de défier Google, elle pourrait être lancée avant la fin du mois de mars

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

    Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

    La version professionnelle de ChatGPT est maintenant disponible et coûte 42 dollars par mois, mais beaucoup critiquent ce prix et le jugent "trop élevé pour les utilisateurs occasionnels"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #133
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 441
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 441
    Points : 197 509
    Points
    197 509
    Par défaut ChatGPT : Hive Moderation se lance à son tour dans la détection de texte généré par IA
    ChatGPT : Hive Moderation se lance à son tour dans la détection de texte généré par IA,
    mais le public est sceptique concernant l'efficacité de tous ces outils

    Les grands modèles de langage ont gagné en popularité depuis le lancement commercial de GPT-3 d'OpenAI en 2020. Aujourd'hui, de nombreux acteurs du secteur ont construit leurs propres systèmes rivaux, donnant le coup d'envoi à une nouvelle vague de startups développant des IA génératives. Ces modèles fonctionnent comme des chatbots à usage général. Les utilisateurs tapent des instructions, et ils répondent par des passages de texte cohérents et convaincants.

    Depuis la sortie de ChatGPT, plusieurs cas d'utilisations controversées ont été signalé. C'est le cas par exemple dans le domaine scolaire où des étudiants s'en sont servi pour faire leurs devoirs, tandis que les enseignants commencent seulement à considérer leur impact et leur rôle dans l'éducation.

    Les avis sont partagés. Certains pensent que la technologie peut affiner les compétences rédactionnelles, tandis que d'autres la considèrent comme un outil de tricherie.

    À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat. Mais les outils traditionnels de vérification de plagiat ne sont pas efficaces dans la mesure où le texte est original.

    Être capable de distinguer l'écriture produite par un humain ou une machine changera la façon dont ils peuvent être utilisés dans le milieu universitaire. Les écoles seraient en mesure d'appliquer plus efficacement l'interdiction des essais générés par l'IA, ou peut-être seraient-elles plus disposées à accepter des articles si elles pouvaient voir comment ces outils peuvent aider leurs élèves.

    Des sources ont rapporté au cours des dernières semaines que des écoles de Californie, de New York, de Virginie et de l'Alabama ont banni l'utilisation des outils d'IA tels que ChatGPT et ont bloqué l'accès des étudiants sur les réseaux publics. Les départements de l'éducation ne savent pas exactement quelles politiques devraient être introduites pour réglementer l'utilisation des systèmes d'IA de génération de texte. En outre, toutes les règles seraient de toute façon difficiles à appliquer.

    Hive Moderation se lance dans la détection de texte généré par IA

    C'est dans ce contexte qu'on commencé à être proposées des solutions visant à détecter si du texte est générée par IA. L'une d'elle est proposée par Hive Moderation. Hive Moderation est un outil qui permet la modération automatique de contenus. Cette solution vise à protéger votre plateforme des contenus visuels, audio et texte inappropriés. L’outil dispose d’une suite de modération de contenu.

    Les principales fonctionnalités de Hive Moderation sont les suivantes :
    • Modération de contenus visuels : l’outil prend en charge tous types de contenu visuel (images, vidéos, GIF, Webp) et dispose de 25 sous-filtres, dans 5 types de contenus distincts (NSFW, violence, drogue, incitation à la haine, images animées).
    • Modération de contenus audio : la solution applique une transcription et modération des contenus audio en temps réel. Elle dispose de filtres précis qui permettent de détecter des contenus audio à caractère sexuel, liés à la violence, au harcèlement, aux discours de haine ou encore au spam.
    • Modération de contenus textuels : Hive Moderation dispose d’une compréhension humaine du contenu textuel. L’outil est en mesure de prendre en charge une chaîne de caractères (jusqu’à 1024 caractères), en français, anglais, espagnol, allemand. Il peut également analyser le texte dans les images (memes, GIF, captures d’écran).
    • Tableau de bord : vous accédez à un tableau de bord qui vous permet de configurer des actions de modération personnalisées. Vous pouvez ainsi définir des règles pour agir automatiquement sur le contenu non approuvé et les utilisateurs qui ne respectent pas les conditions de votre plateforme. Vous identifiez et supprimez les spams, les messages signalés et les noms d’utilisateurs en fonction de leur historique de publication.

    À cette liste vient s'ajouter la détection de texte généré par IA. Hive Moderation décrit un fonctionnement est relativement simple. Vous prenez le texte supposé généré automatiquement que vous fournissez en entrée à l'outil, le modèle d'Hive Moderation décompose l'entrée en sections plus petites et analyse chacune pour déterminer si elle est générée par l'IA ou écrite par l'homme : « Nos résultats sont complets, y compris les prédictions et les scores de confiance pour le texte dans son ensemble et chaque segment plus petit qu'il contient ».

    Nom : work.png
Affichages : 4236
Taille : 40,2 Ko

    Cet outil, note Hive Moderation, peut-être utilisé à plusieurs fins :
    • détecter le plagiat : les programmes éducatifs peuvent facilement identifier quand les étudiants utilisent l'IA pour tricher sur les devoirs
    • promulguer des interdictions à l'échelle du site : les plateformes numériques peuvent filtrer le contenu textuel au fur et à mesure qu'il est publié pour faire respecter les interdictions sur les médias générés par l'IA
    • créer de nouveaux filtres : Les plateformes sociales peuvent identifier et étiqueter le texte généré par l'IA, permettant aux utilisateurs de choisir de le filtrer de leurs flux


    Nom : see.png
Affichages : 3845
Taille : 48,6 Ko

    D'autres outils qui aident à détecter le texte généré par l'IA

    Détecteur de sortie GPT-2

    OpenAI impressionne Internet avec ses efforts pour reproduire l'intelligence humaine et les capacités artistiques depuis 2015. Mais en novembre dernier, la société est finalement devenue méga-virale avec la sortie du générateur de texte AI ChatGPT. Les utilisateurs de l'outil bêta ont publié des exemples de réponses textuelles générées par l'IA à des invites qui semblaient si légitimes qu'elles ont semé la peur dans le cœur des enseignants et ont même fait craindre à Google que l'outil ne tue son activité de recherche.

    Si les ingénieurs d'OpenAI sont capables de créer un bot qui peut écrire aussi bien ou mieux que l'humain moyen, il va de soi qu'ils peuvent également créer un bot qui est meilleur que l'humain moyen pour détecter si le texte a été généré par IA.

    La démo en ligne du modèle de détecteur de sortie GPT-2 vous permet de coller du texte dans une boîte et de voir immédiatement la probabilité que le texte ait été écrit par l'IA. Selon les recherches d'OpenAI, l'outil a un taux de détection relativement élevé, mais « doit être associé à des approches basées sur les métadonnées, au jugement humain et à l'éducation du public pour être plus efficace ».

    GLTR (Giant Language model Test Room)

    Lorsque OpenAI a publié GPT-2 en 2019, les gens du MIT-IBM Watson AI Lab et du Harvard Natural Language Processing Group ont uni leurs forces pour créer un algorithme qui tente de détecter si le texte a été écrit par un bot.

    Un texte généré par ordinateur peut sembler avoir été écrit par un humain, mais un écrivain humain est plus susceptible de sélectionner des mots imprévisibles. En utilisant la méthode « il en faut un pour en connaître un », si l'algorithme GLTR peut prédire le mot suivant dans une phrase, alors il supposera que cette phrase a été écrite par un bot.

    GPTZero

    Durant la période des fêtes de fin d'années, Edward Tian était occupé à créer GPTZero, une application qui peut aider à déterminer si le texte a été écrit par un humain ou un bot. En tant qu'universitaire à Princeton, Tian comprend comment les professeurs d'université pourraient avoir un intérêt direct à détecter un « AIgiarism », ou un plagiat assisté par IA.

    Tian dit que son outil mesure le caractère aléatoire des phrases ("perplexité") plus le caractère aléatoire global ("burstiness") pour calculer la probabilité que le texte ait été écrit par ChatGPT. Depuis qu'il a tweeté à propos de GPTZero le 2 janvier, Tian dit qu'il a déjà été approché par des sociétés à capital risque souhaitant investir et qu'il développera bientôt des versions mises à jour.


    Le service antiplagiat Turnitin

    Turnitin a récemment mis en ligne une démo de sa technologie. Dedans, Turnitin a montré le nombre de phrases dans certains échantillons de dissertations qui ont été écrites par une IA (24 sur 24 dans un cas) et a mis en évidence le texte dans différentes nuances pour indiquer les parties écrites par l'IA et les parties partiellement écrites par l'IA. Annie Chechitelli, directrice des produits chez Turnitin, a déclaré que l'entreprise construit discrètement son logiciel de détection depuis des années, notamment depuis la sortie de GPT-3 en 2020. GPT-3 est un grand modèle de langage développé par OpenAI, avec environ 175 milliards de paramètres.

    L'outil est toujours en développement, mais Turnitin espère lancer son logiciel au cours du premier semestre de cette année. « Il s'agira d'une détection assez basique au début, puis nous lancerons des versions rapides ultérieures qui créeront un flux de travail plus exploitable pour les enseignants », a déclaré Chechitelli. Le plan est de rendre le prototype gratuit pour ses clients existants à mesure que la société recueille des données et des commentaires des utilisateurs. La ruée pour donner aux éducateurs la capacité d'identifier les textes écrits par des humains et des ordinateurs s'est intensifiée avec le lancement de ChatGPT fin novembre 2022.

    « Au début, nous voulons vraiment aider le secteur et aider les éducateurs à prendre leurs marques et à se sentir plus confiants. Et obtenir le plus d'utilisation possible dès le début ; c'est important pour faire un outil réussi. Plus tard, nous déterminerons comment nous allons le produire », a-t-elle ajouté. Bien que le texte généré par l'IA soit convaincant, il existe des signes révélateurs de l'œuvre d'une IA : elle est souvent fade et sans originalité ; des outils comme ChatGPT régurgitent des idées et des points de vue existants et n'ont pas de voix distincte. Les humains peuvent repérer les textes générés par l'IA, mais cela devient de plus en plus difficile.

    Toutefois, les machines sont bien meilleures pour cela. Eric Wang, vice-président de l'IA chez Turnitin, note que les ordinateurs peuvent détecter des modèles évidents dans les textes produits par l'IA. « Même si nous avons l'impression que cela ressemble à de l'œuvre d'un humain, [les machines écrivent en utilisant] un mécanisme fondamentalement différent. Elles choisissent le mot le plus probable à l'endroit le plus probable, et c'est une façon très différente de construire le langage par rapport à vous et moi », a-t-il déclaré à The Register. L'outil de Turnitin semble baser son fonctionnement sur la façon dont les humains lisent et écrivent les textes.

    Wang explique : « nous lisons en faisant des allers-retours avec nos yeux sans même le savoir, ou en papillonnant entre les mots, entre les paragraphes, et parfois entre les pages. Nous avons aussi tendance à écrire avec un état d'esprit futur. Je peux être en train d'écrire, et je pense à quelque chose, un paragraphe, une phrase, un chapitre ; la fin de la rédaction est liée dans mon esprit à la phrase que je suis en train d'écrire, même si les phrases entre maintenant et alors n'ont pas encore été écrites ». D'après Wang, ChatGPT, en revanche, ne dispose pas de ce type de flexibilité et ne peut générer de nouveaux mots qu'à partir de phrases précédentes.

    Le détecteur de Turnitin fonctionne en prédisant quels mots l'IA est plus susceptible de générer dans un extrait de texte donné. « C'est très fade sur le plan statistique. Les humains n'ont pas tendance à utiliser systématiquement un mot à forte probabilité dans des endroits à forte probabilité, mais GPT-3 le fait, et notre détecteur s'en aperçoit vraiment », a-t-il déclaré. Wang a déclaré que le détecteur est basé sur la même architecture que GPT-3 et l'a décrit comme une version miniature du modèle. Selon lui, à bien des égards, il s'agit de combattre le feu par le feu. Il y a un composant de détection attaché au lieu d'un composant de génération.

    Filigrane (à venir)

    En plus d'aborder le problème comme les détecteurs de plagiat l'ont fait dans le passé, OpenAI tente de résoudre le problème en filigranant tout le texte ChatGPT. Selon une récente conférence sur la sécurité de l'IA par le chercheur invité d'OpenAI, Scott Aaronson, les ingénieurs ont déjà construit un prototype fonctionnel qui ajoute un filigrane à tout texte créé par OpenAI.

    « Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT », explique Aaronson. L'outil utiliserait ce qu'il appelle une « fonction cryptographique pseudo-aléatoire ». Et seul OpenAI aurait accès à cette clé.

    Le public est plutôt sceptique concernant l'efficacité de tels outils

    « Ce qui est amusant avec des détecteurs dits précis, c'est qu'ils peuvent être utilisés de manière défavorable pour former le modèle d'origine afin de générer un contenu indétectable », note un internaute. Lui faisant écho, un autre déclare « Fondamentalement, le détecteur est un "banc d'essai" pour le générateur. Le générateur peut créer quelque chose, voir si le détecteur le détecte comme étant créé par l'IA, puis adapter le contenu jusqu'à ce que le détecteur ne soit pas en mesure de faire la différence entre le contenu créé par l'homme et celui créé par l'IA ».

    D'autres préfèrent y aller sur une note d'humour : « Tout cela se transforme en un cercle entier d'IA. A la fin l'IA se détruira avant la singularité ».

    Et d'autres encore tentent de démontrer l'absurdité du système : « Je viens d'effacer l'invite du système solaire [ndlr. dans la démo, Hive Moderation a écrit un texte sur le système solaire] et j'ai écrit la mienne en énumérant simplement les planètes et ce que sont les systèmes solaires. 96 % de probabilité d'IA. Est-il précis à 99 % pour détecter l'IA tout en sachant que ce n'est pas de l'IA ? »

    Source : Hive Moderation

    Et vous ?

    Partagez-vous les avis de ceux qui pensent que ces outils ne sont pas au point et que, de toutes façons, les IA génératives seraient entraînés à les battre, créant ainsi un « cercle vicieux » ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #134
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par Prox_13 Voir le message
    Ce sont des Kenyans qui ont été employés par OpenAI. Je te laisse te faire ton propre avis, cherche sur Google "OpenAI Kenyan".

    Je t'avoue que je trouvais ça complètement loufoque moi-même.
    Merci d'avoir sourcé mon propos.
    Mais tu auras beau le démontrer par A + B, pour certains ici ça ne changera rien à leur wokitude aigue.

  15. #135
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par AoCannaille Voir le message

    Pour rappel, ChatGPT ne raconte rien de pertinent. jamais. Il n'a pas été conçu comme ça. C'est un modèle de langage : il est entrainé à générer du texte qui est habituellement présent dans les textes appris autour des notions proposés dans les questions.
    Je t'ai déjà répondu à ce sujet, mais, encore une fois : non.
    Ce n'est pas comme ça que fonctionne un modèle de langage, il réponds avec des probas, des occurrences, de la variance/co-variance/...

    Donc non, il ne réponds pas, par rapport à du "texte qui est habituellement présent dans les textes appris autour des notions proposés dans les questions", il émet bel et bien du texte sur un instant T, qui est le résultat du meilleur taux statistiques selon les poids des mots et de ce qu'il a compris de l'ensemble de l'argument + des connaissances qu'il a été chercher.

    La grande majorité des connaissances de ChatGPT sur des domaines simples, sont fiables.
    Sur des domaines techniques, les sources ne le sont pas, exemple avec le domaine du dev.

    Elles ne sont pas car le bot confond beaucoup de choses, inverses des connaissances et se base sur sa stack qui est ni plus ni moins, qu'officiellement l'ensemble de ce qui a été écrit sur stackoverflow jusqu'en 2022.

    Et a été recoupé et travaillé par des Africains.
    Or, le problème, c'est que les Africains ne sont pas des foudres de guerres dans le domaine du dev et ça donne ce qu'on a aujourd'hui.

    Demande lui par exemple de t'expliquer ce qu'est le TDD et tu va bien "te marrer".
    Ou demande lui de t'écrire des algorithmes avancés et tu va voir qu'il confond tout.

    C'est un formidable outil, pour des questions du quotidien, pour le moment il faut s'en arrêter là, à voir avec GPT4 si c'est mieux travaillé.

  16. #136
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 118
    Points : 3 424
    Points
    3 424
    Par défaut
    Je suis assez heureux d'entendre des néophytes dire que ChatGPT est bluffant mais régulièrement à coté de la plaque.

    Citation Envoyé par HaryRoseAndMac Voir le message
    Mais tu auras beau le démontrer par A + B, pour certains ici ça ne changera rien à leur wokitude aigue.
    Tu te ridiculises à mettre du wokisme partout, tout woke ou wokiste qui se respectes vous soutiens dans la dénonciation de l'exploitation de Kenyan sous payés pour mettre en place ChatGPT.

  17. #137
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 837
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 837
    Points : 51 397
    Points
    51 397
    Par défaut OpenAI le créateur de ChatGPT entraîne son IA pour remplacer les programmeurs humains
    OpenAI le créateur de ChatGPT entraîne son IA pour remplacer les programmeurs humains, d’après un rapport
    Qui ravive le débat sur la future disparition du métier de développeur

    OpenAI a de façon discrète engagé des centaines de contractants internationaux pour entraîner son chatbot désormais connu comme une menace potentielle pour Google. L’un des objectifs visés au travers de cette opération rapportée par Semafor est de remplacer les programmeurs humains. OpenAI n’est pas un cas isolé en la matière. En effet, Google est lancé sur un projet similaire dénommé Pitchfork. Grosso modo, les développements en cours dans la filière peignent le tableau d’un futur dans lequel « s’appuyer sur des programmeurs humains pour écrire des programmes informatique sera dépassé. » La situation ravive le débat sur la possible disparition du métier de développeur dans l’avenir.

    Nom : 1.jpg
Affichages : 191975
Taille : 94,8 Ko

    Semafor rapporte qu’un développeur de logiciels d'Amérique du Sud qui a passé un test de codage non rémunéré de cinq heures pour OpenAI a déclaré qu'on lui avait demandé de s'attaquer à une série de missions en deux parties. D'abord, on lui a donné un problème de codage et on lui a demandé d'expliquer en anglais écrit comment il l'aborderait. Ensuite, le développeur devait fournir une solution. S'il trouvait un bug, OpenAI lui demandait de détailler la nature du problème et la manière dont il devait être corrigé, au lieu de simplement le corriger.

    « Ils veulent très probablement alimenter ce modèle avec un type très spécifique de données où l'humain fournit un schéma étape par étape de son processus de pensée », rapporte Semafor des propos du développeur sous anonymat.

    Google aussi est lancé en secret sur le développement de Pitchfork ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

    L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Grosso modo, ces initiatives ravivent le débat sur la possible disparition du métier de développeur.


    Matt Welsh dépeint un futur dans lequel la filière informatique va passer de l’approche d’écriture des programmes informatique par des humains à celle de la mise à contribution d’agents d’intelligence artificielle au préalable entraînés pour remplacer les humains dans des activités en lien avec le métier de développeur. Ce dernier est d’avis que l’intelligence artificielle a les épaules pour assumer ce changement au vu des progrès rapides dans la filière :

    « Les assistants de programmation tels que CoPilot ne font qu'effleurer la surface de ce que je décris. Il me semble tout à fait évident qu'à l'avenir, tous les programmes seront écrits par des intelligences artificielles, les humains étant relégués, au mieux, à un rôle de supervision. Quiconque doute de cette prédiction n'a qu'à regarder les progrès très rapides réalisés dans d'autres aspects de la génération de contenu par l'intelligence artificielle, comme la génération d'images. La différence de qualité et de complexité entre DALL-E v1 et DALL-E v2 - annoncée seulement 15 mois plus tard - est stupéfiante. Si j'ai appris quelque chose au cours de ces dernières années à travailler dans le domaine de l'IA, c'est qu'il est très facile de sous-estimer la puissance de modèles d'IA de plus en plus grands. Des choses qui semblaient relever de la science-fiction il y a seulement quelques mois deviennent rapidement réalité.

    Je ne parle pas seulement du fait que CoPilot de Github de remplacer les programmeurs. Je parle de remplacer le concept même d'écriture de programmes par des agents d’intelligence artificielle dédiés. À l'avenir, les étudiants en informatique n'auront pas besoin d'apprendre des compétences aussi banales que l'ajout d'un nœud à un arbre binaire ou le codage en C++. Ce type d'enseignement sera dépassé, comme celui qui consiste à apprendre aux étudiants en ingénierie à utiliser une règle à calcul. »

    En sus, il y a la possibilité de voir l’IA devenir plus intelligente que les Hommes. On parle d’un stade de leur évolution où les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    C’est ce palier que les équipes de recherche dans le domaine visent. Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une IA qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. » Avec l’atteinte de ce palier, les développeurs informatiques humains seraient mis au rebut par les machines.

    Source : Semafor

    Et vous ?

    Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
    Que vous suggère la possibilité que la recherche aboutisse à l’intelligence artificielle générale dans 5 à 10 ans ?
    Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  18. #138
    Invité
    Invité(e)
    Par défaut
    L'IA risque effectivement de causer beaucoup de tort aux pisseurs de code dont le travail n'a qu'une faible valeur ajoutée.

    Par contre, les programmeurs qui ont su développer une réelle compétence au fil des années n'ont pas trop de soucis à se faire.

  19. #139
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 410
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 410
    Points : 5 581
    Points
    5 581
    Par défaut
    bonne chance aux entreprises qui feront leurs code avec chatgpt.

    1) Même si le code compile, chatgpt sort pleins d'erreurs grossière.
    2) Ce code va t'il répondre au vrai besoin du client et au cahier des charges ? c'est très difficile pour le client d'exprimer clairement ce qu'il veut.
    3) le pire de tous, l'intégration. même si le code marche, il faut l'intégrer à aws/au parc d'ordinateur des salariés/a l'appareil embarqué...etc.

    Va falloir la faire évoluer très vite cette ia, car hélas pour elle, les frameworks et langages évolue vite, les clouds provider change régulièrement leurs api. Ca base de connaissance qui est stackoverflow fera du code obsolète.

    Si demain cette ia remplace tous les dev, y'aura plus personne pour l'alimenter sur stackoverflow donc elle deviendra inutile car fera du code obsolète très vite.


    C'est le vrai problème de ces ia, elles prennent du contenue sur le net (illégalement ?) crée par des humains. Si demain elles remplacent les humains ben elles ne pourront plus évoluer.
    Le jour ou la majorité des devs et des artistes mettrons une licence interdisant l'utilisation de leurs création dans le cadre d'un entrainement d'ia, c'est la fin de chatgpt.

    De ce que j'ai vu jusqu'à présent, chatgpt est surtout un gros futur flop.
    C'est impressionnant comment il est capable d'animer des conversations mais il est incapable de remplacer un métier humain, des qu'on le titille un peu il fait n'importe quoi.
    Une entreprise ne risquerait pas son business avec ce genre d'outil absolument pas fiable.

    Pour l'heure je ne vois pas dans quel métier il apporterait une valeur ajouté, même en tant que chatbot il ne sera pas plus pertinent que les algo utilisé actuellement car la BDD qui alimente le chatbot sera toujours aussi pauvre.

    Enfin derrière Chatgpt il y'a surtout une tonne d'indonésien/indiens/pakistanais ou que sais je qu'openai a bien exploité pour nettoyer les données d'entrée.
    Que sont ils devenues ?


    Je ne comprends pas pourquoi chatgpt inquiète autant google, quand on fait une recherche on veut une réponse fiable, donc avoir plusieurs qui donne la même réponse. chatgpt ne fait que donner une réponse sans source ni preuve le tout de façon très sur d'elle.

  20. #140
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 440
    Points
    2 440
    Par défaut
    Même dans un futur ou leur IA pisseuse de code fonctionnerait bien.

    Quid de la confidentialité?

    Ça revient un peu à utiliser un IDE en cloud. Faut avoir confiance en l'entreprise derrière.
    Et j'ose espérer que dans les domaines critiques on est un minimum à cheval sur ça.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 22h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 10h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 10h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 11h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 08h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo