IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Les articles scientifiques frauduleux sont en forte augmentation

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éprouvé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 453
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 453
    Par défaut
    Citation Envoyé par faradiel Voir le message
    Ayant essayer le chatbot, il ne me semble pas que les réponses procède d'une moyenne du contenu d'internet. Je pense que le contenu est supervisée, on est d'accord qu'il lui arrive effectivement de se faire des erreurs surtout quand on l'induit en erreur, mais quand on pose bien une question les erreurs sont moins présentes.
    Tout à fait, l'aspect "moyenne du contenu" est clairement compensé maintenant par des mécanismes supplémentaires. Mais son concept, à la base, n'a jamais été d'extraire la vérité. C'est un générateur de langage naturel, il a été entrainé à générer une réponse en langage naturel, point barre.

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres
    ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres,
    les professeurs estiment que cela pourrait signaler la fin des méthodes d'enseignement traditionnelles en classe

    ChatGPT a réussi des examens dans une faculté de droit américaine après avoir rédigé des essais sur des sujets allant du droit constitutionnel à la fiscalité et aux délits. Sur plus de 95 questions à choix multiples et 12 questions à développement, ChatGPT a obtenu une note de C+, faible mais suffisante pour réussir l'examen. Après avoir donné des détails sur ces résultats, les professeurs ont discuté de leurs implications pour la formation juridique et la profession d'avocat. Ils ont entre autres prévenu que cela pourrait conduire à une fraude généralisée et même signaler la fin des méthodes d'enseignement traditionnelles en classe. Ils ont aussi fourni des exemples d'invites et des conseils sur la façon dont ChatGPT peut aider à la rédaction juridique.

    ChatGPT ne peut pas encore surpasser la plupart des étudiants en droit aux examens, selon de nouvelles recherches, mais il peut obtenir une note de passage. Un quatuor de professeurs de droit de l'Université du Minnesota a utilisé le populaire chatbot d'intelligence artificielle pour générer des réponses aux examens de quatre cours le semestre dernier, puis les a notés à l'aveugle aux côtés des tests des étudiants réels.

    Jonathan Choi, professeur à la faculté de droit de l'Université du Minnesota, a soumis à ChatGPT au même test auquel les étudiants étaient confrontés, composé de 95 questions à choix multiples et de 12 questions à développement. Dans un livre blanc intitulé « ChatGPT va à la faculté de droit » publié lundi, lui et ses coauteurs ont rapporté que le bot avait obtenu un C+ dans l'ensemble, en dessous de la moyenne B+ des humains.

    « Seul, ChatGPT serait un étudiant en droit plutôt médiocre », a déclaré l'auteur principal de l'étude, Jonathan Choi, qui a collaboré avec les professeurs Kristin Hickman, Amy Monahan et Daniel Schwarcz. « Le plus grand potentiel pour la profession ici est qu'un avocat puisse utiliser ChatGPT pour produire une première ébauche et simplement rendre sa pratique beaucoup plus efficace », a-t-il déclaré.

    Choi a déclaré que lui et de nombreux collègues avaient désormais interdit l'utilisation d'Internet pendant les examens en classe pour éliminer la possibilité de tricher avec ChatGPT, bien que les futurs examens puissent tester leur capacité à tirer efficacement parti des programmes d'intelligence artificielle.

    La performance de ChatGPT dans le détail

    Voici ce que les professeurs ont noté :

    Bien qu'il ait obtenu des performances suffisantes pour obtenir théoriquement un diplôme d'avocat, ChatGPT a généralement obtenu un score au niveau ou près du bas de chaque classe. ChatGPT a reçu un B en droit constitutionnel (36e sur 40 étudiants), un B- en avantages sociaux (18e sur 19 étudiants), un C- en fiscalité (66e sur 67 étudiants) et un C- en responsabilité civile (75e sur 75 étudiants).

    En général, ChatGPT a obtenu de meilleurs résultats sur les composants de rédaction des examens que sur le choix multiple.

    En ce qui concerne les essais, les performances de ChatGPT étaient très inégales. Dans certains cas, elle correspondait à, ou même dépassait, la performance moyenne de vrais étudiants. D'un autre côté, lorsque les questions à développement de ChatGPT étaient incorrectes, elles étaient dramatiquement incorrectes, obtenant souvent les pires scores de la classe. Il n'est peut-être pas surprenant que ce résultat soit particulièrement probable lorsque les questions à développement obligeaient les étudiants à évaluer ou à s'appuyer sur des cas, des théories ou des doctrines spécifiques abordés en classe.

    En ce qui concerne les questions à choix multiples, ChatGPT a généralement obtenu des résultats inférieurs à ceux des essais, mais toujours statistiquement nettement meilleurs que le hasard. Il a répondu correctement à 21 questions à choix multiples sur 25 à l'examen de droit constitutionnel (p = 0,000)* et à 6 sur 10 à l'examen de responsabilité délictuelle (p = 0,020). Cependant, ChatGPT a obtenu des résultats bien pires sur les questions impliquant des mathématiques, qui apparaissaient exclusivement à l'examen sur la fiscalité et ont fait baisser son score. Lors de l'examen sur la fiscalité, ChatGPT n'a répondu correctement qu'à 8 des 29 questions mathématiques, essentiellement pas mieux que le hasard (p = 0,443). Il a répondu correctement à 16 des 31 questions non mathématiques (y compris les questions impliquant des nombres mais sans raisonnement mathématique), nettement mieux que le hasard (p = 0,001). ChatGPT avait également tendance à mieux performer sur les questions à choix multiples qui impliquaient des règles juridiques relativement uniformes dans toutes les juridictions, plutôt que des doctrines qui pouvaient varier considérablement d'une juridiction ou d'un tribunal à l'autre.

    * : Toutes les valeurs de p ont été générées à l'aide du bootstrap. L'examen de droit constitutionnel avait 5 choix par question, tandis que les examens de fiscalité et de responsabilité civile avaient 4 choix par question.

    Lors de la rédaction d'essais, ChatGPT a montré une solide compréhension des règles juridiques de base et avait une organisation et une composition toujours solides. Cependant, il a eu du mal à identifier les problèmes pertinents et n'a souvent appliqué que superficiellement les règles aux faits par rapport aux vrais étudiants en droit.

    Nom : constitu.png
Affichages : 6796
Taille : 49,1 Ko

    ChatGPT a fait un bon travail en résumant avec précision les doctrines juridiques appropriées et en citant correctement les faits et les conclusions de cas spécifiques. Dans de nombreux cas, il a pu se concentrer sur les doctrines juridiques pertinentes sans incitation spécifique par la question. Par exemple, en réponse à un essai sur le droit de la responsabilité délictuelle impliquant un propriétaire qui a érigé une décoration d'Halloween dangereuse qui a blessé une personne participant à l'évènement [des bonbons ou un sort ?], il a non seulement précisé les éléments familiers de la négligence (devoir, violation, causalité et dommages), mais aussi a correctement spécifié que le propriétaire - qu'il a identifié par son nom - « a l'obligation légale de maintenir sa propriété dans un état raisonnablement sûr pour ceux qui sont invités ou autorisés à se trouver sur la propriété ».

    ChatGPT a tout aussi bien réussi à énoncer des règles juridiques largement pertinentes sur des sujets relativement techniques qui sont probablement moins bien attestés dans le corpus de formation (par exemple, les avantages sociaux), par opposition à des sujets relativement courants (par exemple, la responsabilité civile). Lors de l'examen des avantages sociaux des employés, ChatGPT a été en mesure de fournir une explication solide de la disposition de préemption notoirement difficile de l'ERISA, citant à la fois un langage législatif spécifique et des décisions pertinentes de la Cour suprême élucidant cette norme. ChatGPT a même dépassé la moyenne de la classe lorsqu'il a répondu à une question à réponse courte impliquant les règles hautement techniques des transactions interdites de l'ERISA.

    ChatGPT est connu pour « halluciner » en fabriquant des faits, mais dans notre étude, il ne l'a généralement pas fait, peut-être parce que nos invites ont demandé à ChatGPT de ne pas fabriquer de cas et (lorsque la question de l'examen l'exige) que nous lui avons fourni un univers spécifique de cas avec lesquels travailler. ChatGPT était également bon pour maintenir le ton requis par l'essai. Par exemple, en réponse à une question à développement sur le droit constitutionnel demandant une réponse sous la forme d'une note à l'avocat évaluant les réclamations potentielles, la réponse du ChatGPT a conservé le ton et le format appropriés tout au long.

    Les réponses à l'essai de ChatGPT étaient généralement claires et bien conçues, peut-être même de manière suspecte par rapport à de vrais étudiants écrivant un examen limité dans le temps. Stylistiquement, ChatGPT a produit du texte sans erreurs grammaticales ni fautes de frappe. Il a également bien structuré les phrases et les paragraphes, bien que de manière formelle, avec des phrases d'introduction et des conclusions. Peut-être parce que nous avons incité ChatGPT à rédiger des essais plus longs section par section, il avait une bonne organisation de haut niveau et était relativement clair sur la séparation des points pertinents dans son argumentation. Par exemple, sa réponse à une hypothèse de responsabilité du fait des produits a analysé séparément trois réclamations potentielles (conception défectueuse, avertissement défectueux et batterie), deux recours potentiels (dommages-intérêts compensatoires et punitifs) et la question ultime contenue dans l'invite de rédaction concernant la question de savoir si un le tribunal doit faire droit aux requêtes en rejet des défendeurs.

    Faiblesses dans les rédactions d'essais

    Cependant, les réponses dans les essais de ChatGPT contenaient également des problèmes et des erreurs constants qui, cumulativement, en faisaient un élève bien pire que la moyenne. ChatGPT avait souvent du mal à détecter les problèmes lorsqu'il recevait une invite ouverte, une compétence essentielle aux examens des facultés de droit. Par exemple, dans le problème de droit constitutionnel (un sujet dans lequel il a par ailleurs relativement bien performé), il n'a clairement identifié qu'un seul problème sur 5. De même, dans un essai sur le droit de la responsabilité délictuelle, ChatGPT n'a pas réussi à identifier les théories distinctes de la négligence les faits.

    ChatGPT était également mauvais pour se concentrer sur ce qui comptait ; il produirait de bonnes réponses sur le sujet à une question, puis irait complètement hors sujet pour la question suivante, comme avec ses résultats très divergents sur les observateurs des problèmes des avantages sociaux des employés. Par exemple, dans une longue question à développement impliquant des recours disponibles en vertu de l'ERISA, ChatGPT n'a pas discuté de la question principale (si un recours souhaité était en fait disponible en vertu de l'ERISA) et a plutôt passé du temps à discuter des causes d'action ERISA qui n'étaient pas pertinentes pour les faits, ainsi qu'une cause d'action en droit de l'État qui était bien en dehors du champ d'application d'un cours sur les avantages sociaux des employés.

    Et bien que ChatGPT ait bien réussi certaines réponses techniques courtes à l'examen des avantages sociaux des employés, il a également manqué des problèmes apparemment faciles. Dans une question à réponse courte impliquant le droit de continuer à être couvert par un régime de santé de l'employeur, ChatGPT a manqué un problème relativement facile à repérer - que l'employeur en question n'était pas soumis aux exigences de couverture de continuation de l'ERISA parce qu'il était en dessous du seuil de taille pertinent. En conséquence, les performances de ChatGPT avaient tendance à être très inégales, obtenant un score proche ou même supérieur à la moyenne sur certaines questions, et proche de zéro sur d'autres questions.

    L'un des plus gros problèmes avec les essais de ChatGPT était qu'ils n'entraient pas suffisamment dans les détails lors de l'application des règles juridiques aux faits contenus dans les hypothèses d'examen. Dans de nombreux cas (mais pas toujours), ChatGPT a énoncé avec précision la règle juridique pertinente et (le cas échéant) a cité le cas correct, mais n'a pas expliqué comment le cas s'appliquait aux faits hypothétiques de l'examen. C'était un problème particulier sur les délits et le droit constitutionnel, et l'une des raisons de la mauvaise performance de ChatGPT à ces examens.

    Par exemple, dans Torts, ChatGPT a correctement écrit que la responsabilité dépendrait de la question de savoir si les actions d'un défendeur étaient la cause d'une blessure, mais n'a pas évalué si les faits de l'examen hypothétique suggéraient l'existence d'une telle causalité (factuelle ou immédiate). En droit constitutionnel, bien que ChatGPT ait correctement identifié un problème de clause de nomination et cité certains des bons cas, ChatGPT n'a pas énoncé les normes juridiques pertinentes pour évaluer le problème, identifié les faits soulevés ou analysé ces faits pour parvenir à une conclusion. Peut-être parce qu'OpenAI a utilisé RLHF pour empêcher ChatGPT de faire des déclarations fortes et pour embrasser l'incertitude, ChatGPT était parfois excessivement méfiant, refusant de faire un argument sur l'interprétation la plus plausible des faits pertinents lorsque ces faits pointaient potentiellement dans des directions concurrentes.

    ChatGPT a également parfois mal compris les termes techniques contenus dans les examens. Par exemple, il a mal compris le terme "paiement forfaitaire" dans l'examen des avantages sociaux, peut-être parce que ChatGPT est un modèle de langage à usage général et que l'expression n'est pas largement utilisée en dehors de certains paramètres financiers.

    Conclusion

    Le très populaire ChatGPT a fait ses débuts fin novembre et est gratuit pour les utilisateurs. Il génère des réponses basées sur les demandes des utilisateurs et des montagnes de données, y compris des textes juridiques.

    D'autres universitaires en droit ont également expérimenté le programme. Le doyen en droit de l'Université de Suffolk, Andrew Perlman, a co-écrit un article scientifique avec le programme en décembre. Deux autres professeurs de droit ont demandé à ChatGPT de répondre aux questions à choix multiples de l'examen du barreau. Il n'a pas réussi mais a mieux fonctionné que prévu.

    Source : livre blanc « ChatGPT va à l'école de droit »

    Voir aussi :

    ChatGPT réussit un examen de MBA donné par un professeur de l'université de Pennsylvannie après un d'informatique pour élèves du secondaire désireux d'obtenir des crédits universitaires US
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut Amazon intime aux employés de ne pas partager d'informations confidentielles avec ChatGPT
    Amazon intime aux employés de ne pas partager d'informations confidentielles avec ChatGPT,
    suite à des cas où sa réponse "correspond étroitement au matériel existant" de l'intérieur de l'entreprise

    Après avoir capturé des extraits de texte générés par le puissant outil ChatGPT d'OpenAI qui ressemblaient beaucoup à des secrets d'entreprise, Amazon essaie maintenant d'empêcher ses employés de divulguer quoi que ce soit d'autre à l'algorithme.

    Selon les messages internes de Slack qui ont été divulgués à Insider, un avocat d'Amazon a déclaré aux travailleurs qu'ils avaient « déjà vu des exemples » de texte généré par ChatGPT qui ressemblaient « étroitement » aux données internes de l'entreprise. Ce problème semble avoir atteint son paroxysme récemment parce que les employés d'Amazon et d'autres techniciens de l'industrie ont commencé à utiliser ChatGPT comme une sorte « d'assistant de codage » pour les aider à écrire ou à améliorer des chaînes de code, note le rapport.

    Bien que ce ne soit pas nécessairement un problème du point de vue des données propriétaires, c'est une autre histoire lorsque les employés commencent à utiliser l'IA pour améliorer le code interne existant - ce qui se produit déjà, selon l'avocat.

    « Ceci est important car vos entrées peuvent être utilisées comme données de formation pour une nouvelle itération de ChatGPT », a écrit l'avocat dans les messages Slack consultés par Insider, « et nous ne voudrions pas que sa sortie inclue ou ressemble à nos informations confidentielles ».

    L'avocat a également révélé, selon Insider, qu'Amazon développait une « technologie similaire » à ChatGPT - une révélation qui a semblé piquer l'intérêt des employés qui ont déclaré que l'utilisation de l'IA pour aider à l'écriture de code avait décuplé la productivité. « S'il existe une initiative en cours pour créer un service similaire », a déclaré un employé dans les échanges Slack, « je serais intéressé à consacrer du temps pour aider à la développer si nécessaire ».

    Alors que d'autres industries s'agitent et s'agitent à l'idée d'être remplacées par l'IA, les travailleurs de la technologie sont apparemment plus enclins à l'accueillir comme un outil de codage utile, au grand désarroi des avocats de leurs employeurs.

    Une situation qui pourrait rappeler celle avec Copilot

    Copilot a été lancé en fin juin dans le cadre d'une Preview technique sur invitation uniquement, promettant de faire gagner du temps en répondant au code des utilisateurs par ses propres suggestions intelligentes. Ces suggestions sont basées sur des milliards de lignes de code public dont les utilisateurs ont publiquement contribué à GitHub, en utilisant un système d'IA appelé Codex de la société de recherche OpenAI.

    GitHub décrit Copilot comme l'équivalent IA de la « programmation en paire », dans laquelle deux développeurs travaillent ensemble sur un seul ordinateur. L'idée est qu'un développeur peut apporter de nouvelles idées ou repérer des problèmes que l'autre développeur aurait pu manquer, même si cela nécessite plus d'heures de travail.

    Dans la pratique, cependant, Copilot est plutôt un outil utilitaire de gain de temps, qui intègre les ressources que les développeurs devraient autrement chercher ailleurs. Lorsque les utilisateurs saisissent des données dans Copilot, l'outil leur suggère des extraits de code à ajouter en cliquant sur un bouton. Ainsi, ils n'ont pas à passer du temps à chercher dans la documentation de l'API ou à rechercher des exemples de code sur des sites spécialisés.

    Un réseau neuronal dans GitHub Copilot est entraîné à l'aide de volumes massifs de données, constituées du code : des millions de lignes téléchargées par les 65 millions d'utilisateurs de GitHub, la plus grande plateforme au monde permettant aux développeurs de collaborer et de partager leur travail. Le but est que Copilot en apprenne suffisamment sur les modèles de code pour pouvoir faire du hacking lui-même. Il peut prendre le code incomplet d'un partenaire humain et terminer le travail en ajout les parties manquantes. Dans la plupart des cas, il semble réussir à le faire. GitHub prévoit de vendre l'accès à l'outil aux développeurs.

    Nom : copilot.png
Affichages : 8821
Taille : 84,2 Ko

    Comme pour la plupart des outils d'IA, GitHub souhaite également que Copilot devienne plus intelligent au fil du temps en fonction des données qu'il collecte auprès des utilisateurs. Lorsque les utilisateurs acceptent ou rejettent les suggestions de Copilot, son modèle d'apprentissage automatique utilisera ce retour d'information pour améliorer les suggestions futures, de sorte que l'outil deviendra peut-être plus humain à mesure qu'il apprendra.

    Et Matthieu Butterick, qui porte les casquettes d'écrivain, designer, développeur et avocat, d'expliquer :

    Citation Envoyé par Matthieu Butterick
    GitHub Copilot est un produit lancé par Microsoft en juin 2022 après une Preview technique d'un an. Copilot est un plug-in pour Visual Studio et d'autres EDI qui produit ce que Microsoft appelle des « suggestions » basées sur ce que vous tapez dans l'éditeur.

    Qu'est-ce qui différencie Copilot de la saisie semi-automatique traditionnelle ? Copilot est alimenté par Codex, un système d'IA créé par OpenAI et sous licence Microsoft. (Bien que Microsoft ait également été appelée « le propriétaire non officiel d'OpenAI »). Copilot propose des suggestions basées sur des invites de texte tapées par l'utilisateur. Copilot peut être utilisé pour de petites suggestions, par exemple jusqu'à la fin d'une ligne, mais Microsoft a mis l'accent sur la capacité de Copilot à suggérer des blocs de code plus volumineux, comme le corps entier d'une fonction.

    Mais comment le Codex, le système d'IA sous-jacent, a-t-il été formé ? Selon OpenAI, Codex a été formé sur « des dizaines de millions de référentiels publics », y compris du code sur GitHub. Microsoft elle-même a vaguement décrit le matériel de formation comme « des milliards de lignes de code public ». Mais le chercheur de Copilot, Eddie Aftandilian, a confirmé dans un podcast récent (@ 36:40) que Copilot est « formé sur les dépôts publics sur GitHub ».
    Matthieu Buttherick a évoqué en juin 2022 les problèmes juridiques liés au fonctionnement de GitHub Copilot, « en particulier sa mauvaise gestion des licences open source ». Récemment, il a revêtu sa casquette d'avocat pour s'associer à des confrères plaideurs en recours collectif. Ensemble, ils ont enquêté sur une poursuite potentielle contre GitHub Copilot pour violation de ses obligations légales envers les auteurs open source et les utilisateurs finaux. Au terme de cette enquête lancée en octobre, ils ont déposé une plainte contre GitHub Copilot :

    Aujourd'hui, nous avons déposé un recours collectif devant le tribunal fédéral américain de San Francisco, en Californie, au nom d'un groupe proposé de millions d'utilisateurs de GitHub. Nous contestons la légalité de GitHub Copilot (et d'un produit connexe, OpenAI Codex, qui alimente Copilot). La poursuite a été déposée contre un ensemble de défendeurs qui comprend GitHub, Microsoft (propriétaire de GitHub) et OpenAI.

    En formant leurs systèmes d'IA sur des référentiels publics GitHub (bien que basés sur leurs déclarations publiques, peut-être bien plus), nous soutenons que les accusés ont violé les droits légaux d'un grand nombre de créateurs qui ont publié du code ou d'autres travaux sous certaines licences open source sur GitHub. Quelles licences ? Un ensemble de 11 licences open source populaires qui nécessitent toutes l'attribution du nom de l'auteur et des droits d'auteur, y compris la licence MIT, la GPL et la licence Apache. (Celles-ci sont énumérées dans l'annexe à la plainte.)
    Source : Slack Amazon

    Et vous ?

    Êtes-vous surpris de voir des informations confidentielles circuler suite à l'utilisation de ChatGPT ?
    Un cas de figure que vous aviez anticipé ?
    Quelle serait, selon vous, la meilleure réponse qu'Amazon (dans le cas d'espèce) ou une autre entreprise (de façon plus générale) pourrait apporter à l'utilisation de ce type d'outil par ses collaborateurs ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #4
    Membre expérimenté
    Homme Profil pro
    Administrateur Systèmes, Clouds et Réseaux /CAO/DAO/Ingénierie Electrotechnique
    Inscrit en
    Décembre 2014
    Messages
    457
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Administrateur Systèmes, Clouds et Réseaux /CAO/DAO/Ingénierie Electrotechnique

    Informations forums :
    Inscription : Décembre 2014
    Messages : 457
    Par défaut
    Suis je le seul à ne pas m'emballer ?

    Par contre je loue le tour de force de récupérer un max de données de gens qui doivent s'inscrire pour essayer... En plus avec consentement total.

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Par défaut Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur
    Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur
    il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

    Springer Nature, qui publie des milliers de revues scientifiques, a annoncé cette semaine que ChatGPT - ou tout système similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce intervient à un moment où le débat sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA s'intensifie, mais aussi après les déboires du média d'information CNET avec son IA interne de génération de texte.

    Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition et le journalisme. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980. Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes "originaux". Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.

    Mais alors que les chercheurs plongent dans le nouveau monde courageux des chatbots d'IA avancés, Springer Nature a déclaré cette semaine que les éditeurs doivent reconnaître leurs utilisations légitimes et établir des directives claires pour éviter les abus. L'entreprise a annoncé que des logiciels tels que ChatGPT ne pouvaient pas être crédités en tant qu'auteurs dans les articles publiés dans ses milliers de revues. Toutefois, Springer affirme qu'elle n'a aucun problème à ce que les scientifiques utilisent l'IA pour les aider à rédiger ou à générer des idées pour la recherche. Cela dit, cette contribution doit être correctement divulguée par les auteurs.

    Nom : oklij.png
Affichages : 7027
Taille : 360,6 Ko

    « Nous nous sommes sentis obligés de clarifier notre position pour nos auteurs, pour nos éditeurs et pour nous-mêmes. Cette nouvelle génération d'outils LLM - y compris ChatGPT - a vraiment explosé dans la communauté, qui est à juste titre enthousiaste et joue avec eux, mais également les utilise d'une façon qui va au-delà de la manière dont ils peuvent véritablement être utilisés à l'heure actuelle », explique à The Verge Magdalena Skipper, rédactrice en chef de la publication phare de Springer Nature, Nature. ChatGPT et les grands modèles de langage précédents ont déjà été cités comme auteurs dans un petit nombre d'articles publiés.

    Cependant, la nature et le degré de la contribution de ces outils varient au cas par cas. Il faut le dire tout de suite, les réponses de ChatGPT ne sont pas parfaites, et il fait encore de nombreuses erreurs de base. Dans un article d'opinion publié dans la revue Oncoscience, ChatGPT a été utilisé pour plaider en faveur de la prise d'un certain médicament dans le contexte du pari de Pascal, le texte généré par l'IA étant clairement identifié. Mais dans un article préimprimé examinant la capacité du robot à réussir l'examen de licence médicale des États-Unis (USMLE), il a juste été indiqué que "ChatGPT a contribué à rédiger des sections du manuscrit".

    Jack Po, le PDG de la société qui a financé la recherche, la startup de soins de santé Ansible Health, a soutenu que le chatbot a apporté des contributions importantes. « La raison pour laquelle nous avons cité [ChatGPT] comme auteur est que nous pensons qu'il a réellement contribué intellectuellement au contenu de l'article et pas seulement comme sujet pour son évaluation », a-t-il déclaré. Mais la réaction de la communauté scientifique aux articles mentionnant ChatGPT comme auteur a été essentiellement négative, les utilisateurs des médias sociaux qualifiant la décision dans le cas de l'USMLE d'"absurde", d'"idiote" et de "profondément stupide".

    L'Office britannique de la propriété intellectuelle a annoncé en juin de l'année dernière que les IA ne peuvent pas être mentionnées comme inventeurs sur les brevets. « Pour les inventions conçues par l'IA, nous ne prévoyons aucun changement dans la législation britannique sur les brevets. La plupart des répondants estiment que l'intelligence artificielle n'est pas encore assez avancée pour inventer sans intervention humaine. Mais nous garderons ce domaine du droit à l'étude pour nous assurer que le système de brevets britannique soutient l'innovation en matière d'intelligence artificielle et l'utilisation de l'IA au Royaume-Uni », a-t-elle déclaré.

    Les arguments contre l'attribution de la paternité à l'IA sont que les logiciels ne peuvent tout simplement pas remplir les fonctions requises. « Lorsque nous pensons à la paternité des articles scientifiques, des articles de recherche, nous ne pensons pas seulement à leur rédaction. Il y a des responsabilités qui vont au-delà de la publication, et il est certain qu'à l'heure actuelle, ces outils d'IA ne sont pas capables d'assumer ces responsabilités », note Skipper. Selon l'éditeur Springer Nature, un logiciel ne peut pas être significativement responsable d'une publication et ne peut pas revendiquer les droits de propriété intellectuelle de son travail.

    En outre, il ne peut pas correspondre avec d'autres scientifiques et la presse pour expliquer et répondre aux questions sur son travail. De plus, les IA de génération de texte peuvent amplifier les préjugés sociaux, notamment le sexisme et le racisme, et ont tendance à produire des "conneries plausibles", c'est-à-dire des informations incorrectes présentées comme des faits. CNET, un média qui couvre les nouvelles technologies, a récemment payé les frais pour avoir publié, sans révision, des articles générés par son IA interne de génération de texte, ce qui a suscité un tollé. CNET a ensuite découvert des erreurs dans plus de la moitié des articles publiés.

    C'est en raison de problèmes de ce type que certaines organisations ont interdit ChatGPT, notamment des écoles, des collèges et des sites qui dépendent du partage d'informations fiables, comme Stack Overflow. Au début du mois, une conférence universitaire de premier plan sur l'apprentissage automatique a interdit l'utilisation de tous les outils d'IA pour rédiger des articles, tout en précisant que les auteurs pouvaient utiliser ces logiciels pour "peaufiner" et "modifier" leurs travaux. Il est difficile de savoir exactement où se situe la limite entre la rédaction et l'édition, mais pour Springer Nature, ce cas d'utilisation est également acceptable.

    Les outils d'IA peuvent non seulement générer et paraphraser des textes, mais aussi itérer la conception d'expérience ou être utilisés pour échanger des idées, comme un partenaire de laboratoire. Un système d'IA, comme Semantic Scholar, peut être utilisé pour rechercher des articles de recherche et résumer leur contenu. Skipper note qu'une autre possibilité consiste à utiliser les outils de rédaction de l'IA pour aider les chercheurs dont l'anglais n'est pas la langue maternelle. « Il peut s'agir d'un outil de nivellement de ce point de vue », dit-elle. Enfin, Skipper estime qu'interdire les outils d'IA dans les travaux scientifiques serait inefficace.

    « Je pense que nous pouvons affirmer sans risque de nous tromper que l'interdiction pure et simple de quoi que ce soit ne fonctionne pas. Au lieu de cela, la communauté scientifique - y compris les chercheurs, les éditeurs et les organisateurs de conférences - doit se réunir pour élaborer de nouvelles normes de divulgation et des garde-fous pour la sécurité », dit-elle. En attendant, ChatGPT gagne du terrain et pourrait bientôt débarquer dans les outils de productivité de Microsoft, notamment sa suite bureautique Office. Des sources ont rapporté que la firme de Redmond pourrait s'appuyer sur ChatGPT pour muscler les logiciels tels que Word et Excel.

    Source : Springer Nature

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Craignant des problèmes de droits d'auteur, Getty Images interdit les œuvres d'art générées par l'IA. Certains artistes dont le travail a été spolié ont appelé à l'établissement de nouvelles lois

    Une artiste reçoit le premier enregistrement américain connu de droits d'auteur pour une œuvre d'art générée par l'IA,, pendant que se tient un vif débat en ligne sur l'éthique de l'art de l'IA

    Qui est le propriétaire du produit d'une intelligence artificielle ? Peut-on s'attribuer (par protection) les droits d'auteur d'une œuvre produite par une IA ?

    L'Office britannique de la propriété intellectuelle décide que les IA ne peuvent pas être mentionnées comme inventeurs, sur des brevets
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 35
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Par défaut Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours après sa création en novembre 2022
    Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines

    Chat GPT, l'outil d'IA conversationnelle développé par Open AI, a franchi une étape majeure dans sa courte histoire. Selon des rapports récents, Chat GPT a atteint un million d'utilisateurs cinq jours seulement après sa création en novembre 2022. Il s'agit d'un exploit impressionnant, surtout si on le compare à d'autres plateformes en ligne populaires qui ont mis plus de temps à atteindre une marque similaire.

    Chat GPT est un outil d'IA qui peut construire du texte naturel, ce qui le rend raisonnable pour un large éventail d'applications. La plateforme a été utilisée pour rédiger de brefs récits, de la prose, de la musique, des documents trimestriels, des codes de programmation, résoudre des problèmes mathématiques, reformuler et expliquer. La capacité de l'outil à imiter le langage humain en a fait un choix populaire parmi les utilisateurs, et son potentiel pour remplacer les personnes dans les emplois de cols blancs a même attiré l'attention du fondateur de Microsoft, Bill Gates.

    Nom : largest-tech-layoffs-since-2020.png
Affichages : 68224
Taille : 121,5 Ko

    Un autre avantage clé de cette nouvelle technologie d'IA est sa capacité à produire des réponses naturelles, ce qui en fait une alternative appropriée pour le service clientèle et les chatbots dans diverses entreprises. Cela peut aider les organisations à économiser du temps et des ressources tout en offrant une expérience plus personnalisée aux clients. En outre, cette technologie évolutive peut également être utilisée dans divers domaines de recherche, tels que le traitement du langage naturel et le développement de l'IA.

    Microsoft a récemment confirmé une énorme acquisition d'Open AI, les créateurs de Chat GPT. Cet investissement témoigne des possibilités de la technologie, et il est probable que les cas d'utilisation du Chat GPT seront bientôt encore plus nombreux, comme l'a souligné Bill Gates.

    Nom : Portada-1080x675.jpg
Affichages : 12902
Taille : 32,0 Ko

    Différentes plateformes/services de médias sociaux très répandus, tels qu'Instagram, Spotify et Dropbox, ont également atteint la barre du million d'utilisateurs, mais il leur a fallu plus de temps pour y parvenir. Instagram a franchi cette étape majeure en seulement 2,5 mois. De même, des plateformes telles que Spotify et Dropbox ont atteint le million d'utilisateurs en 5 et 7 mois, respectivement.

    Netflix, après son lancement en 1999, a mis près de trois ans pour atteindre ce cap, que Chat GPT vient d'atteindre dans les 5 jours suivant son lancement. Cela montre à quel point les services en ligne peuvent atteindre les utilisateurs beaucoup plus rapidement aujourd'hui qu'il y a 15 ans. L'augmentation de l'utilisation d'Internet au fil des ans a permis aux services en ligne d'atteindre plus facilement plus d'utilisateurs, et le Chat GPT ne fait pas exception.

    En conclusion, le succès rapide du Chat GPT témoigne des possibilités offertes par la technologie de l'IA, et il est probable que l'on verra bientôt encore plus de cas d'utilisation de cette technologie. Cette adoption rapide peut être attribuée à sa capacité à faire gagner du temps et à rationaliser diverses tâches.

    Qu'il s'agisse de rédiger de brèves histoires, de la prose, de la musique ou des travaux de fin d'études, de programmer du code de base, de résoudre des problèmes mathématiques ou de faire des traductions, Chat GPT peut accomplir des tâches rapidement et efficacement, ce qui permet aux utilisateurs de se concentrer sur des aspects plus importants de leur travail. La capacité de l'entreprise à atteindre un million d'utilisateurs en seulement cinq jours est une réussite impressionnante et montre la demande pour ce type de technologie. Avec le soutien d'acteurs majeurs comme Microsoft, l'avenir semble prometteur pour Chat GPT et ses utilisateurs.

    Source : Statista

    Et vous ?

    Trouvez-vous ce rapport pertinent ?
    Que pensez-vous de Chat GPT et de son adoption rapide par les utilisateurs ?

    Voir aussi :

    Microsoft et OpenAI travailleraient sur une version du moteur de recherche Bing intégrant le chatbot d'IA ChatGPT afin de défier Google, elle pourrait être lancée avant la fin du mois de mars

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

    Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

    La version professionnelle de ChatGPT est maintenant disponible et coûte 42 dollars par mois, mais beaucoup critiquent ce prix et le jugent "trop élevé pour les utilisateurs occasionnels"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut ChatGPT : Hive Moderation se lance à son tour dans la détection de texte généré par IA
    ChatGPT : Hive Moderation se lance à son tour dans la détection de texte généré par IA,
    mais le public est sceptique concernant l'efficacité de tous ces outils

    Les grands modèles de langage ont gagné en popularité depuis le lancement commercial de GPT-3 d'OpenAI en 2020. Aujourd'hui, de nombreux acteurs du secteur ont construit leurs propres systèmes rivaux, donnant le coup d'envoi à une nouvelle vague de startups développant des IA génératives. Ces modèles fonctionnent comme des chatbots à usage général. Les utilisateurs tapent des instructions, et ils répondent par des passages de texte cohérents et convaincants.

    Depuis la sortie de ChatGPT, plusieurs cas d'utilisations controversées ont été signalé. C'est le cas par exemple dans le domaine scolaire où des étudiants s'en sont servi pour faire leurs devoirs, tandis que les enseignants commencent seulement à considérer leur impact et leur rôle dans l'éducation.

    Les avis sont partagés. Certains pensent que la technologie peut affiner les compétences rédactionnelles, tandis que d'autres la considèrent comme un outil de tricherie.

    À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    « C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat. Mais les outils traditionnels de vérification de plagiat ne sont pas efficaces dans la mesure où le texte est original.

    Être capable de distinguer l'écriture produite par un humain ou une machine changera la façon dont ils peuvent être utilisés dans le milieu universitaire. Les écoles seraient en mesure d'appliquer plus efficacement l'interdiction des essais générés par l'IA, ou peut-être seraient-elles plus disposées à accepter des articles si elles pouvaient voir comment ces outils peuvent aider leurs élèves.

    Des sources ont rapporté au cours des dernières semaines que des écoles de Californie, de New York, de Virginie et de l'Alabama ont banni l'utilisation des outils d'IA tels que ChatGPT et ont bloqué l'accès des étudiants sur les réseaux publics. Les départements de l'éducation ne savent pas exactement quelles politiques devraient être introduites pour réglementer l'utilisation des systèmes d'IA de génération de texte. En outre, toutes les règles seraient de toute façon difficiles à appliquer.

    Hive Moderation se lance dans la détection de texte généré par IA

    C'est dans ce contexte qu'on commencé à être proposées des solutions visant à détecter si du texte est générée par IA. L'une d'elle est proposée par Hive Moderation. Hive Moderation est un outil qui permet la modération automatique de contenus. Cette solution vise à protéger votre plateforme des contenus visuels, audio et texte inappropriés. L’outil dispose d’une suite de modération de contenu.

    Les principales fonctionnalités de Hive Moderation sont les suivantes :
    • Modération de contenus visuels : l’outil prend en charge tous types de contenu visuel (images, vidéos, GIF, Webp) et dispose de 25 sous-filtres, dans 5 types de contenus distincts (NSFW, violence, drogue, incitation à la haine, images animées).
    • Modération de contenus audio : la solution applique une transcription et modération des contenus audio en temps réel. Elle dispose de filtres précis qui permettent de détecter des contenus audio à caractère sexuel, liés à la violence, au harcèlement, aux discours de haine ou encore au spam.
    • Modération de contenus textuels : Hive Moderation dispose d’une compréhension humaine du contenu textuel. L’outil est en mesure de prendre en charge une chaîne de caractères (jusqu’à 1024 caractères), en français, anglais, espagnol, allemand. Il peut également analyser le texte dans les images (memes, GIF, captures d’écran).
    • Tableau de bord : vous accédez à un tableau de bord qui vous permet de configurer des actions de modération personnalisées. Vous pouvez ainsi définir des règles pour agir automatiquement sur le contenu non approuvé et les utilisateurs qui ne respectent pas les conditions de votre plateforme. Vous identifiez et supprimez les spams, les messages signalés et les noms d’utilisateurs en fonction de leur historique de publication.

    À cette liste vient s'ajouter la détection de texte généré par IA. Hive Moderation décrit un fonctionnement est relativement simple. Vous prenez le texte supposé généré automatiquement que vous fournissez en entrée à l'outil, le modèle d'Hive Moderation décompose l'entrée en sections plus petites et analyse chacune pour déterminer si elle est générée par l'IA ou écrite par l'homme : « Nos résultats sont complets, y compris les prédictions et les scores de confiance pour le texte dans son ensemble et chaque segment plus petit qu'il contient ».

    Nom : work.png
Affichages : 9002
Taille : 40,2 Ko

    Cet outil, note Hive Moderation, peut-être utilisé à plusieurs fins :
    • détecter le plagiat : les programmes éducatifs peuvent facilement identifier quand les étudiants utilisent l'IA pour tricher sur les devoirs
    • promulguer des interdictions à l'échelle du site : les plateformes numériques peuvent filtrer le contenu textuel au fur et à mesure qu'il est publié pour faire respecter les interdictions sur les médias générés par l'IA
    • créer de nouveaux filtres : Les plateformes sociales peuvent identifier et étiqueter le texte généré par l'IA, permettant aux utilisateurs de choisir de le filtrer de leurs flux


    Nom : see.png
Affichages : 5506
Taille : 48,6 Ko

    D'autres outils qui aident à détecter le texte généré par l'IA

    Détecteur de sortie GPT-2

    OpenAI impressionne Internet avec ses efforts pour reproduire l'intelligence humaine et les capacités artistiques depuis 2015. Mais en novembre dernier, la société est finalement devenue méga-virale avec la sortie du générateur de texte AI ChatGPT. Les utilisateurs de l'outil bêta ont publié des exemples de réponses textuelles générées par l'IA à des invites qui semblaient si légitimes qu'elles ont semé la peur dans le cœur des enseignants et ont même fait craindre à Google que l'outil ne tue son activité de recherche.

    Si les ingénieurs d'OpenAI sont capables de créer un bot qui peut écrire aussi bien ou mieux que l'humain moyen, il va de soi qu'ils peuvent également créer un bot qui est meilleur que l'humain moyen pour détecter si le texte a été généré par IA.

    La démo en ligne du modèle de détecteur de sortie GPT-2 vous permet de coller du texte dans une boîte et de voir immédiatement la probabilité que le texte ait été écrit par l'IA. Selon les recherches d'OpenAI, l'outil a un taux de détection relativement élevé, mais « doit être associé à des approches basées sur les métadonnées, au jugement humain et à l'éducation du public pour être plus efficace ».

    GLTR (Giant Language model Test Room)

    Lorsque OpenAI a publié GPT-2 en 2019, les gens du MIT-IBM Watson AI Lab et du Harvard Natural Language Processing Group ont uni leurs forces pour créer un algorithme qui tente de détecter si le texte a été écrit par un bot.

    Un texte généré par ordinateur peut sembler avoir été écrit par un humain, mais un écrivain humain est plus susceptible de sélectionner des mots imprévisibles. En utilisant la méthode « il en faut un pour en connaître un », si l'algorithme GLTR peut prédire le mot suivant dans une phrase, alors il supposera que cette phrase a été écrite par un bot.

    GPTZero

    Durant la période des fêtes de fin d'années, Edward Tian était occupé à créer GPTZero, une application qui peut aider à déterminer si le texte a été écrit par un humain ou un bot. En tant qu'universitaire à Princeton, Tian comprend comment les professeurs d'université pourraient avoir un intérêt direct à détecter un « AIgiarism », ou un plagiat assisté par IA.

    Tian dit que son outil mesure le caractère aléatoire des phrases ("perplexité") plus le caractère aléatoire global ("burstiness") pour calculer la probabilité que le texte ait été écrit par ChatGPT. Depuis qu'il a tweeté à propos de GPTZero le 2 janvier, Tian dit qu'il a déjà été approché par des sociétés à capital risque souhaitant investir et qu'il développera bientôt des versions mises à jour.


    Le service antiplagiat Turnitin

    Turnitin a récemment mis en ligne une démo de sa technologie. Dedans, Turnitin a montré le nombre de phrases dans certains échantillons de dissertations qui ont été écrites par une IA (24 sur 24 dans un cas) et a mis en évidence le texte dans différentes nuances pour indiquer les parties écrites par l'IA et les parties partiellement écrites par l'IA. Annie Chechitelli, directrice des produits chez Turnitin, a déclaré que l'entreprise construit discrètement son logiciel de détection depuis des années, notamment depuis la sortie de GPT-3 en 2020. GPT-3 est un grand modèle de langage développé par OpenAI, avec environ 175 milliards de paramètres.

    L'outil est toujours en développement, mais Turnitin espère lancer son logiciel au cours du premier semestre de cette année. « Il s'agira d'une détection assez basique au début, puis nous lancerons des versions rapides ultérieures qui créeront un flux de travail plus exploitable pour les enseignants », a déclaré Chechitelli. Le plan est de rendre le prototype gratuit pour ses clients existants à mesure que la société recueille des données et des commentaires des utilisateurs. La ruée pour donner aux éducateurs la capacité d'identifier les textes écrits par des humains et des ordinateurs s'est intensifiée avec le lancement de ChatGPT fin novembre 2022.

    « Au début, nous voulons vraiment aider le secteur et aider les éducateurs à prendre leurs marques et à se sentir plus confiants. Et obtenir le plus d'utilisation possible dès le début ; c'est important pour faire un outil réussi. Plus tard, nous déterminerons comment nous allons le produire », a-t-elle ajouté. Bien que le texte généré par l'IA soit convaincant, il existe des signes révélateurs de l'œuvre d'une IA : elle est souvent fade et sans originalité ; des outils comme ChatGPT régurgitent des idées et des points de vue existants et n'ont pas de voix distincte. Les humains peuvent repérer les textes générés par l'IA, mais cela devient de plus en plus difficile.

    Toutefois, les machines sont bien meilleures pour cela. Eric Wang, vice-président de l'IA chez Turnitin, note que les ordinateurs peuvent détecter des modèles évidents dans les textes produits par l'IA. « Même si nous avons l'impression que cela ressemble à de l'œuvre d'un humain, [les machines écrivent en utilisant] un mécanisme fondamentalement différent. Elles choisissent le mot le plus probable à l'endroit le plus probable, et c'est une façon très différente de construire le langage par rapport à vous et moi », a-t-il déclaré à The Register. L'outil de Turnitin semble baser son fonctionnement sur la façon dont les humains lisent et écrivent les textes.

    Wang explique : « nous lisons en faisant des allers-retours avec nos yeux sans même le savoir, ou en papillonnant entre les mots, entre les paragraphes, et parfois entre les pages. Nous avons aussi tendance à écrire avec un état d'esprit futur. Je peux être en train d'écrire, et je pense à quelque chose, un paragraphe, une phrase, un chapitre ; la fin de la rédaction est liée dans mon esprit à la phrase que je suis en train d'écrire, même si les phrases entre maintenant et alors n'ont pas encore été écrites ». D'après Wang, ChatGPT, en revanche, ne dispose pas de ce type de flexibilité et ne peut générer de nouveaux mots qu'à partir de phrases précédentes.

    Le détecteur de Turnitin fonctionne en prédisant quels mots l'IA est plus susceptible de générer dans un extrait de texte donné. « C'est très fade sur le plan statistique. Les humains n'ont pas tendance à utiliser systématiquement un mot à forte probabilité dans des endroits à forte probabilité, mais GPT-3 le fait, et notre détecteur s'en aperçoit vraiment », a-t-il déclaré. Wang a déclaré que le détecteur est basé sur la même architecture que GPT-3 et l'a décrit comme une version miniature du modèle. Selon lui, à bien des égards, il s'agit de combattre le feu par le feu. Il y a un composant de détection attaché au lieu d'un composant de génération.

    Filigrane (à venir)

    En plus d'aborder le problème comme les détecteurs de plagiat l'ont fait dans le passé, OpenAI tente de résoudre le problème en filigranant tout le texte ChatGPT. Selon une récente conférence sur la sécurité de l'IA par le chercheur invité d'OpenAI, Scott Aaronson, les ingénieurs ont déjà construit un prototype fonctionnel qui ajoute un filigrane à tout texte créé par OpenAI.

    « Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT », explique Aaronson. L'outil utiliserait ce qu'il appelle une « fonction cryptographique pseudo-aléatoire ». Et seul OpenAI aurait accès à cette clé.

    Le public est plutôt sceptique concernant l'efficacité de tels outils

    « Ce qui est amusant avec des détecteurs dits précis, c'est qu'ils peuvent être utilisés de manière défavorable pour former le modèle d'origine afin de générer un contenu indétectable », note un internaute. Lui faisant écho, un autre déclare « Fondamentalement, le détecteur est un "banc d'essai" pour le générateur. Le générateur peut créer quelque chose, voir si le détecteur le détecte comme étant créé par l'IA, puis adapter le contenu jusqu'à ce que le détecteur ne soit pas en mesure de faire la différence entre le contenu créé par l'homme et celui créé par l'IA ».

    D'autres préfèrent y aller sur une note d'humour : « Tout cela se transforme en un cercle entier d'IA. A la fin l'IA se détruira avant la singularité ».

    Et d'autres encore tentent de démontrer l'absurdité du système : « Je viens d'effacer l'invite du système solaire [ndlr. dans la démo, Hive Moderation a écrit un texte sur le système solaire] et j'ai écrit la mienne en énumérant simplement les planètes et ce que sont les systèmes solaires. 96 % de probabilité d'IA. Est-il précis à 99 % pour détecter l'IA tout en sachant que ce n'est pas de l'IA ? »

    Source : Hive Moderation

    Et vous ?

    Partagez-vous les avis de ceux qui pensent que ces outils ne sont pas au point et que, de toutes façons, les IA génératives seraient entraînés à les battre, créant ainsi un « cercle vicieux » ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Invité
    Invité(e)
    Par défaut
    L'IA risque effectivement de causer beaucoup de tort aux pisseurs de code dont le travail n'a qu'une faible valeur ajoutée.

    Par contre, les programmeurs qui ont su développer une réelle compétence au fil des années n'ont pas trop de soucis à se faire.

  9. #9
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 061
    Par défaut
    bonne chance aux entreprises qui feront leurs code avec chatgpt.

    1) Même si le code compile, chatgpt sort pleins d'erreurs grossière.
    2) Ce code va t'il répondre au vrai besoin du client et au cahier des charges ? c'est très difficile pour le client d'exprimer clairement ce qu'il veut.
    3) le pire de tous, l'intégration. même si le code marche, il faut l'intégrer à aws/au parc d'ordinateur des salariés/a l'appareil embarqué...etc.

    Va falloir la faire évoluer très vite cette ia, car hélas pour elle, les frameworks et langages évolue vite, les clouds provider change régulièrement leurs api. Ca base de connaissance qui est stackoverflow fera du code obsolète.

    Si demain cette ia remplace tous les dev, y'aura plus personne pour l'alimenter sur stackoverflow donc elle deviendra inutile car fera du code obsolète très vite.


    C'est le vrai problème de ces ia, elles prennent du contenue sur le net (illégalement ?) crée par des humains. Si demain elles remplacent les humains ben elles ne pourront plus évoluer.
    Le jour ou la majorité des devs et des artistes mettrons une licence interdisant l'utilisation de leurs création dans le cadre d'un entrainement d'ia, c'est la fin de chatgpt.

    De ce que j'ai vu jusqu'à présent, chatgpt est surtout un gros futur flop.
    C'est impressionnant comment il est capable d'animer des conversations mais il est incapable de remplacer un métier humain, des qu'on le titille un peu il fait n'importe quoi.
    Une entreprise ne risquerait pas son business avec ce genre d'outil absolument pas fiable.

    Pour l'heure je ne vois pas dans quel métier il apporterait une valeur ajouté, même en tant que chatbot il ne sera pas plus pertinent que les algo utilisé actuellement car la BDD qui alimente le chatbot sera toujours aussi pauvre.

    Enfin derrière Chatgpt il y'a surtout une tonne d'indonésien/indiens/pakistanais ou que sais je qu'openai a bien exploité pour nettoyer les données d'entrée.
    Que sont ils devenues ?


    Je ne comprends pas pourquoi chatgpt inquiète autant google, quand on fait une recherche on veut une réponse fiable, donc avoir plusieurs qui donne la même réponse. chatgpt ne fait que donner une réponse sans source ni preuve le tout de façon très sur d'elle.

  10. #10
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    611
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 611
    Par défaut
    Même dans un futur ou leur IA pisseuse de code fonctionnerait bien.

    Quid de la confidentialité?

    Ça revient un peu à utiliser un IDE en cloud. Faut avoir confiance en l'entreprise derrière.
    Et j'ose espérer que dans les domaines critiques on est un minimum à cheval sur ça.

  11. #11
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859
    Par défaut
    Pour ce que j'en connais, dans les domaines critiques, on ne pisse pas de code. Même pour le site web. En général, cela vient d'une profonde réflexion qui ne se fait pas sur le web. Donc l'IA ne peut pas reproduire. Et depuis Snowden, un homme avertit en vaut deux.

  12. #12
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Pour ce que j'en connais, dans les domaines critiques, on ne pisse pas de code. Même pour le site web. En général, cela vient d'une profonde réflexion qui ne se fait pas sur le web. Donc l'IA ne peut pas reproduire. Et depuis Snowden, un homme avertit en vaut deux.
    Va dans une ESN, tu en verra plein de pisseurs de code qui n'ont clairement pas les capacités intellectuelles pour être développeur, mais c'est pas grave, car ils sont ultra spécialisés et toute la journée on juste à appliquer bêtement des bouts de Frameworks qui ont été pensé pour eux à partir de cahier des charges aussi entièrement pensé pour eux, qui dans la majorité des cas, se trouvent avoir été mal compris par le Product Owner, Chef de projet, ...

    Et de toute manière, c'est ce qu'on leur demande, raison pour laquelle ils sont payés 2 à 3 fois moins cher que des développeurs normaux.

  13. #13
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859
    Par défaut
    Je parle d'une entreprise comme Thales quand j'évoque les missions critiques, pas d'une ESN lambda où je me doute qu'ils ont des développeurs qui se réfèrent à StackOverflow ou d'autres sites. Et pour ce que j'en ai vu, ils ne vont pas sur le web mais font travailler leurs méninges.

  14. #14
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Je parle d'une entreprise comme Thales quand j'évoque les missions critiques, pas d'une ESN lambda où je me doute qu'ils ont des développeurs qui se réfèrent à StackOverflow ou d'autres sites. Et pour ce que j'en ai vu, ils ne vont pas sur le web mais font travailler leurs méninges.
    Oui je comprends le fond de ton argument, par contre prendre Thales comme exemple de gens qui utilisent leur méninge ...
    Pour avoir bossé avec eux, pour avoir des amis qui bossent là-bas et donc assez bien connaitre ces boites, clairement ils ne prennent pas la crème de la crème.

    Thalès malheureusement, c'est la boite typique Française de gens qui se pistonnent entre eux depuis des années au sortir de grande école, qui ne prends pas les meilleurs mais se recrutent entre copains/copines.

    Y faire un stage ou une alternance, ça, tu pourra y bosser sans problèmes, y faire un CDI, il faut oublier à moins d'être le profil que je cite.

    Tu m'aurais cité des boites comme EDF, RTE, certaines startup, TPE, PME : oui, clairement dedans on a intellectuellement du très lourd qui passent avant des batteries de tests intellectuels, techniques, ... avant de passer juste les entretiens et oui c'est pas du neuneu qui ne peut rien faire sans chatGPT, stackoverflow, Copilot, ...

    Mais Thalès, c'est vraiment le mythe qui est très loin de la réalité, même si tu as raison, c'est paradoxal car effectivement il font des logiciels très critiques.

  15. #15
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Par défaut Bill Gates affirme qu'une IA comme ChatGPT est tout aussi importante que le PC et l'Internet
    Bill Gates affirme qu'une IA comme ChatGPT est tout aussi importante que le PC et l'Internet
    et ajoute que l'IA devrait être le sujet de discussion principal de l'année 2023

    Bill Gates, cofondateur de Microsoft, a déclaré lors d'une récente interview que l'essor des chatbots d'IA comme ChatGPT sera tout aussi significatif que l'aube de l'Internet ou l'avènement des ordinateurs personnels (PC). Dans son ascension fulgurante, le chatbot d'IA développé par OpenAI n'a pas manqué d'attirer l'attention de Bill Gates, qui a contribué à lancer l'ère des PC dans les années 80. Désormais à la retraite, Bill Gates pense que l'IA devrait être le sujet de discussion principale au cours de cette année. Il pense également que l'IA devrait probablement avoir le même impact sur la société que le PC ou Internet, voire plus, dans les années à venir.

    Bill Gates s'y connaît en matière de changements de paradigme. Avant que les entreprises comme Microsoft et Apple n'arrivent sur le marché, les ordinateurs étaient en grande partie la propriété des grandes entreprises comme IBM, des gouvernements et des universités. Ils étaient considérés comme des appareils très techniques, non conçus pour un être humain moyen. Mais la démocratisation des PC dans les années 80 et l'arrivée de l'Internet grand public ont changé la donne, permettant à une personne lambda de prétendre à ces technologies. Une gigantesque filière s'est depuis développée atour du PC et de l'Internet : l'industrie technologique.

    Aujourd'hui, selon Bill Gates, une évolution tout aussi importante s'amorce avec ChatGPT et les outils d'IA semblables. « L'IA va être débattue comme le sujet le plus chaud de 2023. Et vous savez quoi ? C'est approprié. C'est tout aussi important que le PC ou l'Internet », a déclaré Bill Gates à Forbes. Il a ajouté qu'il passe désormais environ 10 % de son temps à discuter avec les équipes de Microsoft de leurs feuilles de route de produits, alors qu'il est depuis longtemps à la retraite et se concentre sur la philanthropie. Bill Gates s'est progressivement retiré des affaires de l'entreprise au cours de la dernière décennie, et a quitté le conseil d'administration en 2020.

    Nom : IMAGES-ARTICLES-16-850x560.jpg
Affichages : 8649
Taille : 47,8 Ko
    Bill Gates

    Lancé le 30 novembre 2022 par OpenAI, ChatGPT a fait des vagues grâce à sa capacité à répondre à des questions, parfois complexes, avec des réponses étrangement semblables à celles d'un humain. Selon une étude publiée récemment par la société d'analyse UBS, ChatGPT attire désormais plus de 100 millions d'utilisateurs actifs mensuels. Il a facilement atteint 100 millions d'utilisateurs beaucoup plus rapidement que TikTok ou Instagram. Dans le rapport d'étude, la société de services financiers affirme : « en 20 ans de suivi de l'espace Internet, nous ne pouvons pas nous souvenir d'une rampe plus rapide dans une application Internet grand public ».

    ChatGPT, qui utilise des données collectées sur des millions de sites Web pour répondre à des questions de manière claire et conversationnelle, a déjà montré à quel point les chatbots d'IA peuvent être populaires et utiles - de la rédaction de dissertations à l'offre de solutions de codage. Et les implications qu'ils peuvent avoir sur la main-d'œuvre mondiale sont immenses. Cependant, il n'est pas parfait. Le chatbot d'IA d'OpenAI donne parfois des réponses incorrectes ou est capable de faire passer des informations erronées pour vraies. Pour certains, ChatGPT est une révolution, mais pour d'autres, il ne fait que recracher ce qu'il a ingurgité sur Internet.

    Le succès de ChatGPT serait dû au fait qu'il fournit souvent de mauvaises réponses et qu'il est souvent inaccessible. Mais comme l'a déclaré Elad Gil, ancien de Google et investisseur : « si un produit est tout le temps cassé, mais que tout le monde continue à l'utiliser, c'est qu'il y a clairement adéquation produit-marché ». ChatGPT a relancé la course aux systèmes d'IA capables de "converser" en toute sécurité avec l'homme et de l'assister dans une multitude de tâches, de la recherche au codage. Google craint que ChatGPT fasse de l'ombre à son puissant moteur de recherche, car le chatbot s'avère beaucoup plus précis dans ses réponses que Google Search.

    Comme Bill Gates, Microsoft croit aux potentiels de l'IA, notamment les produits d'IA développés par OpenAI. Microsoft a investi un milliard de dollars dans OpenAI en 2019, dans le cadre d'un partenariat. Le partenariat a permis à la firme de Redmond d'obtenir une licence exclusive de la technologie GPT. Plus récemment, Microsoft a annoncé son intention d'investir davantage d'argent dans le laboratoire d'IA. En janvier, Microsoft a annoncé qu'elle faisait un nouvel investissement "pluriannuel et de plusieurs milliards de dollars" dans OpenAI, sans révéler le montant. Toutefois, des sources estiment que l'investissement était d'environ 10 milliards de dollars.

    Aujourd'hui, la société que Gates a cofondée il y a près de 50 ans prévoit d'intégrer la technologie d'"IA générative" d'OpenAI dans une série de ses produits, dont Excel, PowerPoint et le moteur de recherche Bing. Cela a mis le feu aux poudres chez Google, dont beaucoup se demandent si sa domination dans le domaine de la recherche ne risque pas d'être bouleversée. Selon la rumeur, ChatGPT fait l'objet d'une "alerte rouge" au sein de la firme de Mountain View. Le mois dernier, le New York Times a rapporté qu'Alphabet, la société mère de Google, a fait appel à Larry Page et Sergey Brin, les deux cofondateurs de Google, pour l'aider à relever le défi.

    Bill Gates s'était déjà exprimé sur ChatGPT le mois dernier lors d'une session AMA (Ask Me Anything) sur Reddit. Lorsqu'on lui a demandé son avis sur le chatbot IA, il a répondu : « il donne un aperçu de ce qui est à venir. Je suis impressionné par toute cette approche et le rythme de l'innovation ». Et lorsqu'on lui a demandé s'il y avait de grands changements technologiques en cours actuellement, il a répondu : « l'IA est la plus importante. L'IA est assez révolutionnaire ». Mais certaines sources indiquent que Bill Gates n'a pas toujours été un si grand partisan d'OpenAI, et encore moins de la façon dont elle aborde le développement de l'IA.

    Par le passé, lorsque Microsoft a envisagé pour la première fois de s'associer à OpenAI, Bill Gates aurait exprimé des doutes sur la technologie de l'entreprise. Selon le média The Information, des personnes connaissant bien le sujet ont déclaré que le milliardaire était "très engagé" dans l'analyse de la technologie d'OpenAI avant le partenariat. En outre, il doutait de la capacité de l'IA d'OpenAI à comprendre et à contextualiser la parole humaine. Aujourd'hui, même si ChatGPT est toujours sujet à des erreurs qu'un humain peut facilement éviter, Bill Gates semble reconnaître qu'il s'agit de l'un des chatbots d'IA interprétant le mieux le langage naturel.

    Un rapport paru la semaine dernière indique qu'OpenAI entraîne désormais ChatGPT afin qu'il remplace les programmeurs humains. La société aurait engagé de façon discrète des centaines de contractants internationaux pour entraîner son chatbot à cette fin. OpenAI n’est pas un cas isolé en la matière. Google s'est également lancé sur un projet similaire dénommé Pitchfork. Ainsi, certains développements en cours dans la filière peignent un futur dans lequel « les programmeurs humains seraient dépassés et ne seraient plus indispensables pour créer un logiciel ». Cependant, de nombreux spécialistes pensent qu'il s'agit d'une simple utopie.

    Source : Forbes

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations de Bill Gates sur ChatGPT ?
    Pensez-vous que ChatGPT est aussi révolutionnaire que le PC et l'Internet ?
    À votre avis, d'où vient le succès de ChatGPT ?
    Qu'apporte-t-il de révolutionnaire par rapport aux chatbots précédents ?
    A-t-il une particularité ou fait-il simplement l'objet d'un battage médiatique comme la blockchain ?

    Voir aussi

    OpenAI le créateur de ChatGPT entraîne son IA pour remplacer les programmeurs humains, d'après un rapport qui ravive le débat sur la future disparition du métier de développeur

    Un professeur d'informatique de Princeton déclare qu'il n'y a pas à paniquer face à un générateur de foutaises comme ChatGPT, qu'il considère comme de « la poudre de perlimpinpin » en matière d'IA

    ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet, atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  16. #16
    Expert confirmé
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 132
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 132
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Bill Gates affirme qu'une IA comme ChatGPT est tout aussi importante que le PC et l'Internet
    et ajoute que l'IA devrait être le sujet de discussion principal de l'année 2023
    Il a besoin de faire parler de lui, l'ancien ? C'est pas lui qui disait, déjà, il y a de loooongues années en arrière, qu'un PC n'aurait jamais besoin de plus de 1 Mo de mémoire ou qqchse comme ça ?
    Qu'il se rendorme, ça nous fera des vacances et ça évitera de gaspiller de l'énergie pour stocker son blabla...

  17. #17
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Il a besoin de faire parler de lui, l'ancien ? C'est pas lui qui disait, déjà, il y a de loooongues années en arrière, qu'un PC n'aurait jamais besoin de plus de 1 Mo de mémoire ou qqchse comme ça ?
    Qu'il se rendorme, ça nous fera des vacances et ça évitera de gaspiller de l'énergie pour stocker son blabla...
    Calmos ...
    Sans le bilou, on serait encore à l'âge de pierre.

    Certaines personnes, qu'on les apprécies ou non, méritent un minimum de respect, même si la manière dont ils ont construit leur boite et tout ce qui va avec est discutable, le résultat est là.

    Sans un OS comme windows, on peu dire ce qu'on veut, on serait toujours dans une tiers mondisation globalisée et, bien que je sois un linuxien et surtout pas un windowsien, à un moment donné il faut arrêter de cracher dans la soupe.

  18. #18
    Expert confirmé
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 132
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 132
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Sans le bilou, on serait encore à l'âge de pierre.

    Certaines personnes, qu'on les apprécies ou non, méritent un minimum de respect, même si la manière dont ils ont construit leur boite et tout ce qui va avec est discutable, le résultat est là.

    Sans un OS comme windows, on peu dire ce qu'on veut, on serait toujours dans une tiers mondisation globalisée et, bien que je sois un linuxien et surtout pas un windowsien, à un moment donné il faut arrêter de cracher dans la soupe.
    Tu as la mémoire courte, je trouve. Ou vide : à l'époque de DOS 6.22 et/ou Windows 2 ou 3, il y avait plein d'autres systèmes d'exploitation qui auraient pu réussir tout autant : je me souviens d'un truc genre Windows 3 chez des amis vers 1995 (je ne sais plus trop, c'est loin...) qui fonctionnait parfaitement à la souris et avec fenêtres, donc Bilou a magouillé je ne sais trop quoi pour verrouiller le marché et voilà où on en est. Ça s'appelait GeoWorks.
    Extrait du lien :
    La première version de GeoWorks est sortie en 1990. Elle offrait des performances impressionnantes pour l'époque : interface graphique à icônes (basée sur Motif), polices vectorielles, multitâche, et ce même sur PC/XT. Ses performances étaient excellentes en comparaison de Windows 3.0 car GeoWorks était programmé directement en assembleur.
    Des polices vectorielles en 1990 !
    Les polices de caractères des systèmes d'exploitation sont restées au format bitmap jusqu'à l'arrivée du MacOS Système 7 en mai 1991, qui propose alors le nouveau format TrueType (TTF) comme format de police vectorielle. Il est également utilisé par Microsoft à partir de 1992 avec Windows 3.1,
    source
    Mais faut arrêter le HS sinon on va se faire démonter.

  19. #19
    Membre très actif
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Bill Gates affirme qu'une IA comme ChatGPT est tout aussi importante que le PC et l'Internet
    Faut pas exagérer. ChatGPT est dans la continuité de la 4ème révolution (commencée en 2010) avec les systèmes cyber-physiques (robot, impression 3D, réalité augmentée, IA...) et l’interconnexion (internet des objets...).

    Certes ChatGPT fait bien progresser l'IA, mais le temps où les usines et les services formeront une immense chaîne d'approvisionnement autonome réagissant au sur-mesure du consommateur n'est pas encore arrivé.

    Cette IA omnicompétente est encore jeune et demandera encore plusieurs années d'entrainement avant de réellement compter. Courage Billou, c'est pour bientôt (et pas forcément avec ChatGPT d'ailleurs).

  20. #20
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 558
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 558
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    et ajoute que l'IA devrait être le sujet de discussion principal de l'année 2023
    Ah visiblement l'écologie n'est plus un secteur porteur, M. Gates l'abandonne pour parier sur l'IA.
    Citation Envoyé par tepaze Voir le message
    Si des évolutions de chatGPT venaient à être elles aussi intégrés, je ne crois pas que cela serais pour nous remplacer, mais pour nous rendre - une fois de plus - plus productif.
    C'est déjà présent depuis longtemps, avec les EDI, l'auto-complétion, etc... Mais ça pousse fort en ce moment pour que cette auto-[...] soit plus efficace, plus massive.
    Je suis d'accord que tout ça est validé parce que plus productif mais une bonne partie de l'auto-[...] se fait en shadow IT parce que les gens en ont marre de faire 5 fois la même chose dans 5 systèmes différents ou en ont marre de passer leur journée faire des copier/coller.

Discussions similaires

  1. Réponses: 0
    Dernier message: 24/06/2024, 11h26
  2. Réponses: 0
    Dernier message: 21/03/2024, 20h09
  3. Réponses: 0
    Dernier message: 31/12/2022, 21h09
  4. Réponses: 8
    Dernier message: 04/06/2016, 17h36
  5. Les vieux sont très fort au Basket
    Par kOrt3x dans le forum Sports
    Réponses: 2
    Dernier message: 08/08/2013, 16h43

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo