IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le modèle d'IA GPT-4 Turbo d'OpenAI est-il vraiment plus puissant et plus performant que son prédécesseur ?


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    422
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 422
    Points : 7 908
    Points
    7 908
    Par défaut Le modèle d'IA GPT-4 Turbo d'OpenAI est-il vraiment plus puissant et plus performant que son prédécesseur ?
    OpenAI lance un nouveau modèle de langage appelé GPT-4 Turbo qui serait plus puissant et moins cher que GPT-4
    avec une fenêtre contextuelle plus grande que celle du modèle d'IA Claude 2 d'Anthropic

    OpenAI vient d'annoncer un nouveau grand modèle de langage (LLM) appelé GPT-4 Turbo. Il s'agit d'une version améliorée de GPT-4 qui, selon l'entreprise, est à la fois plus puissante et moins coûteuse. Actuellement en avant-première, GPT-4 Turbo pourrait être jusqu'à trois fois moins cher pour les développeurs. OpenAI a annoncé que GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images. Enfin, OpenAI s'engagé à protéger ses clients contre les poursuites en matière de droits d'auteur, les plaintes pour violation du droit d'auteur s'étant multipliées au cours des derniers mois.

    OpenAI a organisé lundi son premier événement pour les développeurs. Lors de cet événement, le PDG Sam Atman a présenté les nouvelles offres de l'entreprise et a annoncé que ChatGPT compte aujourd'hui environ 100 millions d'utilisateurs actifs hebdomadaires. Et Mira Murati, directrice technique d'OpenAI, a déclaré à la presse lundi que plus de 92 % des entreprises du classement Fortune 500 utilisent désormais les produits d'OpenAI, contre 80 % en août. Ces sociétés couvrent des secteurs tels que les services financiers, les applications juridiques et l'éducation. L'événement a été marqué par l'apparition surprise du PDG de Microsoft, Satya Nadella.

    Altman a introduit lundi un nouveau modèle d'IA appelé GPT-4 Turbo. Il s'agit du successeur de GPT-4 qui a été présenté en mars et a été rendu public en juillet. GPT-4 Turbo ajoute de nouvelles fonctionnalités, propose des prix réduits et bien d'autres choses encore. GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images. La première version sera disponible en avant-première via une API à partir de cette semaine, et Altman a annoncé lors de l'événement qu'OpenAI prévoit de rendre les deux versions généralement disponibles dans les semaines à venir.


    GPT-4 Turbo dispose également d'une fenêtre contextuelle élargie. La fenêtre contextuelle, mesurée en jetons, fait référence au texte que le modèle prend en compte avant de générer tout texte supplémentaire. Les modèles dotés d'une petite fenêtre contextuelle ont tendance à "oublier" le contenu des conversations, même les plus récentes, ce qui les amène à s'écarter du sujet, souvent de manière problématique. GPT-4 Turbo offre une fenêtre contextuelle de 128 000 jetons - quatre fois la taille de GPT-4 et la plus grande fenêtre contextuelle de tous les modèles d'IA disponibles sur le marché, dépassant même le modèle d'IA Claude 2 d'Anthropic.

    Claude 2 supporte jusqu'à 100 000 jetons. Anthropic a annoncé qu'il se préparait à expérimenter une fenêtre contextuelle de 200 000 jetons, mais ne l'a pas encore rendue publique. En effet, 128 000 jetons correspondent à environ 100 000 mots ou 300 pages, ce qui correspond à peu près à la longueur des "Hauts de Hurlevent", des "Voyages de Gulliver" et de "Harry Potter et le prisonnier d'Azkaban". Altman a annoncé que cette nouvelle version de GPT-4 continuera d'accepter les messages-guides sous forme d'images, les demandes de synthèse vocale et intégrera aussi DALL-E 3, une fonctionnalité annoncée pour la première fois le mois dernier.

    En outre, GPT-4 accepte des budgets plus modestes. Il est trois fois moins cher pour les jetons d'entrée et deux fois moins cher pour les jetons de sortie. Les prix sont de 0,01 $ pour 1 000 jetons d'entrée (~750 mots), où les jetons représentent des morceaux de texte brut (par exemple, le mot "fantastique" divisé en "fan", "tas" et "tic") et de 0,03 $ pour 1 000 jetons de sortie (les jetons d'entrée sont des jetons introduits dans le modèle d'IA, tandis que les jetons de sortie sont des jetons que le modèle génère sur la base des jetons d'entrée). L'entreprise promet de continuer à optimiser ses prix afin de rendre ses plateformes accessibles à plus de monde.

    « Nous avons optimisé les performances afin de pouvoir offrir GPT-4 Turbo à un prix trois fois moins cher pour les jetons d'entrée et un prix deux fois moins cher pour les jetons de sortie par rapport à GPT-4 », écrit OpenAI dans un billet de blogue publié lundi. GPT-4 Turbo présente plusieurs autres améliorations par rapport à GPT-4, notamment une base de connaissances plus récente sur laquelle s'appuyer pour répondre aux requêtes. La base de connaissances de GPT-4 est limitée à septembre 2021 (tout comme son prédécesseur GPT-3.5), tandis que le seuil de connaissance du GPT-4 Turbo a été étendu et couvre toutes les connaissances jusqu'en avril 2023.

    Cela signifie que les questions portant sur des faits récents - du moins ceux qui se sont produits avant la nouvelle date limite d'avril 2023 - devraient donner lieu à des réponses plus précises. Altman a promis que plus d'efforts seront faits pour garder GPT-4 Turbo à jour : « nous essaierons de faire en sorte que le modèle ne soit plus jamais obsolète ». Selon lui, les améliorations apportées à GPT-4 Turbo permettent aux utilisateurs de demander au modèle d'effectuer des tâches plus complexes en une seule fois. Ils peuvent demander à GPT-4 Turbo d'utiliser spécifiquement le langage de codage de leur choix pour les résultats, comme le code XML ou JSON.

    « Ce mode est utile pour les applications Web qui transmettent des données, comme celles qui envoient des données d'un serveur à un client afin qu'elles puissent être affichées sur une page Web », explique l'OpenAI. D'autres nouveaux paramètres connexes permettront aux développeurs de faire en sorte que le modèle renvoie plus souvent des complétions "cohérentes" et, pour des applications plus spécialisées, de consigner les probabilités pour les jetons de sortie les plus probables générés par GPT-4 Turbo. Selon le billet de blogue d'OpenAI, le nouveau modèle de langage de l'entreprise est également plus performant en matière d'appel de fonction.


    OpenAI a introduit son API dès 2020 et affirme aujourd'hui que plus de deux millions de développeurs utilisent la spécification pour intégrer des modèles tels que GPT-4, GPT-3.5, DALL-E et Whisper dans leurs propres applications. Lors de l'événement, le PDG de Microsoft, Satya Nadella, est monté sur la scène, discutant avec Altman de l'approfondissement du partenariat entre Microsoft et OpenAI et partageant quelques idées générales sur l'avenir de l'IA, qui, selon lui, donnera plus de pouvoir aux gens. L'accord entre Microsoft et OpenAI est vivement critiqué, Elon Musk, cofondateur d'OpenAI, affirmant que cela rompt avec les valeurs initiales d'OpenAI.

    Interrogé sur la manière dont Microsoft perçoit son partenariat avec OpenAI, Nadella s'est montré enthousiaste : « nous vous aimons beaucoup. Cela a été fantastique pour nous ». Il a ensuite expliqué comment Azure, la plateforme cloud de Microsoft, a évolué à la lumière des modèles construits par OpenAI. « L'objectif de Microsoft, c'est d'être en mesure de diffuser largement les avantages de l'IA à tout le monde », ajoutant que la sécurité est également une préoccupation majeure. Mais Nadella est critiqué et les détracteurs d'OpenAI affirment que l'entreprise est plus fermée que jamais et répond exclusivement à l'agenda de Microsoft en matière d'IA.

    Outre les améliorations apportées au modèle phare, OpenAI a également annoncé qu'elle suivrait les traces de Microsoft et de Google et qu'en cas de poursuite, il offrirait une indemnité aux utilisateurs professionnels dans le cadre d'un programme appelé "Copyright Shield". « Nous interviendrons désormais pour défendre nos clients et payer les frais encourus si vous faites l'objet de poursuites judiciaires pour violation de droits d'auteur », a déclaré l'entreprise dans un communiqué. Selon OpenAI, la mesure Copyright Shield couvrira les fonctionnalités généralement disponibles de ChatGPT Enterprise et de la plateforme de développement d'OpenAI.

    Google a déclaré qu'il assumerait la responsabilité juridique si les clients utilisant ses fonctions d'IA générative étaient poursuivis pour violation du droit d'auteur. Microsoft a également étendu les mêmes protections aux utilisateurs professionnels de ses produits Copilot AI. Getty Images, Shutterstock et Adobe ont étendu la protection de leur responsabilité financière à leurs logiciels de création d'images. L'initiative d'OpenAI intervient après que des auteurs connus ont déposé au moins trois plaintes contre OpenAI pour l'utilisation présumée de leurs œuvres protégées par le droit d'auteur dans le cadre de la formation du chatbot ChatGPT.

    Parmi les plaignants figurent Jonathan Franzen, John Grisham, Michael Chabon, George RR Martin, Jodi Picoult et Authors Guild, une association professionnelle. Pour créer leurs modèles de langage, les entreprises utilisent des milliards de lignes de texte provenant du Web, y compris des bases de données comprenant des dizaines de milliers de livres protégés par des droits d'auteur. À ce propos, OpenAI a précédemment déclaré : « nous sommes convaincus que nous continuerons à trouver des moyens mutuellement bénéfiques de travailler ensemble pour aider les gens à utiliser les nouvelles technologies dans un écosystème de contenu riche ».

    Lundi, OpenAI a également présenté une nouvelle API appelée Assistants API, qui vise à faciliter la création d'assistants d'IA personnalisables. « Assistants API comprend des threads persistants, de sorte qu'ils n'ont pas à se demander comment gérer un long arbre de conversation, une récupération intégrée, un interpréteur de code, un interpréteur Python fonctionnel et un environnement sandbox, [et un appel de fonction amélioré] », a expliqué Altman. Enfin, OpenAI introduit un nouveau moteur de revenus pour l'entreprise : une boutique d'applications. Altman a annoncé lundi l'arrivée imminente d'une boutique d'applications appelée GPT Store.

    Le GPT Store devrait permettre aux personnes qui créent leurs propres modèles GPT de les mettre à la disposition du public pour les télécharger. OpenAI a déclaré que dans les mois à venir, les gens pourront gagner de l'argent en fonction du nombre d'utilisations de leur création. « Une fois dans le magasin, les modèles GPT deviennent consultables et peuvent grimper dans les classements. Nous mettrons également en avant les modèles GPT les plus utiles et les plus agréables que nous rencontrerons dans des catégories telles que la productivité, l'éducation et "juste pour le plaisir" », explique OpenAI dans un communiqué.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des améliorations apportées par le modèle d'IA GPT-4 Turbo ?
    En quoi ces fonctionnalités rendent-elles le modèle de langage d'OpenAI plus attractif ?
    Que pensez-vous de l'initiative visant à indemniser les clients en cas de poursuites pour violation du droit d'auteur ?
    Est-ce une manière pour OpenAI, Microsoft et Google de snober les discussions sur le droit d'auteur ?

    Voir aussi

    Le nouveau Microsoft 365 Copilot, alimenté par le GPT-4 d'OpenAI, est disponible pour 30 $ par mois, l'outil sera intégré dans les applications Microsoft 365, y compris Word, Excel et plus encore

    GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin

    Bill Gates ne s'attend pas à ce que GPT-5, la nouvelle version du modèle d'IA générative, soit beaucoup plus performante que GPT-4, il affirme que la technologie GPT a atteint un "plateau"

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    422
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 422
    Points : 7 908
    Points
    7 908
    Par défaut Le modèle d'IA GPT-4 Turbo d'OpenAI est-il vraiment plus puissant et plus performant que son prédécesseur ?
    GPT-4 Turbo est-il vraiment plus puissant et plus performant ? Les résultats des benchmarks et les avis sont partagés sur l'édition de code
    et les autres usages


    OpenAI a publié GPT-4 Turbo affirmant qu'il s'agit du modèle d'IA le plus puissant de l'entreprise et de l'industrie. Mais cette affirmation est controversée. Les résultats de tests individuels révèlent que le nouveau modèle d'IA d'OpenAI affiche des performances mitigées sur les benchmarks. Lors des tests réalisés avec Aider, un outil de ligne de commande, GPT-4 Turbo fait légèrement mieux que GPT-4 : 53 % des codes générés par GPT-4 Turbo semblent corrects contre 46 % pour son prédécesseur. Par contre, dans les tests réalisés sur le benchmark SAT (une série de questions d'entraînement), GPT-4 Turbo obtient un score inférieur à celui de son prédécesseur, GPT-4.

    GPT-4 Turbo affiche des performances mitigées en matière de génération de code

    Les performances réelles de GPT-4 Turbo font l'objet d'un grand débat dans la communauté. En dévoilant GPT-4 Turbo en avant-première, OpenAI n'a pas présenté les résultats des tests de performance qui lui permettent d'affirmer qu'il s'agit du modèle d'IA le plus puissant de l'industrie. Au contraire, l'entreprise semble avoir laissé le soin aux développeurs de tester l'outil et de faire part de leurs commentaires. Les résultats des premiers tests individuels sont tombés et révèlent que même si GPT-4 Turbo semble beaucoup plus rapide que GPT-4 et GPT-3.5, il affiche des performances peu séduisantes, voire parfois inférieures à celles de ces prédécesseurs.

    Nom : esdrfggt.png
Affichages : 1378
Taille : 55,2 Ko

    Après des tests réalisés sur le benchmark Aider, un développeur rapporte que GPT-4 est beaucoup plus rapide et un peu plus performant en matière de codage que les modèles GPT-4 précédents. Aider est un outil de chat en ligne de commande open source qui vous permet de travailler avec GPT pour éditer du code dans votre dépôt Git local. Pour ce faire, Aider doit être capable de reconnaître de manière fiable quand GPT veut éditer votre code source, de déterminer quels fichiers il veut modifier et d'appliquer avec précision les changements qu'il essaie de faire. Selon l'auteur, vous pouvez démarrer un nouveau projet ou travailler avec un dépôt existant.

    Le benchmark utilise Aider pour essayer de compléter 133 exercices de codage Python d'Exercism. Pour chaque exercice, Exercism fournit un fichier Python de départ avec les fonctions nécessaires, une description en langage naturel du problème à résoudre et une suite de tests qui permettent d'évaluer si le codeur a correctement résolu le problème. Voici ci-dessous les résultats obtenus par GPT-4 lors de ce test de performance :

    • le nouveau modèle GPT-4 Turbo (que les développeurs peuvent tester en passant l'argument "gpt-4-1106-preview" dans l'API) semble beaucoup plus rapide que les modèles GPT-4 précédents ;
    • GPT-4 Turbo semble mieux produire un code correct du premier coup. Environ 53 % des exercices de codage qu'il a résolus étaient corrects, sans avoir besoin de voir les erreurs de la suite de tests. Les modèles précédents n'obtenaient qu'un taux de réussite de 46 à 47 % du premier coup ;
    • GPT-4 Turbo semble obtenir des résultats similaires (~62 %) à ceux des anciens modèles (63 à 64 %) après leur deuxième chance de corriger les bogues en examinant les résultats des erreurs de la suite de tests.


    Le développeur a toutefois mis en garde : « il s'agit de résultats préliminaires. OpenAI impose des limites de débit très basses au nouveau modèle GPT-4. La limitation du taux perturbe le processus d'analyse comparative, qui doit être interrompu et redémarré fréquemment. Il a fallu environ 20 exécutions partielles sur environ 2 jours pour compléter les 133 exercices d'Exercism. Le système d'analyse comparative est conçu pour s'arrêter et redémarrer de cette manière, mais les résultats d'une seule exécution "propre" seraient plus fiables. Une fois que les limites de taux seront assouplies, j'effectuerai une exécution propre de l'ensemble du benchmark ».

    Ce dernier a publié les résultats de son test, mais ils ont été contestés par des critiques qui affirment que GPT-4 Turbo n'est pas meilleur pour le codage et qu'OpenAI n'a pas été tout à fait clair sur les améliorations qu'il a apportées au modèle de langage. Un critique qui a testé la version préliminaire de l'API rapporte :

    J'ai donc joué avec la prévisualisation de l'API et ce que j'ai trouvé est le suivant : la longueur de contexte de 128 000 jetons ne peut pas garder un script de code de 100 lignes dans sa mémoire (1 000 à 2 000 jetons ou quelque chose de très court comparé à la longueur de contexte de 128 000).

    J'ai collé le script dans le chat et j'ai demandé une amélioration. Je lui ai surtout demandé de me renvoyer le code complet avec les améliorations. Alors oui, il ne l'a pas fait, il m'a donné le script et a inutilement donné quelques fonctions (pas très longues donc quelques lignes de code) comme "voici la fonction dans votre code précédent". J'ai torturé la machine avec des instructions personnalisées et je lui ai dit très clairement qu'elle devait toujours me renvoyer le code complet avec les améliorations et ne rien laisser de côté. La machine n'obéit pas à ces instructions et ne complète toujours pas une partie du code qu'elle me renvoie.

    En fait, GPT-4 Turbo prétend que mon code original ne comportait pas ces fonctions en toutes lettres, alors qu'elles l'étaient. Ainsi, la longueur de contexte de 128 000 jetons est une sorte de compression, ce qui signifie que, quel que soit le contexte que vous lui donnez, il sera simplement compressé. Il peut ou non reconnaître une partie importante qui est cruciale pour votre tâche, selon qu'elle se perd ou non dans la compression. J'ai répété ce processus tellement de fois que j'ai abandonné et j'ai conclu que la longueur de contexte de 128 000 jetons est un argument marketing ou qu'il y a de sérieux problèmes liés à la demande qui cassent le système.

    Je n'ai pas besoin d'expliquer ce que cela signifie pour la précision ou la qualité du travail effectué. Certes, je peux compresser un livre et obtenir un beau résumé, mais si ce n'est pas ce que je veux, je n'ai pas de chance. Si je veux vraiment qu'il comprenne mon contexte, je dois revenir aux anciens modèles. Oh attendez, ceux-ci sont maintenant déclassés ou affichent au moins 2 000 jetons de longueur de contexte maximum (par rapport aux 8 000 jetons précédents par exemple).

    Je pense que demander une longueur de contexte de 128 000 jetons avec la même qualité que 8 000 par exemple, alors que c'est plus rapide et moins cher, c'est un peu stupide. Mais je ne peux m'empêcher de penser que pour le codage et de nombreuses tâches du monde réel, c'est à la limite de l'inutilisable (du moins pour moi et mes cas d'utilisation).

    Je vais juste clarifier quelques points ici. Je n'ai pas eu de problème avec le système d'exploitation, donc mon entrée + sortie était bien en dessous de 4 000 jetons (limite de la sortie actuellement). GPT 3.5 et GPT 4 avec un contexte plus court pouvaient gérer le code sans compression, donc c'est un problème qui n'affecte que GPT-4 Turbo (preview). Cette limitation est une chose qui ne peut pas être contournée par une "ingénierie rapide".
    Les performances de GPT-4 Turbo sont controversées par un test sur le benchmark SAT

    OpenAI a dévoilé GPT-4 Turbo cette semaine et l'a présenté comme une version améliorée de son puissant grand modèle de langage (LLM) GPT-4. L'une des principales améliorations de GPT-4 Turbo est l'agrandissement de la fenêtre contextuelle. Le contexte fait référence à la quantité de texte que le modèle de langage peut traiter en même temps. GPT-4 Turbo peut traiter jusqu'à 128 000 jetons, soit l'équivalent d'environ 300 pages de texte. Il s'agit de l'une des plus grandes fenêtres contextuelles de tous les LLM actuels (Claude 2 n'offre que 100 000 jetons). Le modèle GPT-4, quant à lui, est limité à un nombre plus modeste de 8 000 tokens, soit 24 pages.

    La fenêtre contextuelle plus large permet à GPT-4 Turbo de comprendre en profondeur davantage d'informations et d'établir des liens entre des documents plus vastes. Avec plus de contexte, l'IA peut fournir des réponses plus "intelligentes" et plus nuancées que les quelques dernières phrases qu'elle a lues. Cette connaissance élargie conduit à des conversations plus cohérentes et à une analyse plus réfléchie. De plus, la base de connaissances de GPT-4 Turbo a été mise à jour à avril 2023, alors que celle de GPT-4 est limitée à septembre 2021. Grâce à ce changement, GPT-4 Turbo peut discuter et comprendre les derniers événements, recherches et faits.

    Selon OpenAI, pour un modèle d'IA, il est essentiel de rester à jour. Des connaissances obsolètes conduisent à des réponses incorrectes ou ignorantes. L'actualisation des connaissances de GPT-4 Turbo lui permet de rester pertinent et utile pour les conversations d'aujourd'hui. En plus, l'utilisation de GPT-4 Turbo est moins coûteuse pour les développeurs. L'entrée ne coûte que 0,01 $ pour 1 000 jetons, contre 0,03 $ pour GPT-4. Le coût de sortie est de 0,03 $ pour 1 000 jetons. Dans l'ensemble, le nouveau modèle est trois fois moins cher que les versions précédentes. Le coût réduit rend le modèle d'IA avancée plus accessible aux développeurs.

    Pourtant, tout ceci ne permet pas à GPT-4 Turbo d'obtenir de meilleurs résultats que GPT-4 sur le benchmark SAT. Le benchmark SAT (Scholastic Assessment Test) est une série de questions d'entraînement conçue pour aider les étudiants à se préparer à un test du même nom. Le SAT est un test standardisé couramment utilisé pour l'admission à l'université aux États-Unis. Il évalue la préparation d'un étudiant à l'université et est utilisé par de nombreux collèges et universités dans le cadre de leur processus d'admission. Le score moyen au SAT est d'environ 1 050, mais certaines universités sont très sélectives et exigent un score moyen plus élevé au SAT.

    Pour évaluer les performances de GPT-4 Turbo, un autre développeur s'est basé sur la section lecture du SAT, considérée comme une bonne référence humaine pour la capacité de raisonnement. « J'ai pris 3 sections (67 questions) d'un test officiel de 2008-2009 (échelle de 2 400) », a-t-il déclaré. Il a obtenu les résultats suivants :

    • GPT-3.5 : 690 points (10 fautes) ;
    • GPT-4 : 770 points (3 fautes) ;
    • GPT-4 Turbo : (une section à la fois) : 740 points (5 fautes) ;
    • GPT-4 Turbo (3 sections à la fois, 9 000 jetons) : 730 points (6 fautes).


    Le développeur explique : « 770 points contre 740 points au SAT sont en effet une énorme différence. En supposant que cela s'applique aux autres sections (que je n'ai pas encore notées), c'est un score de 2 310 contre 2 220 s'il est calculé, ce qui peut faire la différence entre l'entrée dans une université d'élite ou non ». Concernant les tâches de programmation, il a supposé : « pour une tâche comme la programmation, disons que GPT4 Turbo fait des erreurs 5 % du temps contre 3 % pour GPT4. Utiliseriez-vous GPT-4 Turbo même s'il était beaucoup plus rapide ? Je pense que pour la plupart des tâches de programmation, je m'en tiendrais à GPT4 ».

    Ce test rappelle un précédent rapport sur la dégradation des performances de GPT-4. Le rapport a allégué en juillet que les performances de ChatGPT et GPT-4 étaient en déclin, après avoir comparé les performances des modèles pendant plusieurs mois sur quatre tâches diverses : résolution de problèmes mathématiques, réponse à des questions délicates, génération de code et raisonnement visuel. Il révèle que les modèles ont obtenu des résultats médiocres sur certaines tâches en juin que dans leurs versions de mars. Par ailleurs, il souligne que la précision de GPT-4 dans un exercice de mathématique a chuté de 98 % en mars à 2 % en juin.

    Source : billets de blogue (1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des performances préliminaires de GPT-4 Turbo ?
    Selon vous, GPT-4 Turbo est-il meilleur que ses prédécesseurs ou pas ?
    Que pensez-vous du débat sur la fenêtre contextuelle élargie de GPT-4 Turbo ?
    Que pensez-vous des performances de GPT-4 Turbo en matière de génération de code ?

    Voir aussi

    OpenAI lance un nouveau modèle de langage appelé GPT-4 Turbo qui serait plus puissant et moins cher que GPT-4, avec une fenêtre contextuelle plus grande que celle du modèle d'IA Claude 2 d'Anthropic

    OpenAI introduit des assistants d'IA personnalisés appelés « GPT » qui jouent différents rôles selon vos besoins, et prévoit de rémunérer les créateurs dont les GPT seront utilisés

    GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    831
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 831
    Points : 13 769
    Points
    13 769
    Par défaut OpenAI interrompt les inscriptions à ChatGPT Plus en raison d'une forte demande
    OpenAI interrompt les inscriptions à ChatGPT Plus en raison d'une forte demande, car la plateforme a dépassé sa capacité, ce qui nuit à la qualité de l'expérience des utilisateurs, selon Sam Altman

    OpenAI, la société à l'origine du populaire chatbot d'intelligence artificielle (IA) ChatGPT, a déclaré qu'elle avait mis en attente les nouvelles inscriptions à la version premium de l'outil d'IA, ChatGPT Plus, en raison d'une forte augmentation de l'utilisation après le DevDay.

    Le PDG de l'entreprise, Sam Altman, a fait cette annonce par le biais d'un message sur X (anciennement Twitter) le mercredi 15 novembre. Selon M. Altman, les nouvelles inscriptions sont interrompues car la plateforme a dépassé sa capacité, ce qui affecte la qualité de l'expérience des utilisateurs. Sam Altman a déclaré que ChatGPT Plus avait connu une forte augmentation de son utilisation depuis le DevDay d'OpenAI, au cours duquel l'entreprise a annoncé de nouvelles interfaces de programmation d'applications (API) il y a environ une semaine.


    Le PDG a indiqué que, bien que les nouveaux enregistrements soient temporairement suspendus, les utilisateurs peuvent toujours choisir dans l'application d'être informés de la réouverture des abonnements. La décision de suspendre les nouvelles inscriptions à ChatGPT fait suite à une semaine au cours de laquelle les services OpenAI - y compris ChatGPT et son API - ont connu une série de pannes liées à une forte demande et à des attaques par déni de service distribué.

    La pause devrait signifier que les développeurs construisant des transformateurs génératifs pré-entraînés (GPT) et utilisant l'API rencontrent moins de problèmes (comme l'impossibilité de sauvegarder les brouillons de GPT). Mais cela pourrait aussi signifier une diminution temporaire du nombre de nouveaux utilisateurs de GPT, puisque ceux-ci ne sont disponibles que pour les abonnés Plus.


    À la suite de l'introduction des GPT, des développeurs et des entreprises ont créé des GPT à des fins diverses, par exemple pour la conception graphique sur Canva. Les spécialistes du marketing de recherche déjà abonnés à ChatGPT Plus peuvent essayer les GPT pour l'évaluation de contenu utile et l'apprentissage du référencement.

    ChatGPT est l'un des chatbots d'IA les plus populaires, avec plus de 180 millions d'utilisateurs, selon les données de SimilarWeb. Mais il est confronté à la concurrence croissante de Bard de Google et de Claude 2 d'Anthropic. Le 5 novembre, Elon Musk a annoncé qu'il avait créé son propre programme de chat IA, "Grok".

    OpenAI a récemment élargi son champ d'action en s'associant à la startup Humane pour lancer un dispositif physique d'IA, Ai Pin, qui est un assistant virtuel d'IA à porter sur soi.

    Et vous ?

    Quelle lecture faites-vous de cette situation ?

    Voir aussi

    GPT-4 Turbo est-il vraiment plus puissant et plus performant ? Les résultats des benchmarks et les avis sont partagés sur l'édition de code et les autres usages

    OpenAI lance un nouveau modèle de langage appelé GPT-4 Turbo qui serait plus puissant et moins cher que GPT-4, avec une fenêtre contextuelle plus grande que celle du modèle d'IA Claude 2 d'Anthropic

    Bill Gates ne s'attend pas à ce que GPT-5, la nouvelle version du modèle d'IA générative, soit beaucoup plus performante que GPT-4, il affirme que la technologie GPT a atteint un "plateau"
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 556
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 556
    Points : 7 128
    Points
    7 128
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Quelle lecture faites-vous de cette situation ?
    Ça me rappelle un vieil épisode de South Park
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    737
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 737
    Points : 52 171
    Points
    52 171
    Par défaut OpenAI teste la capacité de ChatGPT à se souvenir des choses dont vous discutez
    Mémoire et nouveaux contrôles pour ChatGPT : OpenAI teste la capacité de ChatGPT à se souvenir des choses dont vous discutez afin de rendre les discussions futures plus utiles.

    Dans le cadre d'un test, OpenAI a commencé à déployer de nouvelles commandes de "mémoire" pour une petite partie des utilisateurs gratuits et payants de ChatGPT, avec un déploiement plus large à suivre à un moment ultérieur non spécifié. Ces contrôles vous permettent de dire explicitement à ChatGPT de se souvenir de quelque chose, de voir ce dont il se souvient ou de désactiver complètement sa mémoire.

    ChatGPT peut désormais transférer ce qu'il apprend entre les chats, ce qui lui permet de fournir des réponses plus pertinentes... Lorsque vous discutez avec ChatGPT, vous pouvez lui demander de se souvenir de quelque chose de spécifique ou le laisser se souvenir lui-même de certains détails. La mémoire de ChatGPT s'améliorera au fur et à mesure que vous l'utiliserez et vous commencerez à remarquer les améliorations au fil du temps.

    La fonction de mémoire pour ChatGPT et GPT peut être désactivée à tout moment à partir du menu des paramètres de ChatGPT, et lorsqu'elle est désactivée, ChatGPT et GPT ne créeront ni n'utiliseront de mémoires. Dans ce même menu, vous pouvez afficher et supprimer des mémoires spécifiques ou effacer toutes les mémoires. Notez que la suppression d'un chat dans l'historique des chats n'efface pas les mémoires de ChatGPT ou d'un GPT - vous devez supprimer la mémoire elle-même.

    On peut imaginer que ChatGPT pourrait, avec le temps, accumuler un grand nombre de détails personnels sensibles dans sa mémoire, surtout si l'on considère que la fonction de mémoire est activée par défaut. OpenAI reconnaît cette possibilité - et dit aussi qu'elle pourrait utiliser les mémoires pour améliorer ses modèles, avec une exception pour les clients commerciaux de ChatGPT et les utilisateurs qui se désengagent.

    Mais OpenAI indique également qu'elle prend des mesures pour éviter que ChatGPT ne se souvienne "proactivement" d'informations sensibles, comme les données de santé, à moins qu'un utilisateur ne le lui demande explicitement.

    Nom : 1.png
Affichages : 5117
Taille : 279,2 Ko

    Voici ce qu'OpenAI écrit sur la mémoire et le nouveaux contrôles pour ChatGPT :

    Nous testons la mémoire avec ChatGPT. Le fait de se souvenir des sujets abordés dans tous les chats vous évite de devoir répéter l'information et rend les conversations futures plus utiles.

    Vous contrôlez la mémoire de ChatGPT. Vous pouvez lui demander explicitement de se souvenir de quelque chose, lui demander ce dont il se souvient, et lui dire d'oublier lors d'une conversation ou par le biais des paramètres. Vous pouvez également la désactiver complètement.

    Nous déployons cette semaine cette fonctionnalité auprès d'une petite partie des utilisateurs de ChatGPT free et Plus afin d'en évaluer l'utilité. Nous partagerons bientôt nos plans pour un déploiement plus large.
    Comment fonctionne la mémoire

    Lorsque vous discutez avec ChatGPT, vous pouvez lui demander de se souvenir de quelque chose de spécifique ou le laisser se souvenir lui-même de certains détails. La mémoire de ChatGPT s'améliorera au fur et à mesure que vous l'utiliserez et vous commencerez à remarquer les améliorations au fil du temps. Par exemple :

    • Vous avez expliqué que vous préférez que les notes de réunion contiennent des titres, des puces et des actions résumées au bas de la page. ChatGPT s'en souvient et récapitule les réunions de cette manière.

    • Vous avez dit à ChatGPT que vous êtes propriétaire d'un café de quartier. Lors d'un brainstorming pour un message social célébrant un nouvel établissement, ChatGPT sait par où commencer.

    • Vous mentionnez que vous avez un enfant en bas âge et qu'il aime les méduses. Lorsque vous demandez à ChatGPT de vous aider à créer sa carte d'anniversaire, il vous suggère une méduse portant un chapeau de fête.

    • En tant que professeur de maternelle avec 25 élèves, vous préférez des leçons de 50 minutes avec des activités de suivi. ChatGPT s'en souvient lorsqu'il vous aide à créer des plans de cours.


    Nom : 2.png
Affichages : 508
Taille : 13,2 Ko

    Le contrôle de la mémoire

    Vous pouvez désactiver la mémoire à tout moment (Paramètres > Personnalisation > Mémoire). Lorsque la mémoire est désactivée, vous ne pouvez pas créer ou utiliser de mémoires.

    Si vous souhaitez que ChatGPT oublie quelque chose, il vous suffit de le lui dire. Vous pouvez également voir et supprimer des mémoires spécifiques ou effacer toutes les mémoires dans les paramètres (Paramètres > Personnalisation > Gérer la mémoire). Les mémoires de ChatGPT évoluent avec vos interactions et ne sont pas liées à des conversations spécifiques. La suppression d'un chat n'efface pas ses mémoires, vous devez supprimer la mémoire elle-même.

    OpenAI pourra utiliser le contenu que vous fournissez à ChatGPT, y compris les mémoires, pour améliorer ses modèles pour tous. Si vous le souhaitez, vous pouvez désactiver cette fonction par le biais de vos contrôles de données. OpenAI ne fera pas de formation sur le contenu des clients ChatGPT Team et Enterprise.

    Utiliser un chat temporaire pour les conversations sans mémoire

    Si vous souhaitez avoir une conversation sans utiliser de mémoire, utilisez un chat temporaire. Les chats temporaires n'apparaissent pas dans l'historique, n'utilisent pas de mémoire et ne sont pas utilisés pour former les modèles d'OpenAI.

    Les instructions personnalisées permettent également à ChatGPT d'être plus utile

    Les instructions personnalisées continuent de vous permettre de fournir à ChatGPT des indications directes sur ce que vous aimeriez qu'il sache à votre sujet et sur la façon dont vous aimeriez qu'il y réponde. Pour des informations ou des instructions explicites, vous pouvez les ajouter à vos Instructions personnalisées. Pour les informations partagées lors de conversations, ChatGPT peut se souvenir des détails pertinents pour vous.

    Évolution des normes de confidentialité et de sécurité

    La mémoire apporte des considérations supplémentaires en matière de confidentialité et de sécurité, telles que le type d'informations à mémoriser et la manière dont elles sont utilisées. OpenAI prend des mesures pour évaluer et atténuer les biais et éviter que ChatGPT ne se souvienne de manière proactive d'informations sensibles, telles que vos données de santé, à moins que vous ne le lui demandiez explicitement.

    Nom : 3.png
Affichages : 531
Taille : 15,0 Ko

    Utilités

    OpenAI décrit les utilités de la mémoire pour les entreprises :

    Pour les utilisateurs des catégories Entreprise et Teams, la mémoire peut s'avérer utile lors de l'utilisation de ChatGPT pour le travail. Il peut apprendre votre style et vos préférences, et s'appuyer sur les interactions passées. Cela vous permet de gagner du temps et d'obtenir des réponses plus pertinentes. Par exemple :

    • ChatGPT peut se souvenir de vos préférences en matière de ton, de voix et de format, et les appliquer automatiquement aux projets d'articles de blog sans avoir à les répéter.
    • Lorsque vous codez, vous indiquez à ChatGPT votre langage de programmation et vos cadres de travail. Il peut mémoriser ces préférences pour les tâches suivantes, ce qui simplifie le processus.
    • Pour les bilans mensuels, vous téléchargez vos données en toute sécurité sur ChatGPT et il crée vos graphiques préférés avec trois points à retenir pour chacun.


    Comme pour toutes les fonctionnalités de ChatGPT, vous contrôlez les données de votre organisation. Les mémoires et toute autre information sur votre espace de travail sont exclues de la formation de nos modèles. Les utilisateurs ont le contrôle sur la manière et le moment où leurs souvenirs sont utilisés dans les chats. En outre, les propriétaires de comptes Enterprise peuvent à tout moment désactiver les mémoires pour leur organisation.

    Les utilisateurs des comptes Enterprise et Team auront accès à la mémoire dans le cadre de notre déploiement plus large.
    Les GPT disposeront également d'une mémoire

    Les GPT auront leur propre mémoire. Les constructeurs auront la possibilité d'activer la mémoire pour leurs GPT. Tout comme vos chats, les mémoires ne sont pas partagées avec les constructeurs. Pour interagir avec un GPT doté d'une mémoire, vous devrez également activer la mémoire. Chaque GPT ayant sa propre mémoire, il se peut que vous deviez répéter des informations que vous avez déjà communiquées à ChatGPT.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur cette nouvelle fonctionnalité de ChatGPT ?

    Voir aussi :

    ChatGPT peut maintenant « voir, entendre et parler », selon OpenAI, mais les nouvelles fonctionnalités soulèvent des questions de confidentialité et de sécurité

    LLM par taux d'hallucinations : GPT-4 est le modèle de langage IA qui hallucine le moins, d'après une évaluation de Vectara, qui suggère que les LLM de Google sont les moins fiables

    OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle : Cela sera-t'il suffisant ?
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 27/01/2024, 18h41
  2. Réponses: 6
    Dernier message: 15/01/2024, 19h52
  3. Réponses: 4
    Dernier message: 22/11/2023, 08h36
  4. Réponses: 0
    Dernier message: 01/11/2023, 18h26
  5. Réponses: 1
    Dernier message: 27/02/2023, 21h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo