IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le nouveau GPT-4 Turbo est maintenant disponible pour les utilisateurs payants de ChatGPT


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    583
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 583
    Points : 10 635
    Points
    10 635
    Par défaut Le nouveau GPT-4 Turbo est maintenant disponible pour les utilisateurs payants de ChatGPT
    OpenAI lance un nouveau modèle de langage appelé GPT-4 Turbo qui serait plus puissant et moins cher que GPT-4
    avec une fenêtre contextuelle plus grande que celle du modèle d'IA Claude 2 d'Anthropic

    OpenAI vient d'annoncer un nouveau grand modèle de langage (LLM) appelé GPT-4 Turbo. Il s'agit d'une version améliorée de GPT-4 qui, selon l'entreprise, est à la fois plus puissante et moins coûteuse. Actuellement en avant-première, GPT-4 Turbo pourrait être jusqu'à trois fois moins cher pour les développeurs. OpenAI a annoncé que GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images. Enfin, OpenAI s'engagé à protéger ses clients contre les poursuites en matière de droits d'auteur, les plaintes pour violation du droit d'auteur s'étant multipliées au cours des derniers mois.

    OpenAI a organisé lundi son premier événement pour les développeurs. Lors de cet événement, le PDG Sam Atman a présenté les nouvelles offres de l'entreprise et a annoncé que ChatGPT compte aujourd'hui environ 100 millions d'utilisateurs actifs hebdomadaires. Et Mira Murati, directrice technique d'OpenAI, a déclaré à la presse lundi que plus de 92 % des entreprises du classement Fortune 500 utilisent désormais les produits d'OpenAI, contre 80 % en août. Ces sociétés couvrent des secteurs tels que les services financiers, les applications juridiques et l'éducation. L'événement a été marqué par l'apparition surprise du PDG de Microsoft, Satya Nadella.

    Altman a introduit lundi un nouveau modèle d'IA appelé GPT-4 Turbo. Il s'agit du successeur de GPT-4 qui a été présenté en mars et a été rendu public en juillet. GPT-4 Turbo ajoute de nouvelles fonctionnalités, propose des prix réduits et bien d'autres choses encore. GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images. La première version sera disponible en avant-première via une API à partir de cette semaine, et Altman a annoncé lors de l'événement qu'OpenAI prévoit de rendre les deux versions généralement disponibles dans les semaines à venir.


    GPT-4 Turbo dispose également d'une fenêtre contextuelle élargie. La fenêtre contextuelle, mesurée en jetons, fait référence au texte que le modèle prend en compte avant de générer tout texte supplémentaire. Les modèles dotés d'une petite fenêtre contextuelle ont tendance à "oublier" le contenu des conversations, même les plus récentes, ce qui les amène à s'écarter du sujet, souvent de manière problématique. GPT-4 Turbo offre une fenêtre contextuelle de 128 000 jetons - quatre fois la taille de GPT-4 et la plus grande fenêtre contextuelle de tous les modèles d'IA disponibles sur le marché, dépassant même le modèle d'IA Claude 2 d'Anthropic.

    Claude 2 supporte jusqu'à 100 000 jetons. Anthropic a annoncé qu'il se préparait à expérimenter une fenêtre contextuelle de 200 000 jetons, mais ne l'a pas encore rendue publique. En effet, 128 000 jetons correspondent à environ 100 000 mots ou 300 pages, ce qui correspond à peu près à la longueur des "Hauts de Hurlevent", des "Voyages de Gulliver" et de "Harry Potter et le prisonnier d'Azkaban". Altman a annoncé que cette nouvelle version de GPT-4 continuera d'accepter les messages-guides sous forme d'images, les demandes de synthèse vocale et intégrera aussi DALL-E 3, une fonctionnalité annoncée pour la première fois le mois dernier.

    En outre, GPT-4 accepte des budgets plus modestes. Il est trois fois moins cher pour les jetons d'entrée et deux fois moins cher pour les jetons de sortie. Les prix sont de 0,01 $ pour 1 000 jetons d'entrée (~750 mots), où les jetons représentent des morceaux de texte brut (par exemple, le mot "fantastique" divisé en "fan", "tas" et "tic") et de 0,03 $ pour 1 000 jetons de sortie (les jetons d'entrée sont des jetons introduits dans le modèle d'IA, tandis que les jetons de sortie sont des jetons que le modèle génère sur la base des jetons d'entrée). L'entreprise promet de continuer à optimiser ses prix afin de rendre ses plateformes accessibles à plus de monde.

    « Nous avons optimisé les performances afin de pouvoir offrir GPT-4 Turbo à un prix trois fois moins cher pour les jetons d'entrée et un prix deux fois moins cher pour les jetons de sortie par rapport à GPT-4 », écrit OpenAI dans un billet de blogue publié lundi. GPT-4 Turbo présente plusieurs autres améliorations par rapport à GPT-4, notamment une base de connaissances plus récente sur laquelle s'appuyer pour répondre aux requêtes. La base de connaissances de GPT-4 est limitée à septembre 2021 (tout comme son prédécesseur GPT-3.5), tandis que le seuil de connaissance du GPT-4 Turbo a été étendu et couvre toutes les connaissances jusqu'en avril 2023.

    Cela signifie que les questions portant sur des faits récents - du moins ceux qui se sont produits avant la nouvelle date limite d'avril 2023 - devraient donner lieu à des réponses plus précises. Altman a promis que plus d'efforts seront faits pour garder GPT-4 Turbo à jour : « nous essaierons de faire en sorte que le modèle ne soit plus jamais obsolète ». Selon lui, les améliorations apportées à GPT-4 Turbo permettent aux utilisateurs de demander au modèle d'effectuer des tâches plus complexes en une seule fois. Ils peuvent demander à GPT-4 Turbo d'utiliser spécifiquement le langage de codage de leur choix pour les résultats, comme le code XML ou JSON.

    « Ce mode est utile pour les applications Web qui transmettent des données, comme celles qui envoient des données d'un serveur à un client afin qu'elles puissent être affichées sur une page Web », explique l'OpenAI. D'autres nouveaux paramètres connexes permettront aux développeurs de faire en sorte que le modèle renvoie plus souvent des complétions "cohérentes" et, pour des applications plus spécialisées, de consigner les probabilités pour les jetons de sortie les plus probables générés par GPT-4 Turbo. Selon le billet de blogue d'OpenAI, le nouveau modèle de langage de l'entreprise est également plus performant en matière d'appel de fonction.


    OpenAI a introduit son API dès 2020 et affirme aujourd'hui que plus de deux millions de développeurs utilisent la spécification pour intégrer des modèles tels que GPT-4, GPT-3.5, DALL-E et Whisper dans leurs propres applications. Lors de l'événement, le PDG de Microsoft, Satya Nadella, est monté sur la scène, discutant avec Altman de l'approfondissement du partenariat entre Microsoft et OpenAI et partageant quelques idées générales sur l'avenir de l'IA, qui, selon lui, donnera plus de pouvoir aux gens. L'accord entre Microsoft et OpenAI est vivement critiqué, Elon Musk, cofondateur d'OpenAI, affirmant que cela rompt avec les valeurs initiales d'OpenAI.

    Interrogé sur la manière dont Microsoft perçoit son partenariat avec OpenAI, Nadella s'est montré enthousiaste : « nous vous aimons beaucoup. Cela a été fantastique pour nous ». Il a ensuite expliqué comment Azure, la plateforme cloud de Microsoft, a évolué à la lumière des modèles construits par OpenAI. « L'objectif de Microsoft, c'est d'être en mesure de diffuser largement les avantages de l'IA à tout le monde », ajoutant que la sécurité est également une préoccupation majeure. Mais Nadella est critiqué et les détracteurs d'OpenAI affirment que l'entreprise est plus fermée que jamais et répond exclusivement à l'agenda de Microsoft en matière d'IA.

    Outre les améliorations apportées au modèle phare, OpenAI a également annoncé qu'elle suivrait les traces de Microsoft et de Google et qu'en cas de poursuite, il offrirait une indemnité aux utilisateurs professionnels dans le cadre d'un programme appelé "Copyright Shield". « Nous interviendrons désormais pour défendre nos clients et payer les frais encourus si vous faites l'objet de poursuites judiciaires pour violation de droits d'auteur », a déclaré l'entreprise dans un communiqué. Selon OpenAI, la mesure Copyright Shield couvrira les fonctionnalités généralement disponibles de ChatGPT Enterprise et de la plateforme de développement d'OpenAI.

    Google a déclaré qu'il assumerait la responsabilité juridique si les clients utilisant ses fonctions d'IA générative étaient poursuivis pour violation du droit d'auteur. Microsoft a également étendu les mêmes protections aux utilisateurs professionnels de ses produits Copilot AI. Getty Images, Shutterstock et Adobe ont étendu la protection de leur responsabilité financière à leurs logiciels de création d'images. L'initiative d'OpenAI intervient après que des auteurs connus ont déposé au moins trois plaintes contre OpenAI pour l'utilisation présumée de leurs œuvres protégées par le droit d'auteur dans le cadre de la formation du chatbot ChatGPT.

    Parmi les plaignants figurent Jonathan Franzen, John Grisham, Michael Chabon, George RR Martin, Jodi Picoult et Authors Guild, une association professionnelle. Pour créer leurs modèles de langage, les entreprises utilisent des milliards de lignes de texte provenant du Web, y compris des bases de données comprenant des dizaines de milliers de livres protégés par des droits d'auteur. À ce propos, OpenAI a précédemment déclaré : « nous sommes convaincus que nous continuerons à trouver des moyens mutuellement bénéfiques de travailler ensemble pour aider les gens à utiliser les nouvelles technologies dans un écosystème de contenu riche ».

    Lundi, OpenAI a également présenté une nouvelle API appelée Assistants API, qui vise à faciliter la création d'assistants d'IA personnalisables. « Assistants API comprend des threads persistants, de sorte qu'ils n'ont pas à se demander comment gérer un long arbre de conversation, une récupération intégrée, un interpréteur de code, un interpréteur Python fonctionnel et un environnement sandbox, [et un appel de fonction amélioré] », a expliqué Altman. Enfin, OpenAI introduit un nouveau moteur de revenus pour l'entreprise : une boutique d'applications. Altman a annoncé lundi l'arrivée imminente d'une boutique d'applications appelée GPT Store.

    Le GPT Store devrait permettre aux personnes qui créent leurs propres modèles GPT de les mettre à la disposition du public pour les télécharger. OpenAI a déclaré que dans les mois à venir, les gens pourront gagner de l'argent en fonction du nombre d'utilisations de leur création. « Une fois dans le magasin, les modèles GPT deviennent consultables et peuvent grimper dans les classements. Nous mettrons également en avant les modèles GPT les plus utiles et les plus agréables que nous rencontrerons dans des catégories telles que la productivité, l'éducation et "juste pour le plaisir" », explique OpenAI dans un communiqué.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des améliorations apportées par le modèle d'IA GPT-4 Turbo ?
    En quoi ces fonctionnalités rendent-elles le modèle de langage d'OpenAI plus attractif ?
    Que pensez-vous de l'initiative visant à indemniser les clients en cas de poursuites pour violation du droit d'auteur ?
    Est-ce une manière pour OpenAI, Microsoft et Google de snober les discussions sur le droit d'auteur ?

    Voir aussi

    Le nouveau Microsoft 365 Copilot, alimenté par le GPT-4 d'OpenAI, est disponible pour 30 $ par mois, l'outil sera intégré dans les applications Microsoft 365, y compris Word, Excel et plus encore

    GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin

    Bill Gates ne s'attend pas à ce que GPT-5, la nouvelle version du modèle d'IA générative, soit beaucoup plus performante que GPT-4, il affirme que la technologie GPT a atteint un "plateau"

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    583
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 583
    Points : 10 635
    Points
    10 635
    Par défaut Le modèle d'IA GPT-4 Turbo d'OpenAI est-il vraiment plus puissant et plus performant que son prédécesseur ?
    GPT-4 Turbo est-il vraiment plus puissant et plus performant ? Les résultats des benchmarks et les avis sont partagés sur l'édition de code
    et les autres usages


    OpenAI a publié GPT-4 Turbo affirmant qu'il s'agit du modèle d'IA le plus puissant de l'entreprise et de l'industrie. Mais cette affirmation est controversée. Les résultats de tests individuels révèlent que le nouveau modèle d'IA d'OpenAI affiche des performances mitigées sur les benchmarks. Lors des tests réalisés avec Aider, un outil de ligne de commande, GPT-4 Turbo fait légèrement mieux que GPT-4 : 53 % des codes générés par GPT-4 Turbo semblent corrects contre 46 % pour son prédécesseur. Par contre, dans les tests réalisés sur le benchmark SAT (une série de questions d'entraînement), GPT-4 Turbo obtient un score inférieur à celui de son prédécesseur, GPT-4.

    GPT-4 Turbo affiche des performances mitigées en matière de génération de code

    Les performances réelles de GPT-4 Turbo font l'objet d'un grand débat dans la communauté. En dévoilant GPT-4 Turbo en avant-première, OpenAI n'a pas présenté les résultats des tests de performance qui lui permettent d'affirmer qu'il s'agit du modèle d'IA le plus puissant de l'industrie. Au contraire, l'entreprise semble avoir laissé le soin aux développeurs de tester l'outil et de faire part de leurs commentaires. Les résultats des premiers tests individuels sont tombés et révèlent que même si GPT-4 Turbo semble beaucoup plus rapide que GPT-4 et GPT-3.5, il affiche des performances peu séduisantes, voire parfois inférieures à celles de ces prédécesseurs.

    Nom : esdrfggt.png
Affichages : 2570
Taille : 55,2 Ko

    Après des tests réalisés sur le benchmark Aider, un développeur rapporte que GPT-4 est beaucoup plus rapide et un peu plus performant en matière de codage que les modèles GPT-4 précédents. Aider est un outil de chat en ligne de commande open source qui vous permet de travailler avec GPT pour éditer du code dans votre dépôt Git local. Pour ce faire, Aider doit être capable de reconnaître de manière fiable quand GPT veut éditer votre code source, de déterminer quels fichiers il veut modifier et d'appliquer avec précision les changements qu'il essaie de faire. Selon l'auteur, vous pouvez démarrer un nouveau projet ou travailler avec un dépôt existant.

    Le benchmark utilise Aider pour essayer de compléter 133 exercices de codage Python d'Exercism. Pour chaque exercice, Exercism fournit un fichier Python de départ avec les fonctions nécessaires, une description en langage naturel du problème à résoudre et une suite de tests qui permettent d'évaluer si le codeur a correctement résolu le problème. Voici ci-dessous les résultats obtenus par GPT-4 lors de ce test de performance :

    • le nouveau modèle GPT-4 Turbo (que les développeurs peuvent tester en passant l'argument "gpt-4-1106-preview" dans l'API) semble beaucoup plus rapide que les modèles GPT-4 précédents ;
    • GPT-4 Turbo semble mieux produire un code correct du premier coup. Environ 53 % des exercices de codage qu'il a résolus étaient corrects, sans avoir besoin de voir les erreurs de la suite de tests. Les modèles précédents n'obtenaient qu'un taux de réussite de 46 à 47 % du premier coup ;
    • GPT-4 Turbo semble obtenir des résultats similaires (~62 %) à ceux des anciens modèles (63 à 64 %) après leur deuxième chance de corriger les bogues en examinant les résultats des erreurs de la suite de tests.


    Le développeur a toutefois mis en garde : « il s'agit de résultats préliminaires. OpenAI impose des limites de débit très basses au nouveau modèle GPT-4. La limitation du taux perturbe le processus d'analyse comparative, qui doit être interrompu et redémarré fréquemment. Il a fallu environ 20 exécutions partielles sur environ 2 jours pour compléter les 133 exercices d'Exercism. Le système d'analyse comparative est conçu pour s'arrêter et redémarrer de cette manière, mais les résultats d'une seule exécution "propre" seraient plus fiables. Une fois que les limites de taux seront assouplies, j'effectuerai une exécution propre de l'ensemble du benchmark ».

    Ce dernier a publié les résultats de son test, mais ils ont été contestés par des critiques qui affirment que GPT-4 Turbo n'est pas meilleur pour le codage et qu'OpenAI n'a pas été tout à fait clair sur les améliorations qu'il a apportées au modèle de langage. Un critique qui a testé la version préliminaire de l'API rapporte :

    J'ai donc joué avec la prévisualisation de l'API et ce que j'ai trouvé est le suivant : la longueur de contexte de 128 000 jetons ne peut pas garder un script de code de 100 lignes dans sa mémoire (1 000 à 2 000 jetons ou quelque chose de très court comparé à la longueur de contexte de 128 000).

    J'ai collé le script dans le chat et j'ai demandé une amélioration. Je lui ai surtout demandé de me renvoyer le code complet avec les améliorations. Alors oui, il ne l'a pas fait, il m'a donné le script et a inutilement donné quelques fonctions (pas très longues donc quelques lignes de code) comme "voici la fonction dans votre code précédent". J'ai torturé la machine avec des instructions personnalisées et je lui ai dit très clairement qu'elle devait toujours me renvoyer le code complet avec les améliorations et ne rien laisser de côté. La machine n'obéit pas à ces instructions et ne complète toujours pas une partie du code qu'elle me renvoie.

    En fait, GPT-4 Turbo prétend que mon code original ne comportait pas ces fonctions en toutes lettres, alors qu'elles l'étaient. Ainsi, la longueur de contexte de 128 000 jetons est une sorte de compression, ce qui signifie que, quel que soit le contexte que vous lui donnez, il sera simplement compressé. Il peut ou non reconnaître une partie importante qui est cruciale pour votre tâche, selon qu'elle se perd ou non dans la compression. J'ai répété ce processus tellement de fois que j'ai abandonné et j'ai conclu que la longueur de contexte de 128 000 jetons est un argument marketing ou qu'il y a de sérieux problèmes liés à la demande qui cassent le système.

    Je n'ai pas besoin d'expliquer ce que cela signifie pour la précision ou la qualité du travail effectué. Certes, je peux compresser un livre et obtenir un beau résumé, mais si ce n'est pas ce que je veux, je n'ai pas de chance. Si je veux vraiment qu'il comprenne mon contexte, je dois revenir aux anciens modèles. Oh attendez, ceux-ci sont maintenant déclassés ou affichent au moins 2 000 jetons de longueur de contexte maximum (par rapport aux 8 000 jetons précédents par exemple).

    Je pense que demander une longueur de contexte de 128 000 jetons avec la même qualité que 8 000 par exemple, alors que c'est plus rapide et moins cher, c'est un peu stupide. Mais je ne peux m'empêcher de penser que pour le codage et de nombreuses tâches du monde réel, c'est à la limite de l'inutilisable (du moins pour moi et mes cas d'utilisation).

    Je vais juste clarifier quelques points ici. Je n'ai pas eu de problème avec le système d'exploitation, donc mon entrée + sortie était bien en dessous de 4 000 jetons (limite de la sortie actuellement). GPT 3.5 et GPT 4 avec un contexte plus court pouvaient gérer le code sans compression, donc c'est un problème qui n'affecte que GPT-4 Turbo (preview). Cette limitation est une chose qui ne peut pas être contournée par une "ingénierie rapide".
    Les performances de GPT-4 Turbo sont controversées par un test sur le benchmark SAT

    OpenAI a dévoilé GPT-4 Turbo cette semaine et l'a présenté comme une version améliorée de son puissant grand modèle de langage (LLM) GPT-4. L'une des principales améliorations de GPT-4 Turbo est l'agrandissement de la fenêtre contextuelle. Le contexte fait référence à la quantité de texte que le modèle de langage peut traiter en même temps. GPT-4 Turbo peut traiter jusqu'à 128 000 jetons, soit l'équivalent d'environ 300 pages de texte. Il s'agit de l'une des plus grandes fenêtres contextuelles de tous les LLM actuels (Claude 2 n'offre que 100 000 jetons). Le modèle GPT-4, quant à lui, est limité à un nombre plus modeste de 8 000 tokens, soit 24 pages.

    La fenêtre contextuelle plus large permet à GPT-4 Turbo de comprendre en profondeur davantage d'informations et d'établir des liens entre des documents plus vastes. Avec plus de contexte, l'IA peut fournir des réponses plus "intelligentes" et plus nuancées que les quelques dernières phrases qu'elle a lues. Cette connaissance élargie conduit à des conversations plus cohérentes et à une analyse plus réfléchie. De plus, la base de connaissances de GPT-4 Turbo a été mise à jour à avril 2023, alors que celle de GPT-4 est limitée à septembre 2021. Grâce à ce changement, GPT-4 Turbo peut discuter et comprendre les derniers événements, recherches et faits.

    Selon OpenAI, pour un modèle d'IA, il est essentiel de rester à jour. Des connaissances obsolètes conduisent à des réponses incorrectes ou ignorantes. L'actualisation des connaissances de GPT-4 Turbo lui permet de rester pertinent et utile pour les conversations d'aujourd'hui. En plus, l'utilisation de GPT-4 Turbo est moins coûteuse pour les développeurs. L'entrée ne coûte que 0,01 $ pour 1 000 jetons, contre 0,03 $ pour GPT-4. Le coût de sortie est de 0,03 $ pour 1 000 jetons. Dans l'ensemble, le nouveau modèle est trois fois moins cher que les versions précédentes. Le coût réduit rend le modèle d'IA avancée plus accessible aux développeurs.

    Pourtant, tout ceci ne permet pas à GPT-4 Turbo d'obtenir de meilleurs résultats que GPT-4 sur le benchmark SAT. Le benchmark SAT (Scholastic Assessment Test) est une série de questions d'entraînement conçue pour aider les étudiants à se préparer à un test du même nom. Le SAT est un test standardisé couramment utilisé pour l'admission à l'université aux États-Unis. Il évalue la préparation d'un étudiant à l'université et est utilisé par de nombreux collèges et universités dans le cadre de leur processus d'admission. Le score moyen au SAT est d'environ 1 050, mais certaines universités sont très sélectives et exigent un score moyen plus élevé au SAT.

    Pour évaluer les performances de GPT-4 Turbo, un autre développeur s'est basé sur la section lecture du SAT, considérée comme une bonne référence humaine pour la capacité de raisonnement. « J'ai pris 3 sections (67 questions) d'un test officiel de 2008-2009 (échelle de 2 400) », a-t-il déclaré. Il a obtenu les résultats suivants :

    • GPT-3.5 : 690 points (10 fautes) ;
    • GPT-4 : 770 points (3 fautes) ;
    • GPT-4 Turbo : (une section à la fois) : 740 points (5 fautes) ;
    • GPT-4 Turbo (3 sections à la fois, 9 000 jetons) : 730 points (6 fautes).


    Le développeur explique : « 770 points contre 740 points au SAT sont en effet une énorme différence. En supposant que cela s'applique aux autres sections (que je n'ai pas encore notées), c'est un score de 2 310 contre 2 220 s'il est calculé, ce qui peut faire la différence entre l'entrée dans une université d'élite ou non ». Concernant les tâches de programmation, il a supposé : « pour une tâche comme la programmation, disons que GPT4 Turbo fait des erreurs 5 % du temps contre 3 % pour GPT4. Utiliseriez-vous GPT-4 Turbo même s'il était beaucoup plus rapide ? Je pense que pour la plupart des tâches de programmation, je m'en tiendrais à GPT4 ».

    Ce test rappelle un précédent rapport sur la dégradation des performances de GPT-4. Le rapport a allégué en juillet que les performances de ChatGPT et GPT-4 étaient en déclin, après avoir comparé les performances des modèles pendant plusieurs mois sur quatre tâches diverses : résolution de problèmes mathématiques, réponse à des questions délicates, génération de code et raisonnement visuel. Il révèle que les modèles ont obtenu des résultats médiocres sur certaines tâches en juin que dans leurs versions de mars. Par ailleurs, il souligne que la précision de GPT-4 dans un exercice de mathématique a chuté de 98 % en mars à 2 % en juin.

    Source : billets de blogue (1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des performances préliminaires de GPT-4 Turbo ?
    Selon vous, GPT-4 Turbo est-il meilleur que ses prédécesseurs ou pas ?
    Que pensez-vous du débat sur la fenêtre contextuelle élargie de GPT-4 Turbo ?
    Que pensez-vous des performances de GPT-4 Turbo en matière de génération de code ?

    Voir aussi

    OpenAI lance un nouveau modèle de langage appelé GPT-4 Turbo qui serait plus puissant et moins cher que GPT-4, avec une fenêtre contextuelle plus grande que celle du modèle d'IA Claude 2 d'Anthropic

    OpenAI introduit des assistants d'IA personnalisés appelés « GPT » qui jouent différents rôles selon vos besoins, et prévoit de rémunérer les créateurs dont les GPT seront utilisés

    GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    978
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 978
    Points : 16 169
    Points
    16 169
    Par défaut OpenAI interrompt les inscriptions à ChatGPT Plus en raison d'une forte demande
    OpenAI interrompt les inscriptions à ChatGPT Plus en raison d'une forte demande, car la plateforme a dépassé sa capacité, ce qui nuit à la qualité de l'expérience des utilisateurs, selon Sam Altman

    OpenAI, la société à l'origine du populaire chatbot d'intelligence artificielle (IA) ChatGPT, a déclaré qu'elle avait mis en attente les nouvelles inscriptions à la version premium de l'outil d'IA, ChatGPT Plus, en raison d'une forte augmentation de l'utilisation après le DevDay.

    Le PDG de l'entreprise, Sam Altman, a fait cette annonce par le biais d'un message sur X (anciennement Twitter) le mercredi 15 novembre. Selon M. Altman, les nouvelles inscriptions sont interrompues car la plateforme a dépassé sa capacité, ce qui affecte la qualité de l'expérience des utilisateurs. Sam Altman a déclaré que ChatGPT Plus avait connu une forte augmentation de son utilisation depuis le DevDay d'OpenAI, au cours duquel l'entreprise a annoncé de nouvelles interfaces de programmation d'applications (API) il y a environ une semaine.


    Le PDG a indiqué que, bien que les nouveaux enregistrements soient temporairement suspendus, les utilisateurs peuvent toujours choisir dans l'application d'être informés de la réouverture des abonnements. La décision de suspendre les nouvelles inscriptions à ChatGPT fait suite à une semaine au cours de laquelle les services OpenAI - y compris ChatGPT et son API - ont connu une série de pannes liées à une forte demande et à des attaques par déni de service distribué.

    La pause devrait signifier que les développeurs construisant des transformateurs génératifs pré-entraînés (GPT) et utilisant l'API rencontrent moins de problèmes (comme l'impossibilité de sauvegarder les brouillons de GPT). Mais cela pourrait aussi signifier une diminution temporaire du nombre de nouveaux utilisateurs de GPT, puisque ceux-ci ne sont disponibles que pour les abonnés Plus.


    À la suite de l'introduction des GPT, des développeurs et des entreprises ont créé des GPT à des fins diverses, par exemple pour la conception graphique sur Canva. Les spécialistes du marketing de recherche déjà abonnés à ChatGPT Plus peuvent essayer les GPT pour l'évaluation de contenu utile et l'apprentissage du référencement.

    ChatGPT est l'un des chatbots d'IA les plus populaires, avec plus de 180 millions d'utilisateurs, selon les données de SimilarWeb. Mais il est confronté à la concurrence croissante de Bard de Google et de Claude 2 d'Anthropic. Le 5 novembre, Elon Musk a annoncé qu'il avait créé son propre programme de chat IA, "Grok".

    OpenAI a récemment élargi son champ d'action en s'associant à la startup Humane pour lancer un dispositif physique d'IA, Ai Pin, qui est un assistant virtuel d'IA à porter sur soi.

    Et vous ?

    Quelle lecture faites-vous de cette situation ?

    Voir aussi

    GPT-4 Turbo est-il vraiment plus puissant et plus performant ? Les résultats des benchmarks et les avis sont partagés sur l'édition de code et les autres usages

    OpenAI lance un nouveau modèle de langage appelé GPT-4 Turbo qui serait plus puissant et moins cher que GPT-4, avec une fenêtre contextuelle plus grande que celle du modèle d'IA Claude 2 d'Anthropic

    Bill Gates ne s'attend pas à ce que GPT-5, la nouvelle version du modèle d'IA générative, soit beaucoup plus performante que GPT-4, il affirme que la technologie GPT a atteint un "plateau"
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 578
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 578
    Points : 7 355
    Points
    7 355
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Quelle lecture faites-vous de cette situation ?
    Ça me rappelle un vieil épisode de South Park
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 050
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 050
    Points : 73 403
    Points
    73 403
    Par défaut OpenAI teste la capacité de ChatGPT à se souvenir des choses dont vous discutez
    Mémoire et nouveaux contrôles pour ChatGPT : OpenAI teste la capacité de ChatGPT à se souvenir des choses dont vous discutez afin de rendre les discussions futures plus utiles.

    Dans le cadre d'un test, OpenAI a commencé à déployer de nouvelles commandes de "mémoire" pour une petite partie des utilisateurs gratuits et payants de ChatGPT, avec un déploiement plus large à suivre à un moment ultérieur non spécifié. Ces contrôles vous permettent de dire explicitement à ChatGPT de se souvenir de quelque chose, de voir ce dont il se souvient ou de désactiver complètement sa mémoire.

    ChatGPT peut désormais transférer ce qu'il apprend entre les chats, ce qui lui permet de fournir des réponses plus pertinentes... Lorsque vous discutez avec ChatGPT, vous pouvez lui demander de se souvenir de quelque chose de spécifique ou le laisser se souvenir lui-même de certains détails. La mémoire de ChatGPT s'améliorera au fur et à mesure que vous l'utiliserez et vous commencerez à remarquer les améliorations au fil du temps.

    La fonction de mémoire pour ChatGPT et GPT peut être désactivée à tout moment à partir du menu des paramètres de ChatGPT, et lorsqu'elle est désactivée, ChatGPT et GPT ne créeront ni n'utiliseront de mémoires. Dans ce même menu, vous pouvez afficher et supprimer des mémoires spécifiques ou effacer toutes les mémoires. Notez que la suppression d'un chat dans l'historique des chats n'efface pas les mémoires de ChatGPT ou d'un GPT - vous devez supprimer la mémoire elle-même.

    On peut imaginer que ChatGPT pourrait, avec le temps, accumuler un grand nombre de détails personnels sensibles dans sa mémoire, surtout si l'on considère que la fonction de mémoire est activée par défaut. OpenAI reconnaît cette possibilité - et dit aussi qu'elle pourrait utiliser les mémoires pour améliorer ses modèles, avec une exception pour les clients commerciaux de ChatGPT et les utilisateurs qui se désengagent.

    Mais OpenAI indique également qu'elle prend des mesures pour éviter que ChatGPT ne se souvienne "proactivement" d'informations sensibles, comme les données de santé, à moins qu'un utilisateur ne le lui demande explicitement.

    Nom : 1.png
Affichages : 6635
Taille : 279,2 Ko

    Voici ce qu'OpenAI écrit sur la mémoire et le nouveaux contrôles pour ChatGPT :

    Nous testons la mémoire avec ChatGPT. Le fait de se souvenir des sujets abordés dans tous les chats vous évite de devoir répéter l'information et rend les conversations futures plus utiles.

    Vous contrôlez la mémoire de ChatGPT. Vous pouvez lui demander explicitement de se souvenir de quelque chose, lui demander ce dont il se souvient, et lui dire d'oublier lors d'une conversation ou par le biais des paramètres. Vous pouvez également la désactiver complètement.

    Nous déployons cette semaine cette fonctionnalité auprès d'une petite partie des utilisateurs de ChatGPT free et Plus afin d'en évaluer l'utilité. Nous partagerons bientôt nos plans pour un déploiement plus large.
    Comment fonctionne la mémoire

    Lorsque vous discutez avec ChatGPT, vous pouvez lui demander de se souvenir de quelque chose de spécifique ou le laisser se souvenir lui-même de certains détails. La mémoire de ChatGPT s'améliorera au fur et à mesure que vous l'utiliserez et vous commencerez à remarquer les améliorations au fil du temps. Par exemple :

    • Vous avez expliqué que vous préférez que les notes de réunion contiennent des titres, des puces et des actions résumées au bas de la page. ChatGPT s'en souvient et récapitule les réunions de cette manière.

    • Vous avez dit à ChatGPT que vous êtes propriétaire d'un café de quartier. Lors d'un brainstorming pour un message social célébrant un nouvel établissement, ChatGPT sait par où commencer.

    • Vous mentionnez que vous avez un enfant en bas âge et qu'il aime les méduses. Lorsque vous demandez à ChatGPT de vous aider à créer sa carte d'anniversaire, il vous suggère une méduse portant un chapeau de fête.

    • En tant que professeur de maternelle avec 25 élèves, vous préférez des leçons de 50 minutes avec des activités de suivi. ChatGPT s'en souvient lorsqu'il vous aide à créer des plans de cours.


    Nom : 2.png
Affichages : 1158
Taille : 13,2 Ko

    Le contrôle de la mémoire

    Vous pouvez désactiver la mémoire à tout moment (Paramètres > Personnalisation > Mémoire). Lorsque la mémoire est désactivée, vous ne pouvez pas créer ou utiliser de mémoires.

    Si vous souhaitez que ChatGPT oublie quelque chose, il vous suffit de le lui dire. Vous pouvez également voir et supprimer des mémoires spécifiques ou effacer toutes les mémoires dans les paramètres (Paramètres > Personnalisation > Gérer la mémoire). Les mémoires de ChatGPT évoluent avec vos interactions et ne sont pas liées à des conversations spécifiques. La suppression d'un chat n'efface pas ses mémoires, vous devez supprimer la mémoire elle-même.

    OpenAI pourra utiliser le contenu que vous fournissez à ChatGPT, y compris les mémoires, pour améliorer ses modèles pour tous. Si vous le souhaitez, vous pouvez désactiver cette fonction par le biais de vos contrôles de données. OpenAI ne fera pas de formation sur le contenu des clients ChatGPT Team et Enterprise.

    Utiliser un chat temporaire pour les conversations sans mémoire

    Si vous souhaitez avoir une conversation sans utiliser de mémoire, utilisez un chat temporaire. Les chats temporaires n'apparaissent pas dans l'historique, n'utilisent pas de mémoire et ne sont pas utilisés pour former les modèles d'OpenAI.

    Les instructions personnalisées permettent également à ChatGPT d'être plus utile

    Les instructions personnalisées continuent de vous permettre de fournir à ChatGPT des indications directes sur ce que vous aimeriez qu'il sache à votre sujet et sur la façon dont vous aimeriez qu'il y réponde. Pour des informations ou des instructions explicites, vous pouvez les ajouter à vos Instructions personnalisées. Pour les informations partagées lors de conversations, ChatGPT peut se souvenir des détails pertinents pour vous.

    Évolution des normes de confidentialité et de sécurité

    La mémoire apporte des considérations supplémentaires en matière de confidentialité et de sécurité, telles que le type d'informations à mémoriser et la manière dont elles sont utilisées. OpenAI prend des mesures pour évaluer et atténuer les biais et éviter que ChatGPT ne se souvienne de manière proactive d'informations sensibles, telles que vos données de santé, à moins que vous ne le lui demandiez explicitement.

    Nom : 3.png
Affichages : 1183
Taille : 15,0 Ko

    Utilités

    OpenAI décrit les utilités de la mémoire pour les entreprises :

    Pour les utilisateurs des catégories Entreprise et Teams, la mémoire peut s'avérer utile lors de l'utilisation de ChatGPT pour le travail. Il peut apprendre votre style et vos préférences, et s'appuyer sur les interactions passées. Cela vous permet de gagner du temps et d'obtenir des réponses plus pertinentes. Par exemple :

    • ChatGPT peut se souvenir de vos préférences en matière de ton, de voix et de format, et les appliquer automatiquement aux projets d'articles de blog sans avoir à les répéter.
    • Lorsque vous codez, vous indiquez à ChatGPT votre langage de programmation et vos cadres de travail. Il peut mémoriser ces préférences pour les tâches suivantes, ce qui simplifie le processus.
    • Pour les bilans mensuels, vous téléchargez vos données en toute sécurité sur ChatGPT et il crée vos graphiques préférés avec trois points à retenir pour chacun.


    Comme pour toutes les fonctionnalités de ChatGPT, vous contrôlez les données de votre organisation. Les mémoires et toute autre information sur votre espace de travail sont exclues de la formation de nos modèles. Les utilisateurs ont le contrôle sur la manière et le moment où leurs souvenirs sont utilisés dans les chats. En outre, les propriétaires de comptes Enterprise peuvent à tout moment désactiver les mémoires pour leur organisation.

    Les utilisateurs des comptes Enterprise et Team auront accès à la mémoire dans le cadre de notre déploiement plus large.
    Les GPT disposeront également d'une mémoire

    Les GPT auront leur propre mémoire. Les constructeurs auront la possibilité d'activer la mémoire pour leurs GPT. Tout comme vos chats, les mémoires ne sont pas partagées avec les constructeurs. Pour interagir avec un GPT doté d'une mémoire, vous devrez également activer la mémoire. Chaque GPT ayant sa propre mémoire, il se peut que vous deviez répéter des informations que vous avez déjà communiquées à ChatGPT.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur cette nouvelle fonctionnalité de ChatGPT ?

    Voir aussi :

    ChatGPT peut maintenant « voir, entendre et parler », selon OpenAI, mais les nouvelles fonctionnalités soulèvent des questions de confidentialité et de sécurité

    LLM par taux d'hallucinations : GPT-4 est le modèle de langage IA qui hallucine le moins, d'après une évaluation de Vectara, qui suggère que les LLM de Google sont les moins fiables

    OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle : Cela sera-t'il suffisant ?
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 523
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 523
    Points : 199 066
    Points
    199 066
    Par défaut OpenAI annonce que GPT-4 Turbo with Vision est désormais disponible dans l'API
    OpenAI annonce que GPT-4 Turbo with Vision est désormais disponible dans l'API, apportant aux développeurs la prise en charge du mode JSON
    et l'appel de fonctions pour les requêtes Vision.

    OpenAI a dévoilé le dernier ajout à son arsenal d'IA avec la sortie de GPT-4 Turbo with Vision, désormais disponible dans l'API. Cette nouvelle version est dotée de fonctionnalités améliorées, notamment la prise en charge du mode JSON et l'appel de fonctions pour les requêtes Vision. Le modèle GPT-4 Turbo mis à jour promet des performances améliorées et devrait également être déployé dans ChatGPT.

    Qu'est-ce que GPT-4 Turbo ?

    GPT-4 Turbo est un modèle multimodal robuste capable de traiter à la fois des textes et des images, et de fournir des résultats précis grâce à ses connaissances générales étendues et à ses capacités de raisonnement avancées.

    OpenAI a présenté GPT-4 Turbo en novembre dernier lors du DevDay. Il s'agit du successeur de GPT-4 qui a été présenté en mars et a été rendu public en juillet. GPT-4 Turbo s'est accompagné de nouvelles fonctionnalités, des prix réduits et bien d'autres choses encore. GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images.

    GPT-4 Turbo dispose également d'une fenêtre contextuelle élargie. La fenêtre contextuelle, mesurée en jetons, fait référence au texte que le modèle prend en compte avant de générer tout texte supplémentaire. Les modèles dotés d'une petite fenêtre contextuelle ont tendance à "oublier" le contenu des conversations, même les plus récentes, ce qui les amène à s'écarter du sujet, souvent de manière problématique. GPT-4 Turbo offre une fenêtre contextuelle de 128 000 jetons - quatre fois la taille de GPT-4. Elle était alors la plus grande fenêtre contextuelle de tous les modèles d'IA disponibles sur le marché, dépassant même le modèle d'IA Claude 2 d'Anthropic qui supporte jusqu'à 100 000 jetons.

    En outre, GPT-4 accepte des budgets plus modestes. Il est trois fois moins cher pour les jetons d'entrée et deux fois moins cher pour les jetons de sortie. Les prix sont de 0,01 $ pour 1 000 jetons d'entrée (~750 mots), où les jetons représentent des morceaux de texte brut (par exemple, le mot "fantastique" divisé en "fan", "tas" et "tic" et de 0,03 $ pour 1 000 jetons de sortie (les jetons d'entrée sont des jetons introduits dans le modèle d'IA, tandis que les jetons de sortie sont des jetons que le modèle génère sur la base des jetons d'entrée). L'entreprise promet de continuer à optimiser ses prix afin de rendre ses plateformes accessibles à plus de monde.


    Optimisation des performances

    L'un des points forts du GPT-4 Turbo est l'optimisation de ses performances, qui se traduit par une réduction substantielle des coûts pour les utilisateurs. Les jetons d'entrée sont désormais trois fois moins chers, tandis que les jetons de sortie sont disponibles à moitié prix par rapport au modèle GPT-4 précédent, ce qui rend cette mise à niveau à la fois efficace et rentable pour les clients.

    « Nous avons optimisé les performances afin de pouvoir offrir GPT-4 Turbo à un prix trois fois moins cher pour les jetons d'entrée et un prix deux fois moins cher pour les jetons de sortie par rapport à GPT-4 », a expliqué OpenAI. GPT-4 Turbo présente plusieurs autres améliorations par rapport à GPT-4, notamment une base de connaissances plus récente sur laquelle s'appuyer pour répondre aux requêtes. La base de connaissances de GPT-4 est limitée à septembre 2021 (tout comme son prédécesseur GPT-3.5), tandis que le seuil de connaissance du GPT-4 Turbo a été étendu et couvre toutes les connaissances jusqu'en avril 2023 lors de la présentation en novembre (désormais, sa base de connaissance s'étend jusqu'à décembre 2023).

    Nom : connaissance.png
Affichages : 4049
Taille : 16,5 Ko

    Réduction des cas de « paresse »

    Dans sa preview, GPT-4 Turbo a corrigé problème surprenant; les cas de “paresse” durant lesquels il « refusait » de travailler. En effet, certains utilisateurs avaient remarqué que le modèle ne terminait pas certaines tâches, comme la génération de code, et se contentait de réponses minimales ou vides. OpenAI a assuré avoir amélioré la capacité du modèle à compléter les tâches demandées, sans pour autant expliquer la cause de cette “paresse” artificielle.

    À venir : Voice Engine et GPT-5

    OpenAI a récemment annoncé Voice Engine, un modèle d'IA de synthèse vocale qui, selon la startup, permet de créer des voix synthétiques à partir d'un segment de 15 secondes d'un enregistrement audio. Selon OpenAI, il génère « un discours naturel avec des voix émotives et réalistes ». Voice Engine a été développé pour la première fois en 2022 et une première version a été utilisée pour la fonction de synthèse vocale intégrée au chatbot d'IA ChatGPT de l'entreprise. Mais sa puissance n'a jamais été révélée publiquement, en partie en raison de l'approche « prudente et informée » adoptée par la startup pour la diffuser plus largement.

    Des échantillons audio de Voice Engine en action sont disponibles sur son site Web. Une fois la voix clonée, l'utilisateur peut saisir un texte dans le moteur vocal et obtenir une voix générée par l'IA. Mais OpenAI affirme qu'il n'est pas encore prêt à diffuser sa technologie à grande échelle. L'entreprise avait initialement prévu de lancer un programme pilote permettant aux développeurs de s'inscrire à l'API du moteur vocal au début de ce mois. Toutefois, après avoir réfléchi aux implications éthiques, elle a décidé de revoir ses ambitions à la baisse pour l'instant. Le déploiement est actuellement limité à un petit groupe de testeurs.

    « Nous reconnaissons que générer des discours qui ressemblent à la voix des gens comporte de sérieux risques, qui sont particulièrement importants en cette année électorale. Ces déploiements à petite échelle contribuent à éclairer notre approche, nos garanties et notre réflexion sur la manière dont Voice Engine pourrait être utilisé à bon escient dans diverses industries. Sur la base de ces conversations et des résultats de ces tests à petite échelle, nous prendrons une décision plus éclairée sur l'opportunité et la manière de déployer cette technologie à grande échelle », a écrit l'entreprise.

    OpenAI a indiqué que son prochain modèle GPT-5 sera bientôt doté de meilleures capacités de raisonnement. Brad Lightcap, directeur de l'exploitation d'OpenAI, a indiqué dans une interview accordée au Financial Times que GPT-5 s'attachera à résoudre des problèmes difficiles, en particulier dans le domaine du raisonnement.

    Source : OpenAI

    Et vous ?

    Quelle est votre opinion sur l’impact potentiel de GPT-4 dans le domaine de l’intelligence artificielle ?
    Pensez-vous que les modèles multimodaux, capables de traiter à la fois des images et du texte, sont l’avenir de l’IA ?
    Comment imaginez-vous l’utilisation de GPT-4 dans des applications concrètes, telles que la rédaction d’articles, la création de contenu ou l’assistance virtuelle ?
    Quels défis pensez-vous que nous devons encore relever pour améliorer davantage ces modèles ?
    Seriez-vous prêt à interagir avec un assistant IA comme GPT-4 dans votre vie quotidienne ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #7
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 050
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 050
    Points : 73 403
    Points
    73 403
    Par défaut GPT-4 Turbo avec Vision est un pas en arrière pour le codage, d'après Paul Gauthier d'Aider
    GPT-4 Turbo avec Vision est un pas en arrière pour le codage, il semble beaucoup plus enclin au "codage paresseux", d'après Paul Gauthier d'Aider

    OpenAI vient de publier GPT-4 Turbo avec Vision et ses performances en matière de codage sont moins bonnes que celles de tous les modèles GPT-4 précédents. En particulier, il semble beaucoup plus enclin au "codage paresseux" que les modèles prévus existants de GPT-4 Turbo.

    Aider s'appuie sur un benchmark d'édition de code pour évaluer quantitativement la capacité d'un LLM à apporter des modifications à un code existant. Le benchmark utilise Aider pour essayer de compléter 133 exercices de codage Exercism Python.

    Pour chaque exercice, le LLM dispose de deux essais pour résoudre chaque problème :

    1. Au premier essai, il obtient le code initial et la description en anglais de la tâche de codage. Si tous les tests sont réussis, l'exercice est terminé.
    2. Si l'un des tests échoue, l'aide envoie au LLM la sortie du test qui a échoué et lui donne une deuxième chance de terminer la tâche.


    GPT-4 Turbo with Vision n'obtient qu'un score de 62 % sur ce benchmark, le score le plus bas de tous les modèles GPT-4 existants. Les autres modèles ont obtenu un score de 63-66%, ce qui ne représente donc qu'une petite régression et est probablement statistiquement insignifiant par rapport au modèle gpt-4-0613.

    Nom : 1.png
Affichages : 25363
Taille : 22,2 Ko

    Codage paresseux

    Les modèles GPT-4 Turbo "preview" ont été largement critiqués pour leur codage "paresseux". Ils omettent souvent le code nécessaire et laissent à la place des commentaires avec des devoirs comme "implement method here" (implémenter la méthode ici).

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    def some_complex_method(foo, bar):
        # ... implement method here ...
    Aider utilise une suite de tests de "paresse" conçue pour provoquer et quantifier le codage paresseux. Il s'agit de 89 tâches de refactorisation en python qui tendent à faire coder GPT-4 Turbo de manière paresseuse.

    Le nouveau modèle GPT-4 Turbo avec Vision n'obtient que 34 % au test de refactorisation d'Aider, ce qui en fait le codeur le plus paresseux de tous les modèles GPT-4 Turbo, et ce avec une marge significative.

    Nom : 2.png
Affichages : 5706
Taille : 16,1 Ko

    Conclusion

    Aider supporte pleinement le nouveau modèle GPT-4 Turbo with Vision, auquel vous pouvez accéder en utilisant le switch --model gpt-4-turbo-2024-04-09. Mais Aider continuera à utiliser gpt-4-1106-preview par défaut, car c'est de loin le codeur le plus puissant des modèles GPT-4.


    Source : Paul Gauthier d'Aider

    Et vous ?

    Pensez-vous que ces résultats sont crédibles ou pertinents ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI annonce que GPT-4 Turbo with Vision est désormais disponible dans l'API, apportant aux développeurs la prise en charge du mode JSON et l'appel de fonctions pour les requêtes Vision

    GPT-4 Turbo est-il vraiment plus puissant et plus performant ? Les résultats des benchmarks et les avis sont partagés sur l'édition de code et les autres usages

    Aider, outil en ligne de commande pour programmer avec GPT-3.5 et GPT-4, et éditer le code stocké dans un dépôt git local, le meilleur assistant de codage IA à ce jour
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 523
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 523
    Points : 199 066
    Points
    199 066
    Par défaut Le nouveau GPT-4 Turbo est maintenant disponible pour les utilisateurs payants de ChatGPT
    Le nouveau GPT-4 Turbo est maintenant disponible pour les utilisateurs payants de ChatGPT. Cette itération s'accompagne d'améliorations des performances dans plusieurs domaines,
    mais Epoch estime qu'elles restent « en deçà de Claude 3 Opus »

    OpenAI a annoncé une mise à jour de son modèle de langage GPT-4 Turbo, destiné aux utilisateurs payants de sa plateforme ChatGPT. Cette nouvelle itération de GPT-4 Turbo présente des améliorations dans plusieurs domaines, notamment l'écriture, les capacités mathématiques, le raisonnement logique et la génération de codes. L'un des changements les plus remarquables pour les utilisateurs sera la façon dont ChatGPT interagit avec le texte. GPT-4 Turbo est conçu pour fournir des réponses plus concises et conversationnelles. Ce résultat est obtenu grâce à une combinaison de facteurs, notamment l'amélioration des données de formation et l'accent mis sur la production d'un langage direct et clair.

    GPT-4 Turbo est un modèle multimodal robuste capable de traiter à la fois des textes et des images, et de fournir des résultats précis grâce à ses connaissances générales étendues et à ses capacités de raisonnement avancées.

    OpenAI a présenté GPT-4 Turbo en novembre dernier lors du DevDay. Il s'agit du successeur de GPT-4 qui a été présenté en mars et a été rendu public en juillet. GPT-4 Turbo s'est accompagné de nouvelles fonctionnalités, des prix réduits et bien d'autres choses encore. GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde qui comprend le contexte du texte et des images.

    GPT-4 Turbo dispose également d'une fenêtre contextuelle élargie. La fenêtre contextuelle, mesurée en jetons, fait référence au texte que le modèle prend en compte avant de générer tout texte supplémentaire. Les modèles dotés d'une petite fenêtre contextuelle ont tendance à "oublier" le contenu des conversations, même les plus récentes, ce qui les amène à s'écarter du sujet, souvent de manière problématique. GPT-4 Turbo offre une fenêtre contextuelle de 128 000 jetons - quatre fois la taille de GPT-4. Elle était alors la plus grande fenêtre contextuelle de tous les modèles d'IA disponibles sur le marché, dépassant même le modèle d'IA Claude 2 d'Anthropic qui supporte jusqu'à 100 000 jetons.

    En outre, GPT-4 accepte des budgets plus modestes. Il est trois fois moins cher pour les jetons d'entrée et deux fois moins cher pour les jetons de sortie. Les prix sont de 0,01 $ pour 1 000 jetons d'entrée (~750 mots), où les jetons représentent des morceaux de texte brut (par exemple, le mot "fantastique" divisé en "fan", "tas" et "tic" et de 0,03 $ pour 1 000 jetons de sortie (les jetons d'entrée sont des jetons introduits dans le modèle d'IA, tandis que les jetons de sortie sont des jetons que le modèle génère sur la base des jetons d'entrée). L'entreprise promet de continuer à optimiser ses prix afin de rendre ses plateformes accessibles à plus de monde.

    L'un des points forts du GPT-4 Turbo est l'optimisation de ses performances, qui se traduit par une réduction substantielle des coûts pour les utilisateurs. Les jetons d'entrée sont désormais trois fois moins chers, tandis que les jetons de sortie sont disponibles à moitié prix par rapport au modèle GPT-4 précédent, ce qui rend cette mise à niveau à la fois efficace et rentable pour les clients.

    Dans sa preview, GPT-4 Turbo a corrigé problème surprenant; les cas de “paresse” durant lesquels il « refusait » de travailler. En effet, certains utilisateurs avaient remarqué que le modèle ne terminait pas certaines tâches, comme la génération de code, et se contentait de réponses minimales ou vides. OpenAI a assuré avoir amélioré la capacité du modèle à compléter les tâches demandées, sans pour autant expliquer la cause de cette “paresse” artificielle.


    Le nouveau modèle GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT

    Le nouveau modèle GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT, promettant des améliorations significatives en termes de performance et d’interaction utilisateur.

    OpenAI a mis à jour vendredi son modèle d'intelligence artificielle (IA) GPT-4 Turbo avec de nouvelles capacités, en particulier dans les domaines des mathématiques, du raisonnement et de l'écriture. La version améliorée de GPT-4 Turbo est désormais disponible pour les utilisateurs payants de ChatGPT Plus, Team, Enterprise et API. Le nouveau modèle d'IA est également accompagné d'une bibliothèque de données mise à jour et affiche désormais une date limite de connaissance fixée à avril 2024. Cette mise à jour intervient quelques jours seulement après que la société d'IA a annoncé son nouveau modèle GPT-4 Turbo avec Vision dans l'API.

    L'annonce a été faite par le compte officiel X (anciennement connu sous le nom de Twitter) d'OpenAI par le biais d'un message, dans lequel il est indiqué : « Notre nouveau GPT-4 Turbo est maintenant disponible pour les utilisateurs payants de ChatGPT. Nous avons amélioré les capacités d'écriture, de mathématiques, de raisonnement logique et de codage ».

    L'un des domaines dans lesquels les utilisateurs pourront constater une amélioration directe est le langage conversationnel. Selon l'entreprise, lorsque l'on écrit avec ChatGPT, les réponses sont plus directes et moins verbeuses.

    Nom : reponse.png
Affichages : 6040
Taille : 119,0 Ko
    Réponse précédente vs. réponse actuelle à la même questions (présentation d'OpenAI)

    C'est un reproche qui a été fait à ChatGPT lorsqu'il a été comparé à Gemini de Google. Selon le plusieurs sources, ce dernier était plus conversationnel et la génération d'un contenu tel qu'une lettre, un e-mail ou un message semblait plus naturelle. En revanche, les réponses de ChatGPT (pour les tests qui ont été effectué sur GPT-3.5, qui est disponible publiquement) semblaient trop formelles et fades. Il semble que ce problème ait été résolu grâce à la récente mise à jour.

    OpenAI a également souligné que le nouveau modèle offrira de meilleures capacités de calcul, de raisonnement et de codage, mais n'a pas donné d'exemples de ces améliorations. Les résultats des tests de référence publiés par l'entreprise montrent une amélioration significative dans les tests MATH et GPQA (Graduate-Level Google-Proof Q&A). Les tests HumanEval et MMLU (Massive Multitask Language Understanding), qui correspondent aux capacités de codage et de traitement du langage naturel, n'ont pas montré d'améliorations majeures.

    Les utilisateurs verront également une base de connaissances mise à jour dans le nouveau modèle GPT-4 Turbo. L'entreprise a augmenté la date limite des données jusqu'au 9 avril 2024, alors que l'ancien modèle Turbo n'était mis à jour que jusqu'en avril 2023. Actuellement, le nouveau modèle AI est en cours de déploiement pour tous les utilisateurs payants de ChatGPT.

    Les premières réactions des utilisateurs qui ont testé GPT-4 Turbo suggèrent des résultats prometteurs

    Dans le domaine du codage, par exemple, un utilisateur a fait état d'un « grand bond en avant en mathématiques/raisonnement » lors des tests de référence.

    Un autre utilisateur a commenté la capacité du modèle à générer un code plus rationalisé tout en incluant des détails, tels que l'ajout automatique d'un drapeau pour télécharger des vidéos de haute qualité : « Comparaison côte à côte entre la dernière version de gpt-4-turbo et la précédente, 0125-preview. Non seulement la nouvelle version est moins verbeuse et va directement dans le code, mais elle décide aussi (à juste titre) d'ajouter un drapeau pour télécharger la vidéo de meilleure qualité ».

    Un autre utilisateur a noté l'amélioration de l'efficacité du modèle, atteignant le même niveau de performance avec 64 000 tokens (unités de texte utilisées par le modèle) alors que la version précédente nécessitait 26 000 tokens.

    Nom : token.png
Affichages : 1081
Taille : 113,5 Ko

    Pour sa part, le groupe de recherche Epoch, qui s'intéresse au développement de l'IA, a déclaré : « OpenAI affirme que la nouvelle version de GPT-4 Turbo est "considérablement améliorée" par rapport à la version précédente. Nous avons constaté qu'elle est nettement plus performante sur @idavidrein et al., bien qu'elle reste en deçà de Claude 3 Opus. »

    Actuellement, ce nouveau GPT-4 Turbo n'est accessible qu'aux abonnés payants de la plateforme ChatGPT. Il s'agit notamment des utilisateurs des plans ChatGPT Plus, Team et Enterprise, ainsi que de ceux qui interagissent avec le modèle par le biais de l'interface de programmation d'applications (API) d'OpenAI, publiée il y a quelques jours.

    GitHub OpenAI

    Source : OpenAI

    Et vous ?

    Quelles applications innovantes de GPT-4 Turbo imaginez-vous pour votre secteur d’activité ?
    Comment GPT-4 Turbo pourrait-il influencer l’éducation et l’apprentissage à distance ?
    En termes de confidentialité et d’éthique, quelles précautions devraient être prises lors de l’utilisation de technologies d’IA comme GPT-4 Turbo ?
    Quels sont les défis que vous anticipez avec l’intégration de GPT-4 Turbo dans les systèmes existants ?
    Quel impact GPT-4 Turbo pourrait-il avoir sur la création de contenu et les industries créatives ?
    Quelles sont vos attentes en matière de transparence et de responsabilité pour les futures versions de modèles d’IA comme GPT-4 Turbo ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 050
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 050
    Points : 73 403
    Points
    73 403
    Par défaut OpenAI offre maintenant une réduction de 50 % sur les appels à l'API de complétion de ChatGPT
    OpenAI offre maintenant une réduction de 50 % sur les appels à l'API de complétion de ChatGPT, si vous les soumettez en masse et prévoyez jusqu'à 24 heures pour les exécuter, envoyés sous forme de fichier JSON.

    OpenAI offre désormais une réduction de 50 % sur les appels à l'API de complétion de chat par lots.

    ChatGPT est un chatbot développé par OpenAI et lancé le 30 novembre 2022. Basé sur de grands modèles de langage, il permet aux utilisateurs d'affiner et d'orienter une conversation vers une longueur, un format, un style, un niveau de détail et un langage souhaités. Les invites et les réponses successives de l'utilisateur sont prises en compte à chaque étape de la conversation en tant que contexte.

    ChatGPT est construit sur la série propriétaire de modèles de transformateurs génératifs pré-entraînés (GPT) d'OpenAI et est affiné pour les applications conversationnelles en utilisant une combinaison d'apprentissage supervisé et d'apprentissage par renforcement à partir du feedback humain. ChatGPT a été publié en tant qu'aperçu de recherche disponible gratuitement, mais en raison de sa popularité, OpenAI exploite maintenant le service sur un modèle freemium. Les utilisateurs du niveau gratuit peuvent accéder à la version basée sur le GPT-3.5, tandis que le GPT-4 plus avancé et d'autres fonctionnalités sont disponibles dans le cadre du service d'abonnement payant "ChatGPT Plus".


    OpenAI offre désormais une réduction de 50 % sur les appels à l'API de complétion de chat par lots si vous les soumettez en masse et si vous prévoyez jusqu'à 24 heures pour leur exécution.

    Les demandes sont envoyées sous la forme d'un fichier JSON délimité par des lignes, chaque ligne ressemblant à ceci :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    {“custom_id”: “request-1”, “method”: “POST”, “url”: “/v1/chat/completions”, “body”: {“model”: “gpt-3.5-turbo”, “messages”: [{“role”: “system”, “content”: “You are a helpful assistant.”}, {“role”: “user”, “content”: “What is 2+2?”}]}}
    Vous téléchargez un fichier pour le lot, vous lancez une demande de lot, puis vous demandez si elle est terminée.

    GPT-3.5 Turbo est donc moins cher que Claude 3 Haiku, à condition que vous soyez prêt à attendre quelques heures pour obtenir des réponses.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que cette méthode est crédible ou pertinente ?

    Voir aussi :

    OpenAI lance un nouveau modèle de langage appelé GPT-4 Turbo qui serait plus puissant et moins cher que GPT-4, avec une fenêtre contextuelle plus grande que celle du modèle d'IA Claude 2 d'Anthropic

    Qualité vs prix : Mistral 8x7B est le modèle d'IA le plus rapide et le plus accessible en matière de coût, tandis que GPT-4 Turbo et Claude 3 Opus fournissent des réponses de meilleure qualité

    ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet, atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 19
    Dernier message: 08/05/2024, 02h28
  2. Réponses: 3
    Dernier message: 29/04/2024, 15h53
  3. Réponses: 4
    Dernier message: 22/11/2023, 07h36
  4. Réponses: 0
    Dernier message: 01/11/2023, 17h26
  5. Réponses: 1
    Dernier message: 27/02/2023, 20h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo