IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 993
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 993
    Par défaut OpenAI présente son nouveau modèle GPT-5.4, doté de capacités accrues en matière de « travail intellectuel »
    Ce que GPT-5.4 d'OpenAI va changer concrètement pour les développeurs :
    des fuites de code révèlent une fenêtre de contexte d'un à deux millions de tokens et un mode de raisonnement « extrême »

    Fenêtre de contexte d'un million — voire deux millions — de tokens, mode de raisonnement « extrême », capacités agentiques renforcées : avant même son annonce officielle, GPT-5.4 est déjà au centre de toutes les conversations dans l'écosystème de l'IA. Fuites de code, captures d'écran supprimées à la hâte, endpoints API éphémères... Le prochain modèle d'OpenAI s'est dévoilé malgré lui. Derrière l'effervescence se dessine une stratégie plus calculée : transformer une cadence de sorties frénétique en avantage concurrentiel, tout en rattrapant des concurrents qui avaient pris de l'avance sur les capacités longue durée.

    Le 27 février 2026, un ingénieur d'OpenAI soumet une pull request dans le dépôt public de Codex. Rien d'exceptionnel en apparence — jusqu'à ce que la communauté repère une ligne de vérification de version indiquant que la nouvelle fonctionnalité de traitement d'images en pleine résolution nécessite au minimum GPT-5.4. L'équipe s'en est aperçue en cinq heures et a effectué sept force-push successifs pour remplacer la référence par GPT-5.3-Codex. Trop tard. Les screenshots avaient déjà circulé sur X.

    Ce premier incident en a appelé d'autres. Un employé prénommé Thibault a accidentellement publié une capture d'écran montrant GPT-5.4 comme option sélectionnable dans l'interface de Codex, avant de supprimer le post rapidement. Un utilisateur a également signalé l'apparition brève d'un endpoint alpha-gpt-5.4 dans l'API publique /models — une pratique cohérente avec la façon dont OpenAI prépare habituellement ses déploiements en phases alpha.

    La somme de ces indices involontaires constitue un tableau assez précis. Et quand The Information a confirmé plusieurs de ces éléments auprès d'une source interne, la rumeur est devenue information vérifiable.


    Un million ou deux millions de tokens : la guerre des chiffres

    Le détail technique qui a le plus mobilisé les forums techniques porte sur l'amplitude exacte de la fenêtre de contexte. Selon The Information, GPT-5.4 disposera d'une fenêtre de contexte d'un million de tokens, soit plus du double des 400 000 tokens actuellement disponibles dans GPT-5.2. Mais une autre lecture des fuites, analysée notamment par NxCode à partir des commits Git, suggère une fenêtre de deux millions de tokens — soit un facteur cinq par rapport à la fenêtre de 400 000 tokens de GPT-5.

    La distinction n'est pas cosmétique. Le chiffre de deux millions de tokens reste pour l'heure non corroboré par le code source d'OpenAI lui-même, selon AwesomeAgents. Il convient donc de distinguer ce qui est confirmé (un million de tokens selon The Information) de ce qui est spéculatif (deux millions selon les inférences communautaires).

    Même en retenant l'hypothèse basse, le bond est considérable pour OpenAI. Il serait plus juste de décrire cette évolution comme un rattrapage : Gemini et Claude proposent déjà des contextes d'un million de tokens. Google Gemini 2.5 Pro en dispose depuis plusieurs mois ; Claude Opus 4.6, sorti début février 2026, embarque lui aussi cette capacité assortie d'un support pour les équipes d'agents en parallèle. OpenAI était à la traîne sur ce point précis.

    Les implications pratiques d'un tel contexte dépassent largement le benchmark. Des équipes juridiques pourraient traiter l'intégralité d'un dossier dans une seule fenêtre de conversation ; des équipes de développement pourraient charger des bases de code entières pour une analyse et un refactoring multi-fichiers sans fragmentation. La transition de centaines de milliers à plusieurs millions de tokens ne constitue pas une évolution incrémentale — elle change fondamentalement quelles tâches sont réalisables en une seule interaction avec le modèle.

    Nom : nic.png
Affichages : 12240
Taille : 98,3 Ko

    Le mode « Extreme » : dépenser plus de calcul pour penser mieux

    L'autre grande nouveauté annoncée est l'introduction d'un mode de raisonnement baptisé « Extreme ». Ce mode permettrait au modèle d'allouer substantiellement plus de temps et de ressources computationnelles aux questions difficiles. Ce mode vise les chercheurs plutôt que les utilisateurs ordinaires qui souhaitent des réponses rapides.

    La formulation mérite d'être mise en perspective. OpenAI propose déjà dans GPT-5.2 un réglage de "thinking time" avec plusieurs niveaux (Light, Standard, Extended, xHigh). Le mode Extreme de GPT-5.4 s'inscrit dans cette trajectoire, mais pousserait le curseur bien au-delà de ce qui est actuellement disponible. L'analogie serait celle d'un processeur pouvant théoriquement faire tourner un algorithme plus longtemps pour améliorer sa réponse — avec un coût en compute directement répercuté sur l'utilisateur ou l'entreprise.

    Ce positionnement cible explicitement les usages de haute valeur : recherche académique, modélisation scientifique, ingénierie logicielle complexe. Pas le grand public cherchant à rédiger un email, mais le data scientist ou l'ingénieur qui a besoin que le modèle soutienne une chaîne de raisonnement sur plusieurs heures sans dériver.


    Codex au centre : les agents comme enjeu principal

    GPT-5.4 devrait être plus fiable et commettre moins d'erreurs sur des tâches longues pouvant s'étaler sur plusieurs heures — ce qui importe particulièrement pour des outils comme l'agent de programmation Codex d'OpenAI.

    Ce n'est pas un détail secondaire. Codex est devenu le fer de lance commercial d'OpenAI dans le secteur du développement logiciel, en concurrence directe avec Claude Code d'Anthropic et GitHub Copilot. Or les tâches agentiques — celles où le modèle doit enchaîner des dizaines d'actions autonomes sans supervision humaine — sont précisément celles où les erreurs cumulées peuvent rendre le résultat inutilisable. Une amélioration de la fiabilité sur les longues sessions n'est pas une fonctionnalité parmi d'autres : c'est la condition sine qua non de l'adoption entreprise.

    Les descriptions des améliorations agentiques évoquent des progrès vers « de vrais agents capables de terminer des tâches multi-étapes de façon autonome » — ce qui s'aligne avec la direction générale qu'OpenAI a prise depuis le lancement de GPT-5-Codex.

    La fuite sur le traitement d'images en pleine résolution s'inscrit dans ce même contexte. Le paramètre API detail: original permettrait de contourner la compression standard pour accéder à une analyse pixel par pixel — une amélioration directement utile pour les agents qui travaillent sur des interfaces visuelles, des documents techniques ou des schémas d'architecture.


    Une cadence de sorties devenue stratégie

    OpenAI a effectivement adopté une cadence mensuelle de sorties. Le 3 mars, la société a déployé GPT-5.3 Instant pour tous les utilisateurs de ChatGPT — et une heure plus tard postait sur X : « 5.4 sooner than you Think. » Certains ont interprété le T majuscule de "Think" comme une allusion à un lancement le jeudi (Thursday). Intentionnel ou non, le teasing est devenu partie intégrante de la stratégie produit.

    Selon The Information, cette cadence de sorties plus fréquente est délibérément conçue pour calibrer les attentes. Le battage médiatique autour du lancement de GPT-5 avait placé la barre si haut qu'il était quasi-impossible de la franchir — et la croissance du nombre d'utilisateurs d'OpenAI n'a pas atteint les projections internes.

    La réponse à ce problème est donc structurelle : plutôt que de construire l'hype autour d'un modèle monolithique et de décevoir, enchaîner les sorties incrémentales pour maintenir le momentum médiatique tout en gérant les attentes. GPT-5.4 serait ainsi le sixième modèle de la série GPT-5.x en moins de sept mois.

    Cette stratégie a un coût. Tandis que les modèles deviennent de plus en plus autonomes et évoluent vers de véritables agents, les coûts d'infrastructure explosent — une réalité que les marchés de prédiction intègrent déjà, en évaluant à environ 55 % la probabilité d'un lancement de GPT-5.4 avant avril 2026.

    L'accélération concurrentielle, elle, est documentée. Le 5 février 2026, OpenAI et Anthropic ont publié leurs nouveaux modèles phares à moins d'une heure d'intervalle, illustrant crûment la dynamique de cette course aux armements. Une telle simultanéité n'est pas le fruit du hasard : elle reflète un monitoring mutuel en quasi-temps réel entre les grands labs.

    Nom : sooner.png
Affichages : 690
Taille : 8,0 Ko

    Ce que GPT-5.4 révèle sur la compétition entre labs

    La chronologie des annonces et des fuites autour de GPT-5.4 est révélatrice d'un écosystème où la communication est devenue une arme à part entière. OpenAI maîtrise désormais l'art du pré-lancement non officiel : laisser fuiter suffisamment pour alimenter la conversation, sans s'engager sur des spécifications qui pourraient contraindre le produit final.

    Pour les développeurs et architectes qui doivent faire des choix d'infrastructure, l'incertitude reste entière : un million ou deux millions de tokens ? Mode Extreme disponible via API dès le lancement ou réservé aux abonnements premium ? Quels tarifs pour des sessions de raisonnement longues ? Ces questions resteront sans réponse jusqu'à l'annonce officielle — que les marchés de prédiction situent dans les prochaines semaines.

    Ce qui est acquis en revanche, c'est que la course à la fenêtre de contexte est entrée dans une nouvelle phase. Si GPT-5.4 confirme le million de tokens, OpenAI rejoindra Google et Anthropic sur ce terrain. Si les deux millions se confirment, ce sera Google qui devra répliquer.

    Sam Altman amende un accord avec le Pentagone sous pression après un boycott massif de ChatGPT

    Ces fuites interviennent dans un contexte particulier. Quelques heures à peine après la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement, OpenAI annonçait avoir conclu un accord avec le Pentagone pour déployer ses modèles d'IA dans des environnements classifiés.

    Pourtant, la veille encore, Altman avait envoyé un mémo interne à ses employés, indiquant qu'OpenAI partageait les mêmes « lignes rouges » qu'Anthropic. Le contrat d'OpenAI avec le Pentagone a été signé juste après l'échec des négociations entre Anthropic et le Département de la Défense. Ce timing a immédiatement soulevé des questions légitimes : alors que le Pentagone affirmait ne pas pouvoir accepter les restrictions d'Anthropic, pourquoi aurait-il subitement consenti à des concessions similaires pour OpenAI en quelques jours de négociations seulement ?

    La réponse partielle qui a émergé dans les jours suivants laissait entrevoir une distinction subtile mais potentiellement trompeuse : là où Anthropic cherchait à inscrire explicitement ses limitations dans le contrat, OpenAI avait accepté que le Pentagone utilise ses technologies « à toutes fins légales », tout en affirmant y avoir intégré ses restrictions. Une formulation ambiguë qui a immédiatement alimenté les soupçons.

    Suite au tollé provoqué par cette décision qui a entraîné une vague massive de suppression d'abonnements à ChatGPT, Sam Altman a choisi une voie inhabituelle pour un PDG de sa stature : l'autocritique publique. Dans un post initialement interne, qu'il a ensuite partagé sur X (ex-Twitter), il a reconnu : « Une chose que je pense avoir mal faite : nous n'aurions pas dû nous précipiter pour finaliser cela un vendredi. Les enjeux sont extrêmement complexes et exigent une communication claire. Nous essayions sincèrement de désamorcer la situation et d'éviter un résultat bien pire, mais je pense que cela a simplement eu l'air opportuniste et bâclé. »

    Source : vidéos dans le texte

    Et vous ?

    La multiplication des versions intermédiaires (5.1, 5.2, 5.3, 5.4...) est-elle une vraie stratégie de gestion des attentes ou simplement un aveu que les grands bonds quantitatifs sont derrière nous ?

    Le mode de raisonnement "Extreme" pose une question économique concrète : à quel moment le coût en compute d'une session de raisonnement longue dépasse-t-il la valeur produite ? Qui absorbera ce coût dans les déploiements enterprise ?

    OpenAI était en retard sur la fenêtre de contexte par rapport à Google et Anthropic. Ce rattrapage change-t-il réellement l'équilibre concurrentiel, ou la qualité du raisonnement dans le contexte long restera-t-elle le vrai différenciateur ?

    Les fuites successives autour de GPT-5.4 (commits Git, screenshots accidentels, endpoints API) semblent trop nombreuses pour être entièrement involontaires. La "fuite contrôlée" est-elle devenue un outil marketing à part entière dans la guerre de l'attention entre labs d'IA ?

    Pour les équipes qui construisent sur Codex ou des solutions concurrentes, l'instabilité des versions pose un problème de dette technique réelle. Comment gérer des dépendances sur des modèles dont le cycle de vie se réduit à quelques mois ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 803
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 803
    Par défaut OpenAI présente son nouveau modèle GPT-5.4, doté de capacités accrues en matière de « travail intellectuel »
    OpenAI présente GPT-5.4, doté de capacités accrues en matière de « travail intellectuel » et s'attaque directement à Anthropic
    un lancement sur fond de polémiques liées à ses liens avec le gouvernement

    OpenAI dévoile son très attendu modèle GPT-5.4. L'entreprise affirme que GPT-5.4 est son système le plus performant à ce jour pour un usage professionnel. Ce modèle combine un raisonnement avancé, des capacités de codage et la possibilité d'utiliser de manière autonome des ordinateurs et des logiciels. Il est disponible dans ChatGPT sous le nom GPT-5.4 Thinking, dans l'API et dans Codex, et décliné en deux variantes : Thinking et Pro. OpenAI a déclaré que GPT-5.4 prend en charge jusqu'à 1 million de tokens de contexte dans l'API et Codex. GPT-5.4 intensifie la concurrence pour les clients professionnels, jusqu'ici le bastion d'Anthropic.

    Les mises à jour de dans le secteur de l'IA ne ralentissent pas. Littéralement deux jours après le lancement par OpenAI d'un nouveau modèle sous-jacent pour ChatGPT appelé GPT-5.3 Instant, la société présente une autre mise à jour encore plus importante : GPT-5.4. Le nouveau modèle consolide certaines des capacités qu'OpenAI avait auparavant réparties entre différents modèles, en réunissant les capacités de codage, de raisonnement et d'action.

    Les points forts de cette version concernent l'efficacité, OpenAI indiquant que GPT-5.4 utilise beaucoup moins de jetons (47 % de moins pour certaines tâches) que ses prédécesseurs et, ce qui est sans doute encore plus impressionnant, un nouveau mode d'utilisation « natif » de la machine disponible via l'API et Codex, qui permet à GPT-5.4 de naviguer sur l'ordinateur d'un utilisateur comme comme un humain et de travailler sur plusieurs applications.

    OpenAI lance également une nouvelle suite d'intégrations ChatGPT permettant à GPT-5.4 d'être directement connecté à Microsoft Excel et Google Sheets, ce qui favorise une analyse granulaire et l'exécution automatisée des tâches. Cela devrait accélérer le travail de toutes les équipes, mais pourrait accentuer les craintes de licenciements de cols blancs, dans la foulée d'offres similaires proposées par Claude d'Anthropic et sa nouvelle application Cowork.

    L'entreprise affirme ensuite que GPT-5.4 prend en charge jusqu'à 1 million de tokens de contexte dans l'API et Codex, ce qui permet aux agents de planifier, d'exécuter et de vérifier des tâches sur de longues périodes. Cependant, le coût par million de tokens double dès que l'entrée dépasse 272 000 tokens.

    Contrôle natif de l'ordinateur : une première avec l'IA ChatGPT

    La nouveauté la plus importante mise en avant par OpenAI est que GPT-5.4 est son premier modèle polyvalent doté de capacités natives de pointe en matière d'utilisation de l'ordinateur dans Codex et l'API, permettant aux agents de contrôler des ordinateurs et d'effectuer des flux de travail en plusieurs étapes dans différentes applications. Les agents IA se popularisent rapidement, notamment au sein des entreprises de développement de logiciels.


    OpenAI explique que le modèle peut à la fois écrire du code pour faire fonctionner des ordinateurs via des bibliothèques telles que Playwright et émettre des commandes de souris et de clavier en réponse à des captures d'écran. OpenAI revendique également une avancée significative dans la navigation Web par les agents. Les résultats des tests de performance sont présentés comme la preuve qu'il ne s'agit pas simplement d'une interface utilisateur.

    Sur BrowseComp, qui mesure la capacité des agents IA à naviguer de manière persistante sur le Web pour trouver des informations difficiles à localiser, OpenAI rapporte que GPT-5.4 s'améliore de 17 % en valeur absolue par rapport à GPT-5.2, et que GPT-5.4 Pro atteint 89,3 %, ce qui est présenté comme une nouvelle référence en la matière. Sur OSWorld-Verified, GPT-5.4 affiche un taux de réussite de 75,0 %, contre seulement 47,3 % pour GPT-5.2.

    OSWorld-Verified mesure la navigation sur ordinateur à l'aide de captures d'écran et d'actions au clavier et à la souris. (Les performances humaines rapportées sont de 72,4 %.) Sur WebArena-Verified, GPT-5.4 atteint un taux de réussite de 67,3 % en utilisant à la fois des interactions basées sur le DOM et des captures d'écran. Sur Online-Mind2Web, il affiche un score de 92,8 % en utilisant uniquement des observations basées sur des captures d'écran.

    Amélioration de la vision et du traitement des documents

    OpenAI établit également un lien entre l'utilisation d'un ordinateur et l'amélioration de la vision et du traitement des documents. Sur MMMU-Pro, GPT-5.4 atteint un taux de réussite de 81,2 % sans utiliser d'outils, contre 79,5 % pour GPT-5.2. Dans un billet de blogue, l'entreprise affirme avoir obtenu ce résultat en utilisant une fraction des « jetons de réflexion ». Sur OmniDocBench, l'erreur moyenne de GPT-5.4 est de 0,109, contre 0,140 pour GPT-5.2.

    L'article décrit également une prise en charge étendue des entrées d'images haute fidélité, avec un niveau de détail « original » pouvant atteindre 10,24 millions de pixels. OpenAI positionne GPT-5.4 comme étant conçu pour des flux de travail plus longs et en plusieurs étapes, un travail qui ressemble de plus en plus à celui d'un agent conservant un état à travers de nombreuses actions plutôt qu'à celui d'un chatbot répondant une seule fois.

    Recherche d'outils et amélioration de l'orchestration des outils

    Selon OpenAI, l'approche naïve consistant à déverser toutes les définitions d'outils dans le prompt crée une taxe sur chaque requête : coût, latence et pollution contextuelle. GPT-5.4 introduit la recherche d'outils dans l'API comme solution structurelle. Au lieu de tout recevoir à l'avance, il reçoit une liste allégée d'outils ainsi qu'une fonction de recherche, et il ne récupère les définitions complètes des outils que lorsqu'elles sont réellement nécessaires.

    Nom : Capture d'écran 2026-03-06 081620.png
Affichages : 8339
Taille : 65,5 Ko

    OpenAI a rapporté que cela offre un gain d'efficacité considérable. L'entreprise décrit le gain d'efficacité à l'aide d'une comparaison concrète : sur 250 tâches du benchmark MCP Atlas de Scale, exécutées avec 36 serveurs MCP activés, la configuration de la recherche d'outils a réduit l'utilisation totale de jetons d'environ 47 % tout en atteignant la même précision qu'une configuration qui exposait toutes les fonctions MCP directement dans le contexte.

    Ce chiffre de 47 % concerne spécifiquement la configuration de la recherche d'outils dans cette évaluation et ne signifie pas que GPT-5.4 utilise 47 % de jetons en moins pour chaque type de tâche. Des tests indépendants sont nécessaires pour confirmer les gains d'efficacité revendiqués par OpenAI.

    Améliorations pour les développeurs et les workflows de codage

    GPT-5.4 combine les atouts de GPT-5.3-Codex en matière de codage avec des capacités plus puissantes en matière d'outils et d'utilisation informatique, ce qui est important lorsque les tâches ne sont pas ponctuelles. Selon les tests de l'entreprise, GPT-5.4 égale ou surpasse GPT-5.3-Codex sur SWE-Bench Pro tout en offrant une latence plus faible dans les efforts de raisonnement. Codex bénéficie également de réglages au niveau du flux de travail.

    OpenAI affirme que le mode/fast offre des performances jusqu'à 1,5 fois plus rapides sur tous les modèles pris en charge, y compris GPT-5.4, le décrivant comme le même modèle et la même intelligence, « mais en plus rapide ». Et il décrit la sortie d'une compétence Codex expérimentale, « Playwright (Interactive) ».

    Une suite d'intégrations pour Microsoft Excel et Google Sheets

    Outre le développement de logiciels, les entreprises spécialisées dans l'IA telles qu'OpenAI et Anthropic tentent d'améliorer la productivité des travailleurs dans de nombreux autres domaines. Parallèlement à ce lancement, OpenAI annonce une suite de produits d'IA sécurisés dans ChatGPT, conçus pour les entreprises et les institutions financières, et optimisés par GPT-5.4 pour un raisonnement financier avancé et une modélisation basée sur Excel.

    Nom : ijku.png
Affichages : 383
Taille : 104,9 Ko

    La pièce maîtresse est ChatGPT pour Excel et Google Sheets (bêta), qu’OpenAI décrit comme ChatGPT intégré directement dans des feuilles de calcul pour créer, analyser et mettre à jour des modèles financiers complexes à l'aide des formules et des structures auxquelles les équipes font déjà confiance.

    La suite comprend de nouvelles intégrations d'applications ChatGPT destinées à unifier les données du marché, des entreprises et les données internes en un seul flux de travail, notamment FactSet, MSCI, Third Bridge et Moody's. Elle introduit également des « skills » (compétences) réutilisables pour les tâches financières récurrentes telles que les prévisions de résultats, l'analyse comparative, l'analyse DCF et la rédaction de notes d'investissement.

    Les performances de l'IA par rapport au travail professionnel

    Sur GDPval, un benchmark populaire couvrant le « travail intellectuel bien défini » dans 44 professions, OpenAI rapporte que GPT-5.4 égale ou dépasse les professionnels du secteur dans 83,0 % des comparaisons, contre 71,0 % pour GPT-5.2. La société souligne également des améliorations spécifiques dans les types d'artefacts qui ont tendance à exposer les faiblesses du modèle : tableaux structurés, formules, cohérence narrative et qualité de conception.

    Par ailleurs, dans un benchmark interne couvrant les tâches de modélisation de feuilles de calcul inspirées de celles qu'un analyste junior en banque d'investissement pourrait effectuer, OpenAI rapporte que son nouveau modèle GPT-5.4 atteint un score moyen de 87,5 %, contre 68,4 % pour GPT-5.2.

    Et sur un ensemble de questions d'évaluation des présentations, OpenAI indique que les évaluateurs humains ont préféré les présentations de GPT-5.4 à celles de GPT-5.2 dans 68,0 % des cas, citant une esthétique plus forte, une plus grande variété visuelle et une utilisation plus efficace de la génération d'images.

    OpenAI décrit son nouveau modèle GPT-5.4 comme son modèle le plus factuel à ce jour. Brendan Foody, PDG de Mercor, a déclaré que GPT-5.4 est le meilleur modèle que la société ait essayé et a ajouté que GPT-5.4 est désormais en tête du classement APEX-Agents de Mercor pour les services professionnels, en mettant l'accent sur les livrables à long terme tels que les présentations PowerPoint, les modèles financiers et les analyses juridiques.

    OpenAI vivement critiqué pour son accord avec le Pentagone

    Cette mise à jour arrive à un moment critique pour le laboratoire d'IA de San Francisco. ChatGPT aurait perdu de nombreux utilisateurs au profit de son concurrent Anthropic ces derniers jours, après qu'OpenAI a annoncé un accord avec le Pentagone. L'annonce de l'accord faisait suite à une querelle publique entre l'administration Trump et Anthropic concernant les limitations qu'Anthropic souhaitait imposer aux applications militaires de ses modèles.


    On ne sait pas exactement combien de personnes ont quitté le navire ni si cela a entraîné une baisse substantielle de la base massive de plus de 900 millions d'utilisateurs du produit. Toutefois, la concurrence s'intensifie sur le marché des grands modèles de langage (LLM) et OpenAI n'est plus le leader incontesté d'autrefois. Les performances des modèles de la série GPT-5 ont rencontré des difficultés et n'ont pas créé un écart substantiel avec la concurrence.

    En concluant en urgence un accord avec le département américain de la Défense quelques heures après la mise au ban d'Anthropic, OpenAI espérait se positionner avantageusement dans la course aux contrats militaires. Mais la manœuvre a déclenché un tollé public sans précédent, obligeant le PDG Sam Altman à faire amende honorable et à renégocier les termes du contrat pour y intégrer des garanties explicites contre la surveillance domestique des citoyens américains.

    Pour tirer parti des difficultés d'OpenAI, Anthropic a étendu la fonctionnalité de mémoire, auparavant réservée aux abonnés, aux utilisateurs gratuits et a introduit un outil permettant d'importer de la mémoire depuis d'autres sources. Anthropic affirme que le 2 mars a été la journée la plus fructueuse de son histoire en matière de nouvelles inscriptions. Cette mise à jour vise à soutenir l'objectif d'OpenAI de rester compétitif malgré ses problèmes financiers.

    Disponibilité

    GPT-5.4 se décline en deux versions : GPT-5.4 Thinking et GPT-5.4 Pro, cette dernière étant conçue pour les tâches les plus complexes. Les deux versions sont disponibles dans l'API payante et dans l'outil d'ingénierie logicielle Codex, tandis que GPT-5.4 Thinking sera accessible à tous les abonnés payants de ChatGPT (Plus, le forfait à 20 dollars par mois et plus) et Pro sera réservé aux utilisateurs de ChatGPT Pro (200 dollars par mois) et du forfait Enterprise.

    Les utilisateurs de ChatGPT Free pourront également tester GPT-5.4, mais uniquement lorsque leurs requêtes seront automatiquement redirigées vers le modèle. OpenAI espère regagner la confiance des utilisateurs avec GPT-5.4 et reprendre de l'avance sur ses concurrents, notamment Google et Anthropic.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des nouveautés introduites par GPT-5.4 ?
    Que pensez-vous des nouvelles capacités de ChatGPT en matière de codage ?
    GPT-5.4 introduit le contrôle natif de l'ordinateur. Laisserez-vous ChatGPT prendre le contrôle de votre machine ?

    Voir aussi

    Ce que GPT-5.4 d'OpenAI va changer concrètement pour les développeurs : des fuites de code révèlent une fenêtre de contexte d'un à deux millions de tokens et un mode de raisonnement « extrême »

    Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse

    OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression après un boycott massif de ChatGPT en faveur de Claude

  3. #3
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    1 323
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 323
    Par défaut
    Pour le développeur que je suis, et donc avec une vision orientée, je ferai le classement suivant à ce jour sur les meilleurs IA que j’ai testé en version gratuite:
    1) Claude - pour la pertinence de ces réponses et le fait qu’il ne perd ni le fil ni les codes sources quand les discussions se prolongent.
    2) ChatGPT - pour son approche raisonnée et ces suggestions pour améliorer le code !
    3) MistralAI - pour son approche cartésienne et les réponses originales et valables qu’il apportent aux problématiques.
    4 Gemini - il sûrement bon dans d’autres domaines mais il te répond est réécrivant tout le code en en oubliant la moitié, si la discussion se prolonge, il a tendance à perdre le contexte.

    Je les ai mis en concurrence pour créer des fichiers au format PSD de Adobe, avec intégration de layer, création de « dossiers » imbriqués, compression RLE, intégration de profil .icc et je suis arrivés à d’excellents résultats !

    J’avait commencé plus Soft en m’attaquant à un un autre format graphique le .ora, qui fonctionne à la perfections maintenant.

  4. #4
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 818
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 818
    Par défaut OpenAI déploie GPT-5.4 Mini et Nano pour une IA d'entreprise en temps réel et à faible latence
    OpenAI déploie GPT-5.4 Mini et Nano pour une IA d'entreprise en temps réel et à faible latence, apportant de nombreux atouts de GPT-5.4 à des petits modèles plus rapides et plus efficaces

    OpenAI a lancé GPT‑5.4 mini et nano, ses petits modèles les plus performants à ce jour. Ils apportent de nombreux atouts de GPT‑5.4 à des modèles plus rapides et plus efficaces, conçus pour des charges de travail à gros volume. GPT‑5.4 mini est conçu pour les charges de travail où la latence influence directement l’expérience produit : assistants de codage réactifs, sous-agents exécutant rapidement des tâches de support, systèmes capables de capturer et d’interpréter des captures d’écran, et applications multimodales qui raisonnent sur des images en temps réel. GPT‑5.4 nano est la version la plus petite et la plus rapide de GPT‑5.4, elle est dédiée aux tâches pour lesquelles la vitesse et le coût comptent le plus.

    OpenAI est une entreprise américaine d'intelligence artificielle (IA), connue pour ses grands modèles de langage tels que GPT-4o, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora. Son lancement de ChatGPT en novembre 2022 a déclenché un intérêt mondial pour les agents conversationnels et l'IA générative. ChatGPT est un agent conversationnel d'IA. ChatGPT utilise des transformeurs génératifs préentraînés, comme GPT-5, pour générer du texte ou des images.

    Début mars, OpenAI a dévoilé son très attendu modèle GPT-5.4. L'entreprise affirme que GPT-5.4 est son système le plus performant à ce jour pour un usage professionnel. Ce modèle combine un raisonnement avancé, des capacités de codage et la possibilité d'utiliser de manière autonome des ordinateurs et des logiciels. Il est disponible dans ChatGPT sous le nom GPT-5.4 Thinking, dans l'API et dans Codex, et décliné en deux variantes : Thinking et Pro. OpenAI a déclaré que GPT-5.4 prend en charge jusqu'à 1 million de tokens de contexte dans l'API et Codex. GPT-5.4 intensifie la concurrence pour les clients professionnels, jusqu'ici le bastion d'Anthropic.

    Récemment, OpenAI a lancé GPT‑5.4 mini et nano, ses petits modèles les plus performants à ce jour. Ils apportent de nombreux atouts de GPT‑5.4 à des modèles plus rapides et plus efficaces, conçus pour des charges de travail à gros volume. GPT‑5.4 mini est une version nettement améliorée de GPT‑5 mini en matière de code, de raisonnement, de compréhension multimodale et d’utilisation d’outils, tout en étant plus de deux fois plus rapide. Il se rapproche également des performances du modèle plus grand GPT‑5.4 sur plusieurs évaluations, notamment SWE-Bench Pro et OSWorld-Verified.

    GPT‑5.4 mini est conçu pour les charges de travail où la latence influence directement l’expérience produit : assistants de codage réactifs, sous-agents exécutant rapidement des tâches de support, systèmes capables de capturer et d’interpréter des captures d’écran, et applications multimodales qui raisonnent sur des images en temps réel. Dans ces contextes, le meilleur modèle n’est souvent pas le plus grand : c’est celui qui peut répondre rapidement, utiliser les outils de manière fiable et rester performant sur des tâches professionnelles complexes.

    GPT‑5.4 nano est la version la plus petite et la plus rapide de GPT‑5.4, elle est dédiée aux tâches pour lesquelles la vitesse et le coût comptent le plus. Il s'agit également d'une amélioration significative de la version GPT‑5 nano. Ce modèle est recommandé pour la classification, l'extraction de données, le classement et les sous-agents qui gèrent des tâches de support plus simples.

    Nom : 1.jpg
Affichages : 2789
Taille : 31,6 Ko

    Codage

    Selon OpenAI, GPT‑5.4 mini est particulièrement efficace dans les flux de travail de programmation qui bénéficient d'itérations rapides. Le modèle gère les modifications ciblées, la navigation dans le codebase, la génération front-end et les boucles de débogage avec une faible latence, ce qui en fait un bon choix pour des tâches de code devant être exécutées plus rapidement et à moindre coût.

    Dans les benchmarks, GPT‑5.4 mini surpasse systématiquement GPT‑5 mini à latence comparable et se rapproche des taux de réussite de GPT‑5.4 tout en étant beaucoup plus rapide, offrant l’un des meilleurs compromis performance-latence pour les flux de travail de développement.

    Nom : 2.jpg
Affichages : 427
Taille : 37,0 Ko

    GPT‑5.4 mini convient également aux systèmes qui combinent des modèles de tailles différentes. Dans Codex, par exemple, un modèle plus grand comme GPT‑5.4 peut gérer la planification, la coordination et la décision finale, tout en déléguant à des sous-agents GPT‑5.4 mini qui prennent en charge des sous-tâches plus ciblées en parallèle—comme rechercher dans une base de code, examiner un fichier volumineux ou traiter des documents complémentaires.

    Ce schéma devient plus utile alors que les modèles plus petits deviennent plus rapides et plus performants. Au lieu d’utiliser un seul modèle pour tout, les développeurs peuvent concevoir des systèmes où les modèles plus grands décident quoi faire et où les modèles plus petits exécutent rapidement les tâches à grande échelle. OpenAI affirme que GPT‑5.4 mini est le mini modèle le plus puissant à ce jour pour ce type de flux de travail.

    Utilisation d’un ordinateur

    GPT‑5.4 mini est également performant sur les tâches multimodales, en particulier celles liées à l’utilisation de l’ordinateur. Le modèle peut interpréter rapidement des captures d’écran d’interfaces utilisateur complexes afin d’exécuter des tâches d’utilisation de l’ordinateur avec rapidité. Sur OSWorld-Verified, GPT‑5.4 mini se rapproche de GPT‑5.4 tout en surpassant nettement GPT‑5 mini.

    Nom : 3.jpg
Affichages : 394
Taille : 20,2 Ko

    Disponibilité et tarification

    GPT‑5.4 mini est disponible dans API, Codex et ChatGPT. Dans API, GPT‑5.4 mini prend en charge les entrées de texte et d'image, l'utilisation d'outils, l'appel de fonction, la recherche web, la recherche de fichiers, l'utilisation d'un ordinateur et les compétences. Il dispose d'une fenêtre de contexte de 400k et coûte $0.75 par million de tokens en entrée et $4.50 par million de tokens en sortie.

    Dans Codex, GPT‑5.4 mini est disponible dans l’application Codex, le CLI, l’extension IDE et sur le web. Il n’utilise que 30 % du quota GPT‑5.4, ce qui permet aux développeurs de traiter rapidement des tâches de code plus simples dans Codex pour environ un tiers du coût. Les agents peuvent également être configurés pour utiliser GPT‑5.4 mini par défaut, permettant aux sous-agents qui gèrent un travail moins exigeant en raisonnement de s'exécuter sur le modèle moins cher.

    Dans ChatGPT, GPT‑5.4 mini est disponible pour les utilisateurs Free et Go via la fonctionnalité « Thinking » du menu +. Pour tous les autres utilisateurs, GPT‑5.4 mini est disponible comme solution de repli en cas de limitation de débit pour GPT‑5.4 Thinking. GPT‑5.4 nano est uniquement disponible via l’API et coûte 0,20 $ par million de tokens en entrée et 1,25 $ par million de tokens en sortie.

    Cette annonce intervient alors que les documents internes d'OpenAI prévoient une perte de 14 milliards de $ en 2026, qui serait environ trois fois plus importante que les premières estimations pour 2025. Selon le rapport, OpenAI s'attend à perdre 44 milliards de dollars entre 2023 et fin 2028, avant de dégager un bénéfice de 14 milliards de dollars en 2029. Le rapport affirme également que la consommation de trésorerie d'OpenAI n'est pas aussi grave qu'on le pensait auparavant, la société n'ayant dépensé que 340 millions de dollars au cours du premier semestre de l'exercice financier le plus récent. Conquérir un nouveau marché représente donc la perspective d'OpenAI pour améliorer sa santé financière.

    Source : OpenAI

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Ce que GPT-5.4 d'OpenAI va changer concrètement pour les développeurs : des fuites de code révèlent une fenêtre de contexte d'un à deux millions de tokens et un mode de raisonnement « extrême »

    Google lance son tout dernier modèle d'IA, Gemini 3.1 Flash-Lite, conçu pour être le plus rapide et le plus rentable de la série Gemini 3

    Le dernier modèle Anthropic, Claude Sonnet 4.6, apporte des améliorations en matière de codage, d'utilisation de l'ordinateur, de raisonnement dans un contexte étendu et de planification d'agents
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    1 323
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 323
    Par défaut
    ou on peux trouver les infos sur les ressources matériels minimum pour faire tourner ChatGPT 5.4 Mini ?

Discussions similaires

  1. Réponses: 26
    Dernier message: 10/05/2023, 20h15
  2. Réponses: 0
    Dernier message: 07/02/2023, 21h41
  3. Réponses: 4
    Dernier message: 15/11/2021, 17h07
  4. Réponses: 1
    Dernier message: 20/07/2020, 19h32
  5. Je crois que GPT mon portable !
    Par Yepazix dans le forum Windows 10
    Réponses: 6
    Dernier message: 01/08/2016, 21h57

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo