IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI lance GPT-5.3-Codex-Spark, optimisé par la puce Wafer Scale Engine 3 de Cerebras


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 774
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 774
    Par défaut OpenAI lance GPT-5.3-Codex-Spark, optimisé par la puce Wafer Scale Engine 3 de Cerebras
    OpenAI a lancé GPT-5.3 Codex, qui est 25 % plus rapide que GPT-5.2 et qui a été le premier modèle d'OpenAI à aider à son propre débogage pendant son développement

    OpenAI a lancé un nouveau modèle de codage, GPT-5.3-Codex. La société a déclaré que ce nouveau modèle avait amélioré ses « capacités de raisonnement et de connaissances professionnelles » et qu'il fonctionnerait 25 % plus rapidement que son prédécesseur. OpenAI précise que le nouveau modèle GPT-5.3-Codex est son « premier modèle qui a contribué à sa propre création ». Lors de l'annonce de GPT-5.3-Codex, OpenAI a déclaré : « L'équipe Codex a utilisé les premières versions pour déboguer sa propre formation, gérer son propre déploiement et diagnostiquer les résultats des tests et des évaluations. Notre équipe a été impressionnée par la capacité de Codex à accélérer son propre développement. »

    OpenAI est une entreprise américaine d'intelligence artificielle (IA) fondée en 2015 à San Francisco en Californie. Sa mission est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité ». L'entreprise est connue pour ses grands modèles de langage tels que GPT-4o, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora.

    En août 2021, OpenAI a annoncé Codex, un outil d'autocomplétion de code disponible dans certains EDI tels que Visual Studio Code et Neovim. Il s'agissait d'une version modifiée et opérationnelle de GPT-3, affinée à partir de gigaoctets de code source dans une douzaine de langages de programmation. C'était le modèle original qui alimentait GitHub Copilot. En avril 2025, OpenAI a publié Codex CLI sur GitHub sous licence Apache 2.0, un agent IA qui s'exécute localement sur l'ordinateur de l'utilisateur. Ils ont également annoncé un modèle de langage, codex-mini-latest, disponible uniquement derrière une API. Il s'agissait d'une version affinée de o4-mini, spécialement entraînée pour être utilisée dans Codex CLI.

    En mai 2025, OpenAI a annoncé le lancement d'un aperçu de recherche d'un outil distinct ayant un objectif similaire, également nommé Codex, basé sur une version affinée d'OpenAI o3. Il s'agit d'un agent logiciel qui effectue des tâches de programmation informatique, notamment la rédaction de fonctionnalités, la réponse à des questions sur le code source, l'exécution de tests et la proposition de PR pour révision. Début février 2026, OpenAI a lancé une application autonome pour son assistant de codage IA, Codex, disponible sur les ordinateurs Apple. L'application vise à faciliter la gestion simultanée de plusieurs agents IA par les développeurs de logiciels, a déclaré OpenAI.

    Les outils de codage IA ont connu un essor fulgurant au cours de l'année dernière, ces annonces représentent les efforts d'OpenAI pour gagner des parts de marché sur ses concurrents tels qu'Anthropic et Cursor. Récemment, OpenAI a lancé un nouveau modèle de codage, GPT-5.3-Codex. La société a déclaré que ce nouveau modèle avait amélioré ses « capacités de raisonnement et de connaissances professionnelles » et qu'il fonctionnerait 25 % plus rapidement que son prédécesseur.

    OpenAI précise que le nouveau modèle GPT-5.3-Codex est son « premier modèle qui a contribué à sa propre création ». Lors de l'annonce de GPT-5.3-Codex, OpenAI a déclaré : « L'équipe Codex a utilisé les premières versions pour déboguer sa propre formation, gérer son propre déploiement et diagnostiquer les résultats des tests et des évaluations. Notre équipe a été impressionnée par la capacité de Codex à accélérer son propre développement. »

    Nom : 1.jpg
Affichages : 10225
Taille : 16,2 Ko

    Les personnes qui croient en la singularité technologique, ou « singularité », parlent d'un point de basculement à partir duquel la technologie s'améliore d'elle-même, entraînant une explosion incontrôlée des progrès technologiques. Avec cette annonce, OpenAI affirme donc que nous disposons désormais d'exemples concrets d'IA s'améliorant d'elle-même. Nous ne savons pas exactement dans quelle mesure GPT-5.3-Codex a participé à son propre développement, mais cette nouvelle révèle à quel point les modèles d'IA de pointe sont devenus avancés, en particulier dans l'écriture de code. « Avec GPT-5.3-Codex, Codex passe d'un agent capable d'écrire et de réviser du code à un agent capable de faire presque tout ce que les développeurs et les professionnels peuvent faire sur un ordinateur », affirme OpenAI.

    Cette annonce intervient dans un contexte, où les experts doutent de plus en plus d'OpenAI. Récemment, un expert financier affirme qu'OpenAI est sur le point de se retrouver à court d'argent. Les géants technologiques comme Google peuvent utiliser leurs énormes réserves financières pour investir des centaines de milliards dans l'IA, ce qui n'est pas le cas d'OpenAI. Il s'attend à ce qu'OpenAI fasse faillite « au cours des 18 prochains mois ». Il affirme : « Quelle que soit la richesse du prix final de l'IA, les marchés financiers semblent peu susceptibles de le fournir. »

    Voici un extrait de l'annonce d'OpenAI :

    Présentation de GPT-5.3-Codex

    GPT‑5.3-Codex établit un nouveau record dans l'industrie sur SWE-Bench Pro et Terminal-Bench, et affiche de solides performances sur OSWorld et GDPval, quatre benchmarks que nous utilisons pour mesurer les capacités de codage, d'agent et dans le monde réel.

    Codage

    GPT‑5.3-Codex atteint des performances de pointe sur SWE-Bench Pro, une évaluation rigoureuse de l'ingénierie logicielle dans le monde réel. Alors que SWE‑bench Verified ne teste que Python, SWE‑Bench Pro couvre quatre langages et est plus résistant à la contamination, plus difficile, plus diversifié et plus pertinent pour l'industrie. Il dépasse également de loin les performances de pointe précédentes sur Terminal-Bench 2.0, qui mesure les compétences terminales dont un agent de codage comme Codex a besoin. Il est à noter que GPT‑5.3‑Codex y parvient avec moins de jetons que n'importe quel modèle précédent, ce qui permet aux utilisateurs d'en créer davantage.

    Nom : 2.jpg
Affichages : 1117
Taille : 23,5 Ko

    Développement web

    La combinaison de capacités de codage de pointe, d'améliorations esthétiques et de compactage donne naissance à un modèle capable de réaliser un travail remarquable, en créant de toutes pièces des jeux et des applications complexes et hautement fonctionnels en quelques jours. GPT‑5.3-Codex comprend également mieux votre intention lorsque vous lui demandez de créer des sites web courants, par rapport à GPT‑5.2-Codex. Les invites simples ou insuffisamment précisées sont désormais remplacées par défaut par des sites plus fonctionnels et des paramètres par défaut plus judicieux, vous offrant ainsi une base plus solide pour donner vie à vos idées.

    Au-delà du codage

    Les ingénieurs logiciels, les concepteurs, les chefs de produit et les scientifiques des données font bien plus que générer du code. GPT‑5.3‑Codex est conçu pour prendre en charge toutes les tâches du cycle de vie des logiciels : débogage, déploiement, surveillance, rédaction de PRD, édition de textes, recherche sur les utilisateurs, tests, mesures, etc. Ses capacités agissantes vont au-delà des logiciels et vous aident à créer tout ce que vous souhaitez, qu'il s'agisse de présentations PowerPoint ou d'analyses de données dans des feuilles de calcul.

    Grâce à des compétences personnalisées similaires à celles utilisées pour les précédents résultats GDPval, GPT‑5.3‑Codex affiche également de solides performances dans le domaine du travail intellectuel professionnel, tel que mesuré par GDP⁠val⁠, à égalité avec GPT‑5.2. GDPval est une évaluation publiée par OpenAI en 2025 qui mesure les performances d'un modèle sur des tâches intellectuelles bien définies dans 44 professions. Ces tâches comprennent notamment la création de présentations, de feuilles de calcul et d'autres produits de travail.

    OSWorld est un benchmark d'utilisation informatique où l'agent doit accomplir des tâches de productivité dans un environnement informatique de bureau visuel. GPT‑5.3-Codex démontre des capacités d'utilisation informatique bien supérieures à celles des modèles GPT précédents.

    Nom : 3.jpg
Affichages : 1115
Taille : 15,5 Ko

    Ensemble, ces résultats en matière de codage, de front-end, d'utilisation informatique et de tâches du monde réel montrent que GPT-5.3-Codex n'est pas seulement meilleur dans des tâches individuelles, mais marque également un changement radical vers un agent unique et polyvalent capable de raisonner, de construire et d'exécuter tout l'éventail des tâches techniques du monde réel.

    Comment nous avons utilisé Codex pour former et déployer GPT‑5.3-Codex

    Les récentes améliorations rapides de Codex s'appuient sur les fruits de projets de recherche menés pendant des mois, voire des années, dans l'ensemble d'OpenAI. Ces projets de recherche sont accélérés par Codex, et de nombreux chercheurs et ingénieurs d'OpenAI décrivent leur travail actuel comme étant fondamentalement différent de ce qu'il était il y a seulement deux mois. Même les premières versions de GPT‑5.3-Codex ont démontré des capacités exceptionnelles, permettant à notre équipe de travailler avec ces versions antérieures pour améliorer la formation et soutenir le déploiement des versions ultérieures.

    Codex est utile pour un très large éventail de tâches, ce qui rend difficile d'énumérer de manière exhaustive toutes les façons dont il aide nos équipes. À titre d'exemple, l'équipe de recherche a utilisé Codex pour surveiller et déboguer le processus de formation de cette version. Cela a accéléré la recherche au-delà du débogage des problèmes d'infrastructure : cela a permis de suivre les modèles tout au long de la formation, de fournir une analyse approfondie de la qualité des interactions, de proposer des corrections et de créer des applications riches permettant aux chercheurs humains de comprendre précisément en quoi le comportement du modèle différait de celui des modèles précédents.

    L'équipe d'ingénieurs a utilisé Codex pour optimiser et adapter le harnais pour GPT-5.3-Codex. Lorsque nous avons commencé à constater des cas limites étranges affectant les utilisateurs, les membres de l'équipe ont utilisé Codex pour identifier les bogues de rendu du contexte et les causes profondes des faibles taux de réussite du cache. GPT-5.3-Codex continue d'aider l'équipe tout au long du lancement en adaptant dynamiquement les clusters GPU pour s'ajuster aux pics de trafic et maintenir une latence stable.

    Au cours des tests alpha, un chercheur a voulu comprendre la quantité de travail supplémentaire effectuée par GPT-5.3-Codex à chaque tour et la différence de productivité associée. GPT-5.3-Codex a proposé plusieurs classificateurs regex simples pour estimer la fréquence des clarifications, les réponses positives et négatives des utilisateurs, la progression de la tâche, puis les a exécutés de manière évolutive sur tous les journaux de session et a produit un rapport avec ses conclusions. Les personnes qui utilisaient Codex étaient plus satisfaites, car l'agent comprenait mieux leurs intentions et progressait davantage à chaque tour, avec moins de questions de clarification.

    GPT‑5.3-Codex étant très différent de ses prédécesseurs, les données issues des tests alpha ont révélé de nombreux résultats inhabituels et contre-intuitifs. Un data scientist de l'équipe a travaillé avec GPT-5.3-Codex pour créer de nouveaux pipelines de données et visualiser les résultats de manière beaucoup plus riche que ne le permettaient nos outils de tableau de bord standard. Les résultats ont été analysés conjointement avec Codex, qui a résumé de manière concise les informations clés sur des milliers de points de données en moins de trois minutes.

    Individuellement, toutes ces tâches sont des exemples intéressants de la manière dont Codex peut aider les chercheurs et les développeurs de produits. Dans l'ensemble, nous avons constaté que ces nouvelles capacités ont permis d'accélérer considérablement le travail de nos équipes de recherche, d'ingénierie et de développement de produits.

    Prochaines étapes

    Avec GPT‑5.3-Codex, Codex va au-delà de l'écriture de code pour l'utiliser comme un outil permettant de faire fonctionner un ordinateur et d'effectuer des tâches de bout en bout. En repoussant les limites de ce qu'un agent de codage peut faire, nous ouvrons également la voie à une catégorie plus large de travaux intellectuels, allant de la création et du déploiement de logiciels à la recherche, l'analyse et l'exécution de tâches complexes. Ce qui était au départ une volonté d'être le meilleur agent de codage est devenu la base d'un collaborateur plus général sur l'ordinateur, élargissant à la fois le nombre de personnes pouvant créer et les possibilités offertes par Codex.

    Source : Annonce de GPT‑5.3-Codex

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI lance GPT-5.2-Codex, le positionnant comme le summum des modèles de codage agentique adaptés aux tâches exigeantes d'ingénierie logicielle et de cybersécurité défensive

    Anthropic se vante d'avoir développé Claude Cowork grâce au vibe coding en « une semaine et demie », alors que l'assistant IA a été lancé avec une vulnérabilité connue en matière d'exfiltration de données

    OpenAI lance une application autonome pour son assistant de codage alimenté par l'IA, Codex, permettant aux développeurs de logiciels de gérer plusieurs agents IA à la fois, disponible sur macOS
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 774
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 774
    Par défaut OpenAI lance GPT-5.3-Codex-Spark, optimisé par la puce Wafer Scale Engine 3 de Cerebras
    OpenAI lance GPT-5.3-Codex-Spark, optimisé par la puce Wafer Scale Engine 3 de Cerebras, pour un codage en temps réel ultra-rapide, 15 fois plus rapide que son prédécesseur

    OpenAI lance GPT-5.3-Codex-Spark pour un codage en temps réel ultra-rapide. Alimenté par la puce Wafer Scale Engine 3 de Cerebras, Spark permettrait une inférence plus rapide et constitue la première étape importante du partenariat pluriannuel entre OpenAI et Cerebras. Le modèle GPT-5.3-Codex original sert à des tâches plus longues et plus lourdes qui nécessitent un raisonnement et une exécution plus approfondis. En revanche, GPT-5.3-Codex-Spark se concentre sur des opérations rapides. OpenAI le décrit comme une version plus petite conçue spécifiquement pour réduire la latence pendant les processus d'inférence. Codex-Spark est lancé en tant qu'aperçu de recherche pour les utilisateurs de ChatGPT Pro dans les dernières versions de l'application Codex, de l'interface CLI et de l'extension VS Code.

    Les outils de codage IA ont connu un essor fulgurant au cours de l'année dernière, poussant OpenAI a fourni plus d'efforts pour gagner des parts de marché sur ses concurrents tels qu'Anthropic et Cursor. Récemment, OpenAI a lancé un nouveau modèle de codage, GPT-5.3-Codex. OpenAI est une entreprise américaine d'intelligence artificielle (IA) qui s'est donné pour mission de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité ». L'entreprise est connue pour ses grands modèles de langage tels que GPT-4o, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora.

    Lors de l'annonce de GPT-5.3-Codex, la société a déclaré que ce nouveau modèle avait amélioré ses « capacités de raisonnement et de connaissances professionnelles » et qu'il fonctionnerait 25 % plus rapidement que son prédécesseur. OpenAI précise que le nouveau modèle GPT-5.3-Codex est son « premier modèle qui a contribué à sa propre création ». OpenAI affirme notamment : « L'équipe Codex a utilisé les premières versions pour déboguer sa propre formation, gérer son propre déploiement et diagnostiquer les résultats des tests et des évaluations. Notre équipe a été impressionnée par la capacité de Codex à accélérer son propre développement. »

    Plus récemment, OpenAI lance GPT-5.3-Codex-Spark pour un codage en temps réel ultra-rapide. Ce modèle est la première étape importante de la production issue du partenariat de plus de 10 milliards de dollars entre OpenAI et Cerebras, annoncé en janvier 2026. Cerebras Systems Inc. est une société américaine spécialisée dans l'intelligence artificielle (IA) qui construit des systèmes informatiques pour des applications complexes d'apprentissage profond en IA. Sa technologie, le Cerebras Wafer Scale Engine (WSE), est un processeur intégré unique à l'échelle d'une plaquette qui comprend des capacités de calcul, de mémoire et d'interconnexion.


    GPT-5.3-Codex-Spark optimisé par Cerebras

    En septembre 2025, Nvidia et OpenAI ont annoncé en grande pompe un protocole d’accord selon lequel Nvidia investirait jusqu’à 100 milliards de dollars dans une infrastructure d’OpenAI pour soutenir l’entraînement et l’exploitation de ses modèles d'IA. Cet investissement devait également s’accompagner de la fourniture de systèmes GPU de très grande capacité destinés à OpenAI. Mais le projet bat désormais de l’aile. Aucune transaction n’a été finalisée et le PDG de Nvidia, Jensen Huang, a clarifié que le montant de 100 milliards de dollars n'était pas un engagement juridiquement contraignant.

    De son côté, OpenAI rechercherait discrètement des alternatives aux puces Nvidia depuis l'année dernière. La nouvelle annonce d'OpenAI semble confimer cela. Ainsi, OpenAI a annoncé GPT-5.3-Codex-Spark, une version allégée de son outil de codage agentique Codex. Alimenté par la puce Wafer Scale Engine 3 de Cerebras, Spark permettrait une inférence plus rapide et constitue la première étape importante du partenariat pluriannuel entre OpenAI et Cerebras.

    Le modèle GPT-5.3-Codex original sert à des tâches plus longues et plus lourdes qui nécessitent un raisonnement et une exécution plus approfondis. En revanche, GPT-5.3-Codex-Spark se concentre sur des opérations rapides. OpenAI le décrit comme une version plus petite conçue spécifiquement pour réduire la latence pendant les processus d'inférence. Ce nouvel outil intègre le matériel de Cerebras directement dans l'infrastructure physique d'OpenAI, ce qui représente une collaboration plus approfondie entre les deux sociétés.

    OpenAI et Cerebras ont révélé leur partenariat le mois dernier à travers un accord pluriannuel évalué à plus de 10 milliards de dollars. À cette occasion, OpenAI a déclaré : « L'intégration de Cerebras dans notre gamme de solutions informatiques vise à rendre notre IA beaucoup plus réactive. » La société positionne désormais Spark comme la première réalisation de cette alliance, soulignant son rôle dans l'accélération des réponses de l'IA.


    Le Wafer Scale Engine 3 de Cerebras alimente les capacités d'inférence de Spark. Cette mégapuce de troisième génération à l'échelle d'une plaquette contient 4 000 milliards de transistors, permettant un calcul haute performance adapté aux charges de travail de l'IA. OpenAI souligne l'adéquation de Spark pour la collaboration en temps réel et l'itération rapide. L'outil fonctionne comme un moteur de productivité quotidien, aidant les utilisateurs à réaliser rapidement des prototypes plutôt que des calculs prolongés gérés par le modèle de base GPT-5.3-Codex.

    Spark fonctionne avec la latence la plus faible possible sur Codex. OpenAI explique son objectif dans une déclaration officielle : « Codex-Spark est la première étape vers un Codex qui fonctionne selon deux modes complémentaires : la collaboration en temps réel lorsque vous souhaitez une itération rapide, et les tâches de longue durée lorsque vous avez besoin d'un raisonnement et d'une exécution plus approfondis. » Les puces de Cerebras prennent en charge les flux de travail qui exigent une latence extrêmement faible.

    Actuellement, Spark apparaît comme un aperçu de recherche réservé aux utilisateurs de ChatGPT Pro dans l'application Codex. Ce déploiement limité permet de procéder à des tests initiaux auprès des abonnés au plan Pro. Avant l'annonce, le PDG d'OpenAI, Sam Altman, avait laissé entendre la sortie sur X/Twitter. Il a publié : « Nous avons une nouveauté spéciale à lancer pour les utilisateurs de Codex au plan Pro plus tard dans la journée. » Altman a ajouté : « Cela me réjouit. »

    Fondée il y a plus de dix ans, Cerebras s'est imposée dans le secteur de l'IA. Récemment, la société a levé 1 milliard de dollars de capitaux frais, atteignant une valorisation de 23 milliards de dollars. Cerebras a fait part de son intention de procéder à une introduction en bourse. Sean Lie, directeur technique et cofondateur de Cerebras, a commenté cette évolution : « Ce qui nous enthousiasme le plus à propos de GPT-5.3-Codex-Spark, c'est le partenariat avec OpenAI et la communauté des développeurs pour découvrir ce que l'inférence rapide rend possible : de nouveaux modèles d'interaction, de nouveaux cas d'utilisation et une expérience de modèle fondamentalement différente. » Lie a décrit cet aperçu comme « un simple début ».


    Voici un extrait de l'annonce :

    Présentation de GPT‑5.3‑Codex‑Spark

    Rapidité et intelligence

    Codex-Spark est optimisé pour les travaux interactifs où la latence est aussi importante que l'intelligence. Vous pouvez collaborer avec le modèle en temps réel, l'interrompre ou le rediriger pendant qu'il fonctionne, et itérer rapidement avec des réponses quasi instantanées. Parce qu'il est conçu pour la rapidité, Codex-Spark conserve un mode de fonctionnement par défaut léger : il effectue des modifications minimales et ciblées et n'exécute pas automatiquement de tests, sauf si vous le lui demandez.

    Codage

    Codex-Spark est un petit modèle très performant optimisé pour une inférence rapide. Sur SWE-Bench Pro et Terminal-Bench 2.0, deux benchmarks évaluant les capacités d'ingénierie logicielle agentique, GPT‑5.3‑Codex‑Spark affiche des performances solides tout en accomplissant les tâches en un temps record par rapport à GPT‑5.3‑Codex.

    Nom : 1.jpg
Affichages : 20927
Taille : 25,2 Ko
    Nom : 2.jpg
Affichages : 3130
Taille : 16,3 Ko

    Amélioration de la latence pour tous les modèles

    Au fur et à mesure que nous avons formé Codex-Spark, il est devenu évident que la vitesse du modèle n'était qu'une partie de l'équation pour la collaboration en temps réel : nous devions également réduire la latence sur l'ensemble du pipeline de requêtes-réponses. Nous avons mis en œuvre des améliorations de la latence de bout en bout dans notre harnais, qui profiteront à tous les modèles. En coulisses, nous avons rationalisé la manière dont les réponses circulent du client vers le serveur et vice versa, réécrit des éléments clés de notre pile d'inférence et retravaillé la manière dont les sessions sont initialisées afin que le premier jeton visible apparaisse plus tôt et que Codex reste réactif à mesure que vous itérez. Grâce à l'introduction d'une connexion WebSocket persistante et à des optimisations ciblées au sein de l'API Responses, nous avons réduit la surcharge par aller-retour client/serveur de 80 %, la surcharge par jeton de 30 % et le temps de réponse du premier jeton de 50 %. Le chemin WebSocket est activé par défaut pour Codex-Spark et deviendra bientôt la norme pour tous les modèles.


    Disponibilité et détails

    Codex-Spark est lancé en tant qu'aperçu de recherche pour les utilisateurs de ChatGPT Pro dans les dernières versions de l'application Codex, de l'interface CLI et de l'extension VS Code. Comme il fonctionne sur du matériel spécialisé à faible latence, son utilisation est régie par une limite de débit distincte qui peut être ajustée en fonction de la demande pendant la période d'aperçu de recherche. Codex-Spark est également disponible pour un petit groupe de partenaires de conception dans l'API. OpenAI élargira l'accès au cours des prochaines semaines.

    Codex-Spark est actuellement disponible en mode texte uniquement avec une fenêtre contextuelle de 128 000 jetons et est le premier d'une famille de modèles ultra-rapides. Selon OpenAI, "à mesure que nous en apprendrons davantage avec la communauté des développeurs sur les domaines dans lesquels les modèles rapides excellent pour le codage, nous introduirons encore plus de fonctionnalités, notamment des modèles plus grands, des longueurs de contexte plus longues et des entrées multimodales." En outre, OpenAI affirme que Codex-Spark inclut la même formation à la sécurité que les modèles principaux d'OpenAI, y compris une formation relative à la cybersécurité. Ainsi, il n'y avait aucune chance plausible d'atteindre le seuil du cadre de préparation pour une capacité élevée en matière de cybersécurité ou de biologie.

    Codex-Spark est la première étape vers un Codex doté de deux modes complémentaires : un raisonnement et une exécution à plus long terme, et une collaboration en temps réel pour une itération rapide. Au fil du temps, les modes se mélangeront : Codex pourrait vous maintenir dans une boucle interactive étroite tout en déléguant les tâches plus longues à des sous-agents en arrière-plan, ou en répartissant les tâches entre plusieurs modèles en parallèle lorsque vous souhaiterez gagner en ampleur et en vitesse, de sorte que vous n'aurez pas à choisir un seul mode dès le départ. OpenAI conclut : "À mesure que les modèles deviennent plus performants, la vitesse d'interaction devient un goulot d'étranglement évident. L'inférence ultra-rapide resserre cette boucle, rendant Codex plus naturel à utiliser et élargissant les possibilités pour quiconque souhaite transformer une idée en logiciel fonctionnel."

    Source : OpenAI

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI s'appuie désormais sur son agent de programmation IA Codex pour améliorer son propre code : « Je pense que la grande majorité de Codex est construite par Codex », déclare son chef de produit

    Le fabricant de puces pour l'IA Cerebras dépose une demande d'introduction en bourse pour affronter Nvidia, qui domine largement le marché des puces pour l'IA avec plus de 80 % des parts

    OpenAI pourrait dépenser jusqu'à 15 millions de dollars par jour pour des vidéos futiles générées par Sora. Les coûts augmentent si rapidement qu'elle prévoit de réduire les allocations gratuites de génération
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 19/12/2025, 09h56
  2. OpenAI lance gpt-image-1.5 pour rivaliser avec Gemini Nano Banana de Google
    Par Jade Emy dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 17/12/2025, 16h11
  3. Réponses: 1
    Dernier message: 06/08/2025, 19h59
  4. Réponses: 0
    Dernier message: 26/04/2023, 07h57
  5. OpenAI lance Point-E, une IA qui génère des modèles 3D à partir d'invites textuelles
    Par Bill Fassinou dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 26/12/2022, 01h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo