OpenAI met fin à l'abonnement forfaitaire de Codex et bascule vers la facturation au token :
les développeurs vont-ils payer dix fois plus cher pour le même usage ?

En basculant sa tarification de l'abonnement au message vers une facturation indexée sur les tokens consommés, OpenAI franchit une étape structurelle dans la monétisation de ses outils de coding assisté par IA. Un tournant qui suscite autant d'inquiétudes chez les développeurs individuels que de questions sur la trajectoire commerciale de l'entreprise avant son introduction en bourse.

Pendant des mois, certains développeurs considéraient l'accès à Codex pour 20 dollars par mois comme la meilleure affaire de tout l'écosystème IA. Cette période touche à sa fin. Depuis le 2 avril 2026, OpenAI a mis à jour la tarification de Codex pour l'aligner sur la facturation par token de l'API, en remplacement de l'ancien système de tarification au message. Ce changement, d'abord déployé auprès des clients Business et Enterprise, est destiné à s'étendre à l'ensemble des utilisateurs, y compris ceux sous abonnements Plus et Pro, dans les semaines à venir.

Concrètement, le mécanisme ne disparaît pas entièrement : les crédits restent l'unité de facturation centrale, mais leur calcul change radicalement de base. Les estimations moyennes par message sont remplacées par une correspondance directe entre la consommation de tokens et les crédits débités. Ce modèle fait dépendre la consommation réelle de la répartition entre tokens d'entrée, tokens d'entrée mis en cache et tokens de sortie dans chaque tâche.

Pour le modèle phare de l'écosystème, le GPT-5.3-Codex, le prix de référence s'établit à 1,75 dollar par million de tokens en entrée et 14 dollars par million de tokens en sortie, avec une fenêtre de contexte pouvant atteindre 400 000 tokens. Le mode rapide (fast mode) consomme deux fois plus de crédits. OpenAI estime que Codex coûte en moyenne entre 100 et 200 dollars par développeur par mois, avec une forte variance selon le modèle utilisé, le nombre d'instances actives, les automatisations et le recours au mode rapide.

Transparence ou hausse déguisée ?

La communication officielle d'OpenAI met en avant la lisibilité accrue du nouveau modèle. Ce format permet de mieux cartographier la consommation de crédits par rapport à l'activité réelle du modèle, d'aligner la tarification de Codex sur la mesure par token et d'obtenir une visibilité plus claire sur la façon dont les tokens d'entrée, d'entrée mis en cache et de sortie contribuent à l'usage total.

Sur le fond, l'argument est défendable. L'ancien système de facturation au message était structurellement opaque : une requête simple et une tâche de refactorisation multi-fichiers coûtaient techniquement le même prix, ce qui ne reflétait pas la réalité des ressources consommées. Cette imprécision était en partie intentionnelle : elle donnait à OpenAI une marge de manœuvre pour obscurcir la valeur réelle obtenue par rapport à un abonnement de 20 ou 200 dollars, et maintenait une tension gérable entre tarification forfaitaire et accès API par token pour les grandes entreprises.

Mais cette transparence a un coût immédiat pour certains profils d'utilisateurs. L'impact varie selon la nature des charges de travail : certains utilisateurs pourraient constater une consommation de crédits plus élevée, d'autres plus faible, selon la proportion de tokens en entrée, en cache et en sortie dans leurs tâches. Les tâches à forte production de tokens et le mode rapide consomment généralement plus de crédits que les tâches légères. Un développeur travaillant sur des bases de code volumineuses avec de longs contextes sera donc structurellement désavantagé par rapport à l'ancienne tarification forfaitaire.

Nom : under.png
Affichages : 25396
Taille : 25,0 Ko

La réaction de la communauté : entre résignation et colère

Les réactions oscillent entre lucidité économique et frustration pratique. Un commentateur estime que ce changement représente une multiplication du coût par dix pour certains usages, affectant directement sa capacité à terminer des projets en cours. Il décrit avoir pris en charge des développements qui auraient normalement nécessité une équipe de cinq à dix personnes sur plusieurs mois, misé sur cet outil pour les mener à bien, et se retrouver aujourd'hui sans visibilité sur la viabilité économique de la transition.

D'autres voix rappellent que les subventions conduisent mécaniquement au gaspillage, et qu'il était inévitable que cette phase d'accès subventionné prenne fin. La comparaison avec Uber revient à plusieurs reprises dans les commentaires pour décrire la trajectoire type d'un produit technologique financé par du capital-risque : croissance agressive à perte, puis alignement progressif sur la rentabilité.

Le problème structurel soulevé par plusieurs participants est celui de la prévisibilité : une tarification à l'usage impose aux utilisateurs de savoir à l'avance comment ils vont consommer le service, ce qui est précisément impossible dans un workflow d'assistance au code où la complexité des tâches varie considérablement. C'est d'ailleurs le modèle qui a rendu AWS si profitable.

L'architecture du produit Codex en 2026

Pour comprendre ce changement tarifaire, il est utile de rappeler l'architecture actuelle de Codex, qui a considérablement évolué depuis la dépréciation du modèle original en mars 2023. En 2025, Codex a évolué au-delà du simple modèle de coding pour devenir un véritable assistant logiciel capable de combiner modèles de raisonnement, outillage local et cloud pour traiter des tâches de développement longues et complexes.

Le CLI Codex open-source a introduit un mode agent directement dans les environnements locaux, permettant aux développeurs de faire tourner Codex sur de vrais dépôts de code, d'examiner les modifications de manière itérative et d'appliquer des changements sur les fichiers avec supervision humaine. À cela s'ajoute une intégration dans les EDI, une interface web permettant de lancer des tâches en arrière-plan, et la prise en charge de protocoles comme MCP pour connecter Codex à des outils tiers.

Le modèle GPT-5.3-Codex, sorti en février 2026, est décrit comme le modèle de coding agentique le plus avancé d'OpenAI, combinant les performances d'ingénierie logicielle de GPT-5.2-Codex avec les capacités de raisonnement général de GPT-5.2. Il atteint des résultats de référence sur SWE-Bench Pro et démontre de bonnes performances sur Terminal-Bench 2.0 et OSWorld-Verified. Le modèle est optimisé pour les workflows longs utilisant des outils et supporte une pilotage interactif pendant l'exécution. Pour les tâches de routine, OpenAI recommande de basculer vers le modèle GPT-5.4-mini pour économiser les crédits.

Début mars, OpenAI a publié une application Codex native pour Windows, offrant aux développeurs un nouvel outil pour gérer les agents de codage et automatiser leurs workflows directement dans l'environnement Windows. S'appuyant sur cette fonctionnalité, l'application Windows Codex introduit une fonctionnalité de sandboxing des agents qui exploite les mécanismes au niveau du système d'exploitation. Les utilisateurs ont désormais la possibilité de gérer des agents en parallèle, de superviser des tâches d'automatisation de longue durée et d'examiner les différences de code dans une interface unique tout en restant dans leur configuration Windows établie.

Récemment, OpenAI a lancé des sous-agents pour Codex, son agent de codage. La fonctionnalité a été mise à la disposition du grand public le 16 mars après plusieurs semaines de préversion derrière un indicateur de fonctionnalité. Les sous-agents vous permettent de créer des agents spécialisés qui s'exécutent en parallèle, chacun avec sa propre fenêtre de contexte. Vous pouvez définir des agents personnalisés avec différents modèles, instructions et autorisations de sandbox. Codex se charge de l'orchestration : création d'agents, acheminement des instructions de suivi, attente des résultats et consolidation de tout cela en une seule réponse.


L'ombre de l'introduction en bourse

Ce changement tarifaire ne peut être lu sans tenir compte du contexte financier d'OpenAI. Plusieurs commentateurs établissent directement un lien avec la préparation à l'introduction en bourse, estimant que le passage à une tarification à l'usage signale une volonté d'assainir les métriques financières avant de se soumettre aux exigences des marchés publics.

La tarification forfaitaire subventionne structurellement les utilisateurs intensifs. Sur un modèle d'agent IA utilisé quotidiennement pour des tâches complexes, la différence entre le prix payé et le coût réel de l'inférence peut être substantielle. Un développeur junior aux États-Unis coûte entre 5 000 et 6 600 dollars par mois charges comprises, contre 200 dollars pour un abonnement Pro ChatGPT. Mais Codex ne gère pas les décisions d'architecture ni la communication avec les parties prenantes.

La question de la rentabilité est centrale. La demande de code a progressé de 40 % en glissement annuel sur le marché des développeurs en 2026, créant une pression de croissance à laquelle OpenAI doit répondre sans sacrifier ses marges. La migration vers une facturation par token permet de monétiser cette croissance sans aliéner les utilisateurs via des hausses tarifaires directes.

L'horizon concurrentiel se reconfigure

Ce mouvement tarifaire intervient dans un écosystème en pleine recomposition. Claude Code d'Anthropic, directement concurrent, maintient pour l'instant un modèle d'abonnement forfaitaire intégré aux plans Claude.ai. Certains observateurs estiment que la décision d'OpenAI de sortir de la logique forfaitaire aura un effet de signal sur Anthropic, rendant une évolution similaire de Claude Code plus probable à moyen terme.

GitHub Copilot, de son côté, conserve un positionnement à 10 dollars par mois en usage illimité pour les fonctions d'assistance basiques, offrant une certitude de coût que le système de crédits de Codex ne peut pas garantir. Google a opté pour une stratégie opposée avec Gemini CLI, rendu entièrement gratuit pour attirer les développeurs dans l'écosystème Google.

Face à cette recomposition, des développeurs cherchent déjà des alternatives moins coûteuses, notamment via des modèles open-source sur OpenRouter ou des modèles locaux, estimant que la qualité de génération de code s'est suffisamment rapprochée des modèles frontier pour rendre l'écart de prix difficile à justifier.

La transition en cours chez OpenAI soulève une question de fond pour l'ensemble du secteur : les abonnements forfaitaires à l'IA générative n'étaient-ils qu'une stratégie d'acquisition temporaire, destinée à être abandonnée une fois la dépendance des utilisateurs suffisamment établie ? La réponse que donnera le marché dans les prochains mois conditionne l'économie de toute une génération d'outils de développement assisté.

Source : OpenAI

Et vous ?

La facturation par token est-elle réellement plus transparente, ou déplace-t-elle simplement l'opacité du prix par message vers la complexité du comptage de tokens dans des workflows agentiques multi-étapes ?

Les développeurs indépendants qui ont construit des projets entiers en s'appuyant sur des abonnements forfaitaires sont-ils victimes d'un changement de règles en cours de partie, ou auraient-ils dû anticiper cette évolution inéluctable ?

Le modèle open-source et local (Ollama, LM Studio, modèles spécialisés comme Kimi K2) est-il désormais une alternative crédible au coding agentique cloud pour les projets personnels et les petites équipes ?

Cette migration vers la tarification à l'usage va-t-elle pousser Anthropic à reconsidérer son modèle pour Claude Code, et si oui, dans quel délai ?