IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 975
    Par défaut Anthropic interdit l'utilisation de Claude dans OpenClaw en imposant un supplément aux abonnés
    Anthropic bloque l'utilisation par des clients tiers des abonnements à Claude Code : quand la guerre des IA se joue sur l’ouverture des outils de dev,
    la fin de l’interopérabilité ou simple épisode dans la bataille des assistants IA ?

    Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Mais face à l’usage massif via des clients non officiels, la startup a décidé de couper court. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.

    On pensait avoir trouvé l’outil parfait pour coder avec une IA. OpenCode permettait de jongler entre Claude, GPT-4 et d’autres modèles au sein d’un seul terminal, en toute fluidité. Mais en début d’année 2026, plusieurs développeurs abonnés à Claude Code ont constaté une panne soudaine : leur outil préféré, souvent un client open source comme OpenCode ou Clawdbot, ne pouvait plus accéder au modèle Claude. Très vite, la cause est identifiée : Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Une manœuvre brutale mais calculée, révélatrice des tensions croissantes entre ouverture communautaire et stratégie de verrouillage.

    Claude Code, lancé par Anthropic comme une alternative sécurisée à Codex d’OpenAI, proposait aux développeurs une interface en ligne de commande pour générer du code, rédiger des tests, comprendre des erreurs. Mais contrairement à Codex CLI, son code était obfusqué et fermé. Rapidement, des outils comme OpenCode ont comblé le vide en proposant une expérience plus flexible, unifiant plusieurs IA, avec un succès retentissant sur GitHub. Pour beaucoup, OpenCode était devenu la façon la plus ergonomique et productive d’utiliser Claude.

    La coupure, brutale et non annoncée, a pris la communauté à revers. Le message reçu par les utilisateurs est sans appel : les identifiants Claude Code ne peuvent plus être utilisés que via l’outil officiel. Le motif avancé, bien que non confirmé publiquement, semble évident : trop d’utilisateurs exploitaient les forfaits illimités de Claude Code via des outils tiers, détournant ainsi la logique économique du modèle. Là où un usage intensif via l’API officielle coûterait plusieurs centaines voire milliers de dollars, le contournement via OpenCode permettait d’en profiter pour un abonnement mensuel modique. Pour Anthropic, il devenait urgent de fermer la brèche.

    Mais la méthode interroge. Aucun avertissement, aucune alternative officielle, aucune offre intermédiaire pour ceux qui veulent bénéficier de la puissance de Claude dans un environnement de leur choix. Juste un couperet. Pour beaucoup, c’est un signal clair : la priorité d’Anthropic n’est plus la communauté de développeurs enthousiastes, mais la protection d’un actif devenu stratégique. Certains y voient un geste à court terme, qui pourrait à long terme aliéner ceux qui auraient été les meilleurs ambassadeurs du modèle Claude.

    Ce blocage pose une question plus large : dans un secteur où les grands modèles deviennent des services fermés, à quel point les développeurs peuvent-ils encore construire des outils interopérables, portables, adaptables à leurs propres besoins ? Et si demain chaque fournisseur IA impose sa propre interface, ses propres usages, que restera-t-il de l’esprit d’expérimentation qui a toujours animé les communautés open source ?

    Claude Code n’est pas seulement un produit. C’est un cas d’école. Il illustre comment, dans la ruée vers l’IA, même les acteurs les plus réputés pour leur éthique n’hésitent plus à verrouiller leurs systèmes pour conserver un avantage concurrentiel. Face à cela, la communauté tech devra choisir : se plier aux règles changeantes de fournisseurs tout-puissants, ou redoubler d’efforts pour construire, ailleurs, des alternatives véritablement ouvertes.

    Contexte : Claude et le modèle Claude Code d’Anthropic

    Anthropic est une startup d’intelligence artificielle fondée en 2021 par d’anciens employés d’OpenAI. Son modèle de langage Claude est souvent présenté comme une alternative à ChatGPT, avec un accent mis sur la sécurité et une grande capacité de contexte. En 2025, Anthropic a lancé Claude Code, un outil spécialisé pour l’assistance à la programmation. Claude Code se présente comme un environnement de ligne de commande (CLI) permettant d’utiliser l’IA de Claude pour générer du code, déboguer, écrire des tests, etc. Il a été conçu pour rivaliser avec des solutions similaires d’OpenAI, comme l’interface Codex CLI. Contrairement à OpenAI qui a publié le code source de son CLI Codex sous licence open source, Anthropic a gardé Claude Code propriétaire et obfusqué : le code n’est pas librement accessible et son utilisation est soumise à des conditions strictes. Cette approche fermée avait déjà suscité des critiques en 2025, lorsque Anthropic a émis une plainte DMCA pour faire retirer du code source dé-obfusqué de Claude Code publié par un développeur indépendant.

    Nom : obfus.png
Affichages : 29640
Taille : 132,9 Ko

    L’émergence de clients alternatifs : OpenCode, Clawdbot et autres

    Face aux limitations du CLI officiel d’Anthropic, la communauté open source s’est mobilisée. Des projets comme OpenCode (proposé par la startup Anomaly Innovations) ont développé des outils alternatifs pour exploiter Claude et d’autres modèles dans un environnement unifié. OpenCode est un CLI/TUI open source très populaire (plus de 58 000 étoiles sur GitHub) qui permet de brancher différents fournisseurs d’IA – que ce soit Anthropic, OpenAI, Google ou même des modèles locaux – pour assister les développeurs dans leur codage.

    De même, des bots comme Clawdbot ont vu le jour, offrant des orchestrations d’agents IA pour le code. Ces solutions tierces offraient souvent une meilleure expérience utilisateur et davantage de flexibilité que l’outil officiel d’Anthropic : par exemple, OpenCode a la réputation d’être plus performant et plus ergonomique que Claude Code, tout en permettant de passer d’un modèle à l’autre selon les besoins.

    Par ailleurs, d’autres initiatives comme GPT4Free ont cherché à démocratiser l’accès aux IA propriétaires en contournant leurs restrictions. GPT4Free, par exemple, est (ou était) un projet GitHub très en vogue qui permettait d’utiliser gratuitement GPT-4 ou Claude en s’appuyant sur des API non officielles ou des services tiers. Ce type de projet exploite souvent les failles des API ouvertes de certains sites (moteurs de recherche, plateformes proposant des chatbots alimentés par GPT/Claude) pour rediriger des requêtes sans payer directement l’éditeur du modèle. Naturellement, ces usages « gratuits » ou non autorisés ont tendance à attirer l’attention des entreprises concernées, soucieuses de protéger leurs ressources et leurs revenus.

    Nom : opencode.png
Affichages : 6557
Taille : 27,0 Ko

    Le blocage soudain des connexions tierces à Claude Code

    Début janvier 2026, de nombreux développeurs abonnés à Claude Code ont constaté que leurs outils tiers ne fonctionnaient plus pour se connecter à l’API d’Anthropic. Des applications tierces courantes – comme l’open source OpenCode ou le bot Clawdbot – n’arrivaient soudain plus à se connecter au modèle Claude. L’alerte a été donnée par un développeur (Theo) sur X (Twitter), qui a rapporté qu’Anthropic « serre la vis » sur l’utilisation de comptes Claude dans des applications tierces.

    En pratique, les utilisateurs recevaient un message d’erreur explicite lorsqu’ils tentaient d’utiliser leur jeton Claude Code en dehors du CLI officiel : « This credential is only authorized for use with Claude Code and cannot be used for other API requests » (en français : « Ces identifiants ne sont autorisés que pour Claude Code et ne peuvent pas servir à d’autres requêtes API »). Autrement dit, Anthropic a activé une restriction technique pour empêcher que les jetons OAuth fournis dans le cadre de l’abonnement Claude Code soient utilisés dans des outils non approuvés par la société.

    Rapidement, la communauté a compris que ce blocage était volontaire de la part d’Anthropic, visant spécifiquement les clients non officiels. Par exemple, certains ont remarqué que la restriction semblait cibler OpenCode en particulier : une méthode alternative un peu plus discrète (via un multiplexeur de modèles nommé llm-mux) continuait à fonctionner, suggérant qu’Anthropic a potentiellement « filtré » ou identifié les requêtes émanant d’OpenCode pour les bloquer. En parallèle, les développeurs du projet OpenCode ont commencé à travailler sur des correctifs pour contourner la limitation : dès le 9 janvier, un patch officieux était proposé pour rétablir l’accès, témoignage de l’effet « chat et souris » qui s’engage souvent dans ce genre de situation.

    Nom : theo.png
Affichages : 6358
Taille : 103,0 Ko

    Les réactions de la communauté et implications pour l’open source

    La nouvelle du blocage a provoqué un véritable tollé parmi les développeurs utilisateurs de ces outils tiers. De nombreux professionnels avaient intégré OpenCode ou Clawdbot dans leur flux de travail quotidien et ont exprimé leur frustration. Sur les réseaux sociaux, on a vu défiler des messages de déception et de colère : « Je viens tout juste de configurer mon environnement, et voilà que tout tombe en panne… », « J’utilisais OpenCode depuis hier, c’était trop beau pour durer », ou encore « J’annule mon abonnement Claude Code sur-le-champ ».

    Certains soulignent l’ironie de la situation : Anthropic, qui se présentait comme une entreprise à l’éthique exemplaire visant le bien de l’humanité, adopte ici une stratégie perçue comme très mercantile et anti-communautaire. Un utilisateur a sarcastiquement commenté qu’Anthropic a sûrement jugé qu’une plateforme open source permettant aux gens de travailler comme ils l’entendent était « trop nuisible pour l’humanité », dénonçant ce qu’il considère comme de l’hypocrisie de la part d’une entreprise prônant le « global good ».

    Au-delà de la colère, c’est la déception qui transparaît : beaucoup de développeurs appréciaient l’expérience améliorée qu’offrait OpenCode par rapport à l’outil propriétaire d’Anthropic. L’interface et les fonctionnalités d’OpenCode étaient jugées plus efficaces, et l’outil permettait en outre d’utiliser plusieurs modèles concurrents au sein d’un même workflow plutôt que d’être verrouillé sur Claude Code seul.

    Désormais, ces utilisateurs se voient contraints soit de revenir à l’interface officielle Claude Code (que nombre jugent moins aboutie), soit de payer le tarif API bien plus élevé pour continuer à utiliser Claude via OpenCode. Beaucoup menacent de changer de crèmerie : certains annoncent déjà migrer vers la concurrence ou se replier sur des solutions open source, même si moins performantes, par principe. Pour les mainteneurs de projets open source comme OpenCode ou Clawdbot, c’est un coup dur : leur utilité même est remise en question par ce verrouillage, ce qui pose la question de la viabilité de tels projets face aux changements unilatéraux des fournisseurs d’API.

    Pourquoi Anthropic a-t-il bloqué ces usages ?

    Anthropic n’a pas communiqué officiellement sur les raisons de ce blocage (aucune annonce publique ni réponse sur X au moment des faits). On peut toutefois dégager plusieurs hypothèses cohérentes, alignées avec le point de vue de l’entreprise :

    Protection du modèle économique

    C’est sans doute le facteur principal. Anthropic propose Claude Code sous forme d’abonnement mensuel (de l’ordre de 100$ pour Claude Pro ou 200$ pour Claude Max). Ces forfaits « illimités » sont extrêmement attractifs au regard du coût de l’API Claude classique : pour une utilisation intensive en un mois, les appels API pourraient facilement revenir à plus de 1000 $ si l’on payait à l’usage.

    En d’autres termes, Anthropic vend à perte un accès Claude Code forfaitaire par rapport au tarif unitaire de ses API. Mais cette « bonne affaire » n’était tenable pour la startup que si les utilisateurs passaient par son application officielle, avec peut-être des limitations pratiques ou une expérience moins propice à l’abus.

    Or, en utilisant OpenCode, les abonnés pouvaient bénéficier du « buffet à volonté » de tokens à 200 $ tout en contournant les inconforts ou limites du client officiel. Pour Anthropic, c’est une perte de revenus potentiels : l’entreprise préférerait sans doute que ces clients payent à la requête via l’API (ce qui pourrait leur coûter 5 fois plus cher ou davantage sur le mois).

    Le blocage se comprend alors comme une mesure pour forcer les utilisateurs d’OpenCode à basculer vers le modèle pay-as-you-go plus rémunérateur, ou à revenir dans le giron de l’outil officiel.

    Respect des conditions d’utilisation (ToS)

    Anthropic avait dès le départ interdit l’usage des tokens Claude Code en dehors de son application. Ses conditions stipulent « qu'à moins d’une approbation explicite, nous n’autorisons pas les développeurs tiers à intégrer Claude.ai ou à réutiliser nos identifiants dans leurs produits », visant précisément les harnesses et orchestrateurs comme OpenCode ou Clawdbot.

    Jusque-là, cette interdiction était surtout théorique (Anthropic tolérait tacitement ces usages, ce qui a permis l’essor d’OpenCode). Le revirement de janvier 2026 marque simplement le passage à l’application stricte de ces règles. D’un point de vue de fournisseur de service, on peut estimer qu’Anthropic cherche à reprendre le contrôle sur la manière dont ses modèles sont utilisés, pour des raisons légales (responsabilité en cas de détournement ou d’abus via une app tierce), de support (difficile d’aider un utilisateur qui passe par un outil non maîtrisé) ou encore de suivi qualité.

    Préservation de la relation client et de la marque

    En laissant des outils tiers comme OpenCode s’intercaler, Anthropic risquait de devenir un simple fournisseur en arrière-plan, perdant la visibilité auprès des développeurs. L’un des commentateurs a fait remarquer qu’Anthropic ne veut pas devenir un « backend interchangeable » au service d’un outil tiers qui capterait, lui, toute l’attention et la fidélité des développeurs.

    Contrôler l’interface utilisateur via Claude Code officiel, c’est s’assurer qu’on ne dépend pas d’un autre produit pour l’adoption de son IA. Dans un marché naissant où gagner la préférence des développeurs est crucial, Anthropic protège ainsi son empreinte : elle veut que « ses » utilisateurs passent par son écosystème plutôt que par un outil open source où Claude serait l’un des nombreux moteurs anonymes interchangeables.

    Préoccupations de sécurité et de propriété intellectuelle

    Il ne faut pas écarter que cette décision s’inscrit aussi dans une logique de prudence. Anthropic est très investi dans la recherche en IA « responsable » et a tendance à être conservateur dans l’ouverture de ses systèmes. Permettre un accès libre via des applications tierces, c’est potentiellement risquer des usages mal contrôlés (par exemple, générer du contenu allant à l’encontre des politiques d’utilisation d’Anthropic sans qu’elle le sache, ou encourager le reverse engineering de ses modèles).

    D’ailleurs, quelques mois plus tôt, Anthropic a carrément coupé l’accès de son API à OpenAI lorsque elle a découvert que cette dernière utilisait Claude (via Claude Code) pour entraîner ou évaluer GPT-5, en invoquant la violation d’une clause interdisant la mise au point de produits concurrents via son service. Cela montre à quel point Anthropic surveille jalousement l’usage de ses outils et n’hésite pas à sévir face à ce qu’elle perçoit comme une menace pour son avantage technologique.

    Dans le cas d’OpenCode, la menace n’était pas un concurrent direct comme OpenAI, mais le principe reste le même : Anthropic souhaite éviter que des tiers ne tirent parti de son IA d’une manière échappant à son contrôle, que ce soit pour en faire un usage commercial non autorisé, pour la copier, ou pour l’exposer à des contextes non maîtrisés.

    Conclusion : vers quel équilibre ?

    Le blocage par Anthropic des connexions tierces à Claude Code a suscité incompréhension et colère chez les utilisateurs concernés, mais il n’est pas totalement surprenant au vu des intérêts en jeu. Anthropic a choisi de sacrifier la bonne volonté de sa communauté de power-users open source pour protéger son modèle économique et son avantage compétitif. Cette décision alimente le débat plus large sur l’avenir de l’écosystème IA : va-t-on vers un monde où chaque acteur majeur garde ses jouets pour lui, obligeant les développeurs à utiliser une multitude d’applications propriétaires différentes ? Ou bien y aura-t-il une pression du marché (ou des régulateurs) pour plus d’ouverture et de standardisation ? En attendant, l’épisode rappelle aux développeurs qu’en construisant sur des API propriétaires, ils restent à la merci d’un changement de politique du fournisseur. La mésaventure d’OpenCode pourrait aussi encourager l’innovation ouverte : en réaction, on pourrait voir émerger de nouveaux projets et peut-être même des modèles de code open source, afin de réduire la dépendance vis-à-vis des géants de l’IA.

    Pour Anthropic, le défi sera de gérer les retombées en termes d’image et de satisfaction client. Des abonnés qui payaient 200 $/mois et se trouvent soudain limités pourraient bien aller voir ailleurs, au risque pour Anthropic de perdre des adeptes au profit de concurrents ou de solutions libres. À ce jour, la société n’a pas fait de déclaration publique sur l’affaire et il reste à voir si elle maintiendra ce blocage strict dans la durée ou si, face au bad buzz, elle envisagera un compromis (par exemple une offre officielle d’utilisation de Claude via un tiers). Quoi qu’il en soit, cette situation marque un tournant dans les relations entre fournisseurs d’IA propriétaires et communauté open source, en rappelant que la route vers des IA vraiment ouvertes et accessibles à tous est semée d’embûches – commerciales autant qu’éthiques et juridiques.

    Sources : GitHub, DMCA Anthropic

    Et vous ?

    Anthropic propose un forfait Claude Code à 200 $/mois, bien moins cher qu’un usage équivalent via son API (plus de 1 000 $ selon des estimations). En réservant cet accès illimité à son outil propriétaire et en bloquant les clients tiers, la société cherche visiblement à garder le contrôle. Cette politique de prix cassé suivie de restrictions vous paraît-elle tenable ou contre-productive à long terme ?

    Certains observateurs estiment qu’Anthropic aurait dû ouvrir le code de son assistant Claude Code depuis un an, tandis que d’autres jugent normal de garder fermé ce « golden cow » (trésor technologique) pour préserver son avantage concurrentiel. Où placeriez-vous le curseur entre l’ouverture open source d’un outil communautaire et la protection d’une innovation au cœur du modèle économique d’Anthropic ?

    Anthropic reproche à OpenAI d’avoir utilisé Claude Code pour aider au développement de GPT-5, ce qui viole explicitement ses conditions de service interdisant d’utiliser Claude pour « construire un produit concurrent » ou « entraîner des modèles d’IA concurrents ». De son côté, OpenAI rétorque qu’il est « standard dans l’industrie d’évaluer les systèmes d’IA concurrents pour benchmarker les progrès et améliorer la sécurité ». Selon vous, est-il légitime pour un acteur d’utiliser l’IA d’un rival à des fins de R&D, ou Anthropic a-t-elle raison de verrouiller fermement l’accès pour se protéger ?

    La manœuvre d’Anthropic rappelle celle d’autres plateformes tech offrant d’abord une formule alléchante puis restreignant l’accès tiers pour enfermer l’utilisateur dans leur écosystème

    Voir aussi :

    OpenAI enregistre un déficit de 12 milliards de $ en un trimestre pour des recettes de 4,3 milliards $ en un semestre, le mirage d'une IA rentable ? Pour des critiques, la bulle IA explose au grand jour

    Tout le monde se demande si, et quand, la bulle de l'IA va éclater. Voici ce qui s'est passé il y a 25 ans et qui a finalement conduit à l'éclatement de la bulle Internet

    Anthropic, la start-up IA à l'origine de Claude, est sur le point de lever 10 milliards $, ce qui la valorise à 350 milliards $ avant financement quelques mois seulement après avoir levé 13 milliards $
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 452
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 452
    Billets dans le blog
    3
    Par défaut
    Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio. Cette problématiques (et toutes celles liées à des LLM nécessitant la création d'un compte ailleurs) ne m'impacte donc pas. Et quand je tombe sur un outil qui ne supporte pas l'usage de modèles locaux, je vais voir ailleurs. Mes modèles et process sont donc établis, stables, et entièrement indépendant de ces grandes entreprises américaines qui, comme d'habitude, inondent le marché de manière non rentable pour établir un monopole et tuer les concurrents, avant de restreindre pour pomper le fric des gens rendus dépendants et se renflouer. Étant contre ce type de pratiques, je ne mets pas le doigt dedans.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  3. #3
    Membre averti
    Profil pro
    Inscrit en
    Août 2010
    Messages
    40
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 40
    Par défaut
    Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio[...]
    J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
    C'est littéralement hors de prix et il n'est pas dit que ça soit pérenne (en particulier pour Mistral et DeepSeek si ils ne parviennent pas à trouver suffisamment de débouchés par ailleurs).
    Les Chinois semble être incités par leur gouvernement à ouvrir leur modèles par stratégie, mais il n'est pas certain que cela dure éternellement (rappelons que c'était également le cas d'OpenAI à la base et Meta/llama, c'est fini).

    Donc tu penses être libre, mais c'est à mon avis bien plus précaire que ce que tu sembles croire.

    P.S: J'utilise moi même Devstral en local pour le développement et Qwen3 pour la documentation, je suis pas anti llm local, au contraire.
    Mais je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...

  4. #4
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 452
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 452
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Diablo150 Voir le message
    J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
    [...]
    je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...
    1. Nulle part je n'affirme avoir créé ces modèles. Je mets en avant qu'une fois téléchargé, un modèle est sur ton PC, tu n'est plus dépendant de son éditeur si celui-ci venait à plier boutique ou à changer sa stratégie, comme c'est le sujet ici. C'est le même genre de raisonnement entre un jeu installé localement vs. un jeu en ligne : quand l'éditeur met fin au service, le jeu en ligne n'est plus disponible, contrairement au jeu local. On ne dit pas pour autant que les joueurs privilégiant les jeux locaux sont nombriliste comme s'ils avaient créé le jeu.

    2. J'espère que tu as quand même conscience que ces gens pompent gratuitement internet pour produire ces modèles ? Et que des tas de procès sont en cours à cause de ça ? Ces boîtes agissent dans leur intérêt, pas "gracieusement". Ils mettent leurs modèles à disposition parce que c'est dans leur intérêt (publicité, course contre la concurrence, etc.). Il ne faudrait pas retourner le raisonnement.

    3. Tous mes projets persos sont en open source sur GitHub (en CC0 qui plus est), et je contribue de temps en temps à d'autres projets. Donc qu'on ne vienne pas me dire que je ne pense qu'à moi.

    Additionnellement, ce que tu payes via un abonnement c'est aussi l'infrastructure, l'électricité pour exécuter les modèles, et la main d’œuvre pour maintenir tout ça. En téléchargeant des modèles à faire tourner toi-même, ce coût tu le payes via le matériel que tu achètes, l'électricité que tu consommes, et le temps que tu passes à mettre en place et maintenir toi-même ton infrastructure locale, tout en étant restreint par ce que tu peux faire tourner sur une petite infra locale.

    Cela n'a rien de nombriliste, il s'agit d'être résilient. Je préfère mettre mon temps et mon argent pour assurer mon indépendance plutôt que pour avoir le dernier cri.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 811
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 811
    Par défaut Elon Musk se plaint de la décision d'Anthropic d'empêcher xAI d'accéder à ses modèles de codage Claude
    Après qu'Anthropic ait empêché sa start-up xAI d'accéder à ses modèles de codage Claude, Elon Musk se plaint et qualifie cette décision de « mauvaise pour leur karma »

    Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. En réaction, Elon Musk a lancé un avertissement à Anthropic après que l'entreprise spécialisée dans l'intelligence artificielle ait empêché sa start-up xAI d'accéder à ses modèles de codage Claude. Le PDG de Tesla a qualifié cette décision de « mauvaise pour leur karma », tout en félicitant Anthropic pour avoir « fait quelque chose de spécial avec le codage ».

    Claude est une série de grands modèles de langage développés par Anthropic. C'est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande.

    Claude Code est un assistant d'IA de codage développé par Anthropic et accessible depuis un terminal. Claude Code comprend votre base de code et vous aide à coder plus rapidement grâce à des commandes en langage naturel. Il s'intègre directement à votre environnement de développement et rationalise votre flux de travail sans nécessiter de serveurs supplémentaires ou de configuration complexe. Ses principales fonctionnalités sont : éditer des fichiers et corriger de bogues dans votre base de code, répondre aux questions sur l'architecture et la logique de votre code, exécuter et corriger des tests, faire du linting, ainsi que de nombreuses autres commandes.

    En octobre 2025, Anthropic a lancé Claude Code sur le web, une nouvelle façon de déléguer des tâches de codage directement depuis le navigateur. Lancé en version bêta à titre d'aperçu de recherche, vous pouvez assigner plusieurs tâches de codage à Claude qui s'exécutent sur l'infrastructure cloud gérée par Anthropic, parfaite pour traiter les retards dans la correction des bogues, les corrections de routine ou les travaux de développement parallèles.

    Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Mais face à l’usage massif via des clients non officiels, la startup a décidé de couper court. Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.

    En réaction, Elon Musk a lancé un avertissement à Anthropic après que l'entreprise spécialisée dans l'intelligence artificielle ait empêché sa start-up xAI d'accéder à ses modèles de codage Claude. Le PDG de Tesla a qualifié cette décision de « mauvaise pour leur karma », tout en félicitant Anthropic pour avoir « fait quelque chose de spécial avec le codage ».

    Ce n'est pas tout à fait de la programmation, mais cela excellera dans d'autres domaines. Anthropic a fait quelque chose de spécial avec le codage.

    Le fait qu'ils nous aient coupés @xAI a été une source de motivation utile, mais ce n'est pas bon pour leur karma.
    Cette réprimande publique est survenue après qu'Anthropic ait coupé l'accès de xAI à Claude via Cursor, une plateforme de codage populaire alimentée par l'IA que les développeurs utilisent pour écrire des logiciels. Selon un e-mail interne du cofondateur de xAI, Tony Wu, Anthropic applique désormais cette restriction à tous ses principaux concurrents, et pas seulement à l'entreprise de Musk. « Je pense que beaucoup d'entre vous ont déjà remarqué que les modèles Anthropic ne répondent plus sur Cursor », a écrit Wu à son équipe. « Selon Cursor, il s'agit d'une nouvelle politique qu'Anthropic applique à tous ses principaux concurrents. »

    Les employés de xAI utilisaient Claude en interne, Anthropic invoque une violation de sa politique. Ce blocage découle des conditions d'utilisation d'Anthropic, qui interdisent explicitement aux clients d'utiliser ses modèles d'IA pour créer des produits concurrents ou former des systèmes rivaux. Le personnel de xAI s'appuyait sur Claude via Cursor pour accélérer son travail de développement, mais cela a apparemment franchi la ligne rouge en matière d'utilisation concurrentielle, ce qu'Anthropic n'était pas disposé à tolérer.

    Wu a reconnu l'impact sur la productivité dans son message à l'équipe, mais l'a présenté comme une source de motivation. « Nous allons subir un impact sur la productivité, mais cela nous pousse vraiment à développer nos propres produits/modèles de codage », a-t-il écrit. Le moment est particulièrement bien choisi, car Musk a récemment promis une « mise à jour majeure de Grok Code » le mois prochain, qui permettra de « réaliser en une seule fois de nombreuses tâches de codage complexes ».

    La réponse de Musk sur X mêlait esprit de compétition et respect sincère. Il a admis que si le prochain Grok 4.2 pourrait surpasser Claude Opus 4.5 d'Anthropic dans plusieurs domaines, le codage n'en ferait pas partie, du moins pas dans l'immédiat.

    Anthropic a déjà bloqué ses concurrents par le passé, la demande pour Claude Code explose. Ce n'est pas la première fois qu'Anthropic restreint l'accès de ses concurrents. La société avait déjà révoqué l'accès à l'API d'OpenAI en août après avoir découvert que le fabricant de ChatGPT utilisait Claude pour développer son prochain modèle GPT-5. Anthropic avait également limité l'accès à la plateforme de codage Windsurf l'année dernière après que des rumeurs d'acquisition impliquant OpenAI avaient fait surface.

    Ces restrictions interviennent alors que la demande pour Claude Code a explosé, Anthropic ayant récemment annoncé de nouvelles limites de débit en raison d'une utilisation sans précédent. La société a cité des cas d'utilisateurs ayant dépensé des dizaines de milliers de dollars en utilisation de modèles avec des abonnements de base, certains faisant tourner Claude Code en continu en arrière-plan 24 heures sur 24.

    Claude étant actuellement en tête de plusieurs benchmarks de codage et surpassant les modèles Grok de xAI dans les tâches de programmation, Anthropic semble déterminé à protéger son avance technique, même si cela signifie rompre les ponts avec l'une des figures les plus éminentes du monde technologique. En octobre 2025, un rapport a révélé qu'Anthropic, qui est soutenue par Google (Alphabet) et Amazon, prévoit de presque tripler son chiffre d'affaires annualisé l'année prochaine. Cette croissance, alimentée par une forte demande des entreprises clientes, fait suite à un tour de table de 13 milliards de dollars qui a porté la valorisation de la société à 183 milliards de dollars. Bien qu'elle ne domine pas le marché grand public comme OpenAI, Anthropic s'est progressivement imposée dans le secteur des entreprises.

    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic bride l'accès à Claude Code, accusant une minorité de développeurs de laisser Claude tourner en permanence ou de partager ou revendre leurs accès, s'attirant les foudres de la majorité

    Anthropic vient de transformer Claude Code en Cowork : il s'agit du premier véritable agent IA polyvalent, qui n'est pas seulement un outil de codage, mais un outil universel

    Anthropic interdit à OpenAI l'accès à Claude AI en raison d'une violation des conditions d'utilisation : « Nos outils sont conçus pour aider les développeurs, pas pour alimenter nos concurrents directs »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 605
    Par défaut Anthropic interdit officiellement l'utilisation de l'authentification par abonnement à des fins tierces
    Anthropic interdit officiellement l'utilisation de l'authentification par abonnement à Claude Code à des fins tierces, y compris OpenClaw, les développeurs doivent désormais utiliser des clés API à la place

    Anthropic a mis à jour sa documentation Claude Code afin d'interdire explicitement l'utilisation des jetons OAuth des abonnements Free, Pro ou Max dans tout produit tiers, y compris OpenClaw. Les développeurs doivent désormais utiliser des clés API à la place, et cette mesure pourrait être appliquée sans avertissement préalable. La politique mentionne explicitement l'Agent SDK, l'outil propre à Anthropic pour créer des agents IA, comme étant interdit pour les jetons OAuth du plan consommateur. Si le SDK propre à Anthropic n'est pas exempté, les outils tiers ne le sont certainement pas non plus. La tendance est claire : Anthropic comble toutes les lacunes qui permettent aux gros utilisateurs d'accéder à Claude à un prix forfaitaire.

    Anthropic est une société américaine spécialisée dans l'intelligence artificielle (IA) qui développe la famille de grands modèles de langage (LLM) Claude. Claude Code, lancé par Anthropic comme une alternative sécurisée à Codex d’OpenAI, proposait aux développeurs une interface en ligne de commande pour générer du code, rédiger des tests, comprendre des erreurs. Mais contrairement à Codex CLI, Anthropic a gardé Claude Code propriétaire et obfusqué : le code n’est pas librement accessible et son utilisation est soumise à des conditions strictes..

    Face aux limitations du CLI officiel d’Anthropic, la communauté open source s’est mobilisée. Des projets comme OpenCode ont développé des outils alternatifs pour exploiter Claude et d’autres modèles dans un environnement unifié. OpenCode est un CLI/TUI open source très populaire qui permet de brancher différents fournisseurs d’IA – que ce soit Anthropic, OpenAI, Google ou même des modèles locaux – pour assister les développeurs dans leur codage.

    De même, des bots comme OpenClaw ont vu le jour, offrant des orchestrations d’agents IA pour le code. OpenClaw (anciennement Clawdbot et Moltbot) est un agent d'intelligence artificielle (IA) autonome, gratuit et open source, capable d'exécuter des tâches via de grands modèles de langage, en utilisant des plateformes de messagerie comme interface utilisateur principale. OpenClaw a connu un grand succès fin janvier 2026, grâce à sa nature open source et à la popularité virale du projet Moltbook.

    Mais en début d’année 2026, plusieurs développeurs abonnés à Claude Code ont constaté une panne soudaine : leur outil préféré, souvent un client open source comme OpenCode ou Clawdbot, ne pouvait plus accéder au modèle Claude. Très vite, la cause est identifiée : Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée.

    Récemment, Anthropic a mis à jour sa documentation Claude Code afin d'interdire explicitement l'utilisation des jetons OAuth des abonnements Free, Pro ou Max dans tout produit tiers, y compris OpenClaw. Les développeurs doivent désormais utiliser des clés API à la place, et cette mesure pourrait être appliquée sans avertissement préalable. Anthropic a discrètement mis à jour ses documents juridiques et de conformité Claude Code pour y inclure ce paragraphe : « L'utilisation de jetons OAuth obtenus via des comptes Claude Free, Pro ou Max dans tout autre produit, outil ou service, y compris l'Agent SDK, n'est pas autorisée et constitue une violation des conditions d'utilisation grand public. »

    Nom : 1.jpg
Affichages : 14011
Taille : 29,0 Ko

    La politique mentionne explicitement l'Agent SDK, l'outil propre à Anthropic pour créer des agents IA, comme étant interdit pour les jetons OAuth du plan consommateur. Si le SDK propre à Anthropic n'est pas exempté, les outils tiers ne le sont certainement pas non plus. Les cibles sont évidentes : OpenClaw, Pi Agent et tous les autres frameworks d'agents qui permettent aux utilisateurs de s'authentifier avec leur abonnement Claude existant au lieu de payer des frais API séparés.

    Auparavant, la frontière entre « l'utilisation de Claude Code » et « l'utilisation d'outils tiers » était suffisamment ambiguë pour que de nombreux utilisateurs d'OpenClaw s'authentifient via des jetons OAuth provenant de leurs abonnements Max. Le forfait Max à 200 $ par mois offrait un accès quasi illimité à Claude — pourquoi ne pas l'intégrer à votre agent personnel ?

    Les documents mis à jour établissent une ligne claire : l'authentification OAuth est « destinée exclusivement à Claude Code et Claude.ai ». Tout le reste nécessite des clés API via la console Claude ou un fournisseur de cloud pris en charge. Anthropic se réserve le droit d'appliquer cette règle « sans préavis », ce qui signifie que les comptes pourraient être bannis avant même que les utilisateurs ne sachent que cette règle existe.

    Nom : 2.jpg
Affichages : 3029
Taille : 32,2 Ko

    Les raisons économiques derrière l'interdiction

    Les chiffres expliquent cette politique. Un abonnement Max coûte 200 $ par mois pour une utilisation intensive de Claude. Le prix de l'API pour Claude Opus 4.6 est de 15 $ par million de jetons d'entrée et de 75 $ par million de jetons de sortie. Un agent OpenClaw actif exécutant Opus peut consommer des millions de jetons par jour, ce qui rend un abonnement forfaitaire de 200 $ profondément non rentable pour Anthropic.

    Un utilisateur de X l'a clairement exprimé : « Il est assez évident que l'abonnement Claude Max n'est pas viable économiquement. La seule raison de son existence est de promouvoir l'écosystème Anthropic auprès de nouveaux utilisateurs. Ainsi, les personnes qui l'utilisent pour plusieurs comptes ou pour des produits non Anthropic (par exemple OpenClaw) sont exclues. Ce n'est que du business. » Ce ne sont que les affaires. Mais ce sont ces affaires qui poussent les utilisateurs les plus engagés — ceux qui créent des agents, ceux qui vantent les capacités de Claude, ceux qui créent l'écosystème — vers des concurrents qui pratiquent des prix différents.

    Anthropic a développé le modèle que beaucoup considèrent comme le meilleur au monde pour le travail agentique. Claude Opus et Sonnet sont les choix par défaut pour les déploiements OpenClaw sérieux. Et aujourd'hui, Anthropic annonce à l'écosystème qui s'est développé autour de cette capacité : payez les tarifs API ou partez. C'est un schéma familier dans l'économie des plateformes. La plateforme subventionne l'adoption, un écosystème se forme autour de la subvention, puis la plateforme réévalue ses prix et l'écosystème se déorganise. Ce qui est inhabituel ici, c'est la rapidité : Claude Max existe depuis des mois, pas des années, et l'écosystème qu'il a permis de créer n'a que quelques semaines.

    La réaction des développeurs

    La réponse sur X a été rapide et largement hostile. « Anthropic donne une mauvaise impression ces derniers temps, je pensais qu'ils étaient sympas », a écrit le développeur Flavio Copes. Ce sentiment était largement partagé. Ian Nuttall a souligné l'ouverture concurrentielle : « L'équipe Codex doit commercialiser dès que possible un modèle de vitesse et de personnalité Sonnet 4.6 ! Si elle le fait, il y aura un nombre considérable de passages de Claude à Codex. »

    Gergely Orosz, auteur de The Pragmatic Engineer, a été catégorique : « Le coût de l'API pour Anthropic est beaucoup trop élevé par rapport aux autres acteurs, et donc utiliser l'API n'a aucun sens pour développer sur Claude. Il semble qu'Anthropic se satisfasse de n'avoir pratiquement aucun écosystème autour de Claude. » Le développeur Rhys Sullivan a déjà pris les devants : « À ce stade, je suis complètement passé à 5-3-codex pour la plupart des choses. Les forfaits ChatGPT à 20 $ et 200 $ sont tous deux très intéressants. »

    L'interdiction d'OAuth est arrivée en même temps que des informations selon lesquelles Anthropic sévissait contre les utilisateurs possédant plusieurs comptes Max. Le développeur Dwayne a publié : « Ils s'en prennent désormais aux personnes qui possèdent plusieurs comptes Max payants. Vous payez le prix fort, plusieurs fois, et ils vous traitent comme un criminel. » Ed Zitron a rapporté avoir entendu des détenteurs de comptes Enterprise Max dire qu'Anthropic les faisait passer à la facturation API. La tendance est claire : Anthropic comble toutes les lacunes qui permettent aux gros utilisateurs d'accéder à Claude à un prix forfaitaire.

    Reste à voir si cela accélérera le passage à Codex d'OpenAI, aux modèles open source ou simplement au paiement à contrecœur des API. Mais le message d'Anthropic est sans ambiguïté : le Claude avec lequel vous construisez n'est pas le Claude auquel vous vous abonnez. Ce sont des produits différents, à des prix différents, avec des règles différentes. Si vous utilisez OpenClaw avec un jeton OAuth Claude d'un forfait Free, Pro ou Max, deux options s'offrent à vous :

    1. Passer aux clés API. Créez un compte sur la console Claude, ajoutez un mode de paiement et utilisez l'authentification par clé API. Vous paierez par jeton, ce qui, pour Opus 4.6, est nettement plus cher qu'un abonnement Max pour une utilisation intensive.

    2. Changer de modèle. OpenClaw prend en charge tous les principaux fournisseurs de modèles. OpenAI, Google, Mistral, les modèles locaux via Ollama : le cadre est conçu pour être indépendant du modèle. La dernière version d'OpenClaw a même ajouté la prise en charge de Sonnet 4.6 avec une compatibilité ascendante.

    Ce changement vient confirmer la situation d'OpenClaw face à Anthropic. Mais Après qu'Anthropic ait bloqué brutalement Openclaw techniquement et légalement, Sam Altman l'opportuniste en profite pour récupérer le bébé dans le giron d'OpenAI. En effet, OpenAI a récemment annoncé avoir embauché Peter Steinberger, le créateur du framework d'agent IA viral OpenClaw, dans ce qui pourrait être le recrutement le plus stratégique de l'entreprise cette année. Cet accord offre à Sam Altman un écosystème open source prêt à l'emploi, une plateforme d'agents distribuée à l'échelle mondiale et un fondateur qui a refusé la possibilité de créer sa propre entreprise, estimant qu'OpenAI lui permettrait d'atteindre plus rapidement ses objectifs.

    ​Voici un extrait de l'annonce d'Anthropic :

    Nom : 3.jpg
Affichages : 1971
Taille : 4,2 Ko

    Politique d'utilisation

    Utilisation acceptable

    L'utilisation de Claude Code est soumise à la politique d'utilisation d'Anthropic. Les limites d'utilisation annoncées pour les plans Pro et Max supposent une utilisation normale et individuelle de Claude Code et de l'Agent SDK.

    Authentification et utilisation des identifiants

    Claude Code s'authentifie auprès des serveurs d'Anthropic à l'aide de jetons OAuth ou de clés API. Ces méthodes d'authentification ont des objectifs différents :

    - L'authentification OAuth (utilisée avec les forfaits Free, Pro et Max) est exclusivement destinée à Claude Code et Claude.ai. L'utilisation des jetons OAuth obtenus via les comptes Claude Free, Pro ou Max dans tout autre produit, outil ou service, y compris l'Agent SDK, n'est pas autorisée et constitue une violation des conditions d'utilisation destinées aux consommateurs.

    - Les développeurs qui créent des produits ou des services interagissant avec les fonctionnalités de Claude, y compris ceux qui utilisent l'Agent SDK, doivent utiliser l'authentification par clé API via la console Claude ou un fournisseur de cloud pris en charge. Anthropic n'autorise pas les développeurs tiers à proposer la connexion à Claude.ai ou à acheminer des requêtes via les identifiants des forfaits Free, Pro ou Max pour le compte de leurs utilisateurs.

    Anthropic se réserve le droit de prendre des mesures pour faire respecter ces restrictions et peut le faire sans préavis. Pour toute question concernant les méthodes d'authentification autorisées pour votre cas d'utilisation, veuillez contacter le service commercial.

    Source : OpenClaw

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    « Suppression idiote d'informations précieuses » : la mise à jour Claude Code 2.1.20 d'Anthropic masque ses actions fichier par fichier, provoquant la colère des développeurs

    « OpenClaw change ma vie : je ne touche plus mon EDI, tout se fait depuis mon téléphone » : OpenClaw promet de révolutionner le dev... mais l'agent IA est un champ de mines en matière de cybersécurité

    Des tests révèlent les lacunes profondes du compilateur C créé par l'IA Claude d'Anthropic pour 20 000 dollars : l'outil est nettement moins efficace que GCC et peine à réaliser des optimisations de base
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 992
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 992
    Par défaut
    Citation Envoyé par Alex Voir le message
    [..]La tendance est claire : Anthropic comble toutes les lacunes qui permettent aux gros utilisateurs d'accéder à Claude à un prix forfaitaire.[..]

    Quel est votre avis sur le sujet ?
    Ça coûte beaucoup trop cher à Anthropic, qui tout comme OpenAI, perd beaucoup trop d'argent chaque mois.

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 975
    Par défaut Anthropic force OpenCode à supprimer son plugin d'authentification Claude par la voie juridique
    Anthropic force OpenCode à supprimer son plugin d'authentification Claude par la voie juridique
    tandis qu'OpenAI ouvre ses abonnements aux outils tiers

    Le 19 mars 2026, un simple commit fusionné dans la branche dev du projet OpenCode a déclenché une onde de choc dans la communauté des développeurs. Intitulé sobrement « anthropic legal requests », le pull request #18186 acte la capitulation d'un projet open source face aux exigences juridiques d'Anthropic. Derrière la sécheresse du message de validation se cache un affrontement qui dure depuis plus de deux mois : celui entre une entreprise d'IA soucieuse de contrôler son écosystème et une communauté qui refuse d'être enfermée dans un seul outil.

    Le pull request a été soumis et fusionné par thdxr, membre de l'équipe d'OpenCode, le 19 mars 2026. Son contenu est chirurgical et sans ambiguïté. La modification supprime le fichier de prompt système estampillé Anthropic (anthropic-20250930.txt), retire le greffon intégré opencode-anthropic-auth@0.0.13, supprime l'en-tête bêta claude-code-20250219 des requêtes, et efface toute référence à Anthropic dans l'interface de sélection des fournisseurs.

    En creux, ce qui disparaît, c'est la possibilité pour les utilisateurs d'OpenCode de s'authentifier via OAuth avec leur abonnement Claude Pro ou Max, et donc d'utiliser un outil tiers tout en bénéficiant de la facturation forfaitaire d'Anthropic. Une fonctionnalité que la communauté avait largement adoptée, et qu'Anthropic a décidé d'étouffer.

    Nom : anthropic_legal.png
Affichages : 10640
Taille : 31,9 Ko

    Chronologie d'un verrouillage progressif

    Pour comprendre ce pull request, il faut remonter au début de l'année. Le 9 janvier 2026, Anthropic a discrètement bloqué côté serveur l'accès OAuth pour les outils tiers, sans annonce publique, sans billet de blog, sans préavis. Du jour au lendemain, des outils comme OpenCode, OpenClaw ou Cline ont cessé de fonctionner avec les abonnements Claude.

    Le 19 février 2026, Anthropic a officiellement mis à jour ses conditions d'utilisation en ajoutant une section explicite sur l'authentification, stipulant que les jetons OAuth issus des abonnements Free, Pro et Max ne peuvent être utilisés qu'avec les outils officiels d'Anthropic, soit Claude Code et Claude.ai.

    Ce n'était pas une surprise juridique totale. Une clause interdisant l'accès automatisé aux services sans clé API était présente dans les conditions d'utilisation depuis plus de deux ans. Malgré cela, de nombreux outils tiers avaient contourné cette règle en permettant aux utilisateurs de fournir leur clé d'abonnement Claude.

    Côté OpenCode, la réponse technique avait d'abord été de maintenir coûte que coûte la compatibilité. Le projet avait gagné 18 000 étoiles en deux semaines en janvier 2026 et comptait 2,5 millions de développeurs actifs mensuels en février 2026, une popularité fulminante qui en faisait une cible de choix pour Anthropic.

    L'anatomie d'un conflit économique

    Au cœur du litige, une question simple : qui profite de qui ? Claude Code est un environnement d'exécution ; il s'intègre dans le terminal de l'utilisateur, achemine les requêtes vers le modèle Claude et orchestre les échanges pour créer ce qu'Anthropic appelle un outil de programmation agentique. De nombreux autres environnements similaires existent (Cursor, OpenCode, OpenClaw) et proposaient d'utiliser le même modèle sous-jacent avec leur propre interface.

    Selon certains participants à la discussion sur Hacker News, Anthropic propose des jetons à prix fortement subventionné via les abonnements Claude Code. Un abonnement Claude Max à 200 dollars par mois donnerait accès à environ huit à douze fois plus de jetons que ce que permettrait une dépense équivalente sur l'API à la demande. En laissant des outils tiers exploiter ce même tunnel d'authentification, OpenCode permettait à ses utilisateurs de bénéficier de ce subventionnement sans utiliser Claude Code, ce qu'Anthropic assimile à un détournement de son modèle économique.

    Un ingénieur d'Anthropic avait exposé l'argument technique en janvier : les environnements tiers utilisant les abonnements Claude génèrent des profils de trafic inhabituels, sans la télémétrie ordinaire fournie par Claude Code, ce qui complique le débogage et l'assistance aux utilisateurs.

    Mais une partie de la communauté conteste cette lecture. Plusieurs développeurs sur Hacker News font valoir que les limites d'utilisation sont appliquées au niveau du compte, pas de l'environnement d'exécution et que dès lors, un utilisateur consommant ses jetons via OpenCode ne consomme pas plus que s'il utilisait Claude Code. Pour ces voix, le vrai motif est ailleurs : Anthropic veut contrôler la couche applicative, pas seulement la couche modèle.

    Le risque réel : être réduit à un simple fournisseur de jetons

    Un commentateur résume l'enjeu stratégique : Anthropic a décidé de ne pas se contenter d'être le « distributeur de carburant » en jetons, il lui faut aussi contrôler l'environnement d'exécution. C'est une posture qui rappelle les grandes batailles de l'industrie logicielle. On cite Microsoft et sa stratégie « embrace, extend, extinguish » des années 1990, même si l'analogie est imparfaite.

    Ce que craint Anthropic, c'est le scénario où la qualité de son modèle est découplée de la fidélité à son interface propriétaire. Si Claude Opus est meilleur que ses concurrents pour les tâches de refactorisation à grande échelle (plusieurs développeurs sur Hacker News confirment cette supériorité pour les projets complexes face à GPT-5.4), alors n'importe quel environnement tiers peut en profiter sans contribuer à l'écosystème Anthropic. Le fait que 5 % des commits GitHub soient désormais signés par Claude Code témoigne à la fois de la qualité du modèle et de l'effet du subventionnement tarifaire.

    OpenAI joue la carte inverse

    Le contraste avec OpenAI est saisissant. Pendant qu'Anthropic verrouillait l'accès aux abonnements, OpenAI ouvrait le sien : le 7 mars 2026, l'entreprise a annoncé un accès gratuit à ChatGPT Pro pour les mainteneurs de projets open source, citant explicitement OpenCode, Cline et OpenClaw parmi les outils éligibles.

    Deux philosophies s'affrontent. D'un côté, une stratégie de contrôle vertical qui privilégie la maîtrise de la chaîne complète modèle-interface-données. De l'autre, une approche d'écosystème ouvert qui mise sur l'adoption large pour asseoir la popularité du modèle. La question est de savoir laquelle est viable à long terme dans un secteur où les benchmarks évoluent rapidement et où la fidélité des développeurs est aussi volatile que les classements des modèles.

    Ce que révèle le code lui-même

    Au-delà du conflit commercial, l'analyse technique du pull request est instructive. L'outil d'analyse automatique Greptile a relevé un effet de bord non intentionnel dans la modification : la refactorisation du fichier llm.ts supprime silencieusement l'en-tête User-Agent: opencode/${VERSION} qui était jusqu'alors envoyé à tous les fournisseurs tiers (OpenAI, Google, Azure) sans rapport avec Anthropic. Une régression potentielle qui aurait pu affecter le débogage chez ces autres fournisseurs.

    Ce détail technique révèle la précipitation du changement. Le commit a été fusionné en moins d'une heure après sa soumission, avec l'activation de la fusion automatique par thdxr. La pression juridique a visiblement pris le pas sur la rigueur du processus de revue.

    Un participant à la discussion sur Hacker News note que la suppression du greffon opencode-anthropic-auth ne signifie pas qu'un greffon communautaire remplissant la même fonction ne pourrait pas voir le jour. La décision retire simplement le support officiel intégré, sans bloquer techniquement la possibilité d'un greffon tiers. Une nuance importante, même si elle ne change pas l'effet immédiat pour les utilisateurs ordinaires.

    La réaction de la communauté : entre résignation et mobilisation

    Les réactions sur le dépôt GitHub et sur Hacker News oscillent entre l'incompréhension et la colère contenue. Le créateur de Ruby on Rails, David Heinemeier Hansson, a publiquement interpellé Dario Amodei sur X : « Politique terrible pour une entreprise dont les modèles ont été entraînés sur notre code, nos écrits, tout ce que nous avons produit. » L'argument frappe là où ça fait mal : Anthropic a construit ses modèles sur le code open source de l'internet, puis cherche à restreindre l'accès de la communauté open source à ces mêmes modèles.

    Des témoignages de bannissements de comptes ont émergé dès janvier 2026 : un utilisateur rapporte avoir été banni après avoir migré de Claude Max 5 à Claude Max 20 tout en utilisant OpenCode via OAuth. La sanction n'était donc pas seulement théorique.

    Nom : dhh.png
Affichages : 762
Taille : 25,9 Ko

    Vers un nouveau rapport de force dans l'écosystème des agents

    Cette affaire dépasse le simple différend entre deux projets. Elle pose la question fondamentale du contrôle dans l'écosystème émergent des agents de programmation par IA. Le marché des environnements d'exécution pour modèles de langage comprend aujourd'hui Claude Code, Codex d'OpenAI, Antigravity de Google, Manus (récemment acquis par Meta), OpenCode, Cursor et Pi (l'environnement derrière OpenClaw).

    En mars 2026, Anthropic a lancé une place de marché Claude permettant aux clients entreprise d'acheter des applications tierces construites sur Claude, sans commission. Une ouverture sélective qui illustre la logique d'Anthropic : accueillir les partenaires qui passent par ses canaux officiels, et exclure ceux qui tentent de court-circuiter son infrastructure d'authentification.

    Ce modèle est-il viable ? La réponse appartient peut-être moins aux juristes qu'aux développeurs eux-mêmes, qui décideront avec leurs migrations, leurs étoiles GitHub et leurs portefeuilles.

    Source : GitHub

    Et vous ?

    La distinction qu'opère Anthropic entre « accès par clé API » (autorisé avec des outils tiers) et « accès par OAuth d'abonnement » (réservé à Claude Code) vous paraît-elle défendable, ou constitue-t-elle une restriction déguisée à la concurrence ?

    Un projet open source comme OpenCode était-il naïf de construire une fonctionnalité centrale sur un mécanisme d'authentification non documenté et potentiellement révocable à tout moment ?

    La stratégie d'OpenAI (ouvrir l'accès à ses abonnements aux outils tiers open source) est-elle un pari sur le long terme ou un calcul opportuniste dans un moment de fragilité d'Anthropic ?

    Si les modèles de langage ont été entraînés sur du code open source, la communauté open source a-t-elle une forme de droit moral à accéder à ces modèles sans restriction d'interface ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 795
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 795
    Par défaut Anthropic ajuste les limites d'utilisation de Claude afin de limiter la demande aux heures de pointe
    Anthropic ajuste les limites d'utilisation temporelles de son IA Claude afin de limiter la demande aux heures de pointe
    ce qui pourrait pénaliser les utilisateurs professionnels du service

    Anthropic a modifié les limites d'utilisation de son chatbot Claude afin de mieux équilibrer la demande croissante avec ses capacités de service actuelles. L'entreprise a déclaré que cette mesure concerne spécifiquement les sessions de cinq heures pour les utilisateurs des versions gratuite, Pro et Max. Elle précise que si les limites hebdomadaires globales restent inchangées, la puissance des services délivrés est désormais ajustée à la baisse pendant les périodes de forte affluence pour garantir la stabilité du système. Précédemment, Anthropic avait forcé OpenCode à supprimer son plug-in d'authentification Claude par la voie juridique pour des raisons économiques.

    Si vous avez l'impression d'avoir atteint vos limites d'utilisation de Claude beaucoup plus rapidement au cours de la semaine dernière, vous avez tout à fait raison. Anthropic a confirmé avoir « ajusté » les limites d'utilisation de cinq heures pour les utilisateurs de Claude Free, Pro et Max pendant les heures de pointe, soit de 5 h à 11 h (heure du Pacifique) en semaine, tout en laissant inchangées les limites hebdomadaires globales déjà établies.

    « Afin de gérer la demande croissante pour Claude, nous ajustons nos limites de session de 5 heures pour les abonnements Free/Pro/Max pendant les heures de pointe. Vos limites hebdomadaires restent inchangées », a écrit Thariq Shihipar, membre de l'équipe technique d'Anthropic, dans un billet sur X (ex-Twitter).

    Cela signifie que les utilisateurs de Claude pourraient épuiser leurs limites de session de cinq heures en moins de cinq heures. Le reste de la journée, une session de cinq heures permettra aux utilisateurs d'accomplir davantage de tâches. Cette définition flexible des limites d'utilisation hebdomadaires est possible, car le laboratoire d'IA ne précise pas le nombre de tokens pouvant être utilisés au cours de cette fenêtre de session de cinq heures.

    Répondre à la surcharge grâce à une redistribution de l'accès

    L'idée sous-jacente est qu'en accélérant la vitesse à laquelle les utilisateurs atteignent leurs limites de session pendant ces plages horaires, Anthropic redistribue efficacement l'accès afin d'éviter la surcharge du système, tout en préservant les quotas d'utilisation hebdomadaires globaux. Selon Thariq Shihipar, environ 7 % des utilisateurs atteindront des limites de session qu'ils n'auraient pas atteintes auparavant, en particulier pour les formules Pro.

    Nom : Capture d'écran 2026-03-28 131611.png
Affichages : 37722
Taille : 85,6 Ko

    L'utilisation de l'IA reste gourmande en ressources informatiques et en énergie, entravant la rentabilité des services. Anthropic a augmenté sa capacité à d'autres moments de la journée où la demande est plus faible, de sorte qu'il n'y a pas de perte nette en termes de limites d'utilisation. Si vous exécutez des tâches en arrière-plan gourmandes en tokens, les déplacer vers les heures creuses vous permettra d'étirer davantage vos limites de session.

    Selon Anthropic, les limites d'utilisation des formules d'abonnement permettent de contrôler l'intensité avec laquelle un utilisateur peut interagir avec Claude sur une période donnée. Il indique : « considérez cela comme votre budget de conversation, qui détermine le nombre de messages que vous pouvez envoyer à Claude, ou la durée pendant laquelle vous pouvez travailler avec Claude Code, avant de devoir attendre que votre limite se réinitialise ».

    Le système de calcul exact des limites reste opaque, car Anthropic ne communique pas le nombre précis de tokens alloués par fenêtre de cinq heures. Les clients ont accès à un tableau de bord leur permettant de visualiser leur progression vers le plafond de leur session quotidienne et de leur limite hebdomadaire. Lorsqu'un utilisateur dépasse ces quotas, Claude devient inaccessible, à moins que l'utilisateur ne choisisse de payer pour continuer.

    Anthropic critiqué sur l'opacité entourant le calcul des limites

    Anthropic propose ses services via une API et des abonnements. Les clients de l'API paient un tarif pour différentes formes d'utilisation de tokens : tokens d'entrée de base, 5 millions d'écritures en cache, 1 heure d'écritures en cache, accès et actualisations du cache, et tokens de sortie. Les clients abonnés (Free, Pro (20 $/mois), Max 5x (100 $/mois) et Max 20x (200 $/mois)) peuvent utiliser Claude sous réserve de limites d’utilisation non publiées.

    Anthropic ne précise pas exactement comment elle calcule ces limites et les utilisateurs n’ont aucun moyen de planifier leur utilisation de tokens. « Votre utilisation dépend de plusieurs facteurs, notamment la durée et la complexité de vos conversations, les fonctionnalités que vous utilisez et le modèle Claude avec lequel vous discutez », indique la documentation d’Anthropic. La société indique également également que chaque plan à ses limites.

    « Les différentes formules d’abonnement (Pro, Max, Team, etc.) offrent des quotas d’utilisation différents, les formules payantes proposant des limites plus élevées », explique Anthropic. Avec ce nouveau système, les développeurs peuvent s'attendre à être plus productifs en dehors des heures de bureau et moins le reste du temps. Mais la question est la suivante : quel développeur serait déjà debout à 5 heures du matin pour écrire du code ?

    Selon les analystes, les nouvelles limitations de Claude poseraient des problèmes aux utilisateurs. « L'impact se limite principalement aux utilisateurs individuels et aux petites équipes qui utilisent Claude via des formules d'abonnement, où des plafonds d'utilisation et des limitations de débit devraient permettre de gérer les ressources informatiques partagées et les coûts », a déclaré Pareekh Jain, analyste principal chez Pareekh Consulting.

    Les utilisateurs professionnels pourraient subir un coup dur

    Les entreprises sont généralement bien protégées, car elles s'appuient le plus souvent sur une utilisation via des API ou sur des contrats dédiés. Mais Pareekh Jain précise que les utilisateurs expérimentés au sein des entreprises seraient également touchés, ce qui entraînerait un ralentissement des expérimentations ou des projets pilotes. Selon lui, cela pourrait constituer une stratégie d'Anthropic visant à inciter les équipes à adopter les API.

    Charlie Dai, vice-président et analyste principal chez Forrester, a déclaré que cette incitation pourrait se traduire par des revenus plus garantis pour Anthropic. Exprimant un point de vue contraire sur la manière dont ce changement affecte les grandes entreprises, Sanchit Vir Gogia, analyste en chef chez Greyhound Research, a souligné que la plupart des entreprises ne fonctionnent pas selon un modèle pur, exclusivement basé sur les API.

    « C'est au sein de cet environnement mixte que l'impact commence à se faire sentir. Les niveaux d'abonnement ne sont plus périphériques. Ils alimentent des flux de travail réels, en particulier dans les scénarios de développement, d'analyse et d'exécution rapide. Lorsque ces niveaux deviennent incohérents pendant les pics de demande, la productivité de l'entreprise est affectée de manière indirecte, mais significative », a déclaré Sanchit Vir Gogia.

    Alors que les ajustements techniques d'Anthropic illustrent une gestion pragmatique de la capacité serveur au quotidien, les analystes continuent d'alerter sur la bulle de l'IA. L'analyste Edward Zitron qualifie l'ensemble du secteur de l'IA de « mirage » entretenu pour masquer des défaillances structurelles profondes.

    Une bulle nourrie par des promesses industrielles trompeuses

    Edward Zitron dénonce un décalage entre les promesses marketing extravagantes et la réalité matérielle de l'industrie. Il souligne notamment que si les ventes de processeurs Nvidia explosent, la construction réelle des centres de données est freinée par des contraintes logistiques et énergétiques insurmontables à court terme. Sur le marché américain, des dizaines de milliards de dollars de matériel resteraient ainsi stockés sans être installés.

    En effet, la mise en service des infrastructures nécessaires prend souvent deux à quatre ans, créant un risque d'obsolescence précoce des composants avant même leur première utilisation. Cela soulève des questions sur la rationalité économique d'acquérir du matériel deux à quatre ans avant de pouvoir l'utiliser.

    Sur le plan technique, Edward Zitron met en lumière les limites actuelles des modèles de langage, qui sembleraient avoir atteint un plateau de performance. Il pointe du doigt le coût exorbitant des agents IA en entreprise face à des résultats souvent défaillants, marqués par des hallucinations et du code de mauvaise qualité. Selon de nombreux retours d'expérience de développeurs, les agents de codage actuels augmentent leur charge de travail.

    Un problème critique émerge également concernant les données d'entraînement : l'utilisation massive de données synthétiques générées par d'autres IA risque de provoquer un « effondrement du modèle » , dégradant progressivement la fiabilité et la pertinence des réponses fournies. Enfin, le débat au sein de la communauté des développeurs révèle un scepticisme croissant quant à la rentabilité réelle de ces investissements massifs à long terme.

    Conclusion

    Comme la plupart des entreprises qui proposent des services d'IA, Anthropic fait face à une augmentation exponentielle de ses besoins en matière de calcul. Afin de faire face à ce problème, le fabricant de Claude augmente ses capacités de calcul, en élargissant ses infrastructures et en signant de nouveaux accords sur le cloud. Il travaille également à combler les lacunes permettant aux gros utilisateurs d'accéder à son IA Claude à un prix forfaitaire.

    À titre d'exemple, le mois dernier, Anthropic a mis à jour la documentation de son agent Claude Code pour interdire explicitement l'utilisation des tokens OAuth des abonnements Free, Pro ou Max dans tout produit tiers, y compris OpenClaw. Les développeurs doivent désormais utiliser des clés API à la place.

    Il y a quelques jours, Anthropic a forcé OpenCode à supprimer son plug-in d'authentification Claude par la voie juridique. À l'heure actuelle, l'IA reste un gouffre financier et les perspectives de rendement à long terme suscitent de plus en plus le scepticisme. Edward Zitron a écrit dans sa récente analyse : « le secteur technologique s'est empoisonné lui-même avec les mensonges sur l'IA. Au final, tout ce qui touche à l'IA repose sur des mensonges ».

    Source : Anthropic

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'ajustement des limites d'utilisation de Claude par Anthropic ?
    Quels impacts ces nouvelles limitations pourraient-elles avoir sur les utilisateurs professionnels ?

    Voir aussi

    « Le secteur de l'IA vous ment. La bulle de l'IA repose sur un mirage soigneusement entretenu pour masquer des défaillances structurelles et logistiques majeures », selon un critique

    Anthropic interdit officiellement l'utilisation de l'authentification par abonnement à Claude Code à des fins tierces, y compris OpenClaw, les développeurs doivent désormais utiliser des clés API à la place

    Anthropic force les marchés à envisager un futur où l'IA rend les applications inutiles : près de 1 000 Mds $ envolés tandis que les investisseurs se demandent si l'IA ne représente pas une menace existentielle

  10. #10
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 694
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 694
    Par défaut
    Il sera d'Anthropic comme de OpenAI... Le gros problème pour les promoteurs d'IA, c'est la gratuité qui attire les foules de "blaireaux"...

    Alors? La fête est finie... Limitons, limitons, limitons quand ce n'est pas clôturons le service comme pour le Sora de OpenAI

    Le spectacle commence, tous aux pop-corn! Ces comiques de l'IA vont devoir trouver des clients qui paient les VRAIS coûts engendrés par l'IA

  11. #11
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 385
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 385
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Il sera d'Anthropic comme de OpenAI... Le gros problème pour les promoteurs d'IA, c'est la gratuité qui attire les foules de "blaireaux"...

    Alors? La fête est finie... Limitons, limitons, limitons quand ce n'est pas clôturons le service comme pour le Sora de OpenAI

    Le spectacle commence, tous aux pop-corn! Ces comiques de l'IA vont devoir trouver des clients qui paient les VRAIS coûts engendrés par l'IA
    Cette pour cette raison que de plus en plus de spécialiste de l'IA soutiennent l’hypothèse d'une mort des LLM telle que nous les connaissons aujourd'hui, à cause d'un coût économique et énergétique intenable à long terme.
    A la place, il y aurai plus des petits modèles (pourvu d'algos plus complexes) travaillant conjointement, pour arriver au résultat final après un prompt, chaque modèle sélectionnant le modèle suivant le plus adapté.
    je simplifie beaucoup, mais c'est l'idée générale.

    Ce qui est bien dans l’acharnement des entreprises tel que OpenAI ou Anthropic dans les modèles les plus large possible, c'est que les restrictions qu'ils sont aujourd'hui forcés à imposer poussent les utilisateurs vers des modèles open-source certes moins puissants (question de coûts là aussi) mais distribué sous licences vraiment libres (comme la licence MIT). Ce qui est logique, Microsoft Office ou Adobe n'ont pas gagné en faisant payer tout le monde au début, mais en laissant leurs logiciels se faire facilement pirater, jusqu’à atteindre un monopole.

  12. #12
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 113
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 113
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Cette pour cette raison que de plus en plus de spécialiste de l'IA soutiennent l’hypothèse d'une mort des LLM telle que nous les connaissons aujourd'hui, à cause d'un coût économique et énergétique intenable à long terme.
    Ce n'est pas ce que pensent Google, Amazon, Méta.
    Elles ont la certitude qu'une entreprise réussira à développer une IA qui sera très demandés par les entreprises et les particuliers.
    Il y aura des centaines de millions d'utilisateurs payants. (admettons que pour qu'un ingénieur gagne 2500€ net l'entreprise paie 4000€, quand une IA permettra de diminuer le nombre d'ingénieurs l'entreprise sera prête à payer ce service 4000€ par mois).

    C'est normal de limiter le nombre de requêtes des utilisateurs gratuits, si tu veux utiliser le service tu dois payer.
    Des progrès seront fait et les IA consommeront moins d'énergie dans le futur. Si les projets survivent encore 12 ans, vous allez voir ce que vous allez voir. (ou alors tout sera mort bien avant)
    « George ? Qu’est-ce que j’ai à voir avec George ? Rien en fait ! Parce que si on réfléchit bien, moi je suis un vrai démocrate. »

  13. #13
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 394
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 394
    Par défaut Anthropic interdit l'utilisation de Claude dans OpenClaw en imposant un supplément aux abonnés
    Anthropic interdit l'utilisation de Claude dans OpenClaw et d’autres agents IA en imposant un supplément aux abonnés
    Anthropic veut limiter les écosystèmes tiers construits sur ses abonnements

    L'utilisation d'OpenClaw avec l'IA Claude est sur le point de coûter beaucoup plus cher en raison des nouveaux changements apportés à la politique d'Anthropic. Depuis le 4 avril, les utilisateurs « ne peuvent plus utiliser les limites de leur abonnement Claude pour des interfaces tierces, y compris OpenClaw », selon un responsable d’Anthropic. À la place, si les utilisateurs souhaitent utiliser OpenClaw avec Claude, ils devront opter pour une « option de paiement à l'utilisation » qui sera facturée séparément de leur abonnement Claude.

    Les raisons économiques derrière les récentes mesures

    Les chiffres expliquent cette politique. Un abonnement Max coûte 200 $ par mois pour une utilisation intensive de Claude. Le prix de l'API pour Claude Opus 4.6 est de 15 $ par million de jetons d'entrée et de 75 $ par million de jetons de sortie. Un agent OpenClaw actif exécutant Opus peut consommer des millions de jetons par jour, ce qui rend un abonnement forfaitaire de 200 $ profondément non rentable pour Anthropic.

    Un utilisateur de X l'a clairement exprimé : « Il est assez évident que l'abonnement Claude Max n'est pas viable économiquement. La seule raison de son existence est de promouvoir l'écosystème Anthropic auprès de nouveaux utilisateurs. Ainsi, les personnes qui l'utilisent pour plusieurs comptes ou pour des produits non Anthropic (par exemple OpenClaw) sont exclues. Ce n'est que du business. » Ce ne sont que les affaires. Mais ce sont ces affaires qui poussent les utilisateurs les plus engagés — ceux qui créent des agents, ceux qui vantent les capacités de Claude, ceux qui créent l'écosystème — vers des concurrents qui pratiquent des prix différents.

    Anthropic a développé le modèle que beaucoup considèrent comme le meilleur au monde pour le travail agentique. Claude Opus et Sonnet sont les choix par défaut pour les déploiements OpenClaw sérieux. Et aujourd'hui, Anthropic annonce à l'écosystème qui s'est développé autour de cette capacité : payez les tarifs API ou partez. C'est un schéma familier dans l'économie des plateformes. La plateforme subventionne l'adoption, un écosystème se forme autour de la subvention, puis la plateforme réévalue ses prix et l'écosystème se déorganise. Ce qui est inhabituel ici, c'est la rapidité : Claude Max existe depuis des mois, pas des années, et l'écosystème qu'il a permis de créer n'a que quelques semaines.

    L'entreprise précise que, bien qu'elle commence par OpenClaw, cette politique « s'applique à tous les agents IA tiers et sera donc étendue à d'autres modèles sous peu. » En gros, Pi Agent et autres OpenCode sont dans le viseur de la nouvelle mesure.


    Certains développeurs anticipent déjà sur des inconvénients de cette décision

    Les utilisateurs qui recouraient largement à OpenClaw pour le codage automatisé ou des tâches agentiques pourraient voir leurs coûts augmenter de 10 à 50 fois par rapport à leurs dépenses mensuelles antérieures, passant d'un forfait de 20 à 200 dollars à des coûts d'API pouvant atteindre plusieurs milliers de dollars.

    De nombreux développeurs estiment qu'Anthropic freine l'innovation en verrouillant l'écosystème et en pénalisant ceux qui ont contribué à la popularité de Claude pour des usages agentiques.

    OpenClaw était populaire car il permettait une automatisation flexible, auto-hébergée et disponible 24 h/24 et 7 j/7, capable de se connecter à divers outils, un niveau de contrôle que les outils propriétaires comme Claude Code ne sont pas en mesure d'offrir.

    Ce changement est susceptible de pousser les utilisateurs intensifs vers des concurrents, tels qu'OpenAI, qui aurait une position plus permissive quant à l'utilisation de ses jetons avec des outils tiers.

    Interdiction de l’utilisation de Claude dans OpenClaw : Quels avantages ?

    Anthropic a indiqué que l'utilisation intensive d'agents par des outils tels qu'OpenClaw exerçait une « pression démesurée » sur ses systèmes, contribuant ainsi à des temps d'indisponibilité. Cette modification vise à gérer cette demande et à stabiliser la plateforme pour tous les utilisateurs.

    Anthropic a lancé ses propres fonctionnalités agentiques (comme Claude Cowork) et s'efforce d'orienter les utilisateurs vers des solutions sécurisées et gérées plutôt que vers des solutions tierces non contrôlées.

    Pour atténuer les réactions négatives, Anthropic offre un crédit unique équivalent au prix de l'abonnement mensuel (utilisable jusqu'au 17 avril) et des réductions de 30 % sur les forfaits « d'utilisation supplémentaire ».

    OpenClaw a connu un véritable boom de popularité en début d'année après que des utilisateurs ont déclaré que cet agent IA était capable de gérer efficacement des tâches telles que la gestion des boîtes de réception, des agendas et même de se substituer à des étudiants.

    Et vous ?

    Quel commentaire faites-vous des récentes mesures chez Anthropic quant à ce qui concerne les possibilités d’utilisation de Claude dans OpenClaw et des agents IA similaires ?
    Êtes-vous un utilisateur de Claude dans OpenClaw ? Partagez votre expérience en tant que développeur ainsi que l’impact des récentes décisions sur votre flux de travail

    Voir aussi :

    « Suppression idiote d'informations précieuses » : la mise à jour Claude Code 2.1.20 d'Anthropic masque ses actions fichier par fichier, provoquant la colère des développeurs

    « OpenClaw change ma vie : je ne touche plus mon EDI, tout se fait depuis mon téléphone » : OpenClaw promet de révolutionner le dev... mais l'agent IA est un champ de mines en matière de cybersécurité

    Des tests révèlent les lacunes profondes du compilateur C créé par l'IA Claude d'Anthropic pour 20 000 dollars : l'outil est nettement moins efficace que GCC et peine à réaliser des optimisations de base
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 14/11/2020, 22h22
  2. Lister les port USB utilisés par des microcontroleurs
    Par eponge dans le forum Raspberry Pi
    Réponses: 6
    Dernier message: 21/09/2017, 14h04
  3. Réponses: 23
    Dernier message: 27/01/2017, 13h10
  4. comment savoir le Programme utilisé par le client
    Par kenitra-boulla dans le forum Requêtes
    Réponses: 4
    Dernier message: 21/03/2011, 01h37
  5. Réponses: 4
    Dernier message: 30/06/2010, 21h32

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo