IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Anthropic bloque l'utilisation par des clients tiers des abonnements à Claude Code

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 791
    Par défaut Anthropic bloque l'utilisation par des clients tiers des abonnements à Claude Code
    Anthropic bloque l'utilisation par des clients tiers des abonnements à Claude Code : quand la guerre des IA se joue sur l’ouverture des outils de dev,
    la fin de l’interopérabilité ou simple épisode dans la bataille des assistants IA ?

    Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Mais face à l’usage massif via des clients non officiels, la startup a décidé de couper court. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.

    On pensait avoir trouvé l’outil parfait pour coder avec une IA. OpenCode permettait de jongler entre Claude, GPT-4 et d’autres modèles au sein d’un seul terminal, en toute fluidité. Mais en début d’année 2026, plusieurs développeurs abonnés à Claude Code ont constaté une panne soudaine : leur outil préféré, souvent un client open source comme OpenCode ou Clawdbot, ne pouvait plus accéder au modèle Claude. Très vite, la cause est identifiée : Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Une manœuvre brutale mais calculée, révélatrice des tensions croissantes entre ouverture communautaire et stratégie de verrouillage.

    Claude Code, lancé par Anthropic comme une alternative sécurisée à Codex d’OpenAI, proposait aux développeurs une interface en ligne de commande pour générer du code, rédiger des tests, comprendre des erreurs. Mais contrairement à Codex CLI, son code était obfusqué et fermé. Rapidement, des outils comme OpenCode ont comblé le vide en proposant une expérience plus flexible, unifiant plusieurs IA, avec un succès retentissant sur GitHub. Pour beaucoup, OpenCode était devenu la façon la plus ergonomique et productive d’utiliser Claude.

    La coupure, brutale et non annoncée, a pris la communauté à revers. Le message reçu par les utilisateurs est sans appel : les identifiants Claude Code ne peuvent plus être utilisés que via l’outil officiel. Le motif avancé, bien que non confirmé publiquement, semble évident : trop d’utilisateurs exploitaient les forfaits illimités de Claude Code via des outils tiers, détournant ainsi la logique économique du modèle. Là où un usage intensif via l’API officielle coûterait plusieurs centaines voire milliers de dollars, le contournement via OpenCode permettait d’en profiter pour un abonnement mensuel modique. Pour Anthropic, il devenait urgent de fermer la brèche.

    Mais la méthode interroge. Aucun avertissement, aucune alternative officielle, aucune offre intermédiaire pour ceux qui veulent bénéficier de la puissance de Claude dans un environnement de leur choix. Juste un couperet. Pour beaucoup, c’est un signal clair : la priorité d’Anthropic n’est plus la communauté de développeurs enthousiastes, mais la protection d’un actif devenu stratégique. Certains y voient un geste à court terme, qui pourrait à long terme aliéner ceux qui auraient été les meilleurs ambassadeurs du modèle Claude.

    Ce blocage pose une question plus large : dans un secteur où les grands modèles deviennent des services fermés, à quel point les développeurs peuvent-ils encore construire des outils interopérables, portables, adaptables à leurs propres besoins ? Et si demain chaque fournisseur IA impose sa propre interface, ses propres usages, que restera-t-il de l’esprit d’expérimentation qui a toujours animé les communautés open source ?

    Claude Code n’est pas seulement un produit. C’est un cas d’école. Il illustre comment, dans la ruée vers l’IA, même les acteurs les plus réputés pour leur éthique n’hésitent plus à verrouiller leurs systèmes pour conserver un avantage concurrentiel. Face à cela, la communauté tech devra choisir : se plier aux règles changeantes de fournisseurs tout-puissants, ou redoubler d’efforts pour construire, ailleurs, des alternatives véritablement ouvertes.

    Contexte : Claude et le modèle Claude Code d’Anthropic

    Anthropic est une startup d’intelligence artificielle fondée en 2021 par d’anciens employés d’OpenAI. Son modèle de langage Claude est souvent présenté comme une alternative à ChatGPT, avec un accent mis sur la sécurité et une grande capacité de contexte. En 2025, Anthropic a lancé Claude Code, un outil spécialisé pour l’assistance à la programmation. Claude Code se présente comme un environnement de ligne de commande (CLI) permettant d’utiliser l’IA de Claude pour générer du code, déboguer, écrire des tests, etc. Il a été conçu pour rivaliser avec des solutions similaires d’OpenAI, comme l’interface Codex CLI. Contrairement à OpenAI qui a publié le code source de son CLI Codex sous licence open source, Anthropic a gardé Claude Code propriétaire et obfusqué : le code n’est pas librement accessible et son utilisation est soumise à des conditions strictes. Cette approche fermée avait déjà suscité des critiques en 2025, lorsque Anthropic a émis une plainte DMCA pour faire retirer du code source dé-obfusqué de Claude Code publié par un développeur indépendant.

    Nom : obfus.png
Affichages : 18542
Taille : 132,9 Ko

    L’émergence de clients alternatifs : OpenCode, Clawdbot et autres

    Face aux limitations du CLI officiel d’Anthropic, la communauté open source s’est mobilisée. Des projets comme OpenCode (proposé par la startup Anomaly Innovations) ont développé des outils alternatifs pour exploiter Claude et d’autres modèles dans un environnement unifié. OpenCode est un CLI/TUI open source très populaire (plus de 58 000 étoiles sur GitHub) qui permet de brancher différents fournisseurs d’IA – que ce soit Anthropic, OpenAI, Google ou même des modèles locaux – pour assister les développeurs dans leur codage.

    De même, des bots comme Clawdbot ont vu le jour, offrant des orchestrations d’agents IA pour le code. Ces solutions tierces offraient souvent une meilleure expérience utilisateur et davantage de flexibilité que l’outil officiel d’Anthropic : par exemple, OpenCode a la réputation d’être plus performant et plus ergonomique que Claude Code, tout en permettant de passer d’un modèle à l’autre selon les besoins.

    Par ailleurs, d’autres initiatives comme GPT4Free ont cherché à démocratiser l’accès aux IA propriétaires en contournant leurs restrictions. GPT4Free, par exemple, est (ou était) un projet GitHub très en vogue qui permettait d’utiliser gratuitement GPT-4 ou Claude en s’appuyant sur des API non officielles ou des services tiers. Ce type de projet exploite souvent les failles des API ouvertes de certains sites (moteurs de recherche, plateformes proposant des chatbots alimentés par GPT/Claude) pour rediriger des requêtes sans payer directement l’éditeur du modèle. Naturellement, ces usages « gratuits » ou non autorisés ont tendance à attirer l’attention des entreprises concernées, soucieuses de protéger leurs ressources et leurs revenus.

    Nom : opencode.png
Affichages : 5052
Taille : 27,0 Ko

    Le blocage soudain des connexions tierces à Claude Code

    Début janvier 2026, de nombreux développeurs abonnés à Claude Code ont constaté que leurs outils tiers ne fonctionnaient plus pour se connecter à l’API d’Anthropic. Des applications tierces courantes – comme l’open source OpenCode ou le bot Clawdbot – n’arrivaient soudain plus à se connecter au modèle Claude. L’alerte a été donnée par un développeur (Theo) sur X (Twitter), qui a rapporté qu’Anthropic « serre la vis » sur l’utilisation de comptes Claude dans des applications tierces.

    En pratique, les utilisateurs recevaient un message d’erreur explicite lorsqu’ils tentaient d’utiliser leur jeton Claude Code en dehors du CLI officiel : « This credential is only authorized for use with Claude Code and cannot be used for other API requests » (en français : « Ces identifiants ne sont autorisés que pour Claude Code et ne peuvent pas servir à d’autres requêtes API »). Autrement dit, Anthropic a activé une restriction technique pour empêcher que les jetons OAuth fournis dans le cadre de l’abonnement Claude Code soient utilisés dans des outils non approuvés par la société.

    Rapidement, la communauté a compris que ce blocage était volontaire de la part d’Anthropic, visant spécifiquement les clients non officiels. Par exemple, certains ont remarqué que la restriction semblait cibler OpenCode en particulier : une méthode alternative un peu plus discrète (via un multiplexeur de modèles nommé llm-mux) continuait à fonctionner, suggérant qu’Anthropic a potentiellement « filtré » ou identifié les requêtes émanant d’OpenCode pour les bloquer. En parallèle, les développeurs du projet OpenCode ont commencé à travailler sur des correctifs pour contourner la limitation : dès le 9 janvier, un patch officieux était proposé pour rétablir l’accès, témoignage de l’effet « chat et souris » qui s’engage souvent dans ce genre de situation.

    Nom : theo.png
Affichages : 4925
Taille : 103,0 Ko

    Les réactions de la communauté et implications pour l’open source

    La nouvelle du blocage a provoqué un véritable tollé parmi les développeurs utilisateurs de ces outils tiers. De nombreux professionnels avaient intégré OpenCode ou Clawdbot dans leur flux de travail quotidien et ont exprimé leur frustration. Sur les réseaux sociaux, on a vu défiler des messages de déception et de colère : « Je viens tout juste de configurer mon environnement, et voilà que tout tombe en panne… », « J’utilisais OpenCode depuis hier, c’était trop beau pour durer », ou encore « J’annule mon abonnement Claude Code sur-le-champ ».

    Certains soulignent l’ironie de la situation : Anthropic, qui se présentait comme une entreprise à l’éthique exemplaire visant le bien de l’humanité, adopte ici une stratégie perçue comme très mercantile et anti-communautaire. Un utilisateur a sarcastiquement commenté qu’Anthropic a sûrement jugé qu’une plateforme open source permettant aux gens de travailler comme ils l’entendent était « trop nuisible pour l’humanité », dénonçant ce qu’il considère comme de l’hypocrisie de la part d’une entreprise prônant le « global good ».

    Au-delà de la colère, c’est la déception qui transparaît : beaucoup de développeurs appréciaient l’expérience améliorée qu’offrait OpenCode par rapport à l’outil propriétaire d’Anthropic. L’interface et les fonctionnalités d’OpenCode étaient jugées plus efficaces, et l’outil permettait en outre d’utiliser plusieurs modèles concurrents au sein d’un même workflow plutôt que d’être verrouillé sur Claude Code seul.

    Désormais, ces utilisateurs se voient contraints soit de revenir à l’interface officielle Claude Code (que nombre jugent moins aboutie), soit de payer le tarif API bien plus élevé pour continuer à utiliser Claude via OpenCode. Beaucoup menacent de changer de crèmerie : certains annoncent déjà migrer vers la concurrence ou se replier sur des solutions open source, même si moins performantes, par principe. Pour les mainteneurs de projets open source comme OpenCode ou Clawdbot, c’est un coup dur : leur utilité même est remise en question par ce verrouillage, ce qui pose la question de la viabilité de tels projets face aux changements unilatéraux des fournisseurs d’API.

    Pourquoi Anthropic a-t-il bloqué ces usages ?

    Anthropic n’a pas communiqué officiellement sur les raisons de ce blocage (aucune annonce publique ni réponse sur X au moment des faits). On peut toutefois dégager plusieurs hypothèses cohérentes, alignées avec le point de vue de l’entreprise :

    Protection du modèle économique

    C’est sans doute le facteur principal. Anthropic propose Claude Code sous forme d’abonnement mensuel (de l’ordre de 100$ pour Claude Pro ou 200$ pour Claude Max). Ces forfaits « illimités » sont extrêmement attractifs au regard du coût de l’API Claude classique : pour une utilisation intensive en un mois, les appels API pourraient facilement revenir à plus de 1000 $ si l’on payait à l’usage.

    En d’autres termes, Anthropic vend à perte un accès Claude Code forfaitaire par rapport au tarif unitaire de ses API. Mais cette « bonne affaire » n’était tenable pour la startup que si les utilisateurs passaient par son application officielle, avec peut-être des limitations pratiques ou une expérience moins propice à l’abus.

    Or, en utilisant OpenCode, les abonnés pouvaient bénéficier du « buffet à volonté » de tokens à 200 $ tout en contournant les inconforts ou limites du client officiel. Pour Anthropic, c’est une perte de revenus potentiels : l’entreprise préférerait sans doute que ces clients payent à la requête via l’API (ce qui pourrait leur coûter 5 fois plus cher ou davantage sur le mois).

    Le blocage se comprend alors comme une mesure pour forcer les utilisateurs d’OpenCode à basculer vers le modèle pay-as-you-go plus rémunérateur, ou à revenir dans le giron de l’outil officiel.

    Respect des conditions d’utilisation (ToS)

    Anthropic avait dès le départ interdit l’usage des tokens Claude Code en dehors de son application. Ses conditions stipulent « qu'à moins d’une approbation explicite, nous n’autorisons pas les développeurs tiers à intégrer Claude.ai ou à réutiliser nos identifiants dans leurs produits », visant précisément les harnesses et orchestrateurs comme OpenCode ou Clawdbot.

    Jusque-là, cette interdiction était surtout théorique (Anthropic tolérait tacitement ces usages, ce qui a permis l’essor d’OpenCode). Le revirement de janvier 2026 marque simplement le passage à l’application stricte de ces règles. D’un point de vue de fournisseur de service, on peut estimer qu’Anthropic cherche à reprendre le contrôle sur la manière dont ses modèles sont utilisés, pour des raisons légales (responsabilité en cas de détournement ou d’abus via une app tierce), de support (difficile d’aider un utilisateur qui passe par un outil non maîtrisé) ou encore de suivi qualité.

    Préservation de la relation client et de la marque

    En laissant des outils tiers comme OpenCode s’intercaler, Anthropic risquait de devenir un simple fournisseur en arrière-plan, perdant la visibilité auprès des développeurs. L’un des commentateurs a fait remarquer qu’Anthropic ne veut pas devenir un « backend interchangeable » au service d’un outil tiers qui capterait, lui, toute l’attention et la fidélité des développeurs.

    Contrôler l’interface utilisateur via Claude Code officiel, c’est s’assurer qu’on ne dépend pas d’un autre produit pour l’adoption de son IA. Dans un marché naissant où gagner la préférence des développeurs est crucial, Anthropic protège ainsi son empreinte : elle veut que « ses » utilisateurs passent par son écosystème plutôt que par un outil open source où Claude serait l’un des nombreux moteurs anonymes interchangeables.

    Préoccupations de sécurité et de propriété intellectuelle

    Il ne faut pas écarter que cette décision s’inscrit aussi dans une logique de prudence. Anthropic est très investi dans la recherche en IA « responsable » et a tendance à être conservateur dans l’ouverture de ses systèmes. Permettre un accès libre via des applications tierces, c’est potentiellement risquer des usages mal contrôlés (par exemple, générer du contenu allant à l’encontre des politiques d’utilisation d’Anthropic sans qu’elle le sache, ou encourager le reverse engineering de ses modèles).

    D’ailleurs, quelques mois plus tôt, Anthropic a carrément coupé l’accès de son API à OpenAI lorsque elle a découvert que cette dernière utilisait Claude (via Claude Code) pour entraîner ou évaluer GPT-5, en invoquant la violation d’une clause interdisant la mise au point de produits concurrents via son service. Cela montre à quel point Anthropic surveille jalousement l’usage de ses outils et n’hésite pas à sévir face à ce qu’elle perçoit comme une menace pour son avantage technologique.

    Dans le cas d’OpenCode, la menace n’était pas un concurrent direct comme OpenAI, mais le principe reste le même : Anthropic souhaite éviter que des tiers ne tirent parti de son IA d’une manière échappant à son contrôle, que ce soit pour en faire un usage commercial non autorisé, pour la copier, ou pour l’exposer à des contextes non maîtrisés.

    Conclusion : vers quel équilibre ?

    Le blocage par Anthropic des connexions tierces à Claude Code a suscité incompréhension et colère chez les utilisateurs concernés, mais il n’est pas totalement surprenant au vu des intérêts en jeu. Anthropic a choisi de sacrifier la bonne volonté de sa communauté de power-users open source pour protéger son modèle économique et son avantage compétitif. Cette décision alimente le débat plus large sur l’avenir de l’écosystème IA : va-t-on vers un monde où chaque acteur majeur garde ses jouets pour lui, obligeant les développeurs à utiliser une multitude d’applications propriétaires différentes ? Ou bien y aura-t-il une pression du marché (ou des régulateurs) pour plus d’ouverture et de standardisation ? En attendant, l’épisode rappelle aux développeurs qu’en construisant sur des API propriétaires, ils restent à la merci d’un changement de politique du fournisseur. La mésaventure d’OpenCode pourrait aussi encourager l’innovation ouverte : en réaction, on pourrait voir émerger de nouveaux projets et peut-être même des modèles de code open source, afin de réduire la dépendance vis-à-vis des géants de l’IA.

    Pour Anthropic, le défi sera de gérer les retombées en termes d’image et de satisfaction client. Des abonnés qui payaient 200 $/mois et se trouvent soudain limités pourraient bien aller voir ailleurs, au risque pour Anthropic de perdre des adeptes au profit de concurrents ou de solutions libres. À ce jour, la société n’a pas fait de déclaration publique sur l’affaire et il reste à voir si elle maintiendra ce blocage strict dans la durée ou si, face au bad buzz, elle envisagera un compromis (par exemple une offre officielle d’utilisation de Claude via un tiers). Quoi qu’il en soit, cette situation marque un tournant dans les relations entre fournisseurs d’IA propriétaires et communauté open source, en rappelant que la route vers des IA vraiment ouvertes et accessibles à tous est semée d’embûches – commerciales autant qu’éthiques et juridiques.

    Sources : GitHub, DMCA Anthropic

    Et vous ?

    Anthropic propose un forfait Claude Code à 200 $/mois, bien moins cher qu’un usage équivalent via son API (plus de 1 000 $ selon des estimations). En réservant cet accès illimité à son outil propriétaire et en bloquant les clients tiers, la société cherche visiblement à garder le contrôle. Cette politique de prix cassé suivie de restrictions vous paraît-elle tenable ou contre-productive à long terme ?

    Certains observateurs estiment qu’Anthropic aurait dû ouvrir le code de son assistant Claude Code depuis un an, tandis que d’autres jugent normal de garder fermé ce « golden cow » (trésor technologique) pour préserver son avantage concurrentiel. Où placeriez-vous le curseur entre l’ouverture open source d’un outil communautaire et la protection d’une innovation au cœur du modèle économique d’Anthropic ?

    Anthropic reproche à OpenAI d’avoir utilisé Claude Code pour aider au développement de GPT-5, ce qui viole explicitement ses conditions de service interdisant d’utiliser Claude pour « construire un produit concurrent » ou « entraîner des modèles d’IA concurrents ». De son côté, OpenAI rétorque qu’il est « standard dans l’industrie d’évaluer les systèmes d’IA concurrents pour benchmarker les progrès et améliorer la sécurité ». Selon vous, est-il légitime pour un acteur d’utiliser l’IA d’un rival à des fins de R&D, ou Anthropic a-t-elle raison de verrouiller fermement l’accès pour se protéger ?

    La manœuvre d’Anthropic rappelle celle d’autres plateformes tech offrant d’abord une formule alléchante puis restreignant l’accès tiers pour enfermer l’utilisateur dans leur écosystème

    Voir aussi :

    OpenAI enregistre un déficit de 12 milliards de $ en un trimestre pour des recettes de 4,3 milliards $ en un semestre, le mirage d'une IA rentable ? Pour des critiques, la bulle IA explose au grand jour

    Tout le monde se demande si, et quand, la bulle de l'IA va éclater. Voici ce qui s'est passé il y a 25 ans et qui a finalement conduit à l'éclatement de la bulle Internet

    Anthropic, la start-up IA à l'origine de Claude, est sur le point de lever 10 milliards $, ce qui la valorise à 350 milliards $ avant financement quelques mois seulement après avoir levé 13 milliards $
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 411
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 411
    Billets dans le blog
    3
    Par défaut
    Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio. Cette problématiques (et toutes celles liées à des LLM nécessitant la création d'un compte ailleurs) ne m'impacte donc pas. Et quand je tombe sur un outil qui ne supporte pas l'usage de modèles locaux, je vais voir ailleurs. Mes modèles et process sont donc établis, stables, et entièrement indépendant de ces grandes entreprises américaines qui, comme d'habitude, inondent le marché de manière non rentable pour établir un monopole et tuer les concurrents, avant de restreindre pour pomper le fric des gens rendus dépendants et se renflouer. Étant contre ce type de pratiques, je ne mets pas le doigt dedans.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  3. #3
    Membre averti
    Profil pro
    Inscrit en
    Août 2010
    Messages
    40
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 40
    Par défaut
    Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio[...]
    J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
    C'est littéralement hors de prix et il n'est pas dit que ça soit pérenne (en particulier pour Mistral et DeepSeek si ils ne parviennent pas à trouver suffisamment de débouchés par ailleurs).
    Les Chinois semble être incités par leur gouvernement à ouvrir leur modèles par stratégie, mais il n'est pas certain que cela dure éternellement (rappelons que c'était également le cas d'OpenAI à la base et Meta/llama, c'est fini).

    Donc tu penses être libre, mais c'est à mon avis bien plus précaire que ce que tu sembles croire.

    P.S: J'utilise moi même Devstral en local pour le développement et Qwen3 pour la documentation, je suis pas anti llm local, au contraire.
    Mais je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...

  4. #4
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 411
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 411
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Diablo150 Voir le message
    J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
    [...]
    je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...
    1. Nulle part je n'affirme avoir créé ces modèles. Je mets en avant qu'une fois téléchargé, un modèle est sur ton PC, tu n'est plus dépendant de son éditeur si celui-ci venait à plier boutique ou à changer sa stratégie, comme c'est le sujet ici. C'est le même genre de raisonnement entre un jeu installé localement vs. un jeu en ligne : quand l'éditeur met fin au service, le jeu en ligne n'est plus disponible, contrairement au jeu local. On ne dit pas pour autant que les joueurs privilégiant les jeux locaux sont nombriliste comme s'ils avaient créé le jeu.

    2. J'espère que tu as quand même conscience que ces gens pompent gratuitement internet pour produire ces modèles ? Et que des tas de procès sont en cours à cause de ça ? Ces boîtes agissent dans leur intérêt, pas "gracieusement". Ils mettent leurs modèles à disposition parce que c'est dans leur intérêt (publicité, course contre la concurrence, etc.). Il ne faudrait pas retourner le raisonnement.

    3. Tous mes projets persos sont en open source sur GitHub (en CC0 qui plus est), et je contribue de temps en temps à d'autres projets. Donc qu'on ne vienne pas me dire que je ne pense qu'à moi.

    Additionnellement, ce que tu payes via un abonnement c'est aussi l'infrastructure, l'électricité pour exécuter les modèles, et la main d’œuvre pour maintenir tout ça. En téléchargeant des modèles à faire tourner toi-même, ce coût tu le payes via le matériel que tu achètes, l'électricité que tu consommes, et le temps que tu passes à mettre en place et maintenir toi-même ton infrastructure locale, tout en étant restreint par ce que tu peux faire tourner sur une petite infra locale.

    Cela n'a rien de nombriliste, il s'agit d'être résilient. Je préfère mettre mon temps et mon argent pour assurer mon indépendance plutôt que pour avoir le dernier cri.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 661
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 661
    Par défaut Elon Musk se plaint de la décision d'Anthropic d'empêcher xAI d'accéder à ses modèles de codage Claude
    Après qu'Anthropic ait empêché sa start-up xAI d'accéder à ses modèles de codage Claude, Elon Musk se plaint et qualifie cette décision de « mauvaise pour leur karma »

    Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. En réaction, Elon Musk a lancé un avertissement à Anthropic après que l'entreprise spécialisée dans l'intelligence artificielle ait empêché sa start-up xAI d'accéder à ses modèles de codage Claude. Le PDG de Tesla a qualifié cette décision de « mauvaise pour leur karma », tout en félicitant Anthropic pour avoir « fait quelque chose de spécial avec le codage ».

    Claude est une série de grands modèles de langage développés par Anthropic. C'est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande.

    Claude Code est un assistant d'IA de codage développé par Anthropic et accessible depuis un terminal. Claude Code comprend votre base de code et vous aide à coder plus rapidement grâce à des commandes en langage naturel. Il s'intègre directement à votre environnement de développement et rationalise votre flux de travail sans nécessiter de serveurs supplémentaires ou de configuration complexe. Ses principales fonctionnalités sont : éditer des fichiers et corriger de bogues dans votre base de code, répondre aux questions sur l'architecture et la logique de votre code, exécuter et corriger des tests, faire du linting, ainsi que de nombreuses autres commandes.

    En octobre 2025, Anthropic a lancé Claude Code sur le web, une nouvelle façon de déléguer des tâches de codage directement depuis le navigateur. Lancé en version bêta à titre d'aperçu de recherche, vous pouvez assigner plusieurs tâches de codage à Claude qui s'exécutent sur l'infrastructure cloud gérée par Anthropic, parfaite pour traiter les retards dans la correction des bogues, les corrections de routine ou les travaux de développement parallèles.

    Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Mais face à l’usage massif via des clients non officiels, la startup a décidé de couper court. Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.

    En réaction, Elon Musk a lancé un avertissement à Anthropic après que l'entreprise spécialisée dans l'intelligence artificielle ait empêché sa start-up xAI d'accéder à ses modèles de codage Claude. Le PDG de Tesla a qualifié cette décision de « mauvaise pour leur karma », tout en félicitant Anthropic pour avoir « fait quelque chose de spécial avec le codage ».

    Ce n'est pas tout à fait de la programmation, mais cela excellera dans d'autres domaines. Anthropic a fait quelque chose de spécial avec le codage.

    Le fait qu'ils nous aient coupés @xAI a été une source de motivation utile, mais ce n'est pas bon pour leur karma.
    Cette réprimande publique est survenue après qu'Anthropic ait coupé l'accès de xAI à Claude via Cursor, une plateforme de codage populaire alimentée par l'IA que les développeurs utilisent pour écrire des logiciels. Selon un e-mail interne du cofondateur de xAI, Tony Wu, Anthropic applique désormais cette restriction à tous ses principaux concurrents, et pas seulement à l'entreprise de Musk. « Je pense que beaucoup d'entre vous ont déjà remarqué que les modèles Anthropic ne répondent plus sur Cursor », a écrit Wu à son équipe. « Selon Cursor, il s'agit d'une nouvelle politique qu'Anthropic applique à tous ses principaux concurrents. »

    Les employés de xAI utilisaient Claude en interne, Anthropic invoque une violation de sa politique. Ce blocage découle des conditions d'utilisation d'Anthropic, qui interdisent explicitement aux clients d'utiliser ses modèles d'IA pour créer des produits concurrents ou former des systèmes rivaux. Le personnel de xAI s'appuyait sur Claude via Cursor pour accélérer son travail de développement, mais cela a apparemment franchi la ligne rouge en matière d'utilisation concurrentielle, ce qu'Anthropic n'était pas disposé à tolérer.

    Wu a reconnu l'impact sur la productivité dans son message à l'équipe, mais l'a présenté comme une source de motivation. « Nous allons subir un impact sur la productivité, mais cela nous pousse vraiment à développer nos propres produits/modèles de codage », a-t-il écrit. Le moment est particulièrement bien choisi, car Musk a récemment promis une « mise à jour majeure de Grok Code » le mois prochain, qui permettra de « réaliser en une seule fois de nombreuses tâches de codage complexes ».

    La réponse de Musk sur X mêlait esprit de compétition et respect sincère. Il a admis que si le prochain Grok 4.2 pourrait surpasser Claude Opus 4.5 d'Anthropic dans plusieurs domaines, le codage n'en ferait pas partie, du moins pas dans l'immédiat.

    Anthropic a déjà bloqué ses concurrents par le passé, la demande pour Claude Code explose. Ce n'est pas la première fois qu'Anthropic restreint l'accès de ses concurrents. La société avait déjà révoqué l'accès à l'API d'OpenAI en août après avoir découvert que le fabricant de ChatGPT utilisait Claude pour développer son prochain modèle GPT-5. Anthropic avait également limité l'accès à la plateforme de codage Windsurf l'année dernière après que des rumeurs d'acquisition impliquant OpenAI avaient fait surface.

    Ces restrictions interviennent alors que la demande pour Claude Code a explosé, Anthropic ayant récemment annoncé de nouvelles limites de débit en raison d'une utilisation sans précédent. La société a cité des cas d'utilisateurs ayant dépensé des dizaines de milliers de dollars en utilisation de modèles avec des abonnements de base, certains faisant tourner Claude Code en continu en arrière-plan 24 heures sur 24.

    Claude étant actuellement en tête de plusieurs benchmarks de codage et surpassant les modèles Grok de xAI dans les tâches de programmation, Anthropic semble déterminé à protéger son avance technique, même si cela signifie rompre les ponts avec l'une des figures les plus éminentes du monde technologique. En octobre 2025, un rapport a révélé qu'Anthropic, qui est soutenue par Google (Alphabet) et Amazon, prévoit de presque tripler son chiffre d'affaires annualisé l'année prochaine. Cette croissance, alimentée par une forte demande des entreprises clientes, fait suite à un tour de table de 13 milliards de dollars qui a porté la valorisation de la société à 183 milliards de dollars. Bien qu'elle ne domine pas le marché grand public comme OpenAI, Anthropic s'est progressivement imposée dans le secteur des entreprises.

    Et vous ?

    Pensez-vous que cette déclaration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic bride l'accès à Claude Code, accusant une minorité de développeurs de laisser Claude tourner en permanence ou de partager ou revendre leurs accès, s'attirant les foudres de la majorité

    Anthropic vient de transformer Claude Code en Cowork : il s'agit du premier véritable agent IA polyvalent, qui n'est pas seulement un outil de codage, mais un outil universel

    Anthropic interdit à OpenAI l'accès à Claude AI en raison d'une violation des conditions d'utilisation : « Nos outils sont conçus pour aider les développeurs, pas pour alimenter nos concurrents directs »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 14/11/2020, 23h22
  2. Lister les port USB utilisés par des microcontroleurs
    Par eponge dans le forum Raspberry Pi
    Réponses: 6
    Dernier message: 21/09/2017, 15h04
  3. Réponses: 23
    Dernier message: 27/01/2017, 14h10
  4. comment savoir le Programme utilisé par le client
    Par kenitra-boulla dans le forum Requêtes
    Réponses: 4
    Dernier message: 21/03/2011, 02h37
  5. Réponses: 4
    Dernier message: 30/06/2010, 22h32

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo