Perdre un contrat militaire de 200 millions pour en gagner des milliers : Comment Anthropic a retourné le marché entreprise en refusant de faire la guerre,
Claude est préféré à ChatGPT chez 70 % des nouveaux clients professionnels
En l'espace de quelques semaines, Anthropic a réussi ce qu'aucun analyste n'anticipait : devenir le fournisseur d'IA de référence pour les entreprises qui découvrent le secteur, surpassant OpenAI avec près de 70 % des nouvelles souscriptions professionnelles. Derrière cette percée se trouve une équation paradoxale : un affrontement public avec le Pentagone, le rejet des publicités intégrées à l'interface, et une posture éthique qui, dans un marché saturé de benchmarks techniques quasi identiques, s'est transformée en avantage concurrentiel inattendu.
La société de gestion des dépenses professionnelles Ramp, dont l'indice mensuel sert de thermomètre à l'adoption de l'IA par les entreprises américaines, a publié début mars des données qui ont fait l'effet d'une douche froide pour OpenAI. En février 2026, 24,4 % des entreprises utilisant la plateforme Ramp paient désormais pour Anthropic, contre une sur vingt-cinq il y a un an à peine. Dans le même temps, les abonnements professionnels à Claude ont progressé de 4,9 % en un seul mois, tandis que la part de marché d'OpenAI reculait de 1,5 %, sa plus forte baisse mensuelle depuis que Ramp a commencé à suivre ces données.
Le chiffre le plus éloquent est sans doute celui-ci : parmi les entreprises s'équipant en IA pour la première fois, Anthropic remporte désormais environ 70 % des arbitrages face à OpenAI, une inversion totale par rapport aux tendances observées tout au long de 2025. OpenAI conserve la première place en volume absolu avec 34,4 % de parts de marché contre 24,4 % pour Anthropic, mais l'écart se resserre à une vitesse qui préoccupe visiblement les équipes commerciales de l'entreprise de Sam Altman. OpenAI révise d'ailleurs actuellement sa stratégie pour se concentrer davantage sur la vente de services aux entreprises et aux développeurs, précisément les marchés où Anthropic prospère.
L'affaire du Pentagone : une rupture publique aux effets boomerang
Pour comprendre ce basculement, il faut remonter à janvier 2026, lorsque le secrétaire à la Défense Pete Hegseth diffuse une note de stratégie IA imposant à tous les contractants du Département de la Guerre, la nouvelle dénomination officielle du Pentagone sous l'administration Trump, d'accepter un usage de leurs modèles pour « toutes fins légales », sans restriction propre aux éditeurs. OpenAI, Google et xAI, dont les modèles sont déployés dans des environnements non classifiés, ont tous accepté de lever pour le militaire les garde-fous applicables aux utilisateurs civils. Anthropic, seule entreprise à avoir déployé Claude sur des réseaux classifiés via un partenariat avec Palantir, a refusé.
Les deux lignes rouges qu'Anthropic refusait de franchir étaient la surveillance de masse des citoyens américains et le déploiement d'armes entièrement autonomes, deux domaines où la fiabilité des systèmes d'IA actuels est jugée insuffisante. Le ton est rapidement monté. Hegseth a présenté à Dario Amodei un ultimatum : accepter les conditions ou voir le contrat de 200 millions de dollars résilié, accompagné d'une désignation comme « risque pour la chaîne d'approvisionnement », une classification normalement réservée aux entreprises liées à des adversaires étrangers comme la Russie ou la Chine.
La réponse d'Amodei, publiée dans un long billet le 27 février, n'a pas cédé d'un pouce. Il a notamment relevé la contradiction inhérente aux menaces du Pentagone : « L'une nous étiquette comme risque de sécurité ; l'autre considère Claude comme essentiel à la sécurité nationale. » Sur le fond technologique, Amodei a maintenu que les systèmes d'IA actuels sont loin d'être suffisamment fiables pour contrôler des armes entièrement autonomes. Dans ce contexte, Anthropic a tout de même assoupli son document de référence en matière de sécurité : la version 3.0 de sa politique de déploiement responsable, publiée le 24 février, présente des garde-fous rédigés de manière plus large, ouvrant la porte à davantage d'interprétations.
Le dénouement a pris une tournure kafkaïenne : le Département de la Guerre a utilisé des services Anthropic pour des frappes en Iran le lendemain même de la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement. La question de savoir si Anthropic constitue une menace pour la sécurité nationale ou un outil indispensable à celle-ci n'a toujours pas reçu de réponse officielle cohérente.
La vertu comme fossé concurrentiel
Ara Kharazian, économiste chez Ramp, tire une conclusion contre-intuitive de ces données : dans un marché où les performances techniques des modèles frontaux convergent rapidement, c'est la culture d'entreprise, et non les benchmarks, qui crée de la différenciation. Claude Code et Codex d'OpenAI sont des produits comparables, Codex étant même moins cher sur certaines métriques. Et pourtant, Anthropic ne parvient pas à répondre à la demande : tous ses plans d'abonnement restent soumis à des limites d'utilisation, l'entreprise se retrouvant à refuser des revenus faute de capacité de calcul suffisante.
La prise de position publique d'Anthropic face au Pentagone a coïncidé avec un pic d'installations de Claude et une vague de désinstallations de ChatGPT, selon la société d'analyse Sensor Tower. Deux soutiens publics inattendus ont amplifié l'effet : la chanteuse Katy Perry et le sénateur Brian Schatz, figure de référence sur les questions de politique technologique au Sénat américain, ont tous deux annoncé publiquement avoir migré vers Claude dans les jours suivant la querelle avec le Pentagone.
Kharazian pose alors la question qui dérange l'ensemble du secteur : le vrai fossé concurrentiel dans l'IA ne serait-il pas les benchmarks et les prix, mais le fait d'être le modèle que les utilisateurs culturellement avertis souhaitent utiliser ? Le choix entre OpenAI et Anthropic pourrait devenir moins une décision d'achat classique et davantage un signal d'identité, à l'image de la distinction bulles vertes / bulles bleues dans les SMS sur iPhone. L'analogie prête à sourire, mais elle repose sur des données réelles.
OpenAI dans la tourmente de ses propres choix
L'autre face de l'équation est la succession de décisions d'OpenAI qui ont braqué une partie de sa base d'utilisateurs. Le 9 février 2026, OpenAI a officiellement lancé des tests publicitaires dans ChatGPT aux États-Unis, ciblant les utilisateurs des formules gratuites et « Go » à 8 dollars par mois. Les abonnements Plus, Pro, Business et Enterprise restent exempts de publicités. Les publicités apparaissent sous les réponses du modèle, clairement identifiées comme « sponsorisées ».
Le modèle économique est défendable ; Spotify et YouTube ont démontré la viabilité de cette approche à deux vitesses. Mais le timing est désastreux. Dans un contexte où OpenAI venait simultanément de valider l'utilisation de ses modèles par le Pentagone pour des opérations militaires, l'apparition de publicités dans l'interface a alimenté le sentiment d'une entreprise ayant sacrifié ses principes fondateurs sur l'autel de la croissance. Sam Altman lui-même a reconnu publiquement qu'OpenAI avait mal géré la situation.
Il convient toutefois de ne pas idéaliser la posture d'Anthropic. Selon des sources citées par Axios, Claude aurait été utilisé dans l'opération qui a conduit à la capture de l'ancien président vénézuélien Nicolás Maduro, via le partenariat avec Palantir, et au moins un cadre d'Anthropic aurait contacté Palantir pour s'interroger sur cet usage. Anthropic a nié avoir remis en question cette utilisation, mais l'épisode illustre la tension structurelle entre les principes affichés et la réalité de déploiements via des intermédiaires sur lesquels l'éditeur exerce un contrôle limité.
Une valorisation qui ne colle pas encore aux revenus
L'ascension de Claude sur le marché entreprise s'accompagne de chiffres financiers impressionnants en surface mais qui méritent d'être lus attentivement. En février, Anthropic a annoncé un taux de revenus annualisés de 14 milliards de dollars, simultanément à une levée de 30 milliards de dollars supplémentaires, portant sa valorisation à 380 milliards de dollars. Mais un récent dépôt judiciaire du directeur financier d'Anthropic tempère ces projections : depuis son entrée sur le marché commercial, l'entreprise aurait engrangé un peu plus de 5 milliards de dollars de revenus effectifs. L'écart entre le taux annualisé projeté et les revenus cumulés réels rappelle que la course à la part de marché se double, pour l'ensemble du secteur, d'une course aux capitaux dont les montants donnent le vertige.
La trajectoire reste néanmoins remarquable. En douze mois, Anthropic est passé de la position de challenger technique, apprécié des ingénieurs et des premiers adoptants, à celle de choix par défaut pour les entreprises découvrant l'IA générative. Le paradoxe est complet : c'est en résistant à son plus grand client institutionnel, l'armée américaine, qu'Anthropic a peut-être conquis sa clientèle la plus durable.
Sources : Ramp Index, ASIS International, OpenAI
Et vous ?
L'éthique d'Anthropic est-elle un véritable engagement de fond ou une stratégie de différenciation opportuniste dans un marché saturé ? La révision discrète de sa politique de déploiement responsable pendant la crise du Pentagone plaide-t-elle pour l'une ou l'autre lecture ?
Dans quelle mesure les entreprises qui adoptent Claude aujourd'hui le font-elles pour des raisons techniques, éthiques ou purement symboliques — et ces motivations sont-elles durables lorsque les prix et les performances finissent par s'uniformiser ?
L'introduction de publicités dans ChatGPT est-elle un signal que le modèle économique des grands modèles de langage par abonnement seul n'est pas viable à grande échelle, ou simplement une erreur de communication d'OpenAI facilement réversible ?
Si la prochaine génération d'entreprises choisit son fournisseur d'IA comme elle choisit ses valeurs affichées, quelles sont les implications pour des acteurs comme Google Gemini ou xAI, dont les positions sur ces questions restent beaucoup moins lisibles ?
Voir aussi :
Claude victime de son succès : comment le bras de fer avec le Pentagone a provoqué la plus grande panne de l'histoire d'Anthropic et mis à nu les fragilités de son infrastructure
Les documents internes d'OpenAI prévoient une perte de 14 milliards de $ en 2026 : « OpenAI est en train de s'effondrer. Aucune start-up dans l'histoire n'a jamais fonctionné avec de telles pertes »
Un expert financier affirme qu'OpenAI est sur le point d'être à court d'argent : Les Big Tech comme Google peuvent utiliser leurs énormes réserves financières pour investir dans l'IA, mais pas OpenAI
OpenAI au premier semestre 2025 : 4,3 Mds $ de revenus et 13,5 Mds $ de pertes, mais la startup vaut désormais 500 Mds $, passant devant SpaceX d'Elon Musk et ByteDance propriétaire de TikTok








L'éthique d'Anthropic est-elle un véritable engagement de fond ou une stratégie de différenciation opportuniste dans un marché saturé ? La révision discrète de sa politique de déploiement responsable pendant la crise du Pentagone plaide-t-elle pour l'une ou l'autre lecture ?
Répondre avec citation










.





Partager