Claude détrône ChatGPT sur l'App Store et Play Store après le refus d'Anthropic de céder aux exigences militaires sur son IA :
l'entreprise a transformé une punition politique en triomphe commercial sans précédent dans la guerre des IA
En refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Derrière cet électrochoc commercial se cache une question de fond : peut-on, aujourd'hui, faire de l'éthique une arme concurrentielle dans la guerre des modèles d'IA ?
Tout commence par un bras de fer feutré entre Anthropic et le Département de la Défense américain, qui s'emballe en quelques jours jusqu'à atteindre un niveau de confrontation inédit dans le secteur technologique. Depuis l'été 2025, Anthropic disposait d'un contrat militaire pouvant atteindre 200 millions de dollars, faisant de Claude le premier modèle d'IA déployé sur les réseaux classifiés des forces armées américaines. C'est dans ce cadre que le Pentagone a exigé que Claude soit disponible pour « toutes les utilisations légales », se heurtant à deux lignes rouges absolues définies par Anthropic : l'interdiction d'utiliser son modèle dans des armes entièrement autonomes, et l'interdiction de son usage dans la surveillance de masse des citoyens américains.
Pendant des semaines, les négociations ont traîné. Le Pentagone a finalement proposé un compromis que l'entreprise a jugé cosmétique — un texte présenté comme une avancée mais « assorti de termes juridiques permettant de contourner ces garde-fous à volonté ». Face à ce qu'il considérait comme une manœuvre de façade, le PDG Dario Amodei a publié un communiqué sans ambiguïté : « Les menaces ne changeront pas notre position : nous ne pouvons pas en conscience accéder à leur demande. »
La réponse de Washington est tombée le lendemain dans la soirée, avec une violence rhétorique remarquable. Donald Trump a qualifié Anthropic de « leftwing nut jobs » sur Truth Social et a ordonné à chaque agence fédérale « d'immédiatement cesser » toute utilisation des technologies de l'entreprise.
Peu après, le secrétaire à la Défense (devenu secrétaire à la Guerre) Pete Hegseth franchissait un cap supplémentaire en désignant Anthropic comme un « risque pour la chaîne d'approvisionnement » — une classification normalement réservée aux entreprises liées à des puissances étrangères adverses :
« Cette semaine, Anthropic a donné une leçon magistrale d'arrogance et de trahison, illustrant à la perfection comment ne surtout pas faire affaire avec le gouvernement américain ou le Pentagone. Notre position est restée et restera inchangée*: le Département de la Guerre doit avoir un accès complet et sans restriction aux modèles d'Anthropic pour toute utilisation LÉGALE dans le cadre de la défense de la République.
« Or, Anthropic et son PDG Dario Amodei ont opté pour la duplicité. Sous couvert d'une rhétorique hypocrite «*d'altruisme efficace*», ils ont tenté de contraindre l'armée américaine à se soumettre par la force – un acte lâche de propagande d'entreprise qui place l'idéologie de la Silicon Valley au-dessus des vies américaines. Les conditions d'utilisation de cet altruisme factice d'Anthropic ne primeront jamais sur la sécurité, la disponibilité opérationnelle ni la vie des soldats américains sur le champ de bataille.
« Leur véritable objectif est clair*: s'emparer d'un droit de veto sur les décisions opérationnelles de l'armée américaine. C'est inacceptable. Comme l'a déclaré le président Trump sur Truth Social, le commandant en chef et le peuple américain seuls décideront du sort de nos forces armées, et non des dirigeants d'entreprises technologiques non élus.
« La position d'Anthropic est fondamentalement incompatible avec les principes américains. Leurs relations avec les forces armées des États-Unis et le gouvernement fédéral sont donc définitivement compromises.
« Conformément à la directive du président enjoignant au gouvernement fédéral de cesser toute utilisation de la technologie d'Anthropic, j'ordonne au département de la Guerre de désigner Anthropic comme une menace pour la sécurité nationale en matière de chaîne d'approvisionnement. Avec effet immédiat, aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l'armée américaine n'est autorisé à mener une quelconque activité commerciale avec Anthropic. Anthropic continuera de fournir ses services au département de la Guerre pendant une période maximale de six mois afin de permettre une transition en douceur vers un service plus performant et plus patriotique. »
Une désignation aux implications potentiellement dévastatrices
Sur le plan juridique et commercial, les conséquences de cette désignation sont considérables. Hegseth a affirmé qu'aucun contractant, fournisseur ou partenaire travaillant avec l'armée américaine ne pourrait conduire la moindre activité commerciale avec Anthropic. Si cette interprétation tenait, elle pourrait frapper une large part des clients entreprises d'Anthropic — notamment dans la tech et la défense — et potentiellement contraindre des investisseurs comme Amazon, Google ou Nvidia à se désengager.
Les analystes juridiques ont rapidement soulevé des doutes sérieux sur la légalité de cette décision. Peter Harrell, ancien conseiller au Conseil de sécurité nationale sous Biden, a estimé que le Pentagone ne pouvait légalement dicter à ses contractants leur comportement dans leurs activités privées. Dean Ball, ancien conseiller IA de l'administration Trump, a qualifié l'interprétation de Hegseth d'« très probablement illégale » et de « tentative de meurtre d'entreprise ».
Anthropic a immédiatement annoncé son intention de contester la désignation en justice. La société a déclaré qu'elle représentait un « précédent dangereux pour toute entreprise américaine qui négocie avec le gouvernement ». Sur le fond, la perte du contrat fédéral reste absorbable : les 200 millions représentent une fraction modeste pour une entreprise dont les revenus devraient atteindre au moins 18 milliards de dollars cette année, valorisée à 380 milliards de dollars.
Le pivot d'OpenAI et la fracture dans l'industrie
Dans les heures qui ont suivi l'annonce de Trump, le PDG d'OpenAI Sam Altman a annoncé avoir conclu un accord avec le Département de la Défense (devenu Département de la Guerre par décret de Trump) pour déployer ses modèles sur les réseaux classifiés. OpenAI a assuré que cet accord comprenait des protections contre la surveillance de masse et les armes autonomes — soit, en substance, les mêmes garde-fous qu'Anthropic refusait d'abandonner. La manœuvre a semblé à beaucoup opportuniste, voire cynique.
Des employés d'OpenAI ont d'ailleurs signé une lettre ouverte soutenant la position d'Amodei et s'opposant à l'usage de l'IA dans la surveillance de masse ou les armes autonomes. Dans un geste diplomatique inhabituel, Sam Altman lui-même a déclaré que la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement était « une très mauvaise décision » qu'il espérait voir annulée.
L'App Store comme plébiscite populaire
C'est dans ce contexte que l'inattendu s'est produit. Les réseaux sociaux se sont embrasés. Des captures d'écran de résiliations d'abonnements ChatGPT et de souscriptions à Claude Pro ont inondé X et Reddit, sur fond de messages appelant à « annuler ChatGPT ». La chanteuse Katy Perry — 85 millions d'abonnés sur X — a posté une capture d'écran de la page d'abonnement Claude Pro agrémentée d'un cœur rouge, avec pour seule mention « done » (c'est fait). Le message était limpide.
Au début de 2026, Claude était classé 42e sur l'App Store américain. Le samedi 1er mars, pour la première fois de son histoire, il en atteignait la première place. La progression avait été fulgurante : sixième le mercredi, quatrième le jeudi, numéro un le samedi soir.
Selon les données du cabinet d'analyse Sensor Tower, Claude avait passé la majeure partie de février aux alentours du top 20, après avoir terminé le mois de janvier à la 131e place. En quelques jours, l'application avait donc parcouru plus de cent positions dans le classement. Un porte-parole d'Anthropic a confirmé que les inscriptions quotidiennes battaient chaque jour un record absolu cette semaine-là, que le nombre d'utilisateurs gratuits avait augmenté de plus de 60 % depuis janvier, et que les abonnés payants avaient plus que doublé depuis le début de l'année.
La mécanique d'un effet Streisand géopolitique
Ce phénomène ressemble à une forme d'effet Streisand à l'échelle géopolitique : en tentant de punir Anthropic, l'administration Trump lui a offert la meilleure campagne de communication imaginable. Pour une fraction significative des utilisateurs, la posture d'Amodei a fonctionné comme un signal de valeurs — et dans un marché où les IA grand public se ressemblent de plus en plus sur le plan fonctionnel, les valeurs affichées par l'entreprise qui les développe peuvent devenir un critère de choix.
Un post Reddit rassemblant 30 000 votes positifs sous le titre « Annulez et supprimez ChatGPT ! » a illustré la viralité de ce mouvement. Et si la durabilité de ces conversions reste incertaine — ChatGPT demeure juste derrière Claude dans les classements et conserve son avantage de pionnier —, la dynamique à court terme est incontestable.
Il faut toutefois nuancer l'amplitude du phénomène. Les données d'OpenRouter mesurant l'usage des modèles sur le dernier mois montrent que douze modèles différents dépassent désormais ceux d'OpenAI, et que Claude Sonnet 4.5 ne se classe que cinquième pour février, le modèle le plus utilisé étant issu de MiniMax, un concurrent chinois. Le buzz sur l'App Store grand public ne reflète pas nécessairement la réalité de l'usage professionnel ou des API.
Une montée en puissance qui précédait la crise
Bien avant cet épisode, Anthropic accumulait déjà les signes d'une montée en puissance. Claude Opus 4.6, sorti début février 2026, avait pris la tête du classement Artificial Analysis, devançant GPT-5.2 d'OpenAI et Gemini de Google, et s'était également hissé en première position sur Arena.ai. Côté développeurs, Claude Code, l'agent de programmation en ligne de commande d'Anthropic, était devenu l'outil de codage le plus adopté parmi les startups, les entreprises et les équipes de recherche entrant en 2026.
La controverse avec le Pentagone a donc amplifié une dynamique déjà bien engagée. Elle a surtout transformé un avantage technique progressif en récit politique fort — celui d'une entreprise qui assume publiquement des lignes rouges éthiques face à la pression du pouvoir. Dans une industrie souvent accusée de sacrifier ses principes sur l'autel des contrats gouvernementaux, c'est un positionnement rare. Et apparemment, ça paie.
Sources : Trump, secrétaire à la Guerre Pete Hegseth, Katy Perry
Et vous ?
L'éthique peut-elle durablement constituer un avantage concurrentiel pour une entreprise d'IA, ou les utilisateurs grand public finissent-ils toujours par revenir à l'outil qu'ils connaissent le mieux ?
OpenAI a signé le contrat du Pentagone en affirmant avoir obtenu les mêmes garde-fous qu'Anthropic refusait d'abandonner. S'agit-il d'un tour de passe-passe rhétorique ou d'une preuve que la négociation était possible ?
La désignation d'Anthropic comme « risque pour la chaîne d'approvisionnement » — une mesure habituellement réservée aux entreprises liées à des puissances adverses — constitue-t-elle un précédent inquiétant pour la relation entre les États et les acteurs privés de l'IA ?











L'éthique peut-elle durablement constituer un avantage concurrentiel pour une entreprise d'IA, ou les utilisateurs grand public finissent-ils toujours par revenir à l'outil qu'ils connaissent le mieux ?
Répondre avec citation


) est du même niveau que le reste de ses saillies. Un triste clown qui arrive à surprendre par sa profonde bêtise/vulgarité chaque jour mais il sait pertinemment qu'il ne sera plus là à la fin de son mandat. Il est devenu le meilleur vecteur de la victoire du clan démocrate. Si j'osais je dirais qu'a ce niveau de sabordage il peut être considéré comme un sous marin 















Partager