OpenAI vient de perdre son plus grand partenaire : Microsoft abandonne le navire en perdition pour poursuivre son autonomie,
tandis que la startup de Sam Altman brûle un milliard de dollars par mois
En confirmant au Financial Times son intention de développer ses propres modèles d'IA frontier, Mustafa Suleyman, directeur de l'IA chez Microsoft, vient d'envoyer un signal sismique à l'ensemble de l'industrie. Après des années de dépendance assumée envers OpenAI, le géant de Redmond se prépare à voler de ses propres ailes — et à transformer son partenaire de toujours en concurrent direct. Une rupture stratégique aux implications colossales, qui survient au pire moment possible pour Sam Altman et ses équipes.
Pour comprendre l'ampleur de ce qui se joue aujourd'hui, il faut revenir à la genèse de l'une des collaborations les plus structurantes de l'histoire récente de l'informatique. Dès 2019, Microsoft investissait un premier milliard de dollars dans OpenAI, alors encore une startup prometteuse mais confidentielle. La suite est connue : GPT-3, puis GPT-4, puis ChatGPT — qui explose en 2022 et propulse les deux entreprises au sommet des conversations mondiales sur l'IA générative. En tout, Microsoft aura injecté près de 13 milliards de dollars dans la société de Sam Altman, obtenant en échange un accès quasi-exclusif à ses modèles les plus avancés, une participation de 27 % dans la nouvelle branche commerciale d'OpenAI, ainsi que des droits de propriété intellectuelle sur les modèles courant jusqu'en 2032.
Cette relation symbiotique a permis à Microsoft de déployer en un temps record des fonctionnalités d'IA générative à travers tout son écosystème produit : Copilot dans Microsoft 365, GitHub Copilot pour les développeurs, intégration de DALL-E 3 dans Designer, et l'ensemble des offres Azure AI. Pendant que Google tâtonnait encore avec Bard et que Meta misait sur l'open-source, Microsoft caracolait en tête grâce à l'infrastructure technologique d'OpenAI. Une avance stratégique achetée à prix d'or, certes, mais qui semblait alors pleinement justifiée.
Octobre 2025 : le premier signal du dégel
Le tournant s'amorce discrètement en octobre 2025, lorsque les deux sociétés renégocient les termes de leur partenariat. Les clauses d'exclusivité sont assouplies dans les deux sens : OpenAI peut désormais chercher de la puissance de calcul auprès d'autres fournisseurs cloud comme AWS ou Google Cloud, tandis que Microsoft se libère de l'obligation de recourir systématiquement aux modèles OpenAI. En apparence, il s'agit d'une simple modernisation contractuelle. En réalité, Mustafa Suleyman le confie lui-même au Financial Times quelques mois plus tard : c'est à ce moment précis que Microsoft a décidé de passer à l'action. Comme l'explique Suleyman, c'est trois ou quatre mois après la renégociation du partenariat que l'entreprise a décidé que le moment était venu de concrétiser une véritable autosuffisance en matière d'IA.
MAI, Maia 200 : les preuves tangibles de l'émancipation
La stratégie de Microsoft ne se limite pas aux grandes déclarations. L'entreprise présente des preuves concrètes et techniquement substantielles de son autonomisation. En août 2025, Microsoft a présenté MAI-1-preview, un modèle maison basé sur une architecture de mélange d'experts (MoE), pré-entraîné sur environ 15 000 GPU NVIDIA H100. Selon des informations rapportées par The Information, la famille de modèles MAI rivaliserait déjà avec les technologies d'OpenAI et d'Anthropic lors des tests internes.
Sur le front matériel, le coup est tout aussi significatif. Dévoilée en janvier 2026, la Maia 200 est la nouvelle puce construite par Microsoft pour accélérer l'inférence des modèles d'IA. Elle intègre plus de 100 milliards de transistors et revendique des performances supérieures en précision 4 bits et en 8 bits. L'objectif déclaré est de réduire drastiquement la dépendance à NVIDIA pour l'inférence — phase qui représente le poste de coûts le plus explosif à mesure que l'adoption des outils IA s'accélère. Une puce propriétaire dédiée, c'est la promesse de reprendre le contrôle économique de bout en bout.
Microsoft prévoit par ailleurs 140 milliards de dollars de dépenses d'investissement pour son exercice fiscal se terminant en juin 2026, principalement pour construire l'infrastructure nécessaire à l'IA. Un chiffre vertigineux qui traduit une conviction sans ambiguïté : l'IA n'est pas un gadget, c'est le cœur du réacteur.
La stratégie de la diversification totale
Le mouvement de Microsoft s'inscrit dans une logique plus large que la simple rupture avec OpenAI. Il s'agit de passer du statut de client captif à celui d'orchestrateur de modèles. L'entreprise a déjà intégré les modèles d'Anthropic (Claude) dans ses outils Microsoft 365 Copilot et héberge également des modèles de xAI, Meta, Mistral et Black Forest Labs. En clair, Microsoft se positionne comme une plateforme neutre capable d'acheminer les requêtes vers le modèle le plus adapté selon le contexte, le coût, et les exigences de conformité du client.
Cette approche multi-sources transforme Microsoft en orchestrateur de modèles plutôt qu'en client captif. L'entreprise peut basculer entre fournisseurs selon les performances, les coûts ou les besoins spécifiques de chaque produit, éliminant le risque de point de défaillance unique. Du point de vue de l'architecture système et de la résilience opérationnelle, la logique est imparable. Aucun DSI sérieux ne dépendrait à 100 % d'un fournisseur unique pour sa couche d'inférence.
Paradoxalement, Microsoft se retrouve ainsi dans une position inédite : investisseur à 27 % dans OpenAI, client stratégique, partenaire contractuel jusqu'en 2032, et désormais concurrent direct. La situation est inédite, car Microsoft reste à la fois investisseur majeur d'OpenAI, client stratégique… et futur concurrent direct.
Microsoft encourage désormais une partie significative de ses équipes internes à utiliser Claude Code
Microsoft avait commencé à intégrer les modèles Claude Sonnet dans sa division développeurs dès l’an dernier. Ce mouvement s’est accéléré avec une adoption progressive dans les offres payantes de GitHub Copilot. Mais la dynamique actuelle va plus loin : Claude Code est désormais expérimenté à grande échelle dans plusieurs divisions stratégiques.
La nouvelle équipe CoreAI, dirigée par Jay Parikh, teste activement l’outil. Plus récemment, la division Experiences + Devices, responsable de Windows, Microsoft 365, Outlook, Teams, Bing, Edge ou encore Surface, a été invitée à l’installer et à l’utiliser. Même les équipes travaillant sur les Copilot métiers ont reçu l’autorisation de l’employer sur l’ensemble de leurs dépôts de code.
Dans les faits, les ingénieurs sont désormais encouragés à utiliser à la fois Claude Code et GitHub Copilot, puis à comparer les deux. Cette démarche comparative interne est révélatrice : Microsoft cherche moins un remplacement immédiat qu’une compréhension fine des complémentarités et des limites de chaque solution.
OpenAI : la tempête parfaite
Cette annonce tombe au moment le plus critique pour OpenAI. La startup de Sam Altman a jusqu'ici survécu grâce à un cocktail de levées de fonds massives et d'un soutien indéfectible de Microsoft. Mais les signaux d'alarme s'accumulent. OpenAI dépense actuellement près d'un milliard de dollars par mois, et sa viabilité financière est remise en question. Des analystes du Council on Foreign Relations n'hésitent pas à évoquer une faillite possible d'ici 18 mois. La firme est engagée dans des contrats de compute représentant plus d'un trillion de dollars sur le long terme, une ardoise que les grandes technologies de la Silicon Valley maintiennent artificiellement sous perfusion.
À cela s'ajoutent des batailles juridiques multifronts : le New York Times poursuit OpenAI pour violation de droits d'auteur à grande échelle, pendant qu'Elon Musk et son entité xAI multiplient les attaques en justice. NVIDIA, malgré des rumeurs d'un investissement à 100 milliards de dollars, a finalement décliné. Et désormais, son plus grand protecteur technologique signale qu'il prépare sa sortie progressive. L'annonce de Microsoft arrive au pire moment possible pour OpenAI, qui perd son plus gros client et protecteur au moment où sa survie financière est questionnée.
OpenAI tente de diversifier ses propres appuis en négociant avec CoreWeave, un fournisseur cloud spécialisé GPU, pour un contrat de 11,9 milliards de dollars sur cinq ans. Mais c'est un pansement sur une hémorragie structurelle.
Le Copilot blues : un échec commercial qui accélère la rupture
Ironie de l'histoire : c'est en partie l'échec commercial de Copilot qui pousse Microsoft à reprendre les commandes. Malgré des dépenses en capital de 88,7 milliards de dollars sur l'année fiscale 2025, Copilot plafonne à 1,1 % de parts de marché derrière ChatGPT et Gemini. Pire encore, seulement 3,3 % des abonnés Microsoft 365 paient pour les fonctionnalités Copilot.
Par ailleurs, d’après plusieurs ingénieurs interrogés, Copilot ne serait pas un réflexe quotidien en interne. Certains l’ouvrent occasionnellement, d’autres l’ont simplement désactivé. Non par rejet idéologique de l’IA, mais parce que l’outil n’apporterait pas, dans leur pratique concrète, un gain suffisant pour justifier son usage systématique.
Ce constat est d’autant plus frappant que Microsoft dispose d’un vivier d’utilisateurs internes ultra-qualifiés, parfaitement au fait des capacités et des limites des modèles. Si Copilot ne parvient pas à convaincre ses propres créateurs et mainteneurs, la question se pose inévitablement de sa valeur réelle pour des utilisateurs moins techniques, moins exigeants ou simplement moins tolérants aux approximations.
Le grand public, lui, s'est emparé du mème « Microslop » pour railler l'intégration jugée hasardeuse de l'IA dans Windows 11. Les investisseurs ont sanctionné : le titre Microsoft a perdu plus de 10 % sur les derniers mois, les marchés commençant à douter de la conversion du capex en revenus.
Cette débâcle relative a une vertu : elle convainc Microsoft qu'une dépendance totale à un partenaire externe ne permet pas d'optimiser suffisamment les modèles pour les cas d'usage spécifiques de l'entreprise. Un modèle maison, entraîné et fine-tuné directement pour Copilot, Azure et les workloads Enterprise, offre un potentiel d'optimisation que le catalogue généraliste d'OpenAI ne peut pas égaler.
Vers une « super-intelligence médicale » et des agents autonomes
Au-delà des jeux de pouvoir, Suleyman a dessiné au Financial Times une vision ambitieuse des usages que Microsoft entend développer avec ses modèles propriétaires. L'entreprise annonce travailler sur ce qu'elle appelle une « super-intelligence médicale » — des outils d'IA capables d'assister les professionnels de santé à un niveau jusqu'ici inédit. Elle mise aussi massivement sur les agents IA dans Azure, des systèmes capables d'automatiser des workflows complexes tout en respectant les contraintes de conformité légale et réglementaire des grandes entreprises.
Dans le même souffle, Suleyman a déclaré que l'ensemble des emplois de cols blancs pourrait être automatisé dans les 18 prochains mois — une affirmation qui soulève autant d'inquiétudes légitimes qu'elle n'appelle de précautions rhétoriques. Le ton général est celui d'une entreprise qui croit profondément en la transformation radicale du travail intellectuel par l'IA, et qui se positionne pour en être le principal architecte.
L'ère de la coopétition souveraine
Ce que révèle ce tournant dépasse la simple querelle entre deux géants de la tech. Il annonce l'entrée dans une nouvelle phase de l'industrie de l'IA : celle où les grandes plateformes technologiques refusent de déléguer la couche la plus stratégique de leur stack à des tiers, aussi brillants soient-ils. Google n'a jamais abandonné le développement de Gemini au profit d'un fournisseur externe. Amazon investit massivement dans Anthropic mais développe en parallèle ses propres modèles Nova. Apple construit Apple Intelligence en gardant la main sur l'architecture. Microsoft était la grande exception. Elle ne le sera bientôt plus.
La bascule vers l'autosuffisance n'est pas qu'un message aux investisseurs : c'est une manœuvre d'intégration verticale pour sécuriser données, compute et talent, réduire la prime payée aux partenaires modèles et mieux aligner l'IA sur les priorités produits d'Azure et Windows.
Pour OpenAI, l'heure de vérité approche. La startup devra prouver que ChatGPT et ses successeurs peuvent conquérir un marché payant suffisamment large pour financer seuls leur propre développement — sans le filet de sécurité d'un Microsoft omnipotent. Un défi existentiel que Sam Altman devra relever dans un contexte de coûts structurellement écrasants et d'une concurrence qui ne lui accordera aucun répit.
Source : Interview de Mustafa Suleyman par le Financial Times
Et vous ?
Microsoft a investi 13 milliards de dollars dans OpenAI tout en préparant son émancipation : s'agit-il de la stratégie de coopétition la plus cynique de l'histoire de la tech, ou d'une simple prudence industrielle légitime ?
Les modèles MAI de Microsoft, entraînés sur du matériel propriétaire (Maia 200), peuvent-ils réalistement rivaliser avec GPT-5 ou Gemini Ultra en termes de performance absolue, ou seront-ils cantonnés à des workloads Enterprise optimisés ?
Si OpenAI perd effectivement Microsoft comme client principal d'ici 2027, quels acteurs — Apple, Amazon, un investisseur saoudien, voire Google — seraient susceptibles de reprendre le flambeau financier ?








Microsoft a investi 13 milliards de dollars dans OpenAI tout en préparant son émancipation : s'agit-il de la stratégie de coopétition la plus cynique de l'histoire de la tech, ou d'une simple prudence industrielle légitime ?
Répondre avec citation












Partager