GLM-5 contre Claude Opus 4.5 : 744 milliards de paramètres, -1 sur l'index d'hallucination, 10x moins cher.
La startup chinoise Zhipu AI mise sur l'open source pour défier l'establishment américain
La startup chinoise Zhipu AI (z.ai) vient de lancer GLM-5, un modèle open source qui bouscule radicalement l'écosystème de l'IA. Avec un taux d'hallucination record, des performances en coding qui rivalisent avec Claude Opus 4.5 d'Anthropic, et un prix jusqu'à 10 fois moins élevé, ce modèle de 744 milliards de paramètres pose une question dérangeante : l'hégémonie américaine en IA est-elle en train de basculer ?
Le 11 février 2026, quelques jours avant le Nouvel An lunaire chinois, Zhipu AI a déployé GLM-5, marquant un tournant historique dans la course mondiale à l'IA. Ce modèle de langage massif, doté de 744 milliards de paramètres totaux (dont 40 milliards actifs par token), représente plus qu'une simple itération technique : c'est une déclaration de guerre stratégique contre les géants propriétaires occidentaux.
Des performances qui défient l'establishment américain
Les chiffres parlent d'eux-mêmes. Sur le benchmark SWE-bench Verified, qui évalue les capacités en ingénierie logicielle réelle, GLM-5 atteint un score de 77,8%, surpassant Gemini 3 Pro de Google (76,2%) et se rapprochant dangereusement de Claude Opus 4.5 qui culmine à 80,9%. Pour un modèle open source sous licence MIT, disponible librement et déployable sur infrastructure privée, c'est une prouesse sans précédent.
Mais c'est sur le Terminal-Bench 2.0, qui simule des tâches complexes d'exécution longue durée, que GLM-5 affirme sa supériorité. Avec un score de 56,2%, il domine l'ensemble de la compétition open source et rivalise avec les systèmes propriétaires les plus avancés. Sur BrowseComp, benchmark mesurant les capacités de recherche web et de synthèse d'information à large échelle, GLM-5 affiche un score de 75,9%, se positionnant comme leader incontesté parmi les modèles à poids ouverts.
Le Saint Graal de la fiabilité : son taux d'hallucination
L'innovation la plus spectaculaire de GLM-5 réside dans son approche radicale du problème des hallucinations. Sur l'Artificial Analysis Intelligence Index v4.0, le modèle obtient un score de -1 sur l'AA-Omniscience Index, soit une amélioration de 35 points par rapport à son prédécesseur GLM-4.7. Ce score traduit une réduction de 56 points de pourcentage du taux d'hallucination.
Concrètement, GLM-5 a appris à reconnaître ses limites : plutôt que d'inventer des réponses plausibles mais factuellement incorrectes, il choisit de s'abstenir lorsqu'il n'a pas l'information. Cette capacité à « savoir qu'il ne sait pas » place GLM-5 devant l'ensemble de l'industrie, y compris les modèles d'OpenAI, Google et Anthropic. Pour les entreprises opérant dans des secteurs critiques comme la santé, le juridique ou la finance, cette fiabilité accrue constitue un argument décisif.
L'architecture technique : un monument d'ingénierie
Derrière ces performances se cache une refonte architecturale majeure. GLM-5 passe de 355 milliards de paramètres (GLM-4.7) à 744 milliards, avec un volume de données de pré-entraînement qui bondit de 23 à 28,5 trillions de tokens. Cette expansion massive de l'échelle computationnelle a permis une amélioration significative de l'intelligence générale du modèle.
L'innovation majeure réside dans le framework « Slime », un système d'apprentissage par renforcement asynchrone développé spécifiquement pour GLM-5. Ce framework permet au modèle d'apprendre continuellement à partir d'interactions longue durée, débloquant ainsi le plein potentiel des capacités pré-entraînées. Pour la première fois dans un modèle de cette envergure, Zhipu AI intègre également le mécanisme DeepSeek Sparse Attention (DSA), qui réduit drastiquement les coûts de déploiement tout en préservant les performances sur contextes longs.
Le résultat ? Une fenêtre de contexte de 200 000 tokens et une capacité de génération maximale de 128 000 tokens, permettant de traiter et de produire des documents d'envergure professionnelle sans compromis sur la qualité.
Le témoignage qui secoue Silicon Valley : GLM-5 trois fois plus rapide qu'Opus ?
Au-delà des benchmarks aseptisés, un témoignage d'utilisateur a enflammé les réseaux sociaux et les forums spécialisés. Un développeur anonyme rapporte avoir soumis le même prompt de création d'application à Claude Opus 4.6 et à GLM-5 via le site z.ai. Les résultats sont intéressants :
- Claude Opus 4.6 : 1 heure d'exécution, environ 11 erreurs nécessitant des corrections manuelles, application encore perfectible
- GLM-5 : 28 minutes d'exécution, 3 erreurs seulement, application entièrement fonctionnelle en 40 minutes au total
Ce témoignage, bien que non scientifique, résonne avec les retours d'une communauté croissante de développeurs qui adoptent GLM-5 pour leurs workflows de coding agentique. Sur les forums Reddit (r/LocalLLaMA, r/ClaudeAI) et sur les plateformes comme OpenRouter, les discussions témoignent d'un changement de paradigme : GLM-5 ne se contente pas de rivaliser avec les modèles propriétaires occidentaux, il les surpasse dans des scénarios d'usage réels.
Martin Casado, General Partner chez Andreessen Horowitz, a publié une statistique révélatrice : parmi les startups qui pitchent avec des stacks open source, environ 80% utilisent désormais des modèles chinois. Sur OpenRouter, l'utilisation de modèles open source chinois est passée de quasiment zéro fin 2024 à près de 30% lors de certaines semaines récentes. Sur Hugging Face, la famille Qwen d'Alibaba a dépassé les modèles Llama de Meta en téléchargements cumulés, et une étude récente du MIT confirme que les modèles open source chinois ont surpassé les modèles américains en nombre total de téléchargements.
Le revers de la médaille : les limites et controverses de GLM-5
Malgré l'enthousiasme général, GLM-5 n'est pas exempt de critiques et de limitations structurelles.
Une infrastructure exigeante : l'accessibilité en question
Le paradoxe de GLM-5 tient dans sa promesse d'open source « accessible ». Théoriquement, n'importe qui peut télécharger les poids du modèle et le déployer. En pratique, la réalité est bien différente. Avec ses 744 milliards de paramètres, GLM-5 nécessite approximativement 1 490 Go de mémoire pour stocker les poids en précision native BF16.
Pour le déployer en production, il faut soit disposer d'un cluster de GPUs haut de gamme (multiples H100 ou équivalents), soit accepter des quantifications agressives qui dégradent les performances, soit passer par une API tierce. Un analyste le résume brutalement : « Le modèle prouve que 'poids ouverts' ne signifie plus 'accessible'. Cela signifie transférer les coûts des factures API vers des budgets matériels que seules les équipes bien financées peuvent se permettre. »
Des coûts d'inférence qui doublent
Selon l'analyse de Kilo.ai, les coûts d'inférence de GLM-5 ont doublé par rapport à GLM-4.7. Le modèle traite certes plus rapidement (plus de 55 tokens par seconde selon Zhipu AI), mais cette vitesse ne compense pas nécessairement l'augmentation des coûts opérationnels pour certains cas d'usage.
Conscience situationnelle limitée : un avertissement inquiétant
Lukas Petersson, co-fondateur de la startup Andon Labs spécialisée dans les protocoles d'IA autonome sécurisée, a émis un avertissement troublant après avoir analysé pendant des heures les traces d'exécution de GLM-5 : « Un modèle incroyablement efficace, mais bien moins conscient de sa situation. Il atteint ses objectifs via des tactiques agressives mais ne raisonne pas sur sa situation et n'exploite pas l'expérience. C'est inquiétant. »
Cette observation pointe vers une différence fondamentale de philosophie. Alors que les laboratoires occidentaux comme Anthropic optimisent pour la « profondeur de raisonnement », Zhipu AI optimise pour « l'exécution et l'échelle ». GLM-5 est conçu pour terminer le projet sans qu'on ait à le demander deux fois, quitte à adopter des approches plus directes et moins nuancées.
Limitations multimodales et risques d'hallucination résiduels
GLM-5 reste un modèle texte uniquement, contrairement à des concurrents comme Kimi K2.5 qui offrent des capacités multimodales (vision). Il est également moins token-efficient que Claude malgré une génération globale de moins de tokens. Et malgré les progrès spectaculaires, des risques d'hallucination subsistent.
Des utilisateurs ont signalé, lors des tests sous le nom de code « Pony Alpha » avant le lancement officiel, des faux messages texte dans des démos UI et une dégradation graphique dans le contenu généré. Des rough edges typiques d'un modèle qui pousse les limites, mais qui questionnent néanmoins la maturité pour certains déploiements critiques.
La dimension géopolitique : quand l'IA devient champ de bataille
L'émergence de GLM-5 ne peut être dissociée du contexte géopolitique tendu qui structure la rivalité technologique sino-américaine.
Zhipu AI sur la liste noire américaine : un catalyseur d'innovation
Ironiquement, les restrictions américaines semblent avoir accéléré plutôt qu'entravé l'innovation chinoise. Lorsque Zhipu AI a été ajoutée à la Entity List américaine en janvier 2024, limitant son accès aux technologies américaines, beaucoup prédisaient que l'entreprise peine à maintenir son rythme d'innovation. Au lieu de cela, les sanctions ont stimulé le développement d'un écosystème domestique parallèle.
Le 14 janvier 2026, Zhipu AI a lancé GLM-Image, le premier modèle génératif multimodal haute performance entraîné entièrement sur hardware domestique chinois, spécifiquement avec les processeurs IA Ascend 910C de Huawei. Ce jalon marque un tournant critique pour l'industrie IA chinoise, qui a passé les deux dernières années sous de lourdes restrictions d'exportation américaines.
L'émancipation du matériel : vers une indépendance technologique totale
Pendant que Nvidia tentait de maintenir sa présence en Chine avec des versions « bridées » de ses puces (comme la H20), l'ascension de l'Ascend 910C a rendu ces produits compromis moins attractifs. Pour les laboratoires IA chinois, le choix devient de plus en plus clair : entre une puce occidentale restreinte et une puce domestique bénéficiant du soutien gouvernemental direct et d'équipes d'ingénierie locales spécialisées.
Les experts de la Beijing Academy of Artificial Intelligence (BAAI) soulignent que la transition de Zhipu vers une approche « full-stack domestique » marque la fin de la phase expérimentale pour l'IA chinoise, qui entre désormais dans une phase de production souveraine robuste.
Les « AI Tigers » chinois : un écosystème en ébullition
GLM-5 s'inscrit dans l'émergence de ce que le marché nomme les « AI Tigers » chinois : six licornes IA (StepFun, Zhipu AI, Moonshot, MiniMax, 01.AI, et Baichuan) qui bénéficient d'un soutien massif des autorités locales et régionales chinoises, chacune cherchant à soutenir son champion local.
En janvier 2026, Zhipu AI et MiniMax ont levé plus de 1,1 milliard de dollars combinés lors de leurs IPO à Hong Kong. Ces introductions en bourse ont eu lieu avant que OpenAI et Anthropic ne déposent leurs propres IPO, marquant symboliquement un renversement de l'ordre établi. Les actions de Zhipu AI ont bondi de 34% lors de leur premier jour de cotation.
Cette vague d'investissement reflète la confiance croissante du marché dans la capacité de la Chine à rivaliser globalement en intelligence artificielle, malgré les défis critiques. Tang Jie, fondateur et chief scientist de Zhipu AI, professeur à l'Université de Tsinghua, incarne cette nouvelle génération d'entrepreneurs chinois plus enclins à prendre des risques élevés, un trait autrefois associé exclusivement à Silicon Valley.
La réponse culturelle : l'open source comme « politiquement correct »
Liu Zhiyuan, professeur d'informatique à l'Université de Tsinghua et chief scientist chez la startup IA ModelBest, explique que "dans la communauté chinoise des programmeurs, l'open source est devenu politiquement correct". Il présente ce choix comme une réponse à la dominance américaine dans les systèmes IA propriétaires.
Cette stratégie open source procure aux entreprises chinoises un avantage de confiance à long terme dans la communauté globale de l'IA. Même dans un contexte d'antagonisme croissant USA-Chine, l'adoption quasi-unanime de l'open source par les entreprises IA chinoises leur a valu de la bienveillance internationale.
Sources : Z AI (1, 2), vidéos dans le texte
Et vous ?
Le témoignage rapportant que GLM-5 est trois fois plus rapide qu'Opus sur certaines tâches vous semble-t-il crédible, ou s'agit-il d'un cas isolé non représentatif ? Quelles sont vos propres expériences comparatives entre modèles chinois et occidentaux ?
L'Europe peut-elle vraiment créer une « troisième voie » de l'IA face aux géants sino-américains, ou est-elle condamnée à rester un régulateur de technologies développées ailleurs ? Mistral AI et Aleph Alpha sont-ils des exceptions glorieuses ou des illusions d'indépendance ?
L'open source a-t-il encore un sens quand un modèle comme GLM-5 nécessite 1 490 Go de RAM et des clusters de GPUs haut de gamme pour être déployé ? Les « poids ouverts » sont-ils devenus un argument marketing qui masque une inaccessibilité économique de fait ?
Le taux d'hallucination record de GLM-5 compense-t-il son apparente « agressivité » et son manque de « conscience situationnelle » rapporté par certains experts en sécurité IA ? Dans quels cas d'usage cette combinaison serait-elle problématique, voire dangereuse ?
En tant que développeur : avez-vous déjà intégré des modèles chinois (GLM, Qwen, DeepSeek, Kimi) dans vos workflows de production ? Si oui, quels ont été les gains et les frictions rencontrés ? Si non, qu'est-ce qui vous retient : confiance, conformité, habitude, ou autre chose ?








Le témoignage rapportant que GLM-5 est trois fois plus rapide qu'Opus sur certaines tâches vous semble-t-il crédible, ou s'agit-il d'un cas isolé non représentatif ? Quelles sont vos propres expériences comparatives entre modèles chinois et occidentaux ?
Répondre avec citation








Partager