IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 909
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 909
    Par défaut GLM-5 contre Claude Opus 4.5 : 744 milliards de paramètres, -1 sur l'index d'hallucination, 10x moins cher
    GLM-5 contre Claude Opus 4.5 : 744 milliards de paramètres, -1 sur l'index d'hallucination, 10x moins cher.
    La startup chinoise Zhipu AI mise sur l'open source pour défier l'establishment américain

    La startup chinoise Zhipu AI (z.ai) vient de lancer GLM-5, un modèle open source qui bouscule radicalement l'écosystème de l'IA. Avec un taux d'hallucination record, des performances en coding qui rivalisent avec Claude Opus 4.5 d'Anthropic, et un prix jusqu'à 10 fois moins élevé, ce modèle de 744 milliards de paramètres pose une question dérangeante : l'hégémonie américaine en IA est-elle en train de basculer ?

    Le 11 février 2026, quelques jours avant le Nouvel An lunaire chinois, Zhipu AI a déployé GLM-5, marquant un tournant historique dans la course mondiale à l'IA. Ce modèle de langage massif, doté de 744 milliards de paramètres totaux (dont 40 milliards actifs par token), représente plus qu'une simple itération technique : c'est une déclaration de guerre stratégique contre les géants propriétaires occidentaux.

    Des performances qui défient l'establishment américain

    Les chiffres parlent d'eux-mêmes. Sur le benchmark SWE-bench Verified, qui évalue les capacités en ingénierie logicielle réelle, GLM-5 atteint un score de 77,8%, surpassant Gemini 3 Pro de Google (76,2%) et se rapprochant dangereusement de Claude Opus 4.5 qui culmine à 80,9%. Pour un modèle open source sous licence MIT, disponible librement et déployable sur infrastructure privée, c'est une prouesse sans précédent.

    Mais c'est sur le Terminal-Bench 2.0, qui simule des tâches complexes d'exécution longue durée, que GLM-5 affirme sa supériorité. Avec un score de 56,2%, il domine l'ensemble de la compétition open source et rivalise avec les systèmes propriétaires les plus avancés. Sur BrowseComp, benchmark mesurant les capacités de recherche web et de synthèse d'information à large échelle, GLM-5 affiche un score de 75,9%, se positionnant comme leader incontesté parmi les modèles à poids ouverts.


    Le Saint Graal de la fiabilité : son taux d'hallucination

    L'innovation la plus spectaculaire de GLM-5 réside dans son approche radicale du problème des hallucinations. Sur l'Artificial Analysis Intelligence Index v4.0, le modèle obtient un score de -1 sur l'AA-Omniscience Index, soit une amélioration de 35 points par rapport à son prédécesseur GLM-4.7. Ce score traduit une réduction de 56 points de pourcentage du taux d'hallucination.

    Concrètement, GLM-5 a appris à reconnaître ses limites : plutôt que d'inventer des réponses plausibles mais factuellement incorrectes, il choisit de s'abstenir lorsqu'il n'a pas l'information. Cette capacité à « savoir qu'il ne sait pas » place GLM-5 devant l'ensemble de l'industrie, y compris les modèles d'OpenAI, Google et Anthropic. Pour les entreprises opérant dans des secteurs critiques comme la santé, le juridique ou la finance, cette fiabilité accrue constitue un argument décisif.

    Nom : omni.png
Affichages : 20046
Taille : 295,0 Ko

    L'architecture technique : un monument d'ingénierie

    Derrière ces performances se cache une refonte architecturale majeure. GLM-5 passe de 355 milliards de paramètres (GLM-4.7) à 744 milliards, avec un volume de données de pré-entraînement qui bondit de 23 à 28,5 trillions de tokens. Cette expansion massive de l'échelle computationnelle a permis une amélioration significative de l'intelligence générale du modèle.

    L'innovation majeure réside dans le framework « Slime », un système d'apprentissage par renforcement asynchrone développé spécifiquement pour GLM-5. Ce framework permet au modèle d'apprendre continuellement à partir d'interactions longue durée, débloquant ainsi le plein potentiel des capacités pré-entraînées. Pour la première fois dans un modèle de cette envergure, Zhipu AI intègre également le mécanisme DeepSeek Sparse Attention (DSA), qui réduit drastiquement les coûts de déploiement tout en préservant les performances sur contextes longs.

    Le résultat ? Une fenêtre de contexte de 200 000 tokens et une capacité de génération maximale de 128 000 tokens, permettant de traiter et de produire des documents d'envergure professionnelle sans compromis sur la qualité.

    Nom : bench.png
Affichages : 2807
Taille : 130,1 Ko

    Le témoignage qui secoue Silicon Valley : GLM-5 trois fois plus rapide qu'Opus ?

    Au-delà des benchmarks aseptisés, un témoignage d'utilisateur a enflammé les réseaux sociaux et les forums spécialisés. Un développeur anonyme rapporte avoir soumis le même prompt de création d'application à Claude Opus 4.6 et à GLM-5 via le site z.ai. Les résultats sont intéressants :
    • Claude Opus 4.6 : 1 heure d'exécution, environ 11 erreurs nécessitant des corrections manuelles, application encore perfectible
    • GLM-5 : 28 minutes d'exécution, 3 erreurs seulement, application entièrement fonctionnelle en 40 minutes au total

    Ce témoignage, bien que non scientifique, résonne avec les retours d'une communauté croissante de développeurs qui adoptent GLM-5 pour leurs workflows de coding agentique. Sur les forums Reddit (r/LocalLLaMA, r/ClaudeAI) et sur les plateformes comme OpenRouter, les discussions témoignent d'un changement de paradigme : GLM-5 ne se contente pas de rivaliser avec les modèles propriétaires occidentaux, il les surpasse dans des scénarios d'usage réels.

    Martin Casado, General Partner chez Andreessen Horowitz, a publié une statistique révélatrice : parmi les startups qui pitchent avec des stacks open source, environ 80% utilisent désormais des modèles chinois. Sur OpenRouter, l'utilisation de modèles open source chinois est passée de quasiment zéro fin 2024 à près de 30% lors de certaines semaines récentes. Sur Hugging Face, la famille Qwen d'Alibaba a dépassé les modèles Llama de Meta en téléchargements cumulés, et une étude récente du MIT confirme que les modèles open source chinois ont surpassé les modèles américains en nombre total de téléchargements.


    Le revers de la médaille : les limites et controverses de GLM-5

    Malgré l'enthousiasme général, GLM-5 n'est pas exempt de critiques et de limitations structurelles.

    Une infrastructure exigeante : l'accessibilité en question

    Le paradoxe de GLM-5 tient dans sa promesse d'open source « accessible ». Théoriquement, n'importe qui peut télécharger les poids du modèle et le déployer. En pratique, la réalité est bien différente. Avec ses 744 milliards de paramètres, GLM-5 nécessite approximativement 1 490 Go de mémoire pour stocker les poids en précision native BF16.

    Pour le déployer en production, il faut soit disposer d'un cluster de GPUs haut de gamme (multiples H100 ou équivalents), soit accepter des quantifications agressives qui dégradent les performances, soit passer par une API tierce. Un analyste le résume brutalement : « Le modèle prouve que 'poids ouverts' ne signifie plus 'accessible'. Cela signifie transférer les coûts des factures API vers des budgets matériels que seules les équipes bien financées peuvent se permettre. »

    Des coûts d'inférence qui doublent

    Selon l'analyse de Kilo.ai, les coûts d'inférence de GLM-5 ont doublé par rapport à GLM-4.7. Le modèle traite certes plus rapidement (plus de 55 tokens par seconde selon Zhipu AI), mais cette vitesse ne compense pas nécessairement l'augmentation des coûts opérationnels pour certains cas d'usage.

    Conscience situationnelle limitée : un avertissement inquiétant

    Lukas Petersson, co-fondateur de la startup Andon Labs spécialisée dans les protocoles d'IA autonome sécurisée, a émis un avertissement troublant après avoir analysé pendant des heures les traces d'exécution de GLM-5 : « Un modèle incroyablement efficace, mais bien moins conscient de sa situation. Il atteint ses objectifs via des tactiques agressives mais ne raisonne pas sur sa situation et n'exploite pas l'expérience. C'est inquiétant. »

    Cette observation pointe vers une différence fondamentale de philosophie. Alors que les laboratoires occidentaux comme Anthropic optimisent pour la « profondeur de raisonnement », Zhipu AI optimise pour « l'exécution et l'échelle ». GLM-5 est conçu pour terminer le projet sans qu'on ait à le demander deux fois, quitte à adopter des approches plus directes et moins nuancées.

    Limitations multimodales et risques d'hallucination résiduels

    GLM-5 reste un modèle texte uniquement, contrairement à des concurrents comme Kimi K2.5 qui offrent des capacités multimodales (vision). Il est également moins token-efficient que Claude malgré une génération globale de moins de tokens. Et malgré les progrès spectaculaires, des risques d'hallucination subsistent.
    Des utilisateurs ont signalé, lors des tests sous le nom de code « Pony Alpha » avant le lancement officiel, des faux messages texte dans des démos UI et une dégradation graphique dans le contenu généré. Des rough edges typiques d'un modèle qui pousse les limites, mais qui questionnent néanmoins la maturité pour certains déploiements critiques.

    La dimension géopolitique : quand l'IA devient champ de bataille

    L'émergence de GLM-5 ne peut être dissociée du contexte géopolitique tendu qui structure la rivalité technologique sino-américaine.

    Zhipu AI sur la liste noire américaine : un catalyseur d'innovation

    Ironiquement, les restrictions américaines semblent avoir accéléré plutôt qu'entravé l'innovation chinoise. Lorsque Zhipu AI a été ajoutée à la Entity List américaine en janvier 2024, limitant son accès aux technologies américaines, beaucoup prédisaient que l'entreprise peine à maintenir son rythme d'innovation. Au lieu de cela, les sanctions ont stimulé le développement d'un écosystème domestique parallèle.

    Le 14 janvier 2026, Zhipu AI a lancé GLM-Image, le premier modèle génératif multimodal haute performance entraîné entièrement sur hardware domestique chinois, spécifiquement avec les processeurs IA Ascend 910C de Huawei. Ce jalon marque un tournant critique pour l'industrie IA chinoise, qui a passé les deux dernières années sous de lourdes restrictions d'exportation américaines.

    L'émancipation du matériel : vers une indépendance technologique totale

    Pendant que Nvidia tentait de maintenir sa présence en Chine avec des versions « bridées » de ses puces (comme la H20), l'ascension de l'Ascend 910C a rendu ces produits compromis moins attractifs. Pour les laboratoires IA chinois, le choix devient de plus en plus clair : entre une puce occidentale restreinte et une puce domestique bénéficiant du soutien gouvernemental direct et d'équipes d'ingénierie locales spécialisées.

    Les experts de la Beijing Academy of Artificial Intelligence (BAAI) soulignent que la transition de Zhipu vers une approche « full-stack domestique » marque la fin de la phase expérimentale pour l'IA chinoise, qui entre désormais dans une phase de production souveraine robuste.

    Les « AI Tigers » chinois : un écosystème en ébullition

    GLM-5 s'inscrit dans l'émergence de ce que le marché nomme les « AI Tigers » chinois : six licornes IA (StepFun, Zhipu AI, Moonshot, MiniMax, 01.AI, et Baichuan) qui bénéficient d'un soutien massif des autorités locales et régionales chinoises, chacune cherchant à soutenir son champion local.

    En janvier 2026, Zhipu AI et MiniMax ont levé plus de 1,1 milliard de dollars combinés lors de leurs IPO à Hong Kong. Ces introductions en bourse ont eu lieu avant que OpenAI et Anthropic ne déposent leurs propres IPO, marquant symboliquement un renversement de l'ordre établi. Les actions de Zhipu AI ont bondi de 34% lors de leur premier jour de cotation.

    Cette vague d'investissement reflète la confiance croissante du marché dans la capacité de la Chine à rivaliser globalement en intelligence artificielle, malgré les défis critiques. Tang Jie, fondateur et chief scientist de Zhipu AI, professeur à l'Université de Tsinghua, incarne cette nouvelle génération d'entrepreneurs chinois plus enclins à prendre des risques élevés, un trait autrefois associé exclusivement à Silicon Valley.

    La réponse culturelle : l'open source comme « politiquement correct »

    Liu Zhiyuan, professeur d'informatique à l'Université de Tsinghua et chief scientist chez la startup IA ModelBest, explique que "dans la communauté chinoise des programmeurs, l'open source est devenu politiquement correct". Il présente ce choix comme une réponse à la dominance américaine dans les systèmes IA propriétaires.

    Cette stratégie open source procure aux entreprises chinoises un avantage de confiance à long terme dans la communauté globale de l'IA. Même dans un contexte d'antagonisme croissant USA-Chine, l'adoption quasi-unanime de l'open source par les entreprises IA chinoises leur a valu de la bienveillance internationale.

    Sources : Z AI (1, 2), vidéos dans le texte

    Et vous ?

    Le témoignage rapportant que GLM-5 est trois fois plus rapide qu'Opus sur certaines tâches vous semble-t-il crédible, ou s'agit-il d'un cas isolé non représentatif ? Quelles sont vos propres expériences comparatives entre modèles chinois et occidentaux ?

    L'Europe peut-elle vraiment créer une « troisième voie » de l'IA face aux géants sino-américains, ou est-elle condamnée à rester un régulateur de technologies développées ailleurs ? Mistral AI et Aleph Alpha sont-ils des exceptions glorieuses ou des illusions d'indépendance ?

    L'open source a-t-il encore un sens quand un modèle comme GLM-5 nécessite 1 490 Go de RAM et des clusters de GPUs haut de gamme pour être déployé ? Les « poids ouverts » sont-ils devenus un argument marketing qui masque une inaccessibilité économique de fait ?

    Le taux d'hallucination record de GLM-5 compense-t-il son apparente « agressivité » et son manque de « conscience situationnelle » rapporté par certains experts en sécurité IA ? Dans quels cas d'usage cette combinaison serait-elle problématique, voire dangereuse ?

    En tant que développeur : avez-vous déjà intégré des modèles chinois (GLM, Qwen, DeepSeek, Kimi) dans vos workflows de production ? Si oui, quels ont été les gains et les frictions rencontrés ? Si non, qu'est-ce qui vous retient : confiance, conformité, habitude, ou autre chose ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    372
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 372
    Billets dans le blog
    1
    Par défaut
    J'ai testé le nouveau poulain avec ma batterie de tests, il échoue là où ChatGPT et Gemini n'échoue plus depuis au moins 6 mois. Copie à revoir !

  3. #3
    Membre chevronné
    Homme Profil pro
    Développeur Web
    Inscrit en
    Juin 2022
    Messages
    469
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 22
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Industrie

    Informations forums :
    Inscription : Juin 2022
    Messages : 469
    Par défaut
    "Batterie de test"

    Si tu le dis ...
    Un problème sans solution est un problème mal posé. (Albert Einstein)

  4. #4
    r0d
    r0d est déconnecté
    Membre expérimenté

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Août 2004
    Messages
    4 342
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Août 2004
    Messages : 4 342
    Billets dans le blog
    2
    Par défaut
    J'ai testé vite fait ça a l'air ok. Par contre il est super lent
    « [...] en ce qui concerne la doctrine selon laquelle les trois angles d'un triangle sont égaux à deux angles d'un carré, si elle avait été contraire au droit de dominer de quelqu'un, ou à l'intérêt de ceux qui dominent, je ne doute pas qu'elle eût été, sinon débattue, en tout cas éliminée en brûlant tous les livres de géométrie [...] »
    Thomas Hobbes, Léviathan, Chapitre 11

  5. #5
    Nouveau candidat au Club
    Homme Profil pro
    retraite
    Inscrit en
    Novembre 2024
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraite

    Informations forums :
    Inscription : Novembre 2024
    Messages : 4
    Par défaut
    Surlendemain de mardi gras ... Je viens de demander à GLM-5 et ses centaines de 10^9 de paramètres : "donne-moi la recette des bugnes". ... Elle cherche encore )
    NB : Perplexity, ChatGPT et les autres m'ont tous répondu. Jamais la même chose.

  6. #6
    Nouveau candidat au Club
    Homme Profil pro
    retraite
    Inscrit en
    Novembre 2024
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraite

    Informations forums :
    Inscription : Novembre 2024
    Messages : 4
    Par défaut bugnes-suite
    de guerre lasse, je laisse tomber.
    Je reviens 20 minutes après : corrigé !! J'obtiens une recette. Wahooo... c'est réactif )

Discussions similaires

  1. Anthropic lance son dernier modèle d'IA de « vibe working », Claude Opus 4.6
    Par Anthony dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 06/02/2026, 11h21
  2. Réponses: 7
    Dernier message: 14/08/2025, 15h23
  3. Réponses: 0
    Dernier message: 11/08/2025, 14h30
  4. Réponses: 36
    Dernier message: 03/06/2024, 14h54
  5. Réponses: 8
    Dernier message: 03/05/2024, 10h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo