IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La société chinoise d'IA Z.ai annonce son LLM partenaire de codage avancé GLM-4.7


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    460
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 460
    Par défaut La société chinoise d'IA Z.ai annonce son LLM partenaire de codage avancé GLM-4.7
    La société chinoise d'IA Z.ai annonce son LLM partenaire de codage avancé GLM-4.7 avec les agents Core Coding, Vibe Coding et Complex Reasoning, comparable à GPT, Claude, Gemini et Deepseek.

    La société chinoise d'IA Z.ai annonce son LLM partenaire de codage avancé GLM-4.7. Le nouveau partenaire de codage est doté des fonctionnalités suivantes : Codage de base, Vibe Coding, utilisation des outils et raisonnement complexe. Vous pouvez également constater des améliorations dans de nombreux autres scénarios tels que le chat, l'écriture créative et les jeux de rôle.

    Beijing Zhipu Huazhang Technology Co., Ltd, connue internationalement sous le nom de Z.ai, est une entreprise technologique chinoise spécialisée dans l'intelligence artificielle (IA). L'entreprise était auparavant connue sous le nom de Zhipu AI en dehors de la Chine jusqu'à son changement de marque en 2025. En 2024, elle est l'une des entreprises chinoises " AI Tiger " selon les investisseurs et considérée comme le troisième acteur du marché LLM dans l'industrie de l'IA en Chine selon l'International Data Corporation. En janvier 2025, le département du Commerce des États-Unis a inscrit l'entreprise sur la liste noire de sa liste d'entités en raison de préoccupations liées à la sécurité nationale.

    En juillet 2025, Zhipu AI a publié GLM-4.5 et GLM-4.5 Air, ses modèles de langage de nouvelle génération, qui ont obtenu des résultats supérieurs à plusieurs critères de référence populaires. Parallèlement à la publication de ses modèles, l'entreprise s'est rebaptisée Z.ai au niveau international. En août 2025, Z.ai a annoncé que ses modèles GLM étaient compatibles avec les processeurs Ascend de Huawei. Le 11 août 2025, Z.ai a publié un nouveau modèle de langage de vision (VLM) avec un total de 106B paramètres, GLM-4.5V, atteignant SOTA contre d'autres VLM open-source tels que Qwen2.5-VL d'Alibaba et Step-3 de StepFun. Fin septembre 2025, la société a publié GLM 4.6 en utilisant des puces nationales chinoises telles que celles de Cambricon Technologies.

    Récemment, GLM-4.7 a été annoncé par Z.ai. Le nouveau partenaire de codage est doté des fonctionnalités suivantes :

    - Codage de base : GLM-4.7 apporte de nets progrès, par rapport à son prédécesseur GLM-4.6, dans le codage agentique multilingue et les tâches basées sur les terminaux, notamment (73,8%, +5,8%) sur SWE-bench, (66,7%, +12,9%) sur SWE-bench Multilingual, et (41%, +16,5%) sur Terminal Bench 2.0. GLM-4.7 permet également de réfléchir avant d'agir, avec des améliorations significatives sur des tâches complexes dans des cadres d'agents courants tels que Claude Code, Kilo Code, Cline et Roo Code.

    - Vibe Coding : GLM-4.7 fait un grand pas en avant dans la qualité de l'interface utilisateur. Il produit des pages web plus propres et plus modernes et génère des diapositives de meilleure qualité avec une mise en page et un dimensionnement plus précis.

    - Utilisation des outils : GLM-4.7 apporte des améliorations significatives dans l'utilisation des outils. De meilleures performances peuvent être observées sur des benchmarks tels que τ^2-Bench et sur la navigation web via BrowseComp.

    - Raisonnement complexe : GLM-4.7 apporte une amélioration substantielle des capacités mathématiques et de raisonnement, atteignant (42.8%, +12.4%) sur le benchmark HLE (Humanity's Last Exam) par rapport à GLM-4.6.

    Vous pouvez également constater des améliorations dans de nombreux autres scénarios tels que le chat, l'écriture créative et les jeux de rôle.

    Nom : 1.jpg
Affichages : 12377
Taille : 87,0 Ko

    Benchmark des performances : Des comparaisons plus détaillées de GLM-4.7 avec d'autres modèles GPT-5, GPT-5.1-High, Claude Sonnet 4.5, Gemini 3.0 Pro, DeepSeek-V3.2, Kimi K2 Thinking, sur 17 benchmarks (dont 8 benchmarks de raisonnement, 5 de codage, et 3 d'agents) peuvent être vues dans le tableau ci-dessous.

    Nom : 2.jpg
Affichages : 3056
Taille : 91,8 Ko

    Codage : L'AGI est un long voyage, et les tests ne sont qu'un moyen d'évaluer les performances. Bien que les mesures fournissent des points de contrôle nécessaires, la chose la plus importante reste la sensation que l'on éprouve. La véritable intelligence ne consiste pas seulement à réussir un test ou à traiter des données plus rapidement ; en fin de compte, le succès de l'AGI sera mesuré par la fluidité avec laquelle elle s'intégrera dans nos vies - en « codant » cette fois.


    Démarrer avec GLM-4.7

    Pensée entrelacée et pensée préservée

    GLM-4.7 améliore la pensée entrelacée, une fonctionnalité introduite depuis GLM-4.5, et introduit en outre la pensée préservée et la pensée à niveau tournant. En réfléchissant entre les actions et en restant cohérent d'un tour à l'autre, il rend les tâches complexes plus stables et plus contrôlables :

    - Pensée entrelacée : GLM-4.7 réfléchit avant chaque réponse et chaque appel d'outil, ce qui améliore le suivi des instructions et la qualité de la génération.

    - Pensée préservée : Dans les scénarios d'agents de codage, GLM-4.7 conserve automatiquement tous les blocs de réflexion dans les conversations à plusieurs tours, en réutilisant le raisonnement existant au lieu de le redévelopper à partir de zéro. Cela réduit la perte d'informations et les incohérences, et est bien adapté aux tâches complexes à long terme.

    - Réflexion au niveau du tour : GLM-4.7 prend en charge le contrôle par tour du raisonnement au sein d'une session - désactiver le raisonnement pour les requêtes légères afin de réduire la latence/le coût, l'activer pour les tâches complexes afin d'améliorer la précision et la stabilité.

    Nom : 3.jpg
Affichages : 3021
Taille : 45,3 Ko

    Appeler l'API GLM-4.7 via la plateforme API de Z.ai : La plateforme API de Z.ai offre le modèle GLM-4.7. Parallèlement, le modèle est également disponible dans le monde entier par l'intermédiaire d'OpenRouter.

    Utiliser GLM-4.7 avec les agents de codage : GLM-4.7 est maintenant disponible pour être utilisé avec les agents de codage (Claude Code, Kilo Code, Roo Code, Cline et autres).

    Pour les abonnés du Plan de codage GLM : Vous serez automatiquement mis à niveau vers GLM-4.7. Si vous avez précédemment personnalisé les configurations de l'application (comme ~/.claude/settings.json dans Claude Code), mettez simplement à jour le nom du modèle en « glm-4.7 » pour terminer la mise à niveau.

    Pour les nouveaux utilisateurs : S'abonner à GLM Coding Plan signifie avoir accès à un modèle de codage de niveau Claude pour une fraction du coût - juste 1/7ème du prix avec 3x le quota d'utilisation.

    Chat avec GLM-4.7 sur Z.ai : GLM-4.7 est accessible via Z.ai. Essayez de changer l'option du modèle en GLM-4.7, si le système ne le fait pas automatiquement (ce n'est pas comme un AGI dans ce cas ).

    Servir GLM-4.7 localement : Les poids des modèles pour GLM-4.7 sont disponibles publiquement sur HuggingFace et ModelScope. Pour un déploiement local, GLM-4.7 supporte des cadres d'inférence tels que vLLM et SGLang. Des instructions de déploiement complètes sont disponibles dans le dépôt officiel GitHub.

    Source : Accéder à GLM-4.7 avec le chat sur Z.ai

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'adoption mondiale des modèles d'IA open source chinois a presque triplé, passant de 13 % à environ 30 % de l'utilisation totale en 2025, sous l'impulsion de DeepSeek et de Qwen d'Alibaba

    « La Chine va remporter la course à l'IA » en raison de la réglementation excessive des USA, tandis que la Chine bénéficie de coûts moins élevés pour les développeurs locaux, a déclaré le PDG de Nvidia

    « L'IA superintelligente est un fantasme de la Silicon Valley. L'AGI ne se produira jamais en raison des limites du matériel informatique et des coûts exponentiels du calcul », selon un chercheur de l'Ai2
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Invité de passage
    Homme Profil pro
    Consultant en technologies
    Inscrit en
    Décembre 2025
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Saône (Franche Comté)

    Informations professionnelles :
    Activité : Consultant en technologies

    Informations forums :
    Inscription : Décembre 2025
    Messages : 1
    Par défaut Plus personnes ne sais faire de Graphiques ?!
    C'est de pire en pire, même ce site se rabaisse à proposer des graphiques biaisé pour «améliorer virtuellement le produit» ; pour le premier graphique :
    Le produit montre l'évolution📈 de sa version, mais, par contre, il ne montre pas celle des autres IA (pourtant ses données sont disponibles) ; peut être que son «amelioration» n'est pas si flagrante que ça...
    Les concurrents sont tous en gris, même si ils possèdent des notes supérieure 🤔

    Pour le tableaux de données suivant, pourquoi afficher des nombres sans mettre une échelle de couleurs (vert → rouge) pour classer facilement chaques lignes‽ Oui, ça sera beaucoup moins flatteur pour le produit, mais ça ne sera plus de la mauvaise foi...

    P.S. : Merci à Defakator pour l'entraînement à la reconnaissance des Faux et usages de Faux 😊

Discussions similaires

  1. NVIDIA annonce son moteur de lancer de rayon NVIRT
    Par TanEk dans le forum Développement 2D, 3D et Jeux
    Réponses: 5
    Dernier message: 08/03/2011, 09h16
  2. Réponses: 105
    Dernier message: 11/10/2009, 00h12
  3. NOVELL annonce son soutien à Google Chrome OS
    Par Marc Lussac dans le forum Actualités
    Réponses: 1
    Dernier message: 17/07/2009, 15h33

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo