NVIDIA lance le processeur Vera, le premier processeur spécialement conçu pour les charges de travail d'IA agentique, offrant une efficacité deux fois supérieure et des performances 50 % plus rapides

Nvidia a annoncé le processeur Vera ainsi que sa plateforme Vera Rubin lors de la conférence GTC 2026, combinant de nouveaux composants matériels (processeur, carte graphique, réseau et stockage) au sein d’une architecture à l’échelle de rack destinée à l’IA agentique, à l’apprentissage par renforcement et à l’inférence. Les spécifications sont impressionnantes : une efficacité deux fois supérieure et des performances 50 % plus rapides que les processeurs traditionnels à l’échelle de rack, selon l’annonce de Nvidia. Alors que des concurrents comme Intel et AMD continuent d'affiner leurs puces pour serveurs à usage général, Nvidia parie que les agents autonomes ont besoin de puces fondamentalement différentes.

Nvidia Corporation est une entreprise technologique américaine dont le siège social est situé à Santa Clara, en Californie. Fondée en 1993 par Jensen Huang, Chris Malachowsky et Curtis Priem, elle développe des processeurs graphiques (GPU), des systèmes sur puce (SoC) et des interfaces de programmation d'applications (API) destinés à la science des données, au calcul haute performance, aux jeux vidéo, ainsi qu'aux applications mobiles et automobiles.

Initialement axée sur les GPU destinés aux jeux vidéo, Nvidia a élargi leur utilisation à d'autres marchés, notamment l'intelligence artificielle (IA), la visualisation professionnelle et le calcul intensif. Au premier trimestre 2025, Nvidia détenait 92 % des parts du marché des GPU discrets pour ordinateurs de bureau et portables. Nvidia vient de faire son geste le plus audacieux à ce jour au-delà des GPU.

Le fabricant de puces a récemment dévoilé le processeur Vera, le présentant comme le premier processeur au monde spécialement conçu pour l’IA agentique et l’apprentissage par renforcement. Les spécifications sont impressionnantes : une efficacité deux fois supérieure et des performances 50 % plus rapides que les processeurs traditionnels à l’échelle de rack, selon l’annonce de Nvidia. Ce lancement marque l’entrée stratégique de Nvidia sur le marché des processeurs IA spécialisés, alors que les agents autonomes deviennent une infrastructure d’entreprise.

Nom : 1.jpg
Affichages : 3794
Taille : 89,0 Ko

Alors que des concurrents comme Intel et AMD continuent d'affiner leurs puces pour serveurs à usage général, Nvidia parie que les agents autonomes ont besoin de puces fondamentalement différentes. Le timing révèle la lecture que fait Nvidia du marché. Alors qu'OpenAI, Anthropic et Google ont démontré des agents IA de plus en plus performants dans des contextes de recherche, 2026 marque l'année où les entreprises ont réellement commencé à les déployer à grande échelle. Des bots de service client qui gèrent l'intégralité des workflows de résolution, des assistants de codage qui déboguent et déploient de manière autonome, des agents de chaîne d'approvisionnement qui renégocient les contrats : ce ne sont plus des démonstrations.

Nvidia a annoncé le processeur Vera ainsi que sa plateforme Vera Rubin lors de la conférence GTC 2026, combinant de nouveaux composants matériels (processeur, carte graphique, réseau et stockage) au sein d’une architecture à l’échelle de rack destinée à l’IA agentique, à l’apprentissage par renforcement et à l’inférence. La société décrit Vera comme son premier processeur spécialement conçu pour ces charges de travail, tandis que Vera Rubin regroupe sept puces et plusieurs types de racks au sein d’une plateforme modulaire destinée aux usines d’IA.

Vera intègre 88 cœurs NVIDIA Olympus personnalisés, chaque cœur étant capable d'exécuter deux tâches grâce à ce que NVIDIA appelle le « Spatial Multithreading ». La puce utilise une mémoire LPDDR5X et offre jusqu'à 1,2 To/s de bande passante mémoire. NVIDIA affirme que Vera est 50 % plus rapide et deux fois plus efficace que les processeurs traditionnels à l'échelle d'un rack, et qu'associée aux GPU Rubin via NVLink-C2C, elle peut atteindre 1,8 To/s de bande passante cohérente, bien au-delà du PCIe Gen 6.

Nom : 2.jpg
Affichages : 863
Taille : 56,4 Ko

NVIDIA présente également un rack de processeurs Vera composé de 256 processeurs refroidis par liquide. Selon l'entreprise, un seul rack peut prendre en charge plus de 22 500 environnements CPU simultanés à pleine performance, ciblant l'orchestration, l'inférence agentique, l'apprentissage par renforcement, le traitement des données, la gestion du stockage et les charges de travail HPC. Les serveurs basés sur Vera intégreront également des SuperNIC ConnectX et des DPU BlueField-4, avec des systèmes à un ou deux sockets prévus par les partenaires.

La plateforme Vera Rubin élargie ajoute des racks de GPU Rubin NVL72, des racks de stockage BlueField-4 STX, des racks Ethernet Spectrum-6 SPX et un nouveau rack d'inférence LPX. NVIDIA indique que la conception du NVL72 combine 72 GPU Rubin et 36 CPU Vera, et permet de former des modèles « mixture-of-experts » avec quatre fois moins de GPU que ceux requis par Blackwell, tout en offrant un débit d'inférence par watt jusqu'à 10 fois supérieur et un coût par token dix fois inférieur.

La société a également présenté les logiciels DSX Max-Q et DSX Flex, qui, selon elle, peuvent améliorer la répartition de l'énergie au sein des usines d'IA et élargir les options de déploiement dans les centres de données soumis à des contraintes énergétiques.

La prise en charge de la plateforme s'étend aux fournisseurs de cloud, aux laboratoires d'IA et aux fabricants de serveurs. NVIDIA a cité Amazon Web Services, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure, Alibaba, ByteDance, CoreWeave, Lambda, Nebius, OpenAI, Anthropic, Meta et Mistral AI parmi les entreprises travaillant avec les systèmes Vera ou Vera Rubin. Côté matériel, Dell, HPE, Lenovo, Supermicro, ASUS, Foxconn, GIGABYTE, QCT, Wistron et Wiwynn font partie des partenaires qui fourniront des systèmes. NVIDIA précise que Vera est déjà en pleine production et que les systèmes seront disponibles auprès des partenaires à partir du second semestre 2026.

Nom : 3.jpg
Affichages : 866
Taille : 53,7 Ko

Voici l'annonce de Nvidia :

NVIDIA lance le processeur Vera, spécialement conçu pour l'IA agentique

NVIDIA a lancé aujourd’hui le processeur NVIDIA Vera, le premier processeur au monde spécialement conçu pour l’ère de l’IA agentique et de l’apprentissage par renforcement — offrant des résultats deux fois plus efficaces et 50 % plus rapides que les processeurs traditionnels à l’échelle des racks.

À mesure que le raisonnement et l’IA agentique progressent, l’échelle, les performances et les coûts dépendent de plus en plus de l’infrastructure qui prend en charge les modèles chargés de planifier les tâches, d’exécuter les outils, d’interagir avec les données, d’exécuter le code et de valider les résultats.

Le processeur NVIDIA Vera s’appuie sur le succès du processeur NVIDIA Grace™, permettant aux organisations de toutes tailles et de tous secteurs de créer des « usines d’IA » qui libèrent le potentiel de l’IA agentique à grande échelle. Avec les performances monothread et la bande passante par cœur les plus élevées du marché, Vera est une nouvelle catégorie de processeurs qui offre un débit, une réactivité et une efficacité accrus pour les services d’IA à grande échelle tels que les assistants de codage, ainsi que pour les agents grand public et d’entreprise.

Parmi les principaux hyperscalers collaborant avec NVIDIA pour déployer Vera figurent Alibaba, CoreWeave, Meta et Oracle Cloud Infrastructure, ainsi que les fabricants mondiaux de systèmes Dell Technologies, HPE, Lenovo, Supermicro et d’autres. Cette adoption à grande échelle établit Vera comme la nouvelle norme en matière de processeurs pour les charges de travail d’IA qui comptent le plus pour les développeurs, les start-ups, les institutions publiques et privées et les entreprises — contribuant ainsi à démocratiser l’accès à l’IA et à accélérer l’innovation.

« Vera arrive à un tournant pour l'IA. À mesure que l'intelligence devient agentique — capable de raisonner et d'agir —, l'importance des systèmes orchestrant ce travail s'accroît », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Le processeur ne se contente plus de prendre en charge le modèle ; il le pilote. Grâce à des performances et une efficacité énergétique révolutionnaires, Vera permet de déployer des systèmes d'IA qui réfléchissent plus vite et s'étendent plus loin. »

Nom : 4.jpg
Affichages : 532
Taille : 23,5 Ko

Configurable pour tous les centres de données

NVIDIA a annoncé un nouveau rack de processeurs Vera intégrant 256 processeurs Vera refroidis par liquide pour prendre en charge plus de 22 500 environnements CPU simultanés, chacun fonctionnant de manière indépendante à pleine puissance. Les usines d’IA peuvent rapidement déployer et évoluer vers des dizaines de milliers d’instances simultanées et d’outils autonomes dans un seul rack.

Le nouveau rack Vera est construit à partir de l’architecture de référence modulaire NVIDIA MGX™, soutenue par 80 partenaires de l’écosystème à travers le monde.

Dans le cadre de la plateforme NVIDIA Vera Rubin NVL72, les processeurs Vera sont couplés à des GPU NVIDIA via la technologie d'interconnexion NVIDIA NVLink™-C2C, avec une bande passante cohérente de 1,8 To/s — soit 7 fois celle du PCIe Gen 6 — pour un partage de données à haut débit entre les processeurs et les GPU. De plus, NVIDIA a présenté de nouvelles conceptions de référence utilisant Vera comme processeur hôte pour les systèmes NVIDIA HGX™ Rubin NVL8, coordonnant le transfert de données et le contrôle du système pour les charges de travail accélérées par GPU.

Les partenaires des systèmes Vera proposent des configurations de serveurs à processeur double ou simple socket, optimisées pour des charges de travail telles que l'apprentissage par renforcement, l'inférence agentique, le traitement des données, l'orchestration, la gestion du stockage, les applications cloud et le calcul haute performance.

Dans toutes les configurations, les systèmes Vera intègrent des cartes NVIDIA ConnectX® SuperNIC et des DPU NVIDIA BlueField®-4 pour accélérer la mise en réseau, le stockage et la sécurité, éléments essentiels à l'IA agentique. Cela permet aux clients d'optimiser leurs charges de travail spécifiques tout en conservant une pile logicielle unique sur l'ensemble de la plateforme NVIDIA.

Conçu pour l'évolutivité agentique

En combinant des cœurs de processeur hautes performances et économes en énergie, un sous-système de mémoire à large bande passante et la deuxième génération de NVIDIA Scalable Coherency Fabric, Vera permet des réponses agentiques plus rapides dans les conditions d’utilisation extrêmes courantes pour l’IA agentique et l’apprentissage par renforcement.

Vera intègre 88 cœurs Olympus personnalisés conçus par NVIDIA, offrant des performances élevées pour les compilateurs, les moteurs d’exécution, les pipelines d’analyse, les outils agentiques et les services d’orchestration. Chaque cœur peut exécuter deux tâches à la fois, grâce à la technologie NVIDIA Spatial Multithreading, pour offrir des performances constantes et prévisibles — une solution idéale pour les usines d’IA multi-locataires exécutant de nombreuses tâches simultanément.

Pour améliorer encore l’efficacité énergétique, Vera intègre la deuxième génération du sous-système de mémoire basse consommation de NVIDIA, désormais basé sur la mémoire LPDDR5X et offrant jusqu’à 1,2 To/s de bande passante — soit deux fois plus de bande passante et deux fois moins de consommation d’énergie par rapport aux processeurs à usage général.

Prise en charge étendue de l'écosystème

Cursor, pionnier du développement de logiciels natifs pour l'IA, adopte NVIDIA Vera afin d'améliorer les performances de ses agents de codage IA.

« Nous sommes ravis d'utiliser les processeurs NVIDIA Vera pour améliorer le débit global et l'efficacité, afin de pouvoir offrir à nos clients des expériences d'agents de codage plus rapides et plus réactives », a déclaré Michael Truell, cofondateur et PDG de Cursor.

Redpanda, une plateforme de données en streaming et d’IA de premier plan, utilise Vera pour améliorer considérablement ses performances.

« Redpanda a récemment testé NVIDIA Vera avec des charges de travail compatibles Apache Kafka et a constaté des performances nettement supérieures à celles des autres systèmes que nous avons comparés, avec une latence jusqu’à 5,5 fois plus faible », a déclaré Alex Gallego, fondateur et PDG de Redpanda. « Vera représente une nouvelle orientation dans l’architecture des processeurs, avec plus de mémoire et moins de surcharge par cœur, ce qui permet à nos clients de faire évoluer les charges de travail de streaming en temps réel plus loin que jamais et de débloquer de nouvelles applications d’IA et d’agents. »

Parmi les laboratoires nationaux prévoyant de déployer les processeurs Vera figurent le Leibniz Supercomputing Centre, le Los Alamos National Laboratory, le National Energy Research Scientific Computing Center du Lawrence Berkeley National Laboratory et le Texas Advanced Computing Center (TACC).

« Au TACC, nous avons récemment testé la plateforme de processeurs Vera de NVIDIA dans le cadre de la préparation du déploiement de notre futur système Horizon. En exécutant six de nos applications scientifiques, nous avons obtenu des premiers résultats impressionnants », a déclaré John Cazes, directeur du calcul haute performance au TACC. « Les performances par cœur et la bande passante mémoire de Vera représentent un pas de géant pour le calcul scientifique, et nous sommes impatients de proposer des nœuds basés sur Vera à nos utilisateurs de processeurs sur Horizon plus tard cette année. »

Parmi les principaux fournisseurs de services cloud qui prévoient de déployer les processeurs Vera, on trouve Alibaba, ByteDance, Cloudflare, CoreWeave, Crusoe, Lambda, Nebius, Nscale, Oracle Cloud Infrastructure, Together.AI et Vultr.

Parmi les principaux fournisseurs d'infrastructures adoptant les processeurs Vera, on trouve Aivres, ASRock Rack, ASUS, Compal, Cisco, Dell, Foxconn, GIGABYTE, HPE, Hyve, Inventec, Lenovo, MiTAC, MSI, Pegatron, Quanta Cloud Technology (QCT), Supermicro, Wistron et Wiwynn.

Source : NVIDIA

Et vous ?

Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le PDG de Nvidia, Jensen Huang, annonce que Nvidia se retire d'OpenAI et d'Anthropic, et n'investira plus dans les laboratoires d'IA, en prévision de l'éclatement de la bulle IA

L'IA agentique va dominer l'augmentation des budgets informatiques au cours des 5 prochaines années, dépassant 26 % des dépenses informatiques mondiales et atteignant 1 300 milliards de $ en 2029, d'après IDC

Les dépenses en infrastructure IA ont atteint un niveau record de 86 milliards $ au troisième trimestre 2025, les coûts liés aux serveurs représentant près de 98 %
Une croissance supérieure à 30 % par an