Nvidia dévoile la GPU Blackwell B200, la "puce la plus puissante au monde" pour l'IA, qui "réduit les coûts et la consommation d'énergie jusqu'à 25 fois" par rapport à un H100, selon Nvidia.
Lors de son premier événement GTC en personne depuis près de cinq ans, Nvidia a dévoilé sa nouvelle architecture GPU Blackwell, le successeur tant annoncé de la plateforme Hopper du géant des puces d'IA, et a annoncé de nouveaux sommets en termes de performances et d'efficacité avec les prochaines puces B100, B200 et GB200. Nvidia affirme qu'elle permettra des performances d'inférence jusqu'à 30 fois supérieures et consommera 25 fois moins d'énergie pour les modèles d'IA massifs.
Lors de son premier événement GTC en personne depuis près de cinq ans, la société basée à Santa Clara, en Californie, a dévoilé les premiers modèles de GPU utilisant l'architecture Blackwell, qui, selon elle, est accompagnée de "six technologies transformatrices pour l'accélération du calcul" qui "aideront à débloquer des percées" dans des domaines tels que l'IA générative et le traitement des données, entre autres.
Les modèles devraient arriver dans le courant de l'année, mais l'entreprise n'a pas donné d'autres précisions sur le calendrier. Les fournisseurs de services cloud qui devraient proposer des instances basées sur Blackwell comprennent Amazon Web Services, Microsoft Azure, Google Cloud et Oracle Cloud Infrastructure, ainsi que plusieurs autres acteurs, comme Lambda, CoreWeave et IBM Cloud. Du côté des serveurs, Cisco Systems, Dell Technologies, Hewlett Packard Enterprise, Lenovo et Supermicro devraient proposer une pléthore de systèmes basés sur Blackwell. Parmi les autres équipementiers prenant en charge les GPU, citons ASRock Rack, Asus, Eviden et Gigabyte.
Blackwell est la première mise à jour de l'architecture de Nvidia pour les GPU de centres de données depuis que des applications d'IA générative telles que ChatGPT et Stable Diffusion ont été mises en ligne en 2022 et ont déclenché une nouvelle vague d'engouement et de dépenses pour le développement de l'IA, ce qui a profité aux partenaires de distribution investissant dans de telles capacités.
La manie a bien payé jusqu'à présent pour Nvidia, dont les GPU ont été les principaux moteurs pour l'entraînement et l'exécution des modèles derrière de telles applications. Cela s'est traduit par une demande élevée et soutenue de GPU tels que le H100 et les systèmes associés, qui ont joué un rôle majeur dans le fait que la société a plus que doublé son chiffre d'affaires l'année dernière pour atteindre 60,9 milliards de dollars, dépassant celui d'Intel.
Les modèles Blackwell comprennent le B100, le B200 et le GB200
Les premiers modèles confirmés à utiliser Blackwell sont les GPU B100 et B200, qui succèdent respectivement aux modèles H100 et H200 basés sur Hopper pour les systèmes à base de x86. Le B200 devrait disposer d'une capacité de mémoire à large bande passante supérieure à celle du B100.
Les conceptions initiales incluent également le GB200 Grace Blackwell Superchip, qui, sur un seul boîtier, connecte une GPU B200 avec le processeur Grace à 72 cœurs basé sur Arm de la société, qui a été précédemment associé aux H200 et H100. Mais alors que les superpuces Grace Hopper combinent un seul processeur Grace avec une GPU Hopper, la superpuce Grace Blackwell combine un seul processeur Grace avec deux GPU Blackwell, ce qui augmente considérablement l'échelle des performances par rapport à la première génération.
C'est avec le GB200 que Nvidia voit Blackwell briller lorsqu'il s'agit des charges de travail d'IA les plus exigeantes, en particulier les modèles d'IA massifs et complexes appelés Mixture-of-Experts qui combinent plusieurs modèles, poussant le nombre de paramètres à plus de 1 000 milliards. Dans un système refroidi par liquide avec 18 GB200, Nvidia a déclaré que les 36 GPU Blackwell du système sont capables de fournir des performances d'inférence de grands modèles de langage jusqu'à 30 fois plus rapides par rapport à un système refroidi par air avec 64 GPU H100.
Alors que Nvidia promet des avancées significatives en matière d'inférence, d'efficacité énergétique et de réduction des coûts, l'énergie requise pour les configurations les plus puissantes de Blackwell augmente également. La société a déclaré que Blackwell peut être configuré à partir de 700 watts, ce qui était le maximum de Hopper et est le maximum pour le facteur de forme HGX B100 refroidi par air, jusqu'à 1200 watts, ce qui est exigé du GB200 pour une nouvelle architecture à l'échelle du rack refroidi par liquide.
Blackwell embarque 208 milliards de transistors
Marquant un changement dans les conceptions de Nvidia pour les GPU des centres de données, Blackwell combine "deux des plus grandes matrices possibles" sur un seul boîtier, selon la société. Ces puces sont connectées par un lien puce à puce de 10 TB/s, ce qui leur permet de fonctionner comme une "GPU unique et unifiée sans les inconvénients des chiplets en matière de comportement des programmes", a ajouté Nvidia. Cela porte le nombre de transistors de la GPU à 208 milliards, soit une augmentation considérable de 160 % par rapport au H100.
Cette conception a été rendue possible grâce à un processus de fabrication 4NP à limite de deux particules, conçu sur mesure par le géant de la fonderie TSMC, que Nvidia a qualifié de "technologie révolutionnaire" de Blackwell.
Un porte-parole de Nvidia a déclaré que "Blackwell n'est pas un design chiplet", une méthodologie pour connecter des puces plus petites dans un boîtier qui a été adoptée par AMD pendant des années, y compris pour ses GPU de centre de données Instinct MI300, et plus récemment adoptée par Intel pour une gamme plus large de produits, y compris ses GPU de centre de données de la série Max.
NVIDIA GB200 Grace Blackwell Superchip
Le moteur Transformer de 2e génération aide Blackwell à accélérer l'IA
En ce qui concerne les performances de l'IA, les GPU Blackwell sont capables d'effectuer jusqu'à 20 pétaflops, soit 20 quadrillions de calculs par seconde, selon Ian Buck, vice-président de l'hyperscale et du calcul à haute performance chez Nvidia. Cette performance a été mesurée à l'aide d'un nouveau format numérique appelé virgule flottante à quatre bits (FP4), dont la précision est inférieure à celle du format FP8 introduit par le prédécesseur de Blackwell, Hopper, et utilisé pour fournir 4 pétaflops dans chaque H100.
Selon M. Buck, le FP4 permet à Blackwell de fournir deux fois plus de calculs et de bande passante que Hopper lorsqu'il utilise le FP8, et il permet également de doubler la taille d'un modèle d'intelligence artificielle pouvant tenir sur une seule GPU. "Atteindre ce niveau de granularité fine est un miracle en soi", a déclaré M. Buck lors d'une réunion d'information.
Cela a été rendu possible grâce au Transformer Engine de deuxième génération de Blackwell, qui a été introduit dans Hopper pour accélérer les modèles basés sur l'architecture transformatrice qui domine le monde de l'IA aujourd'hui, tels que les grands modèles de langage et les modèles de diffusion. Tel qu'il a été conçu à l'origine, le moteur Transformer "suit la précision de chaque couche de chaque unité de calcul tensoriel" dans la GPU, selon M. Buck. Lorsque la GPU entraîne un modèle, le moteur "surveille en permanence les plages de chaque couche et s'adapte pour rester dans les limites de la précision numérique afin d'obtenir les meilleures performances", a-t-il ajouté. Appelée l'une des "six technologies révolutionnaires" de Blackwell, la deuxième génération du moteur peut rendre la surveillance encore plus granulaire grâce à la "mise à l'échelle micro-tensorielle", qui permet au moteur d'examiner les "éléments individuels au sein du tenseur", a déclaré M. Buck.
Ce qui aide également Blackwell à atteindre 20 pétaflops dans une seule GPU est la bibliothèque logicielle open-source TensorRT-LLM de Nvidia, que la société a lancée l'année dernière pour doubler l'inférence de grands modèles de langage dans un H100, et le cadre NeMo Megatron pour l'entraînement de ces modèles.
La 5e génération de NVLink permet une liaison à grande vitesse entre 576 GPU
La cinquième génération de l'interconnexion puce à puce NVLink, qui permet aux GPU de communiquer entre eux, est une autre mise à jour technologique importante pour Blackwell, présentée par Nvidia. La nouvelle génération permet d'atteindre un débit bidirectionnel par GPU de 1,8 TB/s, soit le double des 900 GB/s que Hopper permettait avec la quatrième génération de NVLink. Elle augmente également considérablement le nombre de GPU pouvant communiquer entre eux à ces vitesses, ce qui permet une "communication transparente à grande vitesse" entre un maximum de 576 GPU. Il s'agit d'un grand pas en avant par rapport à la prise en charge maximale de 256 GPU qui était possible avec NVLink dans Hopper.
Buck a déclaré que cela résout un goulot d'étranglement croissant pour les grandes grappes de GPU qui exécutent des modèles d'IA massifs, comme un modèle de mélange d'experts de 1 800 milliards de paramètres qui contient plusieurs modèles travaillant ensemble pour exécuter des fonctions complexes et fournir de meilleures réponses. "Si vous exécutez un modèle comme GPT[-4], qui, avec 1 800 milliards de paramètres, est un mélange d'experts, vous pouvez passer jusqu'à 60 % de votre temps à communiquer les données, et seulement 40 % à faire du calcul", a déclaré M. Buck à propos d'un scénario avec les GPU Hopper de Nvidia.
Les autres mises à jour de Blackwell comprennent le moteur RAS et l'informatique confidentielle
Les autres mises à jour technologiques majeures de Blackwell sont les suivantes :
- Un moteur RAS dédié aux fonctions de fiabilité, de disponibilité et de facilité d'entretien. Ce type de fonctionnalités se retrouve traditionnellement dans les processeurs de serveurs tels que les puces Xeon d'Intel. La version RAS de Nvidia comprend également des fonctions de maintenance préventive basées sur l'IA au niveau de la puce afin de réduire les temps d'arrêt pour les déploiements massifs.
- Des capacités informatiques confidentielles avancées qui "protègent les modèles d'IA et les données des clients sans compromettre les performances". Ces capacités comprennent la prise en charge de "nouveaux protocoles de cryptage d'interface natifs".
- Un moteur de décompression dédié qui accélère les requêtes de base de données pour les applications d'analyse et de science des données, que Nvidia a qualifiées de cibles croissantes pour les GPU.
NVIDIA GB200 NVL72
Blackwell alimente les nouveaux systèmes DGX et les systèmes rack GB200 NVL72
Nvidia annonce deux nouveaux modèles de systèmes DGX équipés de GPU Blackwell :
- Le DGX B200, un système refroidi par air qui associe des GPU B200 à des CPU x86. Ce système est disponible dans un cluster DGX SuperPod.
- Le DGX GB200, un modèle refroidi par liquide qui utilise les GPU Grace Hopper GB200. Huit de ces systèmes constituent un cluster DGX SuperPod, soit un total de 288 processeurs Grace, 576 GPU B200 et 240 To de mémoire rapide. Cela permet au DGX SuperPod de fournir 11,5 exaflops, ou quadrillions de calculs par seconde, en calcul FP4.
Le SuperPod basé sur le GB200 est fabriqué à l'aide d'une nouvelle version de l'architecture à l'échelle du rack que Nvidia a introduite avec AWS l'année dernière pour alimenter les grandes applications d'IA générative. Baptisé GB200 NVL72, il s'agit d'un "système multi-nœuds, refroidi par liquide, à l'échelle du rack pour les charges de travail les plus intensives en calcul", selon Nvidia, et il contient 36 GB200 Grace Blackwell Superchips ainsi que les unités de traitement de données (DPU) BlueField-3 de la société. Ces DPU sont destinées à "permettre l'accélération du réseau cloud, le stockage composable, la sécurité zéro confiance et l'élasticité du calcul GPU dans les clouds d'IA à grande échelle", a déclaré la société.
Les systèmes GB200 NVL72 deviendront la base de l'infrastructure des instances Blackwell proposées par Microsoft Azure, AWS, Google Cloud et Oracle Cloud Infrastructure, ces trois derniers proposant le service DGX Cloud de Nvidia au-dessus des systèmes. Nvidia prévoit de permettre aux OEM et autres partenaires de construire leurs propres systèmes basés sur Blackwell avec la carte serveur HGX, qui relie huit GPU B100 ou B200. La société n'a pas encore annoncé son intention de proposer les GPU Blackwell dans des cartes PCIe pour des serveurs standard.
Nvidia dévoile les plateformes Quantum-X800 InfiniBand et Spectrum-X800 Ethernet
Pour permettre des connexions à large bande entre ces systèmes, Nvidia a annoncé deux nouvelles plates-formes réseau à haut débit qui offrent des vitesses allant jusqu'à 800 Go/s : la plate-forme InfiniBand Quantum-X800 et la plate-forme Spectrum-X800.
Selon Nvidia, la plate-forme Quantum-X800, qui comprend le commutateur Quantum 3400 et le SuperNIC ConnectX-8, offre une capacité de bande passante cinq fois plus élevée et permet de multiplier par neuf le calcul en réseau, soit 14,4 téraflops.
Le Spectrum-X800, quant à lui, "optimise les performances du réseau, facilitant un traitement, une analyse et une exécution plus rapides des charges de travail d'IA", selon Nvidia. Cela permet d'accélérer "le développement, le déploiement et le délai de mise sur le marché des solutions d'IA", selon l'entreprise.
Voici l'annonce de Nvidia :
Source : NVIDIALa plateforme NVIDIA Blackwell arrive pour propulser une nouvelle ère informatique
Appuyant une nouvelle ère de l'informatique, NVIDIA annonce l'arrivée de la plateforme NVIDIA Blackwell qui permet aux entreprises du monde entier de construire et d'exécuter une IA générative en temps réel sur des grand modèles de langage à des trillions de paramètres, pour un coût et une consommation d'énergie jusqu'à 25 fois inférieurs à ceux de son prédécesseur.
L'architecture GPU Blackwell comporte six technologies transformatrices pour l'accélération du calcul, qui aideront à réaliser des percées dans le traitement des données, la simulation d'ingénierie, l'automatisation de la conception électronique, la conception de médicaments assistée par ordinateur, l'informatique quantique et l'IA générative - autant d'opportunités industrielles émergentes pour NVIDIA.
"Pendant trois décennies, nous avons cherché à accélérer l'informatique, dans le but de permettre des percées transformatrices comme l'apprentissage profond et l'IA ", a déclaré Jensen Huang, fondateur et CEO de NVIDIA. "L'IA générative est la technologie déterminante de notre époque. Blackwell est le moteur de cette nouvelle révolution industrielle. En travaillant avec les entreprises les plus dynamiques du monde, nous réaliserons les promesses de l'IA pour chaque industrie. "
Parmi les nombreuses organisations qui devraient adopter Blackwell figurent Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla et xAI.
Sundar Pichai, PDG d'Alphabet et de Google : "La mise à l'échelle de services tels que Search et Gmail pour des milliards d'utilisateurs nous a beaucoup appris sur la gestion de l'infrastructure informatique. Alors que nous entrons dans le virage des plateformes d'IA, nous continuons à investir massivement dans l'infrastructure pour nos propres produits et services, ainsi que pour nos clients du cloud. Nous avons la chance d'avoir un partenariat de longue date avec NVIDIA et nous sommes impatients d'apporter les capacités révolutionnaires de la GPU Blackwell à nos clients du Cloud et aux équipes de Google, y compris Google DeepMind, pour accélérer les découvertes futures ".
Andy Jassy, président et PDG d'Amazon : "Notre collaboration avec NVIDIA remonte à plus de 13 ans, lorsque nous avons lancé la première instance de GPU sur AWS. Aujourd'hui, nous proposons la plus large gamme de solutions GPU disponibles dans le cloud, supportant les charges de travail accélérées les plus avancées technologiquement. C'est pourquoi la nouvelle GPU NVIDIA Blackwell fonctionnera si bien sur AWS et c'est aussi la raison pour laquelle NVIDIA a choisi AWS pour co-développer le projet Ceiba, associant la nouvelle génération de Superchips Grace Blackwell de NVIDIA à la virtualisation avancée du système Nitro d'AWS et à la mise en réseau ultra-rapide Elastic Fabric Adapter, pour la recherche et le développement de NVIDIA dans le domaine de l'IA. Grâce à cet effort conjoint entre les ingénieurs d'AWS et de NVIDIA, nous continuons à innover ensemble pour faire d'AWS le meilleur endroit pour faire tourner les GPU NVIDIA dans le cloud ".
Michael Dell, fondateur et PDG de Dell Technologies : "L'IA générative est essentielle pour créer des systèmes plus intelligents, plus fiables et plus efficaces. Dell Technologies et NVIDIA travaillent ensemble pour façonner l'avenir de la technologie. Avec le lancement de Blackwell, nous continuerons à fournir la nouvelle génération de produits et de services accélérés à nos clients, en leur apportant les outils dont ils ont besoin pour stimuler l'innovation dans tous les secteurs d'activité."
Demis Hassabis, cofondateur et PDG de Google DeepMind : "Le potentiel de transformation de l'IA est incroyable, et il nous aidera à résoudre certains des problèmes scientifiques les plus importants au monde. Les capacités technologiques révolutionnaires de Blackwell fourniront le calcul critique nécessaire pour aider les esprits les plus brillants du monde à faire de nouvelles découvertes scientifiques."
Mark Zuckerberg, fondateur et PDG de Meta : "L'IA alimente déjà tout, de nos grands modèles de langage à nos recommandations de contenu, nos publicités et nos systèmes de sécurité, et elle ne fera que gagner en importance à l'avenir. Nous sommes impatients d'utiliser Blackwell de NVIDIA pour former nos modèles open-source Llama et construire la prochaine génération de produits Meta AI et grand public ".
Satya Nadella, président exécutif et PDG de Microsoft : "Nous nous engageons à offrir à nos clients l'infrastructure la plus avancée pour alimenter leurs charges de travail d'IA. En apportant le processeur GB200 Grace Blackwell à nos centres de données dans le monde entier, nous nous appuyons sur notre longue histoire d'optimisation des GPU NVIDIA pour notre cloud, alors que nous concrétisons la promesse de l'IA pour les organisations du monde entier. "
Sam Altman, PDG d'OpenAI : " Blackwell offre des sauts de performance massifs et accélérera notre capacité à fournir des modèles de pointe. Nous sommes ravis de continuer à travailler avec NVIDIA pour améliorer le calcul de l'IA ".
Larry Ellison, président et CTO d'Oracle : " L'étroite collaboration entre Oracle et NVIDIA permettra des avancées qualitatives et quantitatives dans l'IA, l'apprentissage automatique et l'analyse des données. Pour que les clients découvrent davantage d'informations exploitables, il faut un moteur encore plus puissant comme Blackwell, qui est spécialement conçu pour le calcul accéléré et l'IA générative."
Elon Musk, PDG de Tesla et de xAI : " Il n'y a actuellement rien de mieux que le matériel NVIDIA pour l'IA. "
Nommée en l'honneur de David Harold Blackwell - mathématicien spécialisé dans la théorie des jeux et les statistiques, et premier chercheur noir intronisé à l'Académie nationale des sciences - la nouvelle architecture succède à l'architecture NVIDIA Hopper, lancée il y a deux ans.
Les innovations de Blackwell pour alimenter le calcul accéléré et l'IA générative.
Les six technologies révolutionnaires de Blackwell, qui, ensemble, permettent l'entraînement à l'IA et l'inférence LLM en temps réel pour des modèles allant jusqu'à 10 000 milliards de paramètres, sont les suivantes :
- La puce la plus puissante au monde - Avec 208 milliards de transistors, les GPU de l'architecture Blackwell sont fabriqués à l'aide d'un processus TSMC 4NP sur mesure avec des matrices GPU à limite de deux particules connectées par un lien puce à puce de 10 To/seconde pour former une GPU unique et unifiée.
- Transformer Engine de deuxième génération - Alimenté par une nouvelle prise en charge de la mise à l'échelle des micro-tenseurs et des algorithmes avancés de gestion de la plage dynamique de NVIDIA intégrés dans les frameworks NVIDIA TensorRT-LLM et NeMo Megatron, Blackwell prendra en charge le double des tailles de calcul et de modèle avec de nouvelles capacités d'inférence IA en virgule flottante de 4 bits.
- NVLink de cinquième génération - Pour accélérer les performances des modèles d'IA à plusieurs trillions de paramètres et de mélanges d'experts, la dernière itération de NVIDIA NVLink® offre un débit bidirectionnel révolutionnaire de 1,8 To/s par GPU, assurant une communication transparente à grande vitesse entre 576 GPU pour les LLM les plus complexes.
- Moteur RAS - Les GPU alimentées par Blackwell comprennent un moteur dédié à la fiabilité, à la disponibilité et à la facilité d'entretien. En outre, l'architecture Blackwell ajoute des capacités au niveau de la puce pour utiliser la maintenance préventive basée sur l'IA afin d'exécuter des diagnostics et de prévoir les problèmes de fiabilité. Cela permet de maximiser le temps de fonctionnement du système et d'améliorer la résilience pour les déploiements d'IA à grande échelle afin de fonctionner sans interruption pendant des semaines, voire des mois, et de réduire les coûts d'exploitation.
- IA sécurisée - Des capacités avancées de calcul confidentiel protègent les modèles d'IA et les données des clients sans compromettre les performances, avec la prise en charge de nouveaux protocoles de chiffrement d'interface natifs, qui sont essentiels pour les secteurs sensibles à la confidentialité tels que la santé et les services financiers.
- Moteur de décompression - Un moteur de décompression dédié prend en charge les formats les plus récents, accélérant les requêtes de base de données pour offrir les meilleures performances en matière d'analyse et de science des données. Dans les années à venir, le traitement des données, pour lequel les entreprises dépensent des dizaines de milliards de dollars par an, sera de plus en plus accéléré par les GPU.
Une super-puce massive
La super-puce NVIDIA GB200 Grace Blackwell connecte deux GPU NVIDIA B200 Tensor Core au CPU NVIDIA Grace via une interconnexion puce à puce NVLink à 900 Go/s et à très faible consommation.
Pour obtenir les meilleures performances en matière d'IA, les systèmes équipés du GB200 peuvent être connectés aux plateformes NVIDIA Quantum-X800 InfiniBand et Spectrum™-X800 Ethernet, également annoncées aujourd'hui, qui fournissent une mise en réseau avancée à des vitesses allant jusqu'à 800Gb/s.
Le GB200 est un composant clé du NVIDIA GB200 NVL72, un système rack à plusieurs nœuds, refroidi par liquide, pour les charges de travail les plus intensives en calcul. Il associe 36 Grace Blackwell Superchips, qui comprennent 72 GPU Blackwell et 36 CPU Grace interconnectés par NVLink de cinquième génération. De plus, le GB200 NVL72 comprend des unités de traitement de données NVIDIA BlueField®-3 pour permettre l'accélération du réseau du cloud, le stockage composable, la sécurité zéro confiance et l'élasticité du calcul de la GPU dans les clouds d'IA à grande échelle. Le GB200 NVL72 multiplie par 30 les performances par rapport au même nombre de GPU NVIDIA H100 Tensor Core pour les charges de travail d'inférence LLM, et réduit jusqu'à 25 fois les coûts et la consommation d'énergie.
La plate-forme agit comme une GPU unique avec 1,4 exaflops de performances d'IA et 30 To de mémoire rapide, et constitue un élément de base pour le tout nouveau DGX SuperPOD.
NVIDIA propose la HGX B200, une carte serveur qui relie huit GPU B200 via NVLink pour prendre en charge les plates-formes d'IA générative basées sur x86. La HGX B200 prend en charge des vitesses de réseau allant jusqu'à 400 Gb/s grâce aux plates-formes de réseau NVIDIA Quantum-2 InfiniBand et Spectrum-X Ethernet.
Réseau mondial de partenaires Blackwell
Les produits basés sur Blackwell seront disponibles auprès de partenaires à partir de la fin de l'année.
AWS, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seront parmi les premiers fournisseurs de services cloud à proposer des instances alimentées par Blackwell, tout comme les sociétés du programme de partenariat cloud de NVIDIA, Applied Digital, CoreWeave, Crusoe, IBM Cloud et Lambda. Les clouds souverains de l'IA fourniront également des services et des infrastructures cloud basés sur Blackwell, notamment Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK et Australian Government Clouds, Scaleway, Singtel, Northern Data Group's Taiga Cloud, Yotta Data Services' Shakti Cloud et YTL Power International.
GB200 sera également disponible sur NVIDIA DGX™ Cloud, une plateforme d'IA conçue conjointement avec les principaux fournisseurs de services cloud qui donne aux développeurs d'entreprise un accès dédié à l'infrastructure et aux logiciels nécessaires pour construire et déployer des modèles d'IA génératifs avancés. AWS, Google Cloud et Oracle Cloud Infrastructure prévoient d'héberger de nouvelles instances basées sur NVIDIA Grace Blackwell dans le courant de l'année.
Cisco, Dell, Hewlett Packard Enterprise, Lenovo et Supermicro devraient fournir une large gamme de serveurs basés sur les produits Blackwell, tout comme Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn et ZT Systems.
En outre, un réseau croissant de fabricants de logiciels, dont Ansys, Cadence et Synopsys - leaders mondiaux de la simulation technique - utiliseront les processeurs Blackwell pour accélérer leurs logiciels de conception et de simulation de systèmes et de pièces électriques, mécaniques et de fabrication. Leurs clients peuvent utiliser l'IA générative et l'informatique accélérée pour mettre leurs produits sur le marché plus rapidement, à moindre coût et avec une plus grande efficacité énergétique.
Prise en charge des logiciels NVIDIA
Le portefeuille de produits Blackwell est pris en charge par NVIDIA AI Enterprise, le système d'exploitation de bout en bout pour l'IA de niveau production. NVIDIA AI Enterprise comprend les microservices d'inférence NVIDIA NIM™ - également annoncés aujourd'hui - ainsi que des frameworks, des bibliothèques et des outils d'IA que les entreprises peuvent déployer sur des clouds, des centres de données et des stations de travail accélérés par NVIDIA.
Et vous ?
Quel est votre avis sur cette annonce ?
Voir aussi :
Un cadre de Dell révèle que Nvidia prépare une GPU de 1 000 watts, suggérant des avancées en refroidissement liquide à grande échelle, qui pourraient défier les méthodes traditionnelles
Les analystes estiment que Nvidia détient 98 % du marché des GPU pour centres de données. L'hégémonie de Nvidia dans ce secteur crucial soulève des questions sur la diversité et la concurrence
Nvidia met à jour son processeur, le H200 offrant plus de mémoire et un traitement plus rapide pour les charges de travail d'IA, alors que ses concurrents remettent en cause sa domination de l'IA
Partager