Nvidia annonce le GPU A100 80 Go pour sa plateforme de calcul intensif "Nvidia HGX AI",
avec deux fois plus de mémoire que son prédécesseur, l'A100 40 Go

Le salon sur les supercalculateurs de 2020 (SC20) s'est tenu en ligne en raison des restrictions dues à la pandémie du Covid-19. Lors de l'événement virtuel, Nvidia a lancé la version 80 Go de l'unité de traitement graphique (GPU) A100, ciblant les applications de calcul intensif sur les puces graphiques et l'IA. La puce est basée sur l'architecture graphique Ampere de la société et vise à aider les entreprises et les laboratoires gouvernementaux à prendre des décisions clés plus rapidement en permettant une meilleure analyse des données en temps réel.

Le GPU A100 80 Go double certaines spécifications de l'A100 d'origine

Nvidia a annoncé l'A100 80 Go au début de la conférence SC20 sur les supercalculateurs qui s'est tenue cette semaine. Le GPU Nvidia A100 80 Go représente la dernière innovation qui équipe la plateforme de calcul intensif pour l'IA de Nvidia : HGX. Il est conçu avec deux fois plus de mémoire que son prédécesseur, ce qui permet d'alimenter rapidement l'A100, donnant ainsi la possibilité aux chercheurs d'accélérer encore plus leurs applications et de prendre en charge des modèles et des ensembles de données encore plus volumineux.

Il est important de noter que la première version de l'A100 remonte à juste 6 mois, mais Nvidia lance déjà une version actualisée de son accélérateur. En outre, pour le nouvel A100, l'entreprise a également augmenté la vitesse d'horloge de la mémoire, portant la version 80 Go de l'A100 à 3,2 Gb/s/pin, soit une bande passante mémoire totale d'un peu plus de 2 To/s. Selon l'équipementier, cela offre aux chercheurs et aux ingénieurs une vitesse et des performances sans précédent pour débloquer la prochaine génération d'IA et de percées scientifiques.


« Obtenir des résultats de pointe dans la recherche sur le HPC et l'IA nécessite de construire les plus grands modèles, mais ceux-ci exigent plus de capacité mémoire et de bande passante que jamais auparavant », a déclaré Bryan Catanzaro, vice-président de la recherche appliquée en apprentissage profond chez Nvidia. La version 80 Go de l'A100 sera vendue parallèlement à la version 40 Go que Nvidia appelle désormais l'A100 40 Go, et elle est principalement destinée aux clients disposant de jeux de données IA volumineux.

Ce qui, à première vue, peut sembler un peu évident, mais avec les charges de travail d'apprentissage profond en particulier, la capacité de mémoire peut être un facteur fortement limitant lorsqu'on travaille avec des ensembles de données particulièrement volumineux. Ainsi, un accélérateur suffisamment grand pour conserver un modèle entier dans la mémoire locale peut potentiellement être beaucoup plus rapide qu'un accélérateur qui doit fréquemment sortir de la puce pour échanger des données.

Les différences notables entre l'A100 original (l'A100 40 Go) et l'A100 80 Go

Si l'on plonge dans les spécifications, la seule différence entre les versions 40 Go et 80 Go de l'A100 sera la capacité et la bande passante de la mémoire. En effet, les deux modèles sont équipés d'un GPU GA100 avec 108 SM actifs et une horloge de boost de 1,41 GHz. De même, les TDP entre les deux modèles restent inchangés. Ainsi, pour un débit de calcul pur, sur papier, il n'y a pas de différence entre les deux accélérateurs. Plus précisément, lorsque l'A100 original est venu en mai, Nvidia l'a équipé de six piles de 8 Go de mémoire HBM2, l'une de ces piles ayant été désactivée pour des raisons de rendement.

L'A100 original disposait donc de 40 Go de mémoire et d'une bande passante d'à peine 1,6 To/seconde. Pour le nouveau A100 de 80 Go, Nvidia conserve la même configuration de piles de mémoire 5 sur 6 activées, mais la mémoire elle-même a été remplacée par une mémoire HBM2E plus récente. HBM2E est le nom informel donné à la dernière mise à jour de la norme mémoire HBM2, qui en février de cette année a défini une nouvelle vitesse maximale de mémoire de 3,2 Gb/s/pin. De plus, des améliorations de fabrication ont également permis aux fabricants de mémoire de doubler la capacité de la mémoire, passant de 1 Go/min à 2 Go/min.

Le résultat net étant que HBM2E offre à la fois de plus grandes capacités et de plus grandes largeurs de bande, deux choses dont Nvidia profite ici. Avec 5 piles de 16 Go actives, 8-Hi de mémoire, l'A100 mis à jour obtient un total de 80 Go de mémoire. Ce qui, à 3,2 Gb/s/pin, correspond à un peu plus de 2 To/s de bande passante mémoire pour l'accélérateur, soit une augmentation de 25 % par rapport à la version de 40 Go. Cela signifie que, non seulement, l'accélérateur de 80 Go offre plus de stockage local, ce qui est rare pour un modèle de plus grande capacité, mais qu'il offre aussi une bande passante mémoire supplémentaire pour l'accompagner.


Ce qui permet de dire que dans les cas où la bande passante mémoire est limitée, la version 80 Go devrait être plus rapide que la version 40 Go, même sans utiliser sa capacité de mémoire supplémentaire. Selon les critiques, le fait de pouvoir proposer une version de l'A100 avec une bande passante mémoire plus importante semble être en grande partie un artefact de fabrication plutôt qu'un projet de Nvidia. Samsung et SK Hynix n'ont finalement commencé la production en masse de mémoires HBM2E qu'un peu plus tôt cette année, mais il n'en reste pas moins que ce sera certainement le bienvenu.

Par ailleurs, comme mentionnée précédemment, la mémoire supplémentaire ne changera pas les paramètres TDP de l'A100. L'A100 reste donc une pièce de 400 watts, et en théorie, la version de 80 Go devrait être un peu plus efficace en matière de consommation d'énergie, car elle offre plus de performances dans le même TDP. En attendant, Nvidia a également confirmé que la plus grande capacité de mémoire du modèle 80 Go sera également disponible pour les utilisateurs de GPU multi-instance (MIG).

En plus de mettre l'A100 80 Go à la disposition des clients HGX, Nvidia a également lancé lundi un nouveau matériel DGX. Dans le haut de gamme, ils proposent une version du DGX A100 avec les nouveaux accélérateurs, qu'ils appelleront DGX A100 640 Go. Ce nouveau DGX A100 dispose également de deux fois plus de DRAM et de stockage que son prédécesseur, doublant l'original à plus d'un titre. Pour l'instant, Nvidia lance une version plus petite de la station DGX A100, qu'ils appellent DGX Station A100.

Successeur du DGX Station original basé sur Volta, DGX Station A100 est essentiellement la moitié d'un DGX A100, avec 4 accélérateurs A100 et un seul processeur AMD EPYC. Le briefing de presse de Nvidia n'a toutefois pas mentionné la consommation d'énergie totale.

Source : Nvidia

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Nvidia s'associe à l'Université de Floride pour construire un supercalculateur d'IA, le plus rapide dans le monde universitaire, avec une performance de 700 pétaflops

Atos lance JUWELS, son premier supercalculateur équipé des GPU NVIDIA A100, avec un pic de performance estimé à plus de 70 pétaflops

Leonardo, le supercalculateur d'IA le plus rapide au monde développé par le consortium interuniversitaire italien CINECA, va utiliser la plateforme de calcul accéléré de NVIDIA

Continental lance son propre supercalculateur pour le développement d'un système fondé sur l'IA alimenté par NVIDIA DGX, pour accélérer la course aux véhicules autonomes via la simulation