IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Hardware Discussion :

Nvidia dévoile GPU Ampere A100, une puce d'intelligence artificielle, avec 54 milliards de transistors


Sujet :

Hardware

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 257
    Points
    66 257
    Par défaut Nvidia dévoile GPU Ampere A100, une puce d'intelligence artificielle, avec 54 milliards de transistors
    Nvidia dévoile GPU Ampere A100, une puce d'intelligence artificielle, avec 54 milliards de transistors
    et peut exécuter 5 pétaflops de performances

    Jensen Huang, PDG de NVIDIA, a dévoilé hier la nouvelle architecture GPU Ampere A100 de la société dédiée à l'apprentissage automatique et aux marchés HPC. Jensen affirme que l'A100 est le GPU NVIDIA le plus grand et le plus puissant jamais conçu, et qu'il s'agit également de la plus grande puce jamais produite sur un processus semi-conducteur de 7 nm. L'A100 compte au total 6912 cœurs FP32 CUDA, 432 cœurs Tensor et 108 SM (Streaming Multiprocessors), couplés à 40 Go de mémoire HBM2e avec une bande passante mémoire maximale de 1,6 To/s.

    Jensen Huang a discuté de la récente acquisition de Mellanox par NVIDIA, de nouveaux produits basés sur l'architecture GPU NVIDIA Ampere très attendue de la société et d'importantes nouvelles technologies logicielles. « NVIDIA A100 , le premier GPU basé sur l'architecture NVIDIA Ampere, offrant le plus grand saut de performance générationnelle des huit générations de GPU NVIDIA, est également conçu pour l'analyse de données, le calcul scientifique et les graphiques cloud, et est en production complète et expédié aux clients du monde entier », a annoncé Huang. Il est doté de 54 milliards de transistors. Le lancement était initialement prévu pour le 24 mars dernier, mais a été retardé à cause de la pandémie du covid-19.

    Nom : nvidia_a100_specs.png
Affichages : 39639
Taille : 73,9 Ko

    Le calcul FP32 arrive à 19,5 TLFLOP, contre 16,4 TFLOP pour le Tesla V100 de génération précédente de NVIDIA. De plus, ses cœurs de tensors utilisent une précision FP32 qui permet une augmentation de 20 fois des performances de l'IA de génération en génération. En ce qui concerne les performances FP64, ces cœurs de tensors offrent également une amélioration des performances de 2,5 fois par rapport à son prédécesseur, Volta. Les fonctionnalités supplémentaires incluent le GPU multi-instance, alias MIG, qui permet de diviser un GPU A100 en sept instances discrètes, de sorte qu'il peut être provisionné pour plusieurs charges de travail spécialisées discrètes.

    Dix-huit des principaux fournisseurs de services et constructeurs de systèmes au monde les intègrent, parmi lesquels Alibaba Cloud, Amazon Web Services, Baidu Cloud, Cisco, Dell Technologies, Google Cloud, Hewlett Packard Enterprise, Microsoft Azure et Oracle. NVIDIA propose également une troisième génération de son système NVIDIA DGX AI basé sur NVIDIA A100 - le NVIDIA DGX A100 - le premier serveur au monde à 5 pétaflops. Et chaque DGX A100 peut être divisé en 56 applications, toutes fonctionnant indépendamment.

    Nom : a100.jpg
Affichages : 3815
Taille : 136,5 Ko

    A100 sera également disponible pour les fabricants de serveurs cloud sous le nom de HGX A100. Un centre de données alimenté par cinq systèmes DGX A100 pour la formation et l'inférence de l'IA fonctionnant sur seulement 28 kilowatts de puissance, coûtant 1 million de dollars, peut faire le travail d'un centre de données typique avec 50 systèmes DGX-1 pour la formation d'IA et 600 systèmes CPU consommant 630 kilowatts et coûtant plus de 11 millions de dollars, a expliqué Huang.

    Nvidia a déclaré qu'un certain nombre des plus grandes entreprises, prestataires de services et agences gouvernementales du monde avaient passé des commandes initiales pour le DGX A100, les premiers systèmes étant livrés à Argonne au début du mois. Rick Stevens, directeur de laboratoire associé pour l'informatique, l'environnement et les sciences de la vie à "Argonne National Lab", a déclaré dans un communiqué que les superordinateurs du centre sont utilisés pour lutter contre le coronavirus, avec des modèles et des simulations d'IA fonctionnant sur les machines dans l'espoir de trouver des traitements et un vaccin.

    La puissance des systèmes DGX A100 permettra aux scientifiques d'effectuer une année de travail en mois ou en jours. L'Université de Floride sera la première institution américaine d'enseignement supérieur à recevoir les systèmes DGX A100, qu'elle déploiera pour infuser l'IA dans l'ensemble de son programme afin de favoriser une main-d'œuvre compatible avec l'IA. le Centre d'IA biomédicale du Centre médical universitaire de Hambourg-Eppendorf, en Allemagne, compte parmi les premiers à avoir adopté le DGX A100 pour faire progresser l'aide à la décision clinique et l'optimisation des processus.

    Des milliers de systèmes DGX de la génération précédente sont actuellement utilisés dans le monde par un large éventail d'organisations publiques et privées. Parmi ces utilisateurs figurent quelques-unes des principales entreprises mondiales, y compris les constructeurs automobiles, les prestataires de soins de santé, les détaillants, les institutions financières et les sociétés de logistique qui adoptent l'IA dans leurs industries.

    Source : NVIDIA

    Et vous ?

    Que pensez-vous des performances de la puce A100 ?

    Voir aussi

    Une intelligence artificielle de NVIDIA transforme des croquis en paysages photoréalistes en quelques secondes lors de la GPU Technology Conference

    NVIDIA détaille la version PCI Express de ses cartes Volta avec une consommation énergétique réduite à 250 W et la fréquence amputée de 85 MHz

    NVIDIA appelle les propriétaires de PC de jeu à mettre la puissance de leurs machines à contribution pour faire avancer la lutte contre Covid-19

    NVIDIA et Microsoft annoncent une solution infonuagique pour le calcul de haute performance et l'entraînement de réseaux neuronaux profonds, les instances NDv2 proposent huit NVIDIA V100
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre expérimenté Avatar de stigma
    Homme Profil pro
    Créateur jeux vidéo
    Inscrit en
    Octobre 2003
    Messages
    1 111
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 73
    Localisation : France, Pas de Calais (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Créateur jeux vidéo
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2003
    Messages : 1 111
    Points : 1 612
    Points
    1 612
    Par défaut
    La bête ?

Discussions similaires

  1. Réponses: 9
    Dernier message: 04/10/2019, 17h09
  2. Réponses: 1
    Dernier message: 20/12/2018, 21h31
  3. La France dévoile son plan sur l'Intelligence artificielle pour 665 millions d'euros
    Par Stéphane le calme dans le forum Intelligence artificielle
    Réponses: 3
    Dernier message: 03/12/2018, 17h03
  4. Intelligence artificielle: Avec plus de 500 exercices
    Par chaa13 dans le forum Intelligence artificielle
    Réponses: 3
    Dernier message: 12/01/2015, 21h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo