IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 1 548
    Points : 125 224
    Points
    125 224
    Par défaut NVIDIA va concevoir des processeurs haute performance basés sur la technologie Arm, s'attaquant à Intel
    NVIDIA va concevoir des processeurs haute performance basés sur la technologie Arm,
    S'attaquant ainsi à Intel avec une nouvelle technologie destinée à l'IA avancée

    Le géant américain des GPU va encore plus loin dans ses ambitions informatiques en dévoilant un processeur polyvalent pour centres de données basé sur la technologie Arm. Le nouveau CPU pour centres de données créera une nouvelle concurrence pour les rivaux Intel et AMD dans le domaine des CPU x86 lorsqu'il arrivera au début de l'année 2023, la fenêtre de lancement indiquée lundi par NVIDIA lors de la conférence virtuelle GTC 2021 de la société. Selon NVIDIA, la nouvelle puce offrira des performances en matière d'intelligence artificielle dix fois supérieures à celles des processeurs EPYC Rome 64 cœurs d'AMD. Des chercheurs prévoient déjà de construire des superordinateurs utilisant les nouvelles puces.

    NVIDIA est surtout connu pour ses processeurs graphiques ou GPU, qui sont utilisés pour les jeux vidéo et les tâches de calcul intensif dans les centres de données, et non pour les CPU qui, en revanche, sont un type de puce plus généraliste et peuvent effectuer des tâches de base comme l'exécution de systèmes d'exploitation. Mais cela a changé maintenant. NVIDIA a dévoilé ses premiers microprocesseurs pour serveurs, s'attaquant ainsi au marché le plus lucratif d'Intel – que la société domine à plus de 90 %, selon une étude publiée en février par Mercury Research - avec une puce destinée à gérer les tâches informatiques les plus complexes.

    Nom : N01.jpg
Affichages : 21442
Taille : 24,2 Ko

    L'expansion dans cette catégorie de produits ouvre de nouvelles possibilités de revenus pour NVIDIA. Par ailleurs, suite à l'annonce par NVIDIA de son intention de fabriquer son propre processeur de serveur, l’action de la société a bondi tandis que l'action d'Intel a clôturé en baisse de 4,18 % lundi, a rapporté CNBC. L'action de NVIDIA a encore progressé, pour atteindre un gain d'environ 6 %, après que la société a déclaré que le revenu du premier trimestre était supérieur à ses prévisions précédentes.

    L'ajout de processeurs à sa gamme - des puces qui peuvent être programmées pour traiter un plus large éventail de tâches - pousse le fabricant américain de puces plus loin dans l'informatique des centres de données et fait suite à l'offre de l'année dernière sur la société de conception de processeurs Arm. Avec d'autres technologies annoncées à l’occasion de l’ouverture de la conférence GTC qui se tiendra jusqu’au vendredi prochain, la nouvelle puce "creuse l'écart" en matière de traitement de l'IA entre NVIDIA et les autres fabricants de puces, y compris Intel, a déclaré Chirag Dekate, analyste chez Gartner.

    La nouvelle puce, baptisée "Grace" - en l'honneur de Grace Hopper, pionnière de la programmation informatique -, combine un certain nombre de GPU et de CPU basés sur Arm pour produire un ensemble capable de gérer les calculs d'apprentissage automatique les plus avancés. Les systèmes fonctionnant avec cette nouvelle puce seront 10 fois plus rapides que ceux qui utilisent actuellement une combinaison de puces graphiques Nvidia et de CPU Intel, d’après la société.

    « Le résultat est que NVIDIA est sérieux en ce qui concerne les CPU et ne sera pas limité par les X86 détenus par Intel et AMD », a déclaré Hans Mosesmann, analyste chez Rosenblatt Securities, dans une note de recherche. « Le niveau d'innovation de la plateforme est époustouflant et c'est quelque chose que les concurrents en puces auront la tâche d'égaler pendant de nombreuses, nombreuses années à venir ».

    Le chiffre d'affaires du trimestre se terminant en avril est supérieur aux 5,3 milliards de dollars que NVIDIA avait prévus le 24 février, avec une surperformance sur chacune de ses plateformes de marché, a indiqué lundi la société dans un communiqué distinct.

    « Nous connaissons une force généralisée, toutes nos plateformes de marché entraînant une hausse de nos perspectives initiales », a déclaré Colette Kress, directrice financière de NVIDIA. « La demande globale reste très forte et continue de dépasser l'offre, tandis que les stocks de nos canaux restent assez faibles. Nous prévoyons que la demande continuera à dépasser l'offre pendant une grande partie de cette année ».

    Une technologie également destinée aux systèmes de traitement du langage naturel

    Dans son discours d'ouverture de la GTC 2021, Jensen Huang, PDG de NVIDIA, a qualifié "Grace" de « pièce finale du puzzle » et a dit qu'elle donnerait à l'entreprise la « capacité de réarchitecturer chaque aspect du centre de données pour l'IA ».

    Avec l'introduction des CPU dans le portefeuille de NVIDIA, Huang a déclaré que sa feuille de route de produits pour les centres de données sera désormais constituée de trois lignes de produits - GPU, unités de traitement de données (DPU) et CPU - et que chaque ligne de produits recevra une architecture actualisée tous les deux ans. Dans une nouvelle feuille de route, NVIDIA a montré qu'un CPU "Grace" de nouvelle génération devrait sortir vers 2025, après la sortie d'un GPU Ampere de troisième génération et d'un DPU BlueField-4 l'année précédente.

    Nom : N02.png
Affichages : 3082
Taille : 149,1 Ko

    Selon Huang, la société se concentrera alternativement sur les plateformes x86 et Arm tous les deux ans, car NVIDIA veut s'assurer que son architecture supportera les plateformes préférées des clients. « Chaque architecture de puce a un rythme de deux ans, avec probablement un coup de pouce entre les deux », a-t-il déclaré. « Une année se concentrera sur les plateformes x86. Une année sera consacrée aux plateformes Arm ».

    L'entreprise de Santa Clara, en Californie, a déclaré qu'elle avait déjà trouvé deux clients importants pour son processeur Grace : le Centre national suisse de calcul intensif (CSCS) et le Laboratoire national de Los Alamos du ministère américain de l'Energie, qui prévoient tous deux de mettre en ligne des superordinateurs alimentés par "Grace" et construits par Hewlett Packard Enterprise en 2023.

    La première utilisation de la nouvelle puce est prévue dans le domaine scientifique avec les premiers clients annoncés. Cependant, Paresh Kharya, directeur principal de la gestion des produits de calcul accéléré de NVIDIA, a déclaré que la technologie était également destinée aux systèmes de traitement du langage, l'une des tâches les plus difficiles de l'IA, et un domaine qui est devenu le centre d'une concurrence intense entre les plus grandes plateformes technologiques.

    Signe de la valeur commerciale croissante des systèmes de langage avancés, Microsoft a accepté lundi de payer près de 20 milliards de dollars pour Nuance Communications, spécialisée dans l'IA et la reconnaissance vocale pour les soins de santé.

    Selon Kharya, les processeurs qui font la navette entre les données et les GPU spécialisés qui effectuent le gros du travail de formation des modèles d'IA sont devenus le goulot d'étranglement des systèmes d'IA les plus exigeants. En utilisant ses propres puces, basées sur les conceptions d'Arm, NVIDIA pense pouvoir accélérer le flux de données et obtenir une efficacité dix fois supérieure.

    Le Centre national suisse de calcul intensif fournit des calculs scientifiques. Kharya a déclaré que le supercalculateur Alps du CSCS sera capable d'entraîner GPT-3, le plus grand modèle de traitement du langage naturel au monde, en seulement deux jours. C'est sept fois plus rapide que le superordinateur Selene de NVIDIA, qui est actuellement classé n° 5 dans le top 500 des superordinateurs du monde.


    « Cette architecture équilibrée avec "Grace" et un futur GPU NVIDIA, que nous n'avons pas encore annoncé, permettra une recherche révolutionnaire dans un certain nombre de domaines différents en leur permettant de combiner la puissance à la fois du HPC et de l'IA, faisant progresser le climat et la météo, faisant progresser les sciences des matériaux, la dynamique moléculaire ainsi que l'économie et les études sociales », a-t-il déclaré.

    NVIDIA présente le nouveau CPU aux propriétaires de centres de données - des hyperscalers comme AWS d'Amazon.com Inc. et Google d'Alphabet Inc. - comme un moyen d'exploiter plus efficacement les logiciels d'intelligence artificielle et d'améliorer la capacité à donner un sens au flux de données qu'ils reçoivent.

    La formation d'un programme à l'aide d'un trillion (1000 milliards) de points de données peut prendre jusqu'à un mois actuellement. "Grace" réduira ce délai à trois jours, selon Ian Buck, un vice-président de NVIDIA. Pour les utilisateurs finaux des services Cloud, cela conduira à des ordinateurs capables de comprendre le langage humain naturel et de rendre l'aide automatisée en ligne beaucoup plus efficace, a-t-il ajouté.

    NVIDIA, qui a du mal à faire face à la demande croissante sur le marché des GPU, se lance maintenant dans la course sur le marché féroce des CPU. Espérons que le fabricant de cartes graphiques à la capacité de faire face à la concurrence tout en tenant le marché des GPU.

    NVIDIA a révélé son intention d'aller plus loin dans le traitement des centres de données lorsqu'elle a annoncé l'achat d'Arm pour un montant pouvant atteindre 40 milliards de dollars l'année dernière, bien que l'opération soit actuellement confrontée à des obstacles réglementaires. Mais sa nouvelle puce est le produit d'un travail qui remonte à bien plus loin, et NVIDIA a signalé pour la première fois son intérêt pour le marché en 2019 lorsqu'elle a déclaré qu'elle adapterait tous ses logiciels pour qu'ils fonctionnent sur les processeurs Arm.

    La poussée de l'entreprise plus profondément dans l'informatique des centres de données a soulevé le risque de conflit avec certains de ses propres clients, qui conçoivent leurs propres CPU. Parmi eux, Amazon, qui a développé une puce Arm très puissante, connue sous le nom de Graviton, pour l'utiliser dans Amazon Web Services.

    Pour l'instant, la poussée de NVIDIA dans le très haut de gamme des systèmes d'IA signifie qu'elle se trouve encore sur un marché différent de celui de clients tels qu'Amazon, a déclaré Dekate de Gartner. Signe que les deux camps sont encore capables de travailler ensemble, NVIDIA a également annoncé lundi un accord avec Amazon pour offrir aux clients d'AWS son GPU d’apprentissage machine fonctionnant sur des puces Graviton.

    Source : Vidéo YouTube

    Et vous ?

    Que pensez-vous du processeur de NIVIDIA basé sur la technologie Arm ?
    La nouvelle puce annonce-t-elle une domination de NVIDIA sur le marché des CPU pour centres de données ?

    Voir aussi :

    NVIDIA amorce le rachat d'Arm Holdings auprès de Softbank pour 40 milliards de dollars. L'opération devrait s'achever d'ici mars 2022, sous réserve de l'approbation des autorités réglementaires
    Le projet de SoftBank de vendre Arm à NVIDIA se heurte au mur antitrust dans le monde entier, le fabricant de puces américain étant en concurrence directe avec des clients d'Arm
    Microsoft confirme l'acquisition de la société d'IA, Nuance Communications, pour près de 20 milliards $, soit la plus importante acquisition après LinkedIn
    Amazon dévoile sa seconde génération de puces Arm 64 bits conçue en interne et ciblant l'infrastructure Cloud, l'entreprise confirme aussi sa volonté de réduire sa dépendance vis-à-vis du géant Intel
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre émérite
    Profil pro
    retraité
    Inscrit en
    Décembre 2010
    Messages
    806
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Décembre 2010
    Messages : 806
    Points : 2 310
    Points
    2 310
    Par défaut
    Ben j'en pense que le M1 d'Apple a ouvert la voie de puces autre que les x86. Et que cela va s'améliorer encore

  3. #3
    Membre extrêmement actif Avatar de darklinux
    Homme Profil pro
    Chef de projet en SSII
    Inscrit en
    Novembre 2005
    Messages
    570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Chef de projet en SSII
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2005
    Messages : 570
    Points : 1 023
    Points
    1 023
    Par défaut
    Comparé l ' Apple Mx au Nvidia Grace , revient a comparé une Austin Mini à une F40 , les architectures non rien à voir

  4. #4
    Membre éprouvé Avatar de pcdwarf
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Février 2010
    Messages
    267
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Février 2010
    Messages : 267
    Points : 964
    Points
    964
    Par défaut
    des processeurs à base de ARM, c'est une excellente nouvelle.

    Par contre des processeurs conçus pour l'IA.... Mais pour quoi faire ?
    D'accord, y'a sans doute un marché... actuellement couvert par les GPU....
    mais un marché de masse ?
    Il semble que l'IA devienne le sujet de buzzword par excellence...

    C'est pas étonnant que ça soit dans l'air du temps, c'est une techno qui permet de faire des trucs sans rien comprendre à ce qu'on fait vraiment ni comment on le fait.
    Alors autant je trouvais ça cool dans le jeu vidéo il y a quelques années, autant plus le temps passe et plus je trouve ça débile et néfaste.

    Ok, l'ia marche bien dans des trucs bien cadrés à l'information exhaustive aux règles déterministes et à l'objectif clair du genre jeu vidéo.
    Mais dans le monde réel, c'est ce pour quoi l'IA est sensée mieux marcher que l'algorithmique qui est décevant.
    Soit on est sur un système bien cadré qu'on aurait pu traiter de façon algorithmique et alors l'IA marche pas franchement mieux voir moins bien, (mais possiblement de façon plus efficace)
    soit on est sur un cas "big data" et là , c'est du grand n'importe quoi avec des résultats pas nécessairement nuls sur le plan fonctionnel mais affligeant vis a vis des moyens investis.
    En fait, je ne compte même pas le nombre de trucs qui dégénèrent depuis qu'on en met partout. C'est probablement pour ça qu'il en faut encore plus !

    Alors c'est probablement en raison de la qualité des données source tout comme de la qualité de la fonction d'évaluation, mais il me semble que la capacité des IA a apprendre des conneries dépasse de très très loin leur capacité à accomplir des tâches utiles de façon fiable. Et quand bien même... D'une part, faire une fonction d'évaluation potable ne dispense pas de réfléchir, et d'autre part l'effort de collecte et de qualification des données source à l'apprentissage me semble démesuré.

Discussions similaires

  1. Réponses: 4
    Dernier message: 19/04/2017, 19h27
  2. Réponses: 1
    Dernier message: 07/03/2015, 09h34
  3. Le nombre des processeurs installé sur une machine
    Par kochfet dans le forum Composants
    Réponses: 4
    Dernier message: 29/05/2014, 15h42
  4. Microsoft développe des outils basés sur Hadoop
    Par Hinault Romaric dans le forum Windows
    Réponses: 0
    Dernier message: 13/10/2011, 12h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo