IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Une startup accuse NVIDIA et Microsoft d'avoir formé un cartel illégal dans le cadre d'un procès


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 568
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 568
    Points : 109 582
    Points
    109 582
    Par défaut Une startup accuse NVIDIA et Microsoft d'avoir formé un cartel illégal dans le cadre d'un procès
    Nvidia dévoile la GPU Blackwell B200, la "puce la plus puissante au monde" pour l'IA, qui "réduit les coûts et la consommation d'énergie jusqu'à 25 fois" par rapport à un H100, selon Nvidia.

    Lors de son premier événement GTC en personne depuis près de cinq ans, Nvidia a dévoilé sa nouvelle architecture GPU Blackwell, le successeur tant annoncé de la plateforme Hopper du géant des puces d'IA, et a annoncé de nouveaux sommets en termes de performances et d'efficacité avec les prochaines puces B100, B200 et GB200. Nvidia affirme qu'elle permettra des performances d'inférence jusqu'à 30 fois supérieures et consommera 25 fois moins d'énergie pour les modèles d'IA massifs.

    Lors de son premier événement GTC en personne depuis près de cinq ans, la société basée à Santa Clara, en Californie, a dévoilé les premiers modèles de GPU utilisant l'architecture Blackwell, qui, selon elle, est accompagnée de "six technologies transformatrices pour l'accélération du calcul" qui "aideront à débloquer des percées" dans des domaines tels que l'IA générative et le traitement des données, entre autres.

    Les modèles devraient arriver dans le courant de l'année, mais l'entreprise n'a pas donné d'autres précisions sur le calendrier. Les fournisseurs de services cloud qui devraient proposer des instances basées sur Blackwell comprennent Amazon Web Services, Microsoft Azure, Google Cloud et Oracle Cloud Infrastructure, ainsi que plusieurs autres acteurs, comme Lambda, CoreWeave et IBM Cloud. Du côté des serveurs, Cisco Systems, Dell Technologies, Hewlett Packard Enterprise, Lenovo et Supermicro devraient proposer une pléthore de systèmes basés sur Blackwell. Parmi les autres équipementiers prenant en charge les GPU, citons ASRock Rack, Asus, Eviden et Gigabyte.

    Blackwell est la première mise à jour de l'architecture de Nvidia pour les GPU de centres de données depuis que des applications d'IA générative telles que ChatGPT et Stable Diffusion ont été mises en ligne en 2022 et ont déclenché une nouvelle vague d'engouement et de dépenses pour le développement de l'IA, ce qui a profité aux partenaires de distribution investissant dans de telles capacités.

    La manie a bien payé jusqu'à présent pour Nvidia, dont les GPU ont été les principaux moteurs pour l'entraînement et l'exécution des modèles derrière de telles applications. Cela s'est traduit par une demande élevée et soutenue de GPU tels que le H100 et les systèmes associés, qui ont joué un rôle majeur dans le fait que la société a plus que doublé son chiffre d'affaires l'année dernière pour atteindre 60,9 milliards de dollars, dépassant celui d'Intel.


    Les modèles Blackwell comprennent le B100, le B200 et le GB200

    Les premiers modèles confirmés à utiliser Blackwell sont les GPU B100 et B200, qui succèdent respectivement aux modèles H100 et H200 basés sur Hopper pour les systèmes à base de x86. Le B200 devrait disposer d'une capacité de mémoire à large bande passante supérieure à celle du B100.

    Les conceptions initiales incluent également le GB200 Grace Blackwell Superchip, qui, sur un seul boîtier, connecte une GPU B200 avec le processeur Grace à 72 cœurs basé sur Arm de la société, qui a été précédemment associé aux H200 et H100. Mais alors que les superpuces Grace Hopper combinent un seul processeur Grace avec une GPU Hopper, la superpuce Grace Blackwell combine un seul processeur Grace avec deux GPU Blackwell, ce qui augmente considérablement l'échelle des performances par rapport à la première génération.

    C'est avec le GB200 que Nvidia voit Blackwell briller lorsqu'il s'agit des charges de travail d'IA les plus exigeantes, en particulier les modèles d'IA massifs et complexes appelés Mixture-of-Experts qui combinent plusieurs modèles, poussant le nombre de paramètres à plus de 1 000 milliards. Dans un système refroidi par liquide avec 18 GB200, Nvidia a déclaré que les 36 GPU Blackwell du système sont capables de fournir des performances d'inférence de grands modèles de langage jusqu'à 30 fois plus rapides par rapport à un système refroidi par air avec 64 GPU H100.

    Alors que Nvidia promet des avancées significatives en matière d'inférence, d'efficacité énergétique et de réduction des coûts, l'énergie requise pour les configurations les plus puissantes de Blackwell augmente également. La société a déclaré que Blackwell peut être configuré à partir de 700 watts, ce qui était le maximum de Hopper et est le maximum pour le facteur de forme HGX B100 refroidi par air, jusqu'à 1200 watts, ce qui est exigé du GB200 pour une nouvelle architecture à l'échelle du rack refroidi par liquide.

    Blackwell embarque 208 milliards de transistors

    Marquant un changement dans les conceptions de Nvidia pour les GPU des centres de données, Blackwell combine "deux des plus grandes matrices possibles" sur un seul boîtier, selon la société. Ces puces sont connectées par un lien puce à puce de 10 TB/s, ce qui leur permet de fonctionner comme une "GPU unique et unifiée sans les inconvénients des chiplets en matière de comportement des programmes", a ajouté Nvidia. Cela porte le nombre de transistors de la GPU à 208 milliards, soit une augmentation considérable de 160 % par rapport au H100.

    Cette conception a été rendue possible grâce à un processus de fabrication 4NP à limite de deux particules, conçu sur mesure par le géant de la fonderie TSMC, que Nvidia a qualifié de "technologie révolutionnaire" de Blackwell.

    Un porte-parole de Nvidia a déclaré que "Blackwell n'est pas un design chiplet", une méthodologie pour connecter des puces plus petites dans un boîtier qui a été adoptée par AMD pendant des années, y compris pour ses GPU de centre de données Instinct MI300, et plus récemment adoptée par Intel pour une gamme plus large de produits, y compris ses GPU de centre de données de la série Max.

    Nom : NVIDIA-GB200-Grace-Blackwell-Superchip.jpg
Affichages : 14629
Taille : 306,6 Ko
    NVIDIA GB200 Grace Blackwell Superchip

    Le moteur Transformer de 2e génération aide Blackwell à accélérer l'IA

    En ce qui concerne les performances de l'IA, les GPU Blackwell sont capables d'effectuer jusqu'à 20 pétaflops, soit 20 quadrillions de calculs par seconde, selon Ian Buck, vice-président de l'hyperscale et du calcul à haute performance chez Nvidia. Cette performance a été mesurée à l'aide d'un nouveau format numérique appelé virgule flottante à quatre bits (FP4), dont la précision est inférieure à celle du format FP8 introduit par le prédécesseur de Blackwell, Hopper, et utilisé pour fournir 4 pétaflops dans chaque H100.

    Selon M. Buck, le FP4 permet à Blackwell de fournir deux fois plus de calculs et de bande passante que Hopper lorsqu'il utilise le FP8, et il permet également de doubler la taille d'un modèle d'intelligence artificielle pouvant tenir sur une seule GPU. "Atteindre ce niveau de granularité fine est un miracle en soi", a déclaré M. Buck lors d'une réunion d'information.

    Cela a été rendu possible grâce au Transformer Engine de deuxième génération de Blackwell, qui a été introduit dans Hopper pour accélérer les modèles basés sur l'architecture transformatrice qui domine le monde de l'IA aujourd'hui, tels que les grands modèles de langage et les modèles de diffusion. Tel qu'il a été conçu à l'origine, le moteur Transformer "suit la précision de chaque couche de chaque unité de calcul tensoriel" dans la GPU, selon M. Buck. Lorsque la GPU entraîne un modèle, le moteur "surveille en permanence les plages de chaque couche et s'adapte pour rester dans les limites de la précision numérique afin d'obtenir les meilleures performances", a-t-il ajouté. Appelée l'une des "six technologies révolutionnaires" de Blackwell, la deuxième génération du moteur peut rendre la surveillance encore plus granulaire grâce à la "mise à l'échelle micro-tensorielle", qui permet au moteur d'examiner les "éléments individuels au sein du tenseur", a déclaré M. Buck.

    Ce qui aide également Blackwell à atteindre 20 pétaflops dans une seule GPU est la bibliothèque logicielle open-source TensorRT-LLM de Nvidia, que la société a lancée l'année dernière pour doubler l'inférence de grands modèles de langage dans un H100, et le cadre NeMo Megatron pour l'entraînement de ces modèles.

    La 5e génération de NVLink permet une liaison à grande vitesse entre 576 GPU

    La cinquième génération de l'interconnexion puce à puce NVLink, qui permet aux GPU de communiquer entre eux, est une autre mise à jour technologique importante pour Blackwell, présentée par Nvidia. La nouvelle génération permet d'atteindre un débit bidirectionnel par GPU de 1,8 TB/s, soit le double des 900 GB/s que Hopper permettait avec la quatrième génération de NVLink. Elle augmente également considérablement le nombre de GPU pouvant communiquer entre eux à ces vitesses, ce qui permet une "communication transparente à grande vitesse" entre un maximum de 576 GPU. Il s'agit d'un grand pas en avant par rapport à la prise en charge maximale de 256 GPU qui était possible avec NVLink dans Hopper.

    Buck a déclaré que cela résout un goulot d'étranglement croissant pour les grandes grappes de GPU qui exécutent des modèles d'IA massifs, comme un modèle de mélange d'experts de 1 800 milliards de paramètres qui contient plusieurs modèles travaillant ensemble pour exécuter des fonctions complexes et fournir de meilleures réponses. "Si vous exécutez un modèle comme GPT[-4], qui, avec 1 800 milliards de paramètres, est un mélange d'experts, vous pouvez passer jusqu'à 60 % de votre temps à communiquer les données, et seulement 40 % à faire du calcul", a déclaré M. Buck à propos d'un scénario avec les GPU Hopper de Nvidia.

    Les autres mises à jour de Blackwell comprennent le moteur RAS et l'informatique confidentielle

    Les autres mises à jour technologiques majeures de Blackwell sont les suivantes :

    • Un moteur RAS dédié aux fonctions de fiabilité, de disponibilité et de facilité d'entretien. Ce type de fonctionnalités se retrouve traditionnellement dans les processeurs de serveurs tels que les puces Xeon d'Intel. La version RAS de Nvidia comprend également des fonctions de maintenance préventive basées sur l'IA au niveau de la puce afin de réduire les temps d'arrêt pour les déploiements massifs.
    • Des capacités informatiques confidentielles avancées qui "protègent les modèles d'IA et les données des clients sans compromettre les performances". Ces capacités comprennent la prise en charge de "nouveaux protocoles de cryptage d'interface natifs".
    • Un moteur de décompression dédié qui accélère les requêtes de base de données pour les applications d'analyse et de science des données, que Nvidia a qualifiées de cibles croissantes pour les GPU.


    Nom : NVIDIA-GB200-NVL72.jpg
Affichages : 2773
Taille : 317,4 Ko
    NVIDIA GB200 NVL72

    Blackwell alimente les nouveaux systèmes DGX et les systèmes rack GB200 NVL72

    Nvidia annonce deux nouveaux modèles de systèmes DGX équipés de GPU Blackwell :

    • Le DGX B200, un système refroidi par air qui associe des GPU B200 à des CPU x86. Ce système est disponible dans un cluster DGX SuperPod.
    • Le DGX GB200, un modèle refroidi par liquide qui utilise les GPU Grace Hopper GB200. Huit de ces systèmes constituent un cluster DGX SuperPod, soit un total de 288 processeurs Grace, 576 GPU B200 et 240 To de mémoire rapide. Cela permet au DGX SuperPod de fournir 11,5 exaflops, ou quadrillions de calculs par seconde, en calcul FP4.

    Le SuperPod basé sur le GB200 est fabriqué à l'aide d'une nouvelle version de l'architecture à l'échelle du rack que Nvidia a introduite avec AWS l'année dernière pour alimenter les grandes applications d'IA générative. Baptisé GB200 NVL72, il s'agit d'un "système multi-nœuds, refroidi par liquide, à l'échelle du rack pour les charges de travail les plus intensives en calcul", selon Nvidia, et il contient 36 GB200 Grace Blackwell Superchips ainsi que les unités de traitement de données (DPU) BlueField-3 de la société. Ces DPU sont destinées à "permettre l'accélération du réseau cloud, le stockage composable, la sécurité zéro confiance et l'élasticité du calcul GPU dans les clouds d'IA à grande échelle", a déclaré la société.

    Les systèmes GB200 NVL72 deviendront la base de l'infrastructure des instances Blackwell proposées par Microsoft Azure, AWS, Google Cloud et Oracle Cloud Infrastructure, ces trois derniers proposant le service DGX Cloud de Nvidia au-dessus des systèmes. Nvidia prévoit de permettre aux OEM et autres partenaires de construire leurs propres systèmes basés sur Blackwell avec la carte serveur HGX, qui relie huit GPU B100 ou B200. La société n'a pas encore annoncé son intention de proposer les GPU Blackwell dans des cartes PCIe pour des serveurs standard.

    Nvidia dévoile les plateformes Quantum-X800 InfiniBand et Spectrum-X800 Ethernet

    Pour permettre des connexions à large bande entre ces systèmes, Nvidia a annoncé deux nouvelles plates-formes réseau à haut débit qui offrent des vitesses allant jusqu'à 800 Go/s : la plate-forme InfiniBand Quantum-X800 et la plate-forme Spectrum-X800.

    Selon Nvidia, la plate-forme Quantum-X800, qui comprend le commutateur Quantum 3400 et le SuperNIC ConnectX-8, offre une capacité de bande passante cinq fois plus élevée et permet de multiplier par neuf le calcul en réseau, soit 14,4 téraflops.

    Le Spectrum-X800, quant à lui, "optimise les performances du réseau, facilitant un traitement, une analyse et une exécution plus rapides des charges de travail d'IA", selon Nvidia. Cela permet d'accélérer "le développement, le déploiement et le délai de mise sur le marché des solutions d'IA", selon l'entreprise.

    Nom : 1.png
Affichages : 2733
Taille : 11,8 Ko

    Voici l'annonce de Nvidia :

    La plateforme NVIDIA Blackwell arrive pour propulser une nouvelle ère informatique

    Appuyant une nouvelle ère de l'informatique, NVIDIA annonce l'arrivée de la plateforme NVIDIA Blackwell qui permet aux entreprises du monde entier de construire et d'exécuter une IA générative en temps réel sur des grand modèles de langage à des trillions de paramètres, pour un coût et une consommation d'énergie jusqu'à 25 fois inférieurs à ceux de son prédécesseur.

    L'architecture GPU Blackwell comporte six technologies transformatrices pour l'accélération du calcul, qui aideront à réaliser des percées dans le traitement des données, la simulation d'ingénierie, l'automatisation de la conception électronique, la conception de médicaments assistée par ordinateur, l'informatique quantique et l'IA générative - autant d'opportunités industrielles émergentes pour NVIDIA.

    "Pendant trois décennies, nous avons cherché à accélérer l'informatique, dans le but de permettre des percées transformatrices comme l'apprentissage profond et l'IA ", a déclaré Jensen Huang, fondateur et CEO de NVIDIA. "L'IA générative est la technologie déterminante de notre époque. Blackwell est le moteur de cette nouvelle révolution industrielle. En travaillant avec les entreprises les plus dynamiques du monde, nous réaliserons les promesses de l'IA pour chaque industrie. "

    Parmi les nombreuses organisations qui devraient adopter Blackwell figurent Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla et xAI.

    Sundar Pichai, PDG d'Alphabet et de Google : "La mise à l'échelle de services tels que Search et Gmail pour des milliards d'utilisateurs nous a beaucoup appris sur la gestion de l'infrastructure informatique. Alors que nous entrons dans le virage des plateformes d'IA, nous continuons à investir massivement dans l'infrastructure pour nos propres produits et services, ainsi que pour nos clients du cloud. Nous avons la chance d'avoir un partenariat de longue date avec NVIDIA et nous sommes impatients d'apporter les capacités révolutionnaires de la GPU Blackwell à nos clients du Cloud et aux équipes de Google, y compris Google DeepMind, pour accélérer les découvertes futures ".

    Andy Jassy, président et PDG d'Amazon : "Notre collaboration avec NVIDIA remonte à plus de 13 ans, lorsque nous avons lancé la première instance de GPU sur AWS. Aujourd'hui, nous proposons la plus large gamme de solutions GPU disponibles dans le cloud, supportant les charges de travail accélérées les plus avancées technologiquement. C'est pourquoi la nouvelle GPU NVIDIA Blackwell fonctionnera si bien sur AWS et c'est aussi la raison pour laquelle NVIDIA a choisi AWS pour co-développer le projet Ceiba, associant la nouvelle génération de Superchips Grace Blackwell de NVIDIA à la virtualisation avancée du système Nitro d'AWS et à la mise en réseau ultra-rapide Elastic Fabric Adapter, pour la recherche et le développement de NVIDIA dans le domaine de l'IA. Grâce à cet effort conjoint entre les ingénieurs d'AWS et de NVIDIA, nous continuons à innover ensemble pour faire d'AWS le meilleur endroit pour faire tourner les GPU NVIDIA dans le cloud ".

    Michael Dell, fondateur et PDG de Dell Technologies : "L'IA générative est essentielle pour créer des systèmes plus intelligents, plus fiables et plus efficaces. Dell Technologies et NVIDIA travaillent ensemble pour façonner l'avenir de la technologie. Avec le lancement de Blackwell, nous continuerons à fournir la nouvelle génération de produits et de services accélérés à nos clients, en leur apportant les outils dont ils ont besoin pour stimuler l'innovation dans tous les secteurs d'activité."

    Demis Hassabis, cofondateur et PDG de Google DeepMind : "Le potentiel de transformation de l'IA est incroyable, et il nous aidera à résoudre certains des problèmes scientifiques les plus importants au monde. Les capacités technologiques révolutionnaires de Blackwell fourniront le calcul critique nécessaire pour aider les esprits les plus brillants du monde à faire de nouvelles découvertes scientifiques."

    Mark Zuckerberg, fondateur et PDG de Meta : "L'IA alimente déjà tout, de nos grands modèles de langage à nos recommandations de contenu, nos publicités et nos systèmes de sécurité, et elle ne fera que gagner en importance à l'avenir. Nous sommes impatients d'utiliser Blackwell de NVIDIA pour former nos modèles open-source Llama et construire la prochaine génération de produits Meta AI et grand public ".

    Satya Nadella, président exécutif et PDG de Microsoft : "Nous nous engageons à offrir à nos clients l'infrastructure la plus avancée pour alimenter leurs charges de travail d'IA. En apportant le processeur GB200 Grace Blackwell à nos centres de données dans le monde entier, nous nous appuyons sur notre longue histoire d'optimisation des GPU NVIDIA pour notre cloud, alors que nous concrétisons la promesse de l'IA pour les organisations du monde entier. "

    Sam Altman, PDG d'OpenAI : " Blackwell offre des sauts de performance massifs et accélérera notre capacité à fournir des modèles de pointe. Nous sommes ravis de continuer à travailler avec NVIDIA pour améliorer le calcul de l'IA ".

    Larry Ellison, président et CTO d'Oracle : " L'étroite collaboration entre Oracle et NVIDIA permettra des avancées qualitatives et quantitatives dans l'IA, l'apprentissage automatique et l'analyse des données. Pour que les clients découvrent davantage d'informations exploitables, il faut un moteur encore plus puissant comme Blackwell, qui est spécialement conçu pour le calcul accéléré et l'IA générative."

    Elon Musk, PDG de Tesla et de xAI : " Il n'y a actuellement rien de mieux que le matériel NVIDIA pour l'IA. "

    Nommée en l'honneur de David Harold Blackwell - mathématicien spécialisé dans la théorie des jeux et les statistiques, et premier chercheur noir intronisé à l'Académie nationale des sciences - la nouvelle architecture succède à l'architecture NVIDIA Hopper, lancée il y a deux ans.


    Les innovations de Blackwell pour alimenter le calcul accéléré et l'IA générative.

    Les six technologies révolutionnaires de Blackwell, qui, ensemble, permettent l'entraînement à l'IA et l'inférence LLM en temps réel pour des modèles allant jusqu'à 10 000 milliards de paramètres, sont les suivantes :

    • La puce la plus puissante au monde - Avec 208 milliards de transistors, les GPU de l'architecture Blackwell sont fabriqués à l'aide d'un processus TSMC 4NP sur mesure avec des matrices GPU à limite de deux particules connectées par un lien puce à puce de 10 To/seconde pour former une GPU unique et unifiée.

    • Transformer Engine de deuxième génération - Alimenté par une nouvelle prise en charge de la mise à l'échelle des micro-tenseurs et des algorithmes avancés de gestion de la plage dynamique de NVIDIA intégrés dans les frameworks NVIDIA TensorRT-LLM et NeMo Megatron, Blackwell prendra en charge le double des tailles de calcul et de modèle avec de nouvelles capacités d'inférence IA en virgule flottante de 4 bits.

    • NVLink de cinquième génération - Pour accélérer les performances des modèles d'IA à plusieurs trillions de paramètres et de mélanges d'experts, la dernière itération de NVIDIA NVLink® offre un débit bidirectionnel révolutionnaire de 1,8 To/s par GPU, assurant une communication transparente à grande vitesse entre 576 GPU pour les LLM les plus complexes.

    • Moteur RAS - Les GPU alimentées par Blackwell comprennent un moteur dédié à la fiabilité, à la disponibilité et à la facilité d'entretien. En outre, l'architecture Blackwell ajoute des capacités au niveau de la puce pour utiliser la maintenance préventive basée sur l'IA afin d'exécuter des diagnostics et de prévoir les problèmes de fiabilité. Cela permet de maximiser le temps de fonctionnement du système et d'améliorer la résilience pour les déploiements d'IA à grande échelle afin de fonctionner sans interruption pendant des semaines, voire des mois, et de réduire les coûts d'exploitation.

    • IA sécurisée - Des capacités avancées de calcul confidentiel protègent les modèles d'IA et les données des clients sans compromettre les performances, avec la prise en charge de nouveaux protocoles de chiffrement d'interface natifs, qui sont essentiels pour les secteurs sensibles à la confidentialité tels que la santé et les services financiers.

    • Moteur de décompression - Un moteur de décompression dédié prend en charge les formats les plus récents, accélérant les requêtes de base de données pour offrir les meilleures performances en matière d'analyse et de science des données. Dans les années à venir, le traitement des données, pour lequel les entreprises dépensent des dizaines de milliards de dollars par an, sera de plus en plus accéléré par les GPU.


    Une super-puce massive

    La super-puce NVIDIA GB200 Grace Blackwell connecte deux GPU NVIDIA B200 Tensor Core au CPU NVIDIA Grace via une interconnexion puce à puce NVLink à 900 Go/s et à très faible consommation.

    Pour obtenir les meilleures performances en matière d'IA, les systèmes équipés du GB200 peuvent être connectés aux plateformes NVIDIA Quantum-X800 InfiniBand et Spectrum™-X800 Ethernet, également annoncées aujourd'hui, qui fournissent une mise en réseau avancée à des vitesses allant jusqu'à 800Gb/s.

    Le GB200 est un composant clé du NVIDIA GB200 NVL72, un système rack à plusieurs nœuds, refroidi par liquide, pour les charges de travail les plus intensives en calcul. Il associe 36 Grace Blackwell Superchips, qui comprennent 72 GPU Blackwell et 36 CPU Grace interconnectés par NVLink de cinquième génération. De plus, le GB200 NVL72 comprend des unités de traitement de données NVIDIA BlueField®-3 pour permettre l'accélération du réseau du cloud, le stockage composable, la sécurité zéro confiance et l'élasticité du calcul de la GPU dans les clouds d'IA à grande échelle. Le GB200 NVL72 multiplie par 30 les performances par rapport au même nombre de GPU NVIDIA H100 Tensor Core pour les charges de travail d'inférence LLM, et réduit jusqu'à 25 fois les coûts et la consommation d'énergie.

    La plate-forme agit comme une GPU unique avec 1,4 exaflops de performances d'IA et 30 To de mémoire rapide, et constitue un élément de base pour le tout nouveau DGX SuperPOD.

    NVIDIA propose la HGX B200, une carte serveur qui relie huit GPU B200 via NVLink pour prendre en charge les plates-formes d'IA générative basées sur x86. La HGX B200 prend en charge des vitesses de réseau allant jusqu'à 400 Gb/s grâce aux plates-formes de réseau NVIDIA Quantum-2 InfiniBand et Spectrum-X Ethernet.


    Réseau mondial de partenaires Blackwell

    Les produits basés sur Blackwell seront disponibles auprès de partenaires à partir de la fin de l'année.

    AWS, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seront parmi les premiers fournisseurs de services cloud à proposer des instances alimentées par Blackwell, tout comme les sociétés du programme de partenariat cloud de NVIDIA, Applied Digital, CoreWeave, Crusoe, IBM Cloud et Lambda. Les clouds souverains de l'IA fourniront également des services et des infrastructures cloud basés sur Blackwell, notamment Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK et Australian Government Clouds, Scaleway, Singtel, Northern Data Group's Taiga Cloud, Yotta Data Services' Shakti Cloud et YTL Power International.

    GB200 sera également disponible sur NVIDIA DGX™ Cloud, une plateforme d'IA conçue conjointement avec les principaux fournisseurs de services cloud qui donne aux développeurs d'entreprise un accès dédié à l'infrastructure et aux logiciels nécessaires pour construire et déployer des modèles d'IA génératifs avancés. AWS, Google Cloud et Oracle Cloud Infrastructure prévoient d'héberger de nouvelles instances basées sur NVIDIA Grace Blackwell dans le courant de l'année.

    Cisco, Dell, Hewlett Packard Enterprise, Lenovo et Supermicro devraient fournir une large gamme de serveurs basés sur les produits Blackwell, tout comme Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn et ZT Systems.

    En outre, un réseau croissant de fabricants de logiciels, dont Ansys, Cadence et Synopsys - leaders mondiaux de la simulation technique - utiliseront les processeurs Blackwell pour accélérer leurs logiciels de conception et de simulation de systèmes et de pièces électriques, mécaniques et de fabrication. Leurs clients peuvent utiliser l'IA générative et l'informatique accélérée pour mettre leurs produits sur le marché plus rapidement, à moindre coût et avec une plus grande efficacité énergétique.


    Prise en charge des logiciels NVIDIA

    Le portefeuille de produits Blackwell est pris en charge par NVIDIA AI Enterprise, le système d'exploitation de bout en bout pour l'IA de niveau production. NVIDIA AI Enterprise comprend les microservices d'inférence NVIDIA NIM™ - également annoncés aujourd'hui - ainsi que des frameworks, des bibliothèques et des outils d'IA que les entreprises peuvent déployer sur des clouds, des centres de données et des stations de travail accélérés par NVIDIA.
    Source : NVIDIA

    Et vous ?

    Quel est votre avis sur cette annonce ?

    Voir aussi :

    Un cadre de Dell révèle que Nvidia prépare une GPU de 1 000 watts, suggérant des avancées en refroidissement liquide à grande échelle, qui pourraient défier les méthodes traditionnelles

    Les analystes estiment que Nvidia détient 98 % du marché des GPU pour centres de données. L'hégémonie de Nvidia dans ce secteur crucial soulève des questions sur la diversité et la concurrence

    Nvidia met à jour son processeur, le H200 offrant plus de mémoire et un traitement plus rapide pour les charges de travail d'IA, alors que ses concurrents remettent en cause sa domination de l'IA

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    858
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 858
    Points : 15 256
    Points
    15 256
    Par défaut Le PDG de Nvidia annonce que la dernière puce d'IA développée par la société coûtera entre 30 000 et 40 000 $
    Le PDG de Nvidia annonce que la dernière puce d'IA de l'entreprise coûtera entre 30 000 et 40 000 dollars l'unité
    une fourchette de prix similaire à celle de la précédente puce H100

    Nvidia a dévoilé lundi son accélérateur d'IA de nouvelle génération baptisé Blackwell et l'a présenté comme "la puce la plus puissante au monde" pour le développement de l'IA. Le fabricant américain de puces n'avait pas annoncé une fourchette de prix pour sa nouvelle puce, mais c'est désormais chose faite. Le PDG Jensen Huang a déclaré lors d'une interview mardi que la puce Blackwell coûtera entre 30 000 et 40 000 dollars l'unité. Le prix suggère que la puce Blackwell, qui sera probablement très demandée pour le développement et le déploiement de logiciels d'IA comme ChatGPT, sera vendue dans une fourchette similaire à celle de son prédécesseur, le H100.

    Nvidia a annoncé lundi l'arrivée de la plateforme Blackwell, qui permet aux entreprises du monde entier de construire et d'exécuter une IA générative en temps réel sur des modèles de langage à plusieurs milliards de paramètres. D'après l'entreprise, Blackwell comporte six technologies transformatrices pour l'accélération du calcul, qui aideront à réaliser des percées dans le traitement des données, la simulation d'ingénierie, l'automatisation de la conception électronique, la conception de médicaments assistée par ordinateur, l'informatique quantique et l'IA générative - autant d'opportunités industrielles émergentes pour Nvidia.

    Nvidia a ajouté que Blackwell a un coût et une consommation d'énergie jusqu'à 25 fois inférieurs à ceux de son prédécesseur (Hopper 100 ou H100). La GPU H100 coûte entre 25 000 et 40 000 dollars l'unité. La génération Hopper, introduite en 2022, représentait une augmentation significative du prix des puces d'IA de Nvidia par rapport à la génération précédente. Lors d'une interview avec CNBC mardi, le PDG Jensen Huang a annoncé que la nouvelle génération de puces de Nvidia coûtera entre 30 000 et 40 000 dollars l'unité. Il a déclaré à CNBC : « nous avons dû inventer une nouvelle technologie pour rendre cela possible ».


    Il a estimé que Nvidia a dépensé environ 10 milliards de dollars en frais de recherche et de développement. Il a expliqué que le coût n'est pas seulement lié à la puce, mais aussi à la conception des centres de données et à l'intégration dans les centres de données d'autres entreprises. Blackwell existe en trois variantes : B100, B200 et GB200. Les performances de la GPU Blackwell B200, doté de 192 Go de mémoire HBM3E, sont certes impressionnantes, mais le fabricant de puces a révélé que ces chiffres sont le fruit d'une conception à double puce qui embarque 204 milliards de transistors au total (soit 104 milliards par puce).

    L'on ignore si Huang parlait du Blackwell B200 en annonçant cette fourchette de prix, mais il convient de noter que l'accélérateur H100 est une solution à carte unique. Il est probablement intéressant de comparer le prix du B200 à celui du produit H100 NVL à double carte destiné à l'entraînement de grands modèles de langage. Toutefois, le H100 NVL n'est pas vraiment vendu au détail, ce qui rend l'analyse des coûts de Nvidia beaucoup plus compliquée. La plateforme GB200 à double puce de Nvidia avec 192 Go de mémoire HBM3E coûtera nettement plus cher que la GPU GH100 à simple puce avec 80 Go de mémoire.

    En outre, un autre élément à prendre en compte concernant l'accélérateur B200 est que l'entreprise n'est peut-être pas vraiment encline à vendre des modules ou des cartes B200. Elle pourrait être beaucoup plus encline à vendre des serveurs DGX B200 avec huit GPU Blackwell ou même des DGX B200 SuperPOD avec 576 GPU B200 à l'intérieur pour des millions de dollars chacun. Le PDG souligné que l'entreprise préférait vendre des supercalculateurs ou des DGX B200 SuperPOD avec beaucoup de matériel et de logiciels qui se vendent à des prix élevés. Nvidia ne présente pas de cartes ou de modules B200 sur son site Web.

    L'action de Nvidia a grimpé mardi après que le fabricant de puces a annoncé que sa nouvelle puce d'IA phare devrait être livrée plus tard cette année et que le PDG a déclaré qu'il poursuivait un marché de centres de données potentiellement valant plus 250 milliards de dollars. L'action de Nvidia a augmenté de près de 2 % à 901 dollars. Les actions avaient chuté de près de 4 % plus tôt dans la journée. « Nous pensons que nous allons arriver sur le marché dans le courant de l'année », a déclaré la directrice financière de Nvidia Colette Kress, en référence à la nouvelle puce d'IA Blackwell de l'entreprise, présentée lundi.

    Huang a estimé que les entreprises exploitant des centres de données dépenseront plus de 250 milliards de dollars par an pour les moderniser avec des composants informatiques accélérés. Il a déclaré que ce marché augmentait de 25 % par an. Nvidia passe de la vente de puces individuelles à la vente de systèmes complets, ce qui pourrait lui permettre d'obtenir une plus grande part des dépenses dans les centres de données. Cependant, certains analystes financiers appellent à la prudence et invitent les investisseurs à ne pas s'affoler après l'annonce des performances théoriques du nouvel accélérateur d'IA de Nvidia.


    David Wagner, gestionnaire de portefeuille chez Aptus Capital Advisors, a déclaré : « la technologie Blackwell montre une augmentation significative des performances par rapport à Hopper (la puce phare actuelle), mais il est toujours difficile d'être à la hauteur du battage médiatique ». Selon certains analystes financiers, l'IA est en train de devenir une nouvelle bulle spéculative qui pourrait être probablement pire que la bulle des dotcoms. Au centre de l'euphorie de Wall Street pour l'IA, l'action de Nvidia a plus que triplé au cours des 12 derniers mois, ce qui en fait la troisième entreprise américaine la plus précieuse.

    Nvidia annonce une nouvelle génération de puces d'IA tous les deux ans environ. Les plus récentes, comme Blackwell, sont généralement plus rapides et plus économes en énergie, et Nvidia profite de la publicité faite autour d'une nouvelle génération de puce pour engranger des commandes de nouvelles GPU. Blackwell combine deux puces et est physiquement plus grand que la génération précédente. Les puces d'IA de Nvidia ont permis de tripler les ventes trimestrielles de Nvidia depuis que le boom de l'IA a démarré fin 2022, après la publication du chatbot ChatGPT d'OpenAI.

    Au cours de l'année écoulée, la plupart des grandes entreprises et des développeurs d'IA ont utilisé la puce H100 de Nvidia pour entraîner leurs modèles d'IA. Par exemple, les entreprises comme Meta Microsoft et Google ont acheté des centaines de milliers de GPU Nvidia H100 au cours des dernières années.

    Source : Jensen Huang, PDG de Nvidia

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la nouvelle puce Blackwell de Nvidia et de ses performances ?
    Que pensez-vous de la fourchette de prix annoncée pour les nouveaux accélérateurs d'IA de Nvidia ?
    Quels impacts la puce Blackwell pourrait avoir sur Nvidia et sur le développement de l'IA dans les années à venir ?

    Voir aussi

    Nvidia dévoile la GPU Blackwell B200, la "puce la plus puissante au monde" pour l'IA qui "réduit les coûts et la consommation d'énergie jusqu'à 25 fois" par rapport à un H100, selon Nvidia

    La folie spéculative n'en finit plus d'enfler la bulle de l'IA, mais jusqu'à quand ? La capitalisation boursière de Nvidia est désormais supérieure à celle de Google et d'Amazon

    Des conseillers en investissement paient le prix pour avoir vendu ce qui ressemblait beaucoup à des contes de fées sur l'IA, ils sont condamnés à 400 000 $ d'amendes pour avoir dupé leurs clients

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 930
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 930
    Points : 206 860
    Points
    206 860
    Par défaut Huit géants technologiques s'associent sous le nom d'Ultra Accelerator Link pour contrer NVIDIA
    Huit géants technologiques s'associent contre NVIDIA sous le nom d'Ultra Accelerator Link : ils proposent une nouvelle norme d'interconnexion
    pour les puces accélératrices d’IA dans les centres de données

    Le 30 mai 2024, plusieurs grandes entreprises technologiques, dont Google, Intel, Microsoft, Meta, AMD, Hewlett Packard Enterprise, Cisco et Broadcom, ont annoncé la création du Groupe promoteur Ultra Accelerator Link (UALink) pour développer une nouvelle norme d’interconnexion pour les puces accélératrices d’IA dans les centres de données. Cette initiative vise à créer une alternative à la technologie d’interconnexion propriétaire NVLink de Nvidia, qui relie plusieurs serveurs alimentant les applications d’IA d’aujourd’hui, telles que ChatGPT.

    AMD, Broadcom, Cisco, Google, HPE, Intel, Meta et Microsoft ont uni leurs forces pour développer Ultra Accelerator Link (UALink), une nouvelle norme industrielle permettant une interconnexion à grande vitesse et à faible latence pour les accélérateurs d'IA et de HPC de qualité centre de données. UALink permettra d'interconnecter jusqu'à 1 024 accélérateurs au sein d'un même module, ce qui constituerait une avancée majeure. La technologie UALink sera essentiellement en concurrence avec NVLink de Nvidia, c'est pourquoi l'entreprise verte ne participe pas à son développement.

    L'initiative UALink vise à créer une norme ouverte permettant aux accélérateurs d'intelligence artificielle de communiquer plus efficacement. La première spécification UALink, version 1.0, permettra de connecter jusqu'à 1 024 accélérateurs au sein d'un pod de calcul d'IA dans un réseau fiable, évolutif et à faible latence. Cette spécification permet des transferts de données directs entre la mémoire attachée aux accélérateurs, tels que les GPU Instinct d'AMD ou les processeurs spécialisés comme Gaudi d'Intel, améliorant ainsi les performances et l'efficacité du calcul de l'IA.

    Les cœurs battants de l’IA de nos jours résident dans les GPU, capables d’effectuer un grand nombre de multiplications de matrices, nécessaires pour exécuter des architectures de réseaux neuronaux en parallèle. Cependant, un seul GPU ne suffit souvent pas pour les systèmes d’IA complexes. NVLink permet de connecter plusieurs puces accélératrices d’IA au sein d’un serveur ou entre plusieurs serveurs. Ces interconnexions permettent un transfert de données plus rapide et une meilleure communication entre les accélérateurs, leur permettant de travailler ensemble de manière plus efficace sur des tâches complexes telles que la formation de grands modèles d’IA.

    Cette interconnexion est un élément clé de tout système de centre de données IA moderne, et celui qui contrôle la norme de liaison peut dicter efficacement le matériel que les entreprises technologiques utiliseront. Dans cette optique, le groupe UALink cherche à établir une norme ouverte permettant à plusieurs entreprises de contribuer et de développer des avancées matérielles en IA, plutôt que d’être enfermées dans l’écosystème propriétaire de Nvidia. Cette approche est similaire à d’autres normes ouvertes, telles que Compute Express Link (CXL), créée par Intel en 2019, qui fournit des connexions haute vitesse et haute capacité entre les CPU et les périphériques ou la mémoire dans les centres de données.

    « Le travail effectué par les entreprises d'UALink pour créer une structure d'accélération ouverte, performante et évolutive est essentiel pour l'avenir de l'IA », écrit Forrest Norrod, vice-président exécutif et directeur général du Data Center Solutions Group d'AMD dans le communiqué de presse. « Ensemble, nous apportons une vaste expérience dans la création de solutions d'IA à grande échelle et de calcul de haute performance qui sont basées sur des normes ouvertes, l'efficacité et un soutien robuste de l'écosystème. AMD s'engage à apporter son expertise, ses technologies et ses capacités au groupe ainsi qu'à d'autres efforts de l'industrie ouverte pour faire progresser tous les aspects de la technologie de l'IA et solidifier un écosystème ouvert de l'IA. »

    « Broadcom est fier d'être l'un des membres fondateurs du Consortium UALink, en s'appuyant sur son engagement à long terme pour augmenter la mise en œuvre de la technologie AI à grande échelle dans les centres de données. Il est essentiel de soutenir la collaboration d'un écosystème ouvert pour permettre des réseaux évolutifs avec une variété de solutions à haut débit et à faible latence », a déclaré Jas Tremblay, vice-président du groupe Data Center Solutions chez Broadcom.

    Nom : ultra.png
Affichages : 42110
Taille : 149,2 Ko

    Ce n’est pas la première fois que des entreprises technologiques s’alignent pour contrer un leader du marché de l’IA

    En décembre, IBM et Meta, ainsi que plus de 50 autres organisations, ont formé une “Alliance IA” pour promouvoir des modèles IA ouverts et offrir une alternative aux systèmes IA fermés tels que ceux d’OpenAI et de Google. Étant donné la domination du marché de Nvidia, actuel leader du marché des puces IA, il n’est peut-être pas surprenant que l’entreprise n’ait pas rejoint le nouveau Groupe promoteur UALink. Le récent succès financier massif de Nvidia lui permet de continuer à forger son propre chemin. Cependant, à mesure que les grandes entreprises technologiques continuent d’investir dans le développement de leurs propres puces IA, la nécessité d’une technologie d’interconnexion normalisée devient plus pressante, en particulier comme moyen de contrer (ou du moins d’équilibrer) l’influence de Nvidia.

    La version 1.0 de la norme proposée, UALink 1.0, est conçue pour connecter jusqu’à 1 024 GPU au sein d’un seul “pod” informatique, défini comme une ou plusieurs baies de serveurs. La norme est basée sur des technologies telles que l’architecture Infinity d’AMD et devrait améliorer la vitesse et réduire la latence de transfert de données par rapport aux spécifications d’interconnexion existantes

    AMD, Broadcom, Google, Intel, Meta et Microsoft développent tous leurs propres accélérateurs d'IA (enfin, Broadcom les conçoit pour Google), Cisco produit des puces de réseau pour l'IA, tandis que HPE construit des serveurs. Ces entreprises sont intéressées par la standardisation d'un maximum d'infrastructures pour leurs puces, c'est pourquoi elles s'associent au sein du consortium UALink. Étant donné que Nvidia possède sa propre infrastructure, elle n'est naturellement pas intéressée par le codéveloppement d'UALink.

    Source : Ultra Accelerator Link

    Et vous ?

    Quelle est la principale motivation derrière la création de la norme UALink par ces géants de la technologie ? Demandez aux lecteurs de réfléchir à l’importance d’une norme ouverte pour l’innovation et la concurrence dans le domaine de l’IA.
    Quels avantages et inconvénients voyez-vous dans l’utilisation de la technologie d’interconnexion NVLink de Nvidia par rapport à la nouvelle norme UALink ? Encouragez les lecteurs à comparer les deux approches et à discuter de leurs implications.
    Comment pensez-vous que l’adoption généralisée de la norme UALink pourrait affecter le paysage concurrentiel de l’industrie de l’IA ? Demandez aux lecteurs de réfléchir aux conséquences potentielles pour les entreprises technologiques et les utilisateurs finaux.
    Quelles autres normes ouvertes existent dans le domaine de la technologie, et comment UALink se compare-t-elle à celles-ci ? Invitez les lecteurs à explorer d’autres initiatives similaires et à évaluer leurs avantages respectifs.
    Pensez-vous que Nvidia réagira à cette nouvelle norme d’interconnexion ? Si oui, comment ? Encouragez les lecteurs à spéculer sur les prochaines étapes de l’entreprise.

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    858
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 858
    Points : 15 256
    Points
    15 256
    Par défaut Une startup accuse Nvidia et Microsoft d'avoir formé un cartel illégal dans le cadre d'un procès
    Une startup accuse Nvidia et Microsoft d'avoir formé « un cartel illégal » dans le cadre d'un procès pour violation de brevets
    l'infraction présumée porte sur une technologie clé utilisée dans les puces d'IA

    Une startup appelée Xockets intente une action en justice contre Microsoft et Nvidia. La plainte accuse Microsoft et Nvidia d'avoir violé le brevet de Xockets pour les unités de traitement de données avancées (Advanced Data Processing Units - DPU). Elle affirme avoir inventé le DPU avancé, qui améliore l'efficacité des charges de travail intenses. Selon la plainte, Microsoft et Nvidia ont formé "un cartel illégal" qui leur a permis d'éviter de payer le juste prix du marché pour avoir accès à la technologie brevetée de Xockets. La plainte allègue qu'au moins trois des DPU de Nvidia (BlueField, ConnectX et NVLink Switch) sont basés sur la technologie brevetée de Xockets.

    Nvidia utiliserait illégalement la technologie de Xockets dans ses accélérateurs d'IA

    Nvidia est le leader incontesté du marché des puces pour l'IA. La forte demande des puces de Nvidia dans le contexte actuel de la course à l'IA a propulsé le fabricant de puces dans le rang des entreprises les plus précieuses au monde. Nvidia s'est également enrichi considérablement au cours de ces dernières années en raison de la demande pour ses puces d'IA, faisant de nombreux millionnaires parmi ses employés. Les concurrents tels qu'AMD et Intel peinent à rivaliser. Mais Xockets allègue que « Nvidia n'est pas l'inventeur » d'une technologie clé présente dans ses accélérateurs tant convoités dans l'industrie.


    Xockets se présente comme l'inventeur d'une technologie appelée "unité de traitement de données avancée" (Advanced Data Processing Units - DPU). Le DPU permettrait l'accélération du calcul et de l'IA dans les centres de données. La startup a déposé jeudi une action en justice contre Microsoft et Nvidia devant le tribunal de district des États-Unis pour le district occidental du Texas, division Waco. Nvidia aurait violé les brevets de Xockets relatifs à la technologie DPU.

    La startup accuse Microsoft et Nvidia d'avoir formé un cartel illégal par le biais d'une entité appelée RPX qui aurait cherché à fixer artificiellement des prix plus bas pour la technologie. La plainte allègue que Nvidia a enfreint les brevets de Xockets après avoir acquis la startup de technologie d'interconnexion Mellanox en 2020. Mellanox aurait en effet adopté la technologie de Xockets en 2016 à son insu et sans son autorisation. Nvidia et Microsoft n'ont pas commenté la plainte.

    « L'utilisation par Nvidia de la technologie DPU brevetée de Xockets a permis à Nvidia de monopoliser le domaine des serveurs d'IA basés sur le GPU et à Microsoft de monopoliser le domaine des plateformes d'IA basées sur le GPU, et est essentielle à leur succès et à leur capitalisation sur le marché », a déclaré Xockets dans un communiqué. La startup a également déclaré qu'elle avait été rabrouée lorsqu'elle a tenté de négocier avec les géants Microsoft et Nvidia.

    Parin Dalal, fondateur de Xockets, aurait soulevé la question auprès du vice-président de l'activité DPU de Nvidia en février 2022. Mais l'action en justice Xockets accuse Nvidia de poursuivre une stratégie de contrefaçon efficace, qui se résume essentiellement à contrefaire maintenant, et à laisser les avocats régler le reste plus tard. Xockets affirme que trois des DPU de Nvidia - BlueField, ConnectX et NVLink Switch - sont basés sur la technologie brevetée de Xockets.

    Xockets veut empêcher Nvidia de poursuivre la diffusion de sa plateforme Blackwell

    Selon son site Web officiel, Xockets a été fondée en 2012 par le Dr. Parin Dalal et une équipe d'ingénieurs en infrastructure réseau afin de développer leur nouvelle classe de processeurs pour le cloud, le DPU. Xockets affirme que sa technologie libère les processeurs de serveurs, y compris les CPU, les GPU et les hybrides de ces processeurs hôtes, des charges de travail intensives en données qui ralentiraient autrement l'informatique distribuée et la croissance de l'industrie du cloud. La startup demande des injonctions visant à empêcher Nvidia de diffuser sa plateforme d'IA Blackwell et à empêcher Microsoft de l'utiliser.

    En outre, Xockets accuse Nvidia de monopoliser le marché des serveurs GPU pour l'IA et de participer avec Microsoft à un cartel d'achat par le biais d'une organisation appelée RPX. L'entreprise allègue que l'association RPX a été formée à la demande des Big Tech pour permettre et créer des cartels d'acheteurs pour la propriété intellectuelle. RPX aurait permis à des membres tels que Nvidia et Microsoft de boycotter conjointement des innovations comme celles de Xockets.

    Ainsi, selon Xockets, ces géants de l'industrie sont parvenus à faire baisser les prix plus que si chaque entreprise avait négocié seule. Xockets affirme que l'entente présumée permet à Microsoft et à Nvidia de monopoliser l'IA générative basée sur le GPU en contrôlant l'équipement et les plateformes nécessaires pour accéder à cette capacité. Xockets demande au tribunal d'ordonner à ces géants de l'industrie de cesser de violer ses brevets et la législation antitrust.

    Xockets demande aussi des dommages et intérêts pour l'infraction présumée. Bien que Xockets soit confronté à deux des plus grandes entreprises du pays, Robert Cote, avocat spécialisé dans la propriété intellectuelle, a déclaré que « Xockets avait plus que les moyens de s'attaquer à Goliath ». Robert Cote est investisseur et membre du conseil d'administration de Xockets. « Xockets prend position au nom de tous les innovateurs », a déclaré l'avocat dans un communiqué.

    Il a ajouté : « Xockets cherche à faire respecter strictement ses droits de propriété intellectuelle en demandant une injonction pour mettre fin au cartel RPX que Big Tech utilise pour dévaloriser la propriété intellectuelle d'autres innovateurs, et pour mettre fin à la violation délibérée des brevets ». Xockets indique que ses investisseurs comprennent le directeur technique d'Intel, Greg Lavender, et le cofondateur de Yahoo, Jerry Yang, à travers sa société de capital-risque.

    Dalal est actuellement employé par Google, où il est ingénieur principal en apprentissage automatique et en IA, bien que Google ne semble pas jouer un rôle officiel dans le litige. Cote a déclaré qu'il ne pouvait pas faire de commentaires sur Google. En outre, ni Dalal ni Google n'ont commenté l'affaire.

    Sources : document de la plainte (PDF), communiqué de presse

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des accusations portées contre Microsoft et Nvidia par Xockets ?
    Quels pourraient être les impacts sur Nvidia si les allégations de Xockets sont avérées ?

    Voir aussi

    Le PDG de NVIDIA dévoile des plateformes d'IA générative pour chaque industrie : la présentation à COMPUTEX a montré de nouveaux systèmes logiciels et services pour exploiter l'IA générative

    Nvidia dévoile le GPU Blackwell B200, la "puce la plus puissante au monde" pour l'IA qui "réduit les coûts et la consommation d'énergie jusqu'à 25 fois" par rapport à un H100, selon Nvidia

    Huit géants technologiques s'associent contre NVIDIA sous le nom d'Ultra Accelerator Link : ils proposent une nouvelle norme d'interconnexion pour les puces accélératrices d'IA dans les centres de données

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 568
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 568
    Points : 109 582
    Points
    109 582
    Par défaut Les actions de Nvidia bondissent après que le PDG a constaté une demande "folle" pour la puce Blackwell
    Les actions de Nvidia bondissent après que le PDG Jensen Huang a constaté une demande "folle" pour la puce Blackwell, la "puce la plus puissante au monde" pour l'IA d'après Nvidia

    Le PDG de Nvidia Jensen Huang a déclaré que la demande pour les puces Blackwell de nouvelle génération était "folle". "Tout le monde veut en avoir le plus et tout le monde veut être le premier. À la suite de cette déclaration, l'action Nvidia a bondi de 5 %. La hausse de Nvidia est également due au fait que la société a participé au dernier cycle de financement d'OpenAI, le développeur de ChatGPT.

    Un processeur graphique (GPU) est un circuit électronique spécialisé initialement conçu pour accélérer les graphiques informatiques et le traitement des images (soit sur une carte vidéo, soit intégré dans les cartes mères, les téléphones mobiles, les ordinateurs personnels, les stations de travail et les consoles de jeux). Sur le marché des GPU, Nvidia détient 88 % des parts de marché après avoir enregistré une hausse de 8 % de sa part de marché au cours du second trimestre de 2024.

    L'une des raisons de ce bond est la puce GPU Blackwell B200 dévoilée en mars 2024. D'après Nvidia, la puce Blackwell est la "puce la plus puissante au monde" pour l'IA permettant des performances d'inférence jusqu'à 30 fois supérieures et consommant 25 fois moins d'énergie pour les modèles d'IA massifs. Blackwell est la première mise à jour de l'architecture de Nvidia pour les GPU de centres de données depuis que des applications d'IA générative telles que ChatGPT et Stable Diffusion ont été mises en ligne en 2022 et ont déclenché une nouvelle vague d'engouement et de dépenses pour le développement de l'IA.


    Blackwell est fabriqué sur le nœud personnalisé 4NP de TSMC. Le nœud 4NP est une amélioration du nœud 4N utilisé pour les architectures Hopper et Ada Lovelace. Chacune des deux unités de calcul du centre de données B100/B200 comporte 104 milliards de transistors, soit une augmentation de 30 % par rapport aux 80 milliards de transistors de la génération Hopper précédente. Afin de ne pas être limité par la taille de la matrice, l'accélérateur B100 de Nvidia utilise deux matrices GB100 dans un seul boîtier, connectées par un lien de 10 TB/s que Nvidia appelle l'interface NV-High Bandwidth Interface (NV-HBI).

    L'architecture Blackwell introduit des cœurs Tensor de cinquième génération pour les calculs d'intelligence artificielle. Dans le centre de données, Blackwell prend en charge les types de données FP4 et FP6. L'utilisation de données à 4 bits permet une plus grande efficacité et un meilleur débit pour l'inférence de modèles lors de l'apprentissage génératif de l'IA. Nvidia revendique 20 pétaflops (sans compter le gain de 2 fois que l'entreprise revendique pour la sparsité) de calcul FP4 pour la super-puce GB200 à double GPU.

    Avec de telle capacité, le PDG de Nvidia, Jensen Huang, a déclaré que la demande pour les puces Blackwell de nouvelle génération était "folle". Dans une interview du 2 octobre 2024, Jensen Huang a confirmé que les puces Blackwell sont en pleine production malgré les récents problèmes de conception qui ont entraîné des retards dans les déploiements auprès des clients. "Blackwell fonctionne comme prévu", a déclaré Jensen Huang. "Tout le monde veut en avoir le plus et tout le monde veut être le premier." À la suite de cette déclaration, l'action Nvidia a bondi de 5 %.

    Les retards de Blackwell ont inquiété les investisseurs, beaucoup d'entre eux considérant ce déploiement comme le prochain grand catalyseur pour le fabricant de puces, après une récente chute des actions alimentée par une vente à la mi-juillet due au dénouement de l'opération de portage sur le yen. Depuis lors, les marchés se sont détournés des grandes technologies, tandis que d'autres facteurs macroéconomiques, tels que les craintes liées au commerce avec la Chine, ont également pesé sur le cours de l'action Nvidia.

    Mais les investisseurs et les analystes restent largement confiants dans la trajectoire du commerce de l'intelligence artificielle. L'action de Nvidia a encore progressé d'environ 170 % au cours des 12 derniers mois et de plus de 2 700 % au cours des cinq dernières années. Depuis le début de l'année, Nvidia a gagné environ 150 %. 90 % des analystes de Wall Street recommandent d'acheter l'action, la majorité d'entre eux prévoyant qu'elle atteindra environ 147,60 dollars au cours de l'année prochaine, selon les estimations.

    Outre la dernière mise à jour de Blackwell, la hausse de Nvidia est également due au fait que la société a soutenu le développeur de ChatGPT, OpenAI, lors de son dernier cycle de financement, qui s'est achevé le 3 octobre 2024. OpenAI a pu lever 6,6 milliards de dollars supplémentaires pour atteindre une valorisation de 157 milliards de dollars, ce qui constitue un autre signe positif pour le boom de l'IA.

    Gil Luria, analyste logiciel senior chez DA Davidson, a déclaré que "le cycle de financement annoncé aujourd'hui a un effet direct sur Nvidia" en raison de la demande des centres de données qui profiterait au fabricant de puces. "C'est la raison pour laquelle l'action est en hausse aujourd'hui", a-t-il déclaré.


    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Nvidia est sur le point de dépasser Apple en termes de capitalisation boursière grâce à son rôle essentiel dans l'utilisation de l'IA et à l'engouement qui l'entoure

    OpenAI lève plus de 6,5 milliards de dollars et atteint une valorisation de 157 milliards de dollars. L'entreprise demande aux investisseurs de ne pas soutenir la concurrence comme xAI d'Elon Musk

    Le PDG de Nvidia annonce que la dernière puce d'IA de l'entreprise coûtera entre 30 000 et 40 000 dollars l'unité, une fourchette de prix similaire à celle de la précédente puce H100
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 593
    Points : 4 089
    Points
    4 089
    Par défaut
    bondissent ? avez vous vu les graphique boursier ?

  7. #7
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    683
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 683
    Points : 2 531
    Points
    2 531
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    bondissent ? avez vous vu les graphique boursier ?
    C'est vrai que le 4 septembre dernier la compagnie a battu le record de Meta en terme de dégringolade boursière avec un recul de presque 280 milliard de $ de la cotation qui a perdu 10% en une journée.

    La SEC chercherait à les épingler en ce moment :
    Les autorités américaines chercheraient à obtenir des preuves démontrant que le fabricant de puces aurait violé les lois antitrust américaines, en pénalisant ses clients qui n'achètent pas exclusivement ses produits. Le groupe, lui, se défend de pratiques anticoncurrentielles.

  8. #8
    Membre habitué Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    84
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 84
    Points : 132
    Points
    132
    Par défaut
    Pur marketing
    Pure spéculation (les plus avisés revendront avant le prochain plop)
    Cela dit, ça fera une belle calculatrice géante

Discussions similaires

  1. Réponses: 2
    Dernier message: 06/10/2020, 10h13
  2. Réponses: 3
    Dernier message: 18/06/2018, 04h13
  3. Réponses: 0
    Dernier message: 04/10/2017, 07h39
  4. Une startup californienne annonce avoir battu Captcha
    Par ToTo13 dans le forum Algorithmes et structures de données
    Réponses: 6
    Dernier message: 12/11/2013, 18h05
  5. Réponses: 3
    Dernier message: 17/06/2011, 12h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo