IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

NVIDIA vient d'engranger 6 milliards de dollars de bénéfices grâce à la montée en puissance de l'IA


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut NVIDIA vient d'engranger 6 milliards de dollars de bénéfices grâce à la montée en puissance de l'IA
    La puce d'IA Nvidia H100 à 40 000 dollars est devenue le matériel informatique le plus convoité au monde
    et rapproche Nvidia des 1 000 milliards de dollars de capitalisation boursière

    Tout porte à croire que Nvidia est l'entreprise qui tire actuellement le plus profit de la course effrénée à l'IA suscitée par le succès éclatant de ChatGPT. Les rapports indiquent que les entreprises et les startups d'IA du monde entier se ruent sur l'accélérateur GPU H100 lancé par Nvidia l'année dernière, ce processeur étant devenu un matériel incontournable dans le développement des modèles d'IA générative. L'accélérateur GPU H100, qui peut coûter jusqu'à 40 000 dollars, aurait permis à Nvidia d'engranger des bénéfices colossaux au cours du deuxième trimestre 2023, le chiffre d'affaires de l'entreprise sur cette période étant évalué à plus de 11 milliards de dollars.

    Nvidia a lancé sa puce d'IA H100 en mars de l'année dernière. L'équipementier américain a décrit cet accélérateur GPU comme l'une des puces les plus puissantes qu'il ait jamais construites, ainsi que l'une des plus chères, puisqu'elle coûte environ 40 000 dollars l'unité. Le lancement semblait mal tombé, car l'annonce a été faite à un moment où les entreprises cherchaient à réduire leurs dépenses dans un contexte d'incertitude économique et d'inflation galopante. Puis, en novembre, ChatGPT a été lancé. Le chatbot d'IA d'OpenAI a été adopté par plus de 100 millions d'utilisateurs en à peine un mois, ce qui a propulsé la course à l'IA à un niveau supérieur.

    Toutefois, pour développer des modèles d'IA surpuissants, il faut une puissance de calcul importante que très peu de matériels sont capables d'offrir à l'heure actuelle. Et c'est là que Nvidia entre en piste. Les grandes entreprises technologiques et les startups se sont précipitées pour obtenir l'accélérateur GPU H100 de Nvidia. « Nous sommes passés d'une année difficile l'année dernière à un retournement de situation du jour au lendemain. Le chatbot d'IA à succès d'OpenAI a été un moment décisif. Il a créé une demande instantanée », a déclaré Jensen Huang, PDG de Nvidia. Cette demande semble avoir fait exploser tous les chiffres de l'équipementier.


    En effet, l'intérêt d'avoir le bon produit au bon moment est apparu clairement cette semaine. Nvidia a annoncé mercredi que son chiffre d'affaires pour les trois mois se terminant en juillet s'élèverait à 11 milliards de dollars (soit plus de 50 % de plus que les estimations précédentes de Wall Street) grâce à la reprise des dépenses des Big Tech dans les centres de données et à la demande pour ses puces d'IA. L'annonce a fait grimper la capitalisation boursière de Nvidia de 184 milliards de dollars en une seule journée jeudi, permettant à Nvidia, qui était déjà la société de puces la plus précieuse au monde, de s'approcher d'une valorisation de 1 000 Mds $.

    La puce H100 s'avère particulièrement populaire auprès des Big Tech, qui construisent des centres de données entiers centrés sur les charges de travail d'IA, et des startups d'IA telles que Stability AI, OpenAI, Anthropic et Inflection AI, car il promet des performances plus élevées qui peuvent accélérer les lancements de produits ou réduire les coûts de formation au fil du temps. Microsoft et Google, qui développent des moteurs de recherche basés sur l'IA générative, comptent parmi les plus gros clients des puces H100 de Nvidia. Les fabricants de serveurs affirment avoir attendu plus de six mois pour recevoir leurs dernières commandes.

    Les investisseurs en capital-risque achètent des puces H100 pour les startups dans lesquelles ils investissent. Elon Musk, qui a acheté des milliers de puces Nvidia pour sa nouvelle startup d'IA X.ai, a déclaré lors d'un événement cette semaine qu'à l'heure actuelle, "les GPU sont beaucoup plus difficiles à obtenir que les médicaments". « Le coût du calcul est devenu astronomique. L'investissement minimum doit être de 250 millions de dollars en matériel serveur [afin de construire des systèmes d'IA générative] », a déclaré Musk. Le milliardaire n'a toutefois pas précisé s'il fait référence aux nouvelles puces H100 ou aux puces de Nvidia en général.

    En outre, la construction du supercalculateur Dojo de Tesla aurait été négativement impactée par cette ruée vers les puces de Nvidia. Dojo devrait permettre à Tesla de rendre sa flotte de véhicules électriques plus autonomes, mais les choses tournent au ralenti. Selon Musk, le projet Dojo a vu le jour uniquement parce que Tesla ne disposait pas de suffisamment de GPU de Nvidia. « Franchement, s'ils pouvaient nous fournir suffisamment de GPU, nous n'aurions peut-être pas besoin de Dojo. Ils ont tellement de clients. Ils ont eu la gentillesse, néanmoins, de donner la priorité à certaines de nos commandes de GPU », a déclaré Musk en juillet.

    Musk a ajouté : « si Tesla avait pu recevoir de Nvidia le nombre de puces dont il avait besoin, elles auraient été intégrées dans des ordinateurs spécialisés qui auraient traité l'énorme quantité de données vidéo, ce qui est nécessaire pour parvenir à une solution généralisée pour l'autonomie. Les données doivent être traitées d'une manière ou d'une autre. Dojo est donc conçu pour être optimisé pour la formation vidéo, et non pour les systèmes d'IA générative, afin de traiter la quantité de données nécessaires pour les véhicules à conduite autonome, ce qui est important pour parvenir à une conduite autonome plus sûre que la conduite humaine ».


    Cependant, les Big Tech et les startups d'IA ne sont pas les seules qui cherchent à sécuriser les accélérateurs GPU H100. La rumeur indique que l'Arabie saoudite et les Émirats arabes unis auraient acheté des milliers de ces puces à 40 000 dollars pour créer leurs propres applications d'IA. Cette forte demande pour une seule puce de la part d'une seule entreprise a donné lieu à une sorte de frénésie d'achat. « Qui obtient combien de H100 et quand, c'est le sujet de discussion dans Silicon Valley », a déclaré Andrej Karpathy, d'OpenAI, sur un message sur X (ex-Twitter, renommé X après le rachat par Elon en novembre de l'année dernière).

    La puce H100 est le successeur des GPU A100 de Nvidia, qui ont été à la base des efforts de développement des grands modèles de langage (LLM) modernes. La puce H100 serait jusqu'à neuf fois plus rapide pour la formation de l'IA et 30 fois plus rapide pour l'inférence que l'A100. « En termes d'accès, oui, c'est ce à quoi ressemble la montée en puissance d'une nouvelle architecture de GPU », a déclaré Ian Buck, responsable de l'activité hyperscale et de calcul de haute performance de Nvidia. La puce H100, d'une taille inhabituelle, est un accélérateur GPU conçu pour fonctionner dans les centres de données et compte 80 milliards de transistors.

    Bien qu'elle soit deux fois plus cher que son prédécesseur, l'A100 lancé en 2020, les premiers utilisateurs affirment que la puce H100 offre des performances au moins trois fois supérieures. « La H100 résout la question de l'évolutivité qui se posait aux créateurs de modèles [d'IA]. C'est important, car cela nous permet de former plus rapidement des modèles plus importants, alors que le problème passe de la recherche à l'ingénierie », a déclaré Emad Mostaque, cofondateur et PDG de Stability AI, l'entreprise à l'origine du service de génération d'images Stable Diffusion. Selon les experts, la demande des puces H100 devrait se poursuivre à la hausse.

    Nvidia apparaît donc comme l'un des premiers grands gagnants de l'essor de l'IA générative, une technologie qui menace de remodeler les industries, de produire d'énormes gains de productivité et de déplacer des millions d'emplois. De plus, il semble que les commandes pour les accélérateurs de Nvidia soient déjà épuisées jusqu'en 2024. Et comme on s'attend à ce que le marché des accélérateurs représente environ 150 milliards de dollars d'ici 2027, il semble qu'il n'y ait rien d'autre que du vert dans l'avenir. La puce H100 est basée sur une nouvelle architecture appelée "Hopper" (du nom de la pionnière américaine de la programmation Grace Hopper).

    Et bien sûr, ce boom est meilleur pour certains que pour d'autres. Certains rapports indiquent qu'en raison de l'explosion de l'intérêt pour les serveurs d'IA par rapport aux installations HPC plus traditionnelles, les fabricants de DDR5 ont dû revoir leurs prévisions quant au degré de pénétration du marché par les nouveaux produits de mémoire. On s'attend désormais à ce que l'adoption de la DDR5 n'atteigne la parité avec la DDR4 qu'au troisième trimestre 2024.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la forte demande pour les puces Nvidia H100 ?
    Selon vous, jusqu'à quand cette tendance va-t-elle se poursuivre ?
    Quels impacts cela pourrait avoir sur Nvidia et l'industrie des puces en général ?

    Voir aussi

    Les nouvelles GPU NVIDIA pour l'intelligence artificielle seraient jusqu'à 4,5 fois plus rapide que les précédentes, selon NVIDIA

    Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative au sein de Twitter, des critiques suggèrent qu'il souhaitait une "pause" afin de rattraper son retard sur OpenAI

    NVIDIA se tourne vers la location de supercalculateurs d'IA à partir du cloud pour diffuser sa nouvelle technologie et facture ce service à 37 000 dollars par mois pour huit puces A100 ou H100

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Nvidia vient d'engranger 6 milliards de dollars de bénéfices grâce à la montée en puissance de l'IA
    Nvidia vient d'engranger 6 milliards de dollars de bénéfices grâce à la montée en puissance de l'IA
    la croissance explosive de Nvidia est propulsée par sa puce H100 destinée à la formation de l'IA

    Nvidia bat des records depuis que l'arrivée de ChatGPT a contribué à relancer de plus belle la course à l'IA. La dernière preuve de l'ascension de Nvidia est apparue lors de la publication de ses résultats trimestriels. Le fabricant américain de puces a engrangé 13,5 milliards de dollars de recettes entre mai et juillet et un bénéfice de 6,188 milliards de dollars en conséquence, soit une augmentation de 843 % d'une année sur l'autre. La demande sans précédent pour les puces d'IA H100 de la société lui a permis de surmonter les difficultés qu'elle aurait pu rencontrer pour vendre des GPU pour ordinateurs de bureau et portables dans un secteur des PC en perte de vitesse.

    Microsoft, Amazon, OpenAI et d'autres entreprises engagées dans la course à l'IA alimentent une demande sans précédent pour les accélérateurs GPU de Nvidia. Cette situation a propulsé la croissance de Nvidia au cours du dernier trimestre. Mercredi, Nvidia a publié les résultats du trimestre couvrant la période de mai à juillet et ces derniers ont dépassé ses prévisions. Le chiffre d'affaires de Nvidia a doublé par rapport à la même période de l'année dernière pour atteindre 13,51*milliards de dollars, culminant avec un bénéfice de 6,2 milliards de dollars, soit 2,48 dollars par action, plus de neuf fois plus que ce que le fabricant de puces a réalisé il y a un an.

    Ces deux chiffres sont nettement supérieurs aux prévisions des analystes interrogés par FactSet Research. Et l'élan se poursuit. Nvidia prévoit que son chiffre d'affaires pour le trimestre allant d’août à octobre s'élèverait à 16 milliards de dollars, soit environ le triple de ses ventes par rapport à la même période de l'année dernière. FactSet a rapporté que les analystes tablaient sur un chiffre d'affaires de 12,6 milliards de dollars pour cette période englobant le troisième trimestre fiscal de Nvidia. Les centres de données ont représenté un chiffre record de 10,32 milliards de dollars et Nvidia a réalisé un bénéfice de 6,188 milliards de dollars en conséquence.


    « Nous nous attendons à ce que la croissance séquentielle soit largement tirée par les centres de données », a déclaré Colette Kress, directrice financière de Nvidia, lors de la conférence téléphonique sur les résultats. Les ventes liées aux jeux ont augmenté de 22 % d'une année sur l'autre pour atteindre 2,48 milliards de dollars de revenus. Nvidia affirme qu'elle pense que le jeu est de retour à la croissance, avec une opportunité de mise à niveau non spécifiée pour les joueurs. La société pense que 20 % de sa base d'installation a maintenant une RTX 3060 ou mieux. Le cours de l'action de Nvidia a bondi de 6 % après la publication de ces chiffres.

    Le cours de l'action a déjà plus que triplé depuis le début de l'année, une hausse qui a porté la valeur de marché de Nvidia à 1 200 milliards de dollars, un seuil qui a propulsé l'entreprise parmi l'élite de l'industrie technologique. Si les actions augmentent de la même manière au cours de la séance régulière de jeudi, cela marquera un nouveau record pour les actions de Nvidia et augmentera la valeur de marché de l'entreprise d'environ 75 milliards de dollars supplémentaires. Apple, Microsoft, Amazon et Alphabet, la société mère de Google, sont d'autres piliers qui sont actuellement ou ont été récemment évalués à 1 000 milliards de dollars ou plus.

    Aujourd'hui, tous ces géants de la technologie, ainsi qu'une longue série d'autres entreprises et de startups spécialisées dans l'IA, s'arrachent les puces d'IA Nvidia. La puce H100 de Nvidia, un accélérateur GPU, serait actuellement le matériel informatique le plus recherché au monde pour la formation de systèmes d'IA générative. Lancé en mars de l'année dernière, cet accélérateur GPU a été décrit par Nvidia comme l'une des puces les plus puissantes qu'il ait jamais construites, ainsi que l'une des plus chères, puisqu'elle coûte environ 40 000 dollars l'unité. Le fabricant de puces a déclaré qu'il avait du mal à faire face à la demande, qui ne cesse d'augmenter.

    « Il s'agit d'une nouvelle plateforme informatique, si vous voulez, d'une nouvelle transition informatique qui est en train de se produire », a déclaré Jensen Huang, PDG de Nvidia, mercredi lors de la conférence téléphonique avec des analystes. Le lancement de la puce H100 semblait mal tombé, car l'annonce a été faite à un moment où les entreprises cherchaient à réduire leurs dépenses dans un contexte d'incertitude économique et d'inflation galopante. Puis, en novembre, ChatGPT a été lancé. Le chatbot d'IA d'OpenAI a été adopté par plus de 100 millions d'utilisateurs en à peine un mois, ce qui a propulsé la course à l'IA à un niveau supérieur.

    La puce H100 s'avère particulièrement populaire auprès des Big Tech, qui construisent des centres de données entiers centrés sur les charges de travail d'IA, et des startups d'IA telles que Stability AI, OpenAI, Anthropic et Inflection AI, car il promet des performances plus élevées qui peuvent accélérer les lancements de produits ou réduire les coûts de formation au fil du temps. Microsoft et Google, qui développent des moteurs de recherche basés sur l'IA générative, comptent parmi les plus gros clients des puces H100 de Nvidia. Les fabricants de serveurs affirment avoir attendu plus de six mois pour recevoir leurs dernières commandes.

    Nom : lknb.png
Affichages : 1843
Taille : 158,9 Ko

    Les investisseurs en capital-risque achètent des puces H100 pour les startups dans lesquelles ils investissent. Elon Musk, qui a acheté des milliers de puces Nvidia pour sa nouvelle startup d'IA X.ai, a déclaré lors d'un événement cette semaine qu'à l'heure actuelle, "les GPU sont beaucoup plus difficiles à obtenir que les médicaments". « Le coût du calcul est devenu astronomique. L'investissement minimum doit être de 250 millions de dollars en matériel serveur [afin de construire des systèmes d'IA générative] », a déclaré Musk. Le milliardaire n'a toutefois pas précisé s'il fait référence aux nouvelles puces H100 ou aux puces de Nvidia en général.

    Cependant, les Big Tech et les startups d'IA ne sont pas les seules qui cherchent à sécuriser les accélérateurs GPU H100. La rumeur indique que l'Arabie saoudite et les Émirats arabes unis auraient acheté des milliers de ces puces à 40 000 dollars pour créer leurs propres applications d'IA. Cette forte demande pour une seule puce de la part d'une seule entreprise a donné lieu à une sorte de frénésie d'achat. « Qui obtient combien de H100 et quand, c'est le sujet de discussion dans Silicon Valley », a déclaré Andrej Karpathy, d'OpenAI, sur un message sur X (ex-Twitter, renommé X après le rachat par Elon en novembre de l'année dernière).

    La puce H100 est le successeur des GPU A100 de Nvidia, qui ont été à la base des efforts de développement des grands modèles de langage (LLM) modernes. La puce H100 serait jusqu'à neuf fois plus rapide pour la formation de l'IA et 30 fois plus rapide pour l'inférence que l'A100. « En termes d'accès, oui, c'est ce à quoi ressemble la montée en puissance d'une nouvelle architecture de GPU », a déclaré Ian Buck, responsable de l'activité hyperscale et de calcul de haute performance de Nvidia. La puce H100, d'une taille inhabituelle, est un accélérateur GPU conçu pour fonctionner dans les centres de données et compte 80 milliards de transistors.

    Bien qu'elle soit deux fois plus chère que son prédécesseur, l'A100 lancée en 2020, les premiers utilisateurs affirment que la puce H100 offre des performances au moins trois fois supérieures. « La H100 résout la question de l'évolutivité qui se posait aux créateurs de modèles [d'IA]. C'est important, car cela nous permet de former plus rapidement des modèles plus importants, alors que le problème passe de la recherche à l'ingénierie », a déclaré Emad Mostaque, cofondateur et PDG de Stability AI, l'entreprise à l'origine du service de génération d'images Stable Diffusion. Selon les experts, la demande des puces H100 devrait se poursuivre à la hausse.

    La prochaine puce d'IA de Nvidia, la GH200, sera disponible à la mi-2024 pour un prix non divulgué, de sorte que la demande du prochain trimestre concernera toujours les puces d'IA existant. « Notre offre au cours des prochains trimestres continuera à augmenter à mesure que nous réduisons le temps de cycle et que nous travaillons avec nos partenaires fournisseurs pour augmenter la capacité », a déclaré Kress. Elle estime que le GPU L40 de Nvidia aidera à répondre à la demande croissante pour de nombreux types de charges de travail. Les principaux rivaux de Nvidia, Intel et AMD, n'ont pas encore de réponses convaincantes au silicium d'IA de Nvidia.

    Le MI300 d'AMD pourrait commencer à arriver dès le quatrième trimestre et se déployer au début de 2024. AMD et Intel tentent également, au moins temporairement, de minimiser l'importance de placer ces puces d'IA dans des serveurs dans le cloud. « Si vous vous projetez dans cinq ans, vous verrez l'IA dans tous les produits d'AMD, et ce sera le plus grand moteur de croissance », a déclaré Lisa Su, PDG d'AMD, en mai dernier.

    Source : Nvidia

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    La puce d'IA Nvidia H100 à 40 000 dollars est devenue le matériel informatique le plus convoité au monde, et rapproche Nvidia des 1 000 milliards de dollars de capitalisation boursière

    NVIDIA franchit temporairement la barre des 1 000 milliards de dollars de capitalisation boursière grâce à la forte demande en IA, devenant le premier fabriquant de puces à rejoindre les GAFA

    Conférence NVIDIA GTC : les annonces phares concernant l'IA générative et le cloud, le métavers, les grands modèles de langage et les différents partenariats avec Microsoft, Google, Oracle et AWS

Discussions similaires

  1. Google, Samsung, Intel, ARM et Fujitsu veulent vaincre la domination de NVIDIA sur le marché des puces d'IA
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 4
    Dernier message: 27/03/2024, 18h36
  2. Réponses: 0
    Dernier message: 21/04/2022, 05h27
  3. Réponses: 0
    Dernier message: 18/04/2021, 20h52
  4. Une enquête révèle comment Activision Blizzard a placé des milliards de dollars de bénéfices
    Par Christian Olivier dans le forum Développement 2D, 3D et Jeux
    Réponses: 4
    Dernier message: 07/08/2019, 06h37
  5. Google annonce 8.44 milliards de dollars de bénéfices pour 2010
    Par Katleen Erna dans le forum Actualités
    Réponses: 8
    Dernier message: 24/01/2011, 19h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo