IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les actions Nvidia chutent de 4 % après l'annonce que Meta utilisera les TPU de Google dans ses data centers


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 605
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 605
    Par défaut Les actions Nvidia chutent de 4 % après l'annonce que Meta utilisera les TPU de Google dans ses data centers
    Google lance le nouveau processeur TPU Ironwood pour accélérer les applications d'IA telles que ChatGPT, l'inférence effectue des calculs rapides pour fournir des réponses à un chatbot.

    Google a dévoilé Ironwood, sa septième génération de puce d'IA, qui, selon l'entreprise, est conçue pour gérer à grande échelle les charges de travail d'inférence d'IA les plus exigeantes. Google a déclaré que la nouvelle unité de traitement tensoriel (TPU) Ironwood représentait un « changement significatif dans le développement de l'IA » et de l'infrastructure qui alimente ses progrès.

    Google a dévoilé le 9 avril 2025 sa septième génération de puce d'intelligence artificielle, baptisée Ironwood, qui, selon l'entreprise, est conçue pour accélérer les performances des applications d'intelligence artificielle.

    Le processeur Ironwood est conçu pour le type de traitement de données nécessaire lorsque les utilisateurs interrogent des logiciels tels que ChatGPT d'OpenAI. Connues dans le secteur de la technologie sous le nom d'« inférence », ces puces effectuent des calculs rapides pour fournir des réponses à un chatbot ou générer d'autres types de réponses.

    L'effort de plusieurs milliards de dollars et d'une dizaine d'années du géant de la recherche représente l'une des rares alternatives viables aux puissants processeurs d'IA de Nvidia. Les unités de traitement tensoriel (TPU) de Google ne peuvent être utilisées que par les ingénieurs de l'entreprise ou par l'intermédiaire de son service cloud, et ont donné à ses efforts internes en matière d'IA un avantage sur certains rivaux.

    Nom : 1.jpg
Affichages : 7228
Taille : 94,3 Ko

    Depuis au moins une génération, Google a divisé sa famille de puces TPU en une version adaptée à la construction de grands modèles d'IA à partir de zéro. Ses ingénieurs ont créé une deuxième gamme de puces qui supprime certaines des fonctions de construction de modèles en faveur d'une puce qui réduit les coûts d'exécution des applications d'IA.

    La puce Ironwood est un modèle conçu pour l'exécution d'applications d'IA, ou inférence, et est conçue pour fonctionner en groupes de 9 216 puces, a déclaré Amin Vahdat, vice-président de Google. La nouvelle puce, dévoilée lors d'une conférence sur l'informatique dématérialisée, rassemble des fonctions issues de conceptions antérieures et augmente la mémoire disponible, ce qui la rend plus adaptée aux applications d'IA.

    Les puces Ironwood sont deux fois plus performantes pour la quantité d'énergie nécessaire que la puce Trillium de Google annoncée l'année dernière, a déclaré Vahdat. L'entreprise construit et déploie ses modèles d'IA Gemini avec ses propres puces. Elle n'a pas indiqué quel fabricant de puces produisait le modèle de Google.

    Les actions d'Alphabet ont bondi pendant la session régulière pour clôturer en hausse de 9,7 % après que le président Donald Trump a annoncé un revirement soudain sur les droits de douane.


    Voici l'annonce de Google :

    Ironwood : La première TPU de Google pour l'ère de l'inférence

    Aujourd'hui, à l'occasion de Google Cloud Next 25, nous présentons Ironwood, la septième génération de notre Tensor Processing Unit (TPU), notre accélérateur d'IA personnalisé le plus performant et le plus évolutif à ce jour, et le premier conçu spécifiquement pour l'inférence. Depuis plus de dix ans, les TPU alimentent les charges de travail de Google les plus exigeantes en matière d'entraînement et de service d'IA, et permettent à nos clients Cloud d'en faire autant. Ironwood est notre TPU la plus puissante, la plus performante et la plus économe en énergie à ce jour. Il est conçu pour alimenter des modèles d'IA déductifs et réfléchis à grande échelle.

    Ironwood représente un changement significatif dans le développement de l'IA et de l'infrastructure qui alimente ses progrès. Il s'agit de passer de modèles d'IA réactifs qui fournissent des informations en temps réel pour que les gens les interprètent, à des modèles qui fournissent une génération proactive d'idées et d'interprétations. C'est ce que nous appelons « l'ère de l'inférence », où les agents d'IA récupèrent et génèrent des données de manière proactive afin de fournir de manière collaborative des informations et des réponses, et pas seulement des données.

    Ironwood est conçu pour prendre en charge cette nouvelle phase de l'IA générative et ses énormes exigences en matière de calcul et de communication. Il peut accueillir jusqu'à 9 216 puces refroidies par liquide et reliées par un réseau d'interconnexion inter-puces (ICI) d'une puissance de près de 10 MW. Il s'agit de l'un des nouveaux composants de l'architecture Google Cloud AI Hypercomputer, qui optimise le matériel et les logiciels pour les charges de travail d'IA les plus exigeantes. Avec Ironwood, les développeurs peuvent également tirer parti de la pile logicielle Pathways de Google pour exploiter facilement et en toute fiabilité la puissance de calcul combinée de dizaines de milliers de TPU Ironwood.

    Voici un aperçu de la façon dont ces innovations fonctionnent ensemble pour répondre aux charges de travail de formation et de service les plus exigeantes avec des performances, des coûts et une efficacité énergétique inégalés.


    L'ère de l'inférence avec Ironwood

    Ironwood est conçu pour gérer avec élégance les exigences complexes en matière de calcul et de communication des « modèles de pensée », qui englobent les grands modèles de langage (LLM), les mélanges d'experts (MoE) et les tâches de raisonnement avancées. Ces modèles nécessitent un traitement parallèle massif et un accès efficace à la mémoire. En particulier, Ironwood est conçu pour minimiser les mouvements de données et la latence sur la puce tout en effectuant des manipulations massives de tenseurs. À la frontière, les exigences de calcul des modèles de réflexion dépassent largement la capacité d'une seule puce. Nous avons conçu les TPU Ironwood avec un réseau ICI à faible latence et à large bande passante pour prendre en charge une communication coordonnée et synchrone à l'échelle d'un pod TPU complet.

    Pour les clients de Google Cloud, Ironwood est disponible en deux tailles en fonction des exigences de la charge de travail en matière d'IA : une configuration à 256 puces et une configuration à 9 216 puces.

    • En passant à 9 216 puces par pod pour un total de 42,5 Exaflops, Ironwood prend en charge plus de 24 fois la puissance de calcul du plus grand supercalculateur du monde - El Capitan - qui n'offre que 1,7 Exaflops par pod. Ironwood offre la puissance de traitement parallèle massive nécessaire aux charges de travail d'IA les plus exigeantes, telles que les modèles LLM ou MoE denses de très grande taille avec des capacités de réflexion pour l'entraînement et l'inférence. Chaque puce individuelle offre une puissance de calcul maximale de 4 614 TFLOP. Cela représente un saut monumental dans les capacités de l'IA. L'architecture de mémoire et de réseau d'Ironwood garantit que les bonnes données sont toujours disponibles pour soutenir des performances maximales à cette échelle massive.

    • Ironwood est également doté d'un SparseCore amélioré, un accélérateur spécialisé dans le traitement des embeddings ultra-larges, courants dans les charges de travail de classement et de recommandation avancés. La prise en charge élargie de SparseCore dans Ironwood permet d'accélérer un plus large éventail de charges de travail, notamment en dépassant le domaine traditionnel de l'IA pour s'étendre aux domaines financiers et scientifiques.

    • Pathways, le propre runtime ML de Google développé par Google DeepMind, permet un calcul distribué efficace sur plusieurs puces TPU. Pathways sur Google Cloud permet d'aller au-delà d'un seul Ironwood Pod et de composer des centaines de milliers de puces Ironwood afin de repousser rapidement les limites du calcul de l'IA générique.



    Nom : 2.jpg
Affichages : 757
Taille : 29,6 Ko
    Nom : 3.jpg
Affichages : 761
Taille : 58,9 Ko

    Principales caractéristiques d'Ironwood

    Google Cloud est le seul hyperscaler avec plus d'une décennie d'expérience dans la fourniture de calcul d'IA pour soutenir la recherche de pointe, intégrée de manière transparente dans les services à l'échelle planétaire pour des milliards d'utilisateurs chaque jour avec Gmail, Search et plus encore. Toute cette expertise est au cœur des capacités d'Ironwood. Les principales caractéristiques sont les suivantes :

    • Des gains de performance significatifs tout en mettant l'accent sur l'efficacité énergétique, ce qui permet aux charges de travail d'IA de fonctionner de manière plus rentable. Les performances d'Ironwood sont multipliées par deux par rapport à Trillium, notre TPU de sixième génération annoncée l'année dernière. À une époque où l'énergie disponible est l'une des contraintes pour fournir des capacités d'IA, nous offrons une capacité par watt nettement supérieure pour les charges de travail des clients. Nos solutions avancées de refroidissement liquide et la conception optimisée de nos puces peuvent soutenir de manière fiable des performances jusqu'à deux fois supérieures à celles d'un refroidissement à l'air standard, même en cas de charges de travail AI lourdes et continues. En fait, Ironwood est près de 30 fois plus économe en énergie que notre première TPU Cloud de 2018.

    • Augmentation substantielle de la capacité de la mémoire à large bande passante (HBM). Ironwood offre 192 Go par puce, soit 6 fois plus que Trillium, ce qui permet de traiter des modèles et des ensembles de données plus importants, en réduisant le besoin de transferts de données fréquents et en améliorant les performances.

    • La bande passante HBM a été considérablement améliorée, atteignant 7,2 TBps par puce, soit 4,5 fois celle de Trillium. Cette bande passante élevée garantit un accès rapide aux données, ce qui est crucial pour les charges de travail à forte intensité de mémoire, courantes dans l'IA moderne.

    • Amélioration de la bande passante de l'interconnexion inter-puces (ICI). Elle a été portée à 1,2 Tbps bidirectionnel, soit 1,5 fois celle de Trillium, ce qui permet une communication plus rapide entre les puces, facilitant ainsi l'apprentissage distribué et l'inférence à grande échelle.


    Nom : 4.jpg
Affichages : 731
Taille : 27,8 Ko

    Ironwood répond aux exigences de l'IA de demain

    Ironwood représente une percée unique dans l'ère de l'inférence avec une puissance de calcul, une capacité de mémoire, des avancées en matière de réseau ICI et une fiabilité accrues. Ces avancées, associées à une efficacité énergétique presque deux fois supérieure, signifient que nos clients les plus exigeants peuvent prendre en charge des charges de travail de formation et de service avec les performances les plus élevées et la latence la plus faible, tout en répondant à l'augmentation exponentielle de la demande en matière de calcul. Des modèles de réflexion de pointe tels que Gemini 2.5 et AlphaFold, lauréat du prix Nobel, fonctionnent tous aujourd'hui sur des TPU. Avec Ironwood, nous sommes impatients de voir quelles percées en matière d'IA seront réalisées par nos propres développeurs et les clients de Google Cloud lorsqu'il sera disponible dans le courant de l'année.

    Source : Google

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google annonce des machines virtuelles Cloud TPU pour les charges de travail d'IA, conçu pour exécuter des modèles d'apprentissage automatique avec des services d'IA sur Google Cloud

    Intel dévoile les détails de sa nouvelle puce d'IA : l'accélérateur d'IA Intel Gaudi 3 pour lutter contre la domination de Nvidia

    Nvidia annonce que ses puces d'IA de nouvelle génération « Rubin Ultra » et « Feynman » arriveront respectivement en 2027 et en 2028, et propulseront bientôt des robots et des milliards d'agents d'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 944
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 944
    Par défaut Les actions Nvidia chutent de 4 % après l'annonce que Meta utilisera les TPU de Google dans ses data centers
    Les actions Nvidia chutent de 4 % après l'annonce que Meta utilisera les unités de traitement de tenseur (TPU) de Google, une puce spécialisée hautement efficace pour l'IA, dans ses centres de données en 2027

    Les actions de Nvidia ont chuté de 4 % après l'annonce que Meta prévoyait d'utiliser les unités de traitement de tenseur (TPU) de Google dans ses centres de données d'ici 2027. Cette décision, qui pourrait inclure la location de TPU auprès de la division cloud de Google l'année prochaine, annonce une concurrence accrue sur le marché des semi-conducteurs destinés à l'intelligence artificielle (IA). Si Nvidia reste le leader avec ses GPU, les TPU personnalisées de Google pourraient remettre en cause la domination de Nvidia, ce qui pourrait redessiner le paysage des infrastructures d'IA et du développement des microprocesseurs.

    Un Tensor Processing Unit (TPU, unité de traitement de tenseur) est un accélérateur d'IA et un circuit intégré spécifique pour une application (ASIC) développé par Google pour l'apprentissage automatique des réseaux neuronaux, à l'aide du logiciel TensorFlow propre à Google. L'entreprise a commencé à utiliser les TPU en interne en 2015, puis les a mis à la disposition de tiers en 2018, à la fois dans le cadre de son infrastructure cloud et en proposant à la vente une version plus petite de la puce.

    En avril dernier, Google a lancé Ironwood, son nouveau processeur TPU de septième génération, conçu pour gérer à grande échelle les charges de travail d'inférence d'IA les plus exigeantes, essentielles au fonctionnement de modèles comme ChatGPT. Selon l'entreprise, Ironwood marquerait un « changement significatif dans le développement de l'IA et de l'infrastructure qui alimente ses progrès ».

    Les actions de Nvidia ont chuté le mardi 25 novembre 2025 après que The Information ait rapporté que Meta envisageait d'utiliser des puces conçues par Google. Les actions de Nvidia ont chuté de 7 % avant de se redresser pour clôturer en baisse de 4,3 % plus tard dans la journée. Alphabet, la société mère de Google, a quant à elle enregistré une hausse de 4,2 % après un rebond de plus de 6 % le lundi précédent.


    Le lundi 24 novembre 2025, The Information a rapporté que Meta envisageait d'utiliser les unités de traitement tensoriel (TPU) de Google dans ses centres de données en 2027. Meta pourrait également louer des TPU à la division cloud de Google l'année prochaine, selon la publication.

    « Google Cloud connaît une demande croissante pour nos TPU personnalisés et nos GPU NVIDIA ; nous nous engageons à soutenir les deux, comme nous le faisons depuis des années », a déclaré un porte-parole de Google.

    Google a lancé sa première génération de TPU en 2018. Celle-ci était initialement conçue pour son usage interne dans le cadre de ses activités de cloud computing. Depuis, Google a lancé des versions plus avancées de sa puce, conçues pour gérer les charges de travail liées à l'IA.

    Les TPU sont des puces personnalisées et, selon les experts, elles donnent à Google un avantage sur ses concurrents, car elles permettent d'offrir aux clients un produit très efficace pour l'IA. Si Meta utilise les TPU, ce serait une grande victoire pour Google et une validation potentielle de cette technologie.

    Les actions de Broadcom, qui a aidé Google à concevoir ses TPU, ont augmenté de plus de 1 % mardi, après une hausse de 11 % la veille.

    Nvidia demeure le leader du marché grâce à ses processeurs graphiques (GPU), qui sont devenus le principal composant matériel à la base du développement massif des infrastructures d'IA. Même si la domination de Nvidia ne devrait pas être remise en cause à court terme, les TPU de Google renforcent la concurrence sur le marché des semi-conducteurs destinés à l'IA.

    Les actions d'Advanced Micro Devices, auparavant considérées comme le concurrent le plus crédible des GPU de Nvidia, ont clôturé en baisse de 6 % mardi. Les actions du concepteur de puces Arm ont chuté de 4,2 %.

    « On avait le sentiment qu'AMD pourrait devenir le numéro deux [sur le marché], mais il apparaît désormais clairement que cela ne sera peut-être pas possible », a déclaré Gil Luria, responsable de la recherche technologique chez D.A. Davidson.

    Les entreprises qui développent des infrastructures d'IA recherchent des sources d'approvisionnement en puces plus diversifiées afin de réduire leur dépendance vis-à-vis de Nvidia.

    Meta figure parmi les entreprises qui investissent le plus dans les infrastructures d'IA, avec des dépenses en capital estimées entre 70 et 72 milliards de dollars cette année.

    Les fluctuations du cours de l'action interviennent dans un contexte de débat continu sur l'existence d'une « bulle IA » et sur la surévaluation des entreprises technologiques. Nvidia a été au centre de ce débat et a annoncé la semaine dernière des prévisions de ventes supérieures aux attentes pour le trimestre en cours, mais les valeurs technologiques ont chuté par la suite.

    L’adoption des TPU de Google par Meta intervient alors que l’entreprise continue d'accroître sa capacité de calcul. En juillet dernier, Mark Zuckerberg a même installé des tentes industrielles pour héberger des serveurs destinés au développement de sa technologie de superintelligence, faute de centres de données disponibles. Si cette situation souligne les tensions logistiques du secteur, elle reflète également l’intensité de la course à l’IA et l’urgence stratégique qui animent les géants de la technologie.

    Source : The Information

    Et vous ?

    Quelle lecture faites-vous de cette situation ?
    Trouvez-vous l'initiative de Meta d'utiliser les TPU de Google dans ses centres de données crédible ou pertinente ?

    Voir aussi :

    Google annonce des machines virtuelles Cloud TPU pour les charges de travail d'IA, conçu pour exécuter des modèles d'apprentissage automatique avec des services d'IA sur Google Cloud

    Meta utilisera bientôt vos conversations avec son chatbot IA pour cibler vos centres d'intérêt et personnaliser les publicités que vous voyez sur ses plateformes, il ne sera pas possible de s'y soustraire

    L'application Meta AI fait face à une vague de critiques pour avoir compromis la confidentialité des utilisateurs, qui révèlent sans le savoir leurs secrets les plus intimes et leurs conversations privées
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 21
    Dernier message: 18/02/2016, 16h25
  2. Réponses: 7
    Dernier message: 18/10/2012, 18h44
  3. Réponses: 2
    Dernier message: 26/09/2012, 11h14
  4. Integrer les résultats de google dans ma page web
    Par makaphrodite dans le forum Général Conception Web
    Réponses: 4
    Dernier message: 06/10/2007, 02h14
  5. Réponses: 8
    Dernier message: 17/12/2004, 16h58

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo