Après avoir investi 30 milliards de $, Nvidia prévoit apparemment de développer une nouvelle puce pour OpenAI, qui sera conçue pour le calcul d'inférence plutôt que pour la formation de l'IA
Nvidia serait en train de développer une nouvelle puce d'inférence IA pour OpenAI, marquant ainsi un changement stratégique majeur par rapport à sa stratégie axée sur les GPU, après avoir investi 30 milliards de dollars dans l'éditeur de ChatGPT. Ce processeur, qui devrait être dévoilé lors de la prochaine conférence GTC de Nvidia, est conçu pour optimiser les charges de travail d'inférence, un type de traitement qui permet aux modèles d'IA de répondre à des requêtes, plutôt que l'entraînement des modèles. Reposant sur la technologie LPU de la start-up Groq, cette nouvelle puce devrait rivaliser directement avec les processeurs d'inférence développés par Google ou Amazon.
Nvidia Corporation est une entreprise technologique américaine dont le siège social est situé à Santa Clara, en Californie. Fondée le 5 avril 1993 par Jensen Huang, Chris Malachowsky et Curtis Priem, elle développe des processeurs graphiques (GPU), des systèmes sur puce (SoC) et des interfaces de programmation d'applications (API) pour la science des données, le calcul haute performance, les jeux vidéo et les applications mobiles et automobiles. Nvidia est considérée comme une entreprise de la Big Tech.
OpenAI est un organisme américain de recherche en IA composé à la fois d'une fondation à but non lucratif et d'une société d'intérêt public (PBC) à but lucratif contrôlée, dont le siège social est situé à San Francisco. Il vise à développer une intelligence artificielle générale (AGI) « sûre et bénéfique », qu'il définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique ». OpenAI est largement reconnue pour avoir développé la famille GPT de grands modèles de langage, dont fait partie ChatGPT. Le lancement de ce dernier en novembre 2022 a été saluée comme ayant catalysé l'intérêt général pour l'IA générative.
Selon un récent rapport du Wall Street Journal, Nvidia travaillerait actuellement sur un nouveau processeur spécialement conçu pour le calcul d'inférence IA (un type de traitement qui permet aux modèles IA de répondre aux requêtes des utilisateurs), spécifiquement pour OpenAI. L'annonce devrait être faite lors de la conférence des développeurs GTC de Nvidia qui se tiendra le mois d'Avril prochain à San José, et le fabricant de ChatGPT aurait déjà accepté de devenir l'un de ses plus gros clients.
Qu'est-ce que cette nouvelle puce et en quoi est-elle différente ?
La récente décision de Nvidia marque essentiellement l'un des changements les plus importants dans la stratégie commerciale de l'entreprise depuis le début du boom de l'IA. En effet, Nvidia domine depuis longtemps le marché des GPU, des puces spécialisées utilisées pour l'entraînement des modèles d'IA.
Parmi celles-ci figurent les séries de GPU Hopper, Blackwell et Rubin. Selon la plupart des analystes, Nvidia contrôlerait plus de 90 % du marché des GPU.
Mais les GPU ont été conçus dans une optique de formation, et aujourd'hui, le secteur de l'IA passe de la création de modèles à leur utilisation effective, ce qui limite considérablement leur utilisation. Le nouveau processeur est conçu pour le calcul d'inférence plutôt que pour la formation. Nvidia intégrera la technologie de Groq, une start-up spécialisée dans les puces qu'elle a rachetée pour environ 20 milliards de dollars à la fin de l'année dernière.
Les puces de Groq utilisent une architecture différente de celle des GPU de Nvidia. Appelées unités de traitement du langage ou LPU, elles sont conçues pour traiter les tâches d'inférence avec une efficacité nettement supérieure. Ces puces sont essentiellement en concurrence avec les TPU de Google, qui sont devenues très demandées ces derniers temps.
Pourquoi le calcul d'inférence est-il important ?
L'inférence IA est le processus par lequel un modèle entraîné répond à une question ou accomplit une tâche. Elle comprend deux étapes principales : le pré-remplissage, où le modèle interprète la requête de l'utilisateur, et le décodage, où il génère une réponse mot par mot. De nombreuses entreprises qui développent et exploitent des agents IA ont constaté que les GPU de Nvidia sont non seulement trop coûteux, mais qu'ils consomment également trop d'énergie et ne sont pas adaptés aux charges de travail d'inférence, en particulier lorsque l'IA agentique a connu une croissance exponentielle.
Cela a mis en évidence une lacune dans la gamme de produits de Nvidia, que ses concurrents se sont empressés de combler. Google et Amazon ont tous deux développé leurs propres puces axées sur l'inférence, et le mois de février dernier, OpenAI a signé un partenariat informatique de plusieurs milliards de dollars avec Cerebras, dont le PDG affirme que sa puce d'inférence surpasse les GPU de Nvidia en termes de vitesse.
Ce rapport intervient alors que Nvidia a pris part à un tour de table de 110 milliards de dollars, annoncé la semaine de fin février, qui comprend un investissement de 30 milliards de dollars de la part de Nvidia elle-même.
Le repositionnement stratégique de Nvidia s'effectue alors que sa croissance reste largement tirée par l'expansion du marché des centres de données. Le groupe a récemment publié des résultats supérieurs aux attentes pour le quatrième trimestre de son exercice fiscal 2025, grâce à l'essor continu des infrastructures d'IA. Son activité centres de données, qui constitue le cœur de sa stratégie d'IA, a enregistré une progression de 75 % sur un an, avec un chiffre d'affaires de 62,3 milliards de dollars. Cette performance a contribué à la poursuite de la hausse du titre en Bourse, prolongeant ainsi son rallye de l'année.
Source : The Wall Street Journal
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de Nvidia crédible ou pertinente ?
Voir aussi :
Le projet d'IA à 100 milliards de dollars d'OpenAI et NVIDIA nécessitera une puissance équivalente à celle de 10 réacteurs nucléaires. « C'est un projet gigantesque », a reconnu le PDG de NVIDIA Jensen Huang
L'accord de 100 milliards de dollars entre Nvidia et OpenAI semble avoir disparu. Deux géants de l'IA ébranlent la confiance du marché après l'échec de leur investissement








Quel est votre avis sur le sujet ?
Répondre avec citation
Partager