Une start-up chinoise fondée par un ingénieur de Google affirme avoir développé sa propre puce TPU pour l'IA, un ASIC personnalisé qui serait 1,5 fois plus rapide que le GPU A100 de Nvidia et 42 % plus efficace.

La start-up chinoise Zhonghao Xinying, spécialisée dans les puces d'IA, s'est imposée comme une alternative locale à Nvidia avec une nouvelle unité de traitement tensoriel (TPU), alors même que Google bouleverse la domination de Nvidia sur le marché en vendant ses puces tensorielles maison directement aux grandes entreprises technologiques. Sa puce phare, baptisée Chana, offre jusqu'à « 1,5 fois les performances de calcul » de l'unité de traitement graphique (GPU) à cœur tensoriel A100 de Nvidia, tout en « réduisant la consommation d'énergie de 30 % pour des charges de travail équivalentes sur des modèles de grande taille et en ramenant le coût de calcul unitaire à 42 % de celui de Nvidia », selon la société.

L'unité de traitement Tensor (TPU) est un circuit intégré spécifique à une application (ASIC) accélérateur d'IA développé par Google pour l'apprentissage automatique des réseaux neuronaux, à l'aide du logiciel TensorFlow de Google. Google a commencé à utiliser les TPU en interne en 2015, puis les a mis à la disposition de tiers en 2018, à la fois dans le cadre de son infrastructure cloud et en proposant à la vente une version plus petite de la puce.

Par rapport à un processeur graphique (GPU), les TPU sont conçus pour un volume élevé de calculs de faible précision (par exemple, une précision de seulement 8 bits) avec plus d'opérations d'entrée/sortie par joule, sans matériel pour la rastérisation/le mappage de texture. Différents types de processeurs sont adaptés à différents types de modèles d'apprentissage automatique. Les TPU sont bien adaptés aux réseaux neuronaux convolutifs (CNN), tandis que les GPU présentent des avantages pour certains réseaux neuronaux entièrement connectés et que les CPU peuvent présenter des avantages pour les réseaux neuronaux récurrents (RNN).

En 2020, Nvidia a dévoulé la architecture GPU Ampere A100 dédiée à l'apprentissage automatique et aux marchés HPC. Le PDG de Nvidia avait affirmé que l'A100 est le GPU NVIDIA le plus grand et le plus puissant jamais conçu, et qu'il s'agit également de la plus grande puce jamais produite sur un processus semi-conducteur de 7 nm. L'A100 compte au total 6912 cœurs FP32 CUDA, 432 cœurs Tensor et 108 SM (Streaming Multiprocessors), couplés à 40 Go de mémoire HBM2e avec une bande passante mémoire maximale de 1,6 To/s.

Récemment, la start-up chinoise Zhonghao Xinying, spécialisée dans les puces d'IA, s'est imposée comme une alternative locale à Nvidia avec une nouvelle unité de traitement tensoriel (TPU), alors même que Google bouleverse la domination de Nvidia sur le marché en vendant ses puces tensorielles maison directement aux grandes entreprises technologiques. La société basée à Hangzhou, également connue sous le nom de CL Tech, a déclaré que son unité de traitement tensoriel à usage général (GPTPU) développée en interne serait produite en série dès 2023. Sa puce phare, baptisée Chana, offre jusqu'à « 1,5 fois les performances de calcul » de l'unité de traitement graphique (GPU) à cœur tensoriel A100 de Nvidia, tout en « réduisant la consommation d'énergie de 30 % pour des charges de travail équivalentes sur des modèles de grande taille et en ramenant le coût de calcul unitaire à 42 % de celui de Nvidia », selon la société.

Nom : 1.jpg
Affichages : 165008
Taille : 59,8 Ko

Les GPU sont des processeurs parallèles polyvalents et flexibles, initialement conçus pour les applications graphiques, mais désormais largement utilisés pour l'entraînement et l'inférence en matière d'IA. Les TPU, un type de circuit intégré spécifique à une application, développés par Google pour l'entraînement et l'inférence des réseaux neuronaux, offrent une efficacité et un débit supérieurs pour certaines charges de travail liées à l'apprentissage profond.

Les GPU de Nvidia sont considérés comme le pilier de l'essor mondial de l'IA, faisant de l'entreprise la plus valorisée au monde, mais de nombreux clients souhaitent réduire leur dépendance vis-à-vis du géant américain des puces électroniques. La récente décision de Google de fournir des TPU directement à Anthropic et Meta Platforms, au lieu de se contenter de leur donner accès à ses services cloud, l'a positionnée davantage comme un concurrent direct de Nvidia. Cette décision a même ébranlé la confiance du marché dans la domination à long terme de Nvidia sur le secteur.

Les développeurs chinois d'IA ont commencé à chercher des alternatives à Nvidia après que Washington ait restreint l'accès aux produits les plus avancés de l'entreprise américaine. Zhonghao Xinying a été fondée en 2018 par Yanggong Yifan, un ingénieur électricien formé à Stanford et à l'université du Michigan qui a précédemment travaillé sur des architectures de puces chez Google et Oracle. Selon la société chinoise, il a participé à l'ensemble du cycle de conception et de déploiement des TPU v2, v3 et v4 de Google.

Le directeur technique et cofondateur Zheng Hanxun, diplômé de l'université de Californie du Sud, a précédemment occupé des postes dans la conception de puces chez Oracle et au centre de recherche et développement de Samsung Electronics à Austin, au Texas, selon son profil LinkedIn.

Dans une interview publiée en septembre par Sincere Capital, un investisseur dans la start-up, Yanggong a déclaré que pendant ses années passées dans la Silicon Valley, « il était devenu évident qu'une guerre technologique entre les États-Unis et la Chine était inévitable », ajoutant que l'IA et l'infrastructure informatique qui la sous-tend « deviendraient le principal champ de bataille ». En tant que société de puces sans usine, Zhonghao Xinying sous-traite la fabrication de ses puces à des fonderies, mais elle n'a pas révélé publiquement le nom de ses partenaires de fabrication.

Yanggong a déclaré que le TPU de Zhonghao Xinying dispose « de cœurs IP entièrement autocontrôlés, d'un jeu d'instructions personnalisé et d'une plateforme informatique entièrement interne ». « Nos puces ne dépendent d'aucune licence technologique étrangère, ce qui garantit leur sécurité et leur durabilité à long terme au niveau architectural », a-t-il déclaré. « Nous avons multiplié les performances par 1,5 tout en réduisant la consommation d'énergie de 75 % grâce à un processus de fabrication d'un ordre de grandeur inférieur à celui des principales puces GPU étrangères », a déclaré Yanggong dans un discours prononcé en juin.

La société a également présenté Taize, un cluster de calcul à grande échelle reliant 1 024 unités Chana, capable de prendre en charge la formation de modèles de base de l'ordre du 1000 milliards de paramètres. Yanggong a déclaré lors d'une conférence industrielle en juin qu'un « TPU de nouvelle génération » était en cours de développement, sans donner de calendrier. En août, Zhonghao Xinying a annoncé son intention d'acquérir le fabricant de pièces automobiles Tip Corporation, coté à la bourse de Shanghai, une décision qui a fait passer le cours de l'action de ce dernier d'environ 30 yuans à l'époque à 140 yuans aujourd'hui.

Les documents financiers relatifs à l'acquisition ont révélé qu'en 2023, Zhonghao Xinying avait généré 485 millions de yuans (68,4 millions de dollars) de chiffre d'affaires et 81,3 millions de yuans de bénéfice net, provenant en grande partie du TPU Chana. Le chiffre d'affaires est passé à 598 millions de yuans en 2024, avec un bénéfice net en légère hausse à 85,9 millions de yuans, mais pour le premier semestre de cette année, l'entreprise a déclaré un chiffre d'affaires de seulement 102 millions de yuans et une perte de 144 millions de yuans.

Zhonghao Xinying a signé un accord de garantie de performance avec ses investisseurs qui oblige la société à entrer en bourse d'ici la fin de 2026, faute de quoi une clause de rachat d'actions sera déclenchée. Tip Corporation a déclaré dans un récent communiqué que la start-up spécialisée dans les puces électroniques avait déjà commencé à travailler sur une introduction en bourse distincte.

Cette annonce intervient alors que trois ans après l’essor de l’IA générative, l’enthousiasme semble faiblir. De nouvelles données du Census Bureau des États-Unis montrent une baisse de l’utilisation de l’IA au travail : la part des travailleurs utilisant l'IA dans la production de biens et services est passée à environ 11 %. La chute est particulièrement marquée dans les grandes entreprises, celles qui emploient plus de 250 personnes. D’autres sources rapportent un taux d’usage supérieur, mais toutes convergent vers l’idée d’un ralentissement. Cette situation est une douche froide pour les investisseurs qui, attirés par les promesses, avaient misé massivement sur l’IA en espérant des profits très élevés.

Source : Zhonghao Xinying, Yanggong

Et vous ?

Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les actions Nvidia chutent de 4 % après l'annonce que Meta utilisera les unités de traitement de tenseur (TPU) de Google, une puce spécialisée hautement efficace pour l'IA, dans ses centres de données en 2027

À la fin du deuxième trimestre 2025, Nvidia contrôle environ 94 % du segment des cartes graphiques dédiées, tandis que la part de marché d'AMD est tombée à seulement 6 % et celle d'Intel est inexistante

Percée chinoise dans les puces analogiques : 1 000 fois plus rapide que le GPU Nvidia, la puce résout un "problème centenaire" en traitant les données grâce à des courants continus dans ses circuits physiques