IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 467
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 467
    Points : 197 991
    Points
    197 991
    Par défaut Le PDG d'Intel déplore la domination « extraordinairement chanceuse » de Nvidia sur l'IA
    Le PDG d'Intel déplore la domination « extraordinairement chanceuse » de Nvidia sur l'IA et affirme qu'Intel aurait dû être à cette place
    s'il n'avait pas annulé le GPU Larrabee

    Intel, la grande enseigne américaine des semi-conducteurs, a exprimé sa frustration face à la suprématie de Nvidia dans le domaine de l’intelligence artificielle. Le PDG d’Intel, Pat Gelsinger, a déclaré que Nvidia avait bénéficié d’un coup de chance avec sa plateforme CUDA, qui permet d’optimiser les performances de ses accélérateurs d’IA. Selon lui, l’industrie entière est motivée à éliminer le marché de CUDA, qu’il considère comme des « douves peu profondes et petites». Gelsinger a fait ces remarques lors de l’événement “AI Everywhere”, qui a vu le lancement des nouveaux processeurs Intel Core Ultra et Intel 5e génération Xeon “Emerald Rapids”. Il a affirmé qu’Intel avait les capacités et les technologies pour rivaliser avec Nvidia dans l’IA, notamment grâce à son modèle OpenVINO, qui permet de déployer des applications d’IA sur différents types de périphériques.

    Lors de l'événement "AI Everywhere", qui a marqué le dévoilement des nouveaux processeurs Intel Core Ultra et Intel Xeon de 5e génération "Emerald Rapids" de Chipzilla, le PDG d'Intel est monté sur scène et a fait des remarques assez controversées sur les énormes progrès de NVIDIA sur les marchés de l'IA, affirmant que l'industrie est prête à « éliminer » le marché CUDA, grâce à l'adoption de nouvelles méthodes de formation, et à prendre de l'avance sur le « marché de l'inférence ».

    Citation Envoyé par Pat Gelsinger (PDG d'Intel)
    Vous savez, l’ensemble du secteur est motivé pour éliminer le marché CUDA. Nous considérons les douves CUDA comme peu profondes et petites. Parce que l'industrie est motivée à proposer un ensemble plus large de technologies pour une formation élargie, l'innovation, la science des données, etc.
    Il a également minimisé l’importance du marché de l’entraînement des modèles d’IA, où Nvidia domine largement, pour se concentrer sur le marché de l’inférence, qui consiste à exécuter les modèles d’IA une fois entraînés. Il a soutenu que l’inférence est l’avenir de l’IA, car elle est plus efficace en termes de ressources et peut s’adapter aux données qui changent rapidement sans avoir besoin de réentraîner un modèle. Intel estime donc que l'avenir de l'IA réside dans « l'inférence » plutôt que dans les modèles de formation, Intel étant à la traîne par rapport à ses concurrents dans le deuxième domaine. La déclaration de Gelsinger montre que la société considère le succès actuel de NVIDIA comme une simple « bulle » destinée à éclater à tout moment.

    L'approche de l'entreprise en matière d'IA est conçue de manière à donner la priorité aux développements d'inférence plutôt qu'à la formation de modèles, principalement parce qu'elle [l'inférence] est beaucoup plus économe en ressources et peut s'adapter à des données en évolution rapide sans avoir besoin de recycler un modèle. Intel a également profité de l'occasion pour vanter son modèle OpenVINO, affirmant qu'il serait vital de faire la transition vers les marchés de nouvelle génération.

    « Au fur et à mesure que l'inférence se produit, une fois que vous avez formé le modèle… Il n'y a pas de dépendance à CUDA », a poursuivi Gelsinger. « La question est de savoir si vous pouvez bien exécuter ce modèle ? » Il a suggéré qu'avec Gaudi 3, présenté pour la première fois sur scène, Intel serait à la hauteur du défi et serait également capable de le faire avec les PC Xeon et Edge. Non pas qu'Intel ne soit pas compétitif en matière de formation, mais « fondamentalement, c'est sur le marché de l'inférence que se déroulera le jeu », a déclaré Gelsinger.

    Sandra Rivera, vice-présidente exécutive et directrice générale du groupe Data Center and AI chez Intel, a ajouté que l'échelle d'Intel, du centre de données au PC, pourrait en faire un partenaire de choix, car il peut produire en volume.


    Deux entreprises avec deux visions différentes sur l'évolution de l'IA

    Les deux entreprises ne sont pas d’accord sur le rythme de développement des puces et sur la question de savoir si la loi de Moore s’applique toujours.

    En 2022, le PDG d'Intel a déclaré lors d'un événement de lancement de l'entreprise que la loi de Moore, une règle empirique du fondateur d'Intel datant des années 1960, est « bien vivante ». La théorie, avancée par Gordon Moore, implique que les puces continueront à devenir plus rapides et moins chères à un rythme prévisible.

    Nvidia, quant à elle, prêche un message très différent. Le co-fondateur et PDG Jensen Huang a déclaré l'année dernière que la loi de Moore était terminée : « La méthode d'utilisation des transistors par force brute et les progrès de la loi de Moore ont largement fait leur chemin », a déclaré Huang aux investisseurs après avoir dévoilé de nouveaux produits. Selon lui, il faut désormais recourir à des architectures spécialisées et à des logiciels avancés pour faire progresser l’IA.

    Cette divergence souligne le contraste frappant entre Intel et les autres sociétés américaines de semi-conducteurs. Intel s'est engagé à continuer de fabriquer certaines de ses puces, tandis que Nvidia et d'autres s'appuient principalement sur des fonderies tierces en dehors des États-Unis.

    La loi de Moore fait spécifiquement référence au nombre de transistors sur une puce, qui, selon Moore, doublerait tous les deux ans, améliorant ainsi la puissance de traitement. Pour augmenter le nombre de transistors sur une puce, il faut les rendre plus petits, ce qui nécessite des progrès dans la technologie de fabrication.

    Nvidia mise sur sa plateforme CUDA, lancée en 2007, pour offrir une expérience unifiée et optimisée aux développeurs et aux chercheurs en IA. CUDA permet d’utiliser les GPU de Nvidia, qui sont conçus pour le calcul parallèle, pour accélérer les applications d’IA, notamment l’entraînement des modèles. Nvidia affirme que sa plateforme CUDA est utilisée par plus de 2,3 millions de développeurs dans le monde, et qu’elle est compatible avec les principaux frameworks et bibliothèques d’IA.

    Nvidia a également renforcé sa position dans l’IA en rachetant des entreprises clés, comme Mellanox, qui fournit des solutions de connectivité pour les centres de données, ou Arm, qui conçoit des processeurs basse consommation pour les appareils mobiles et embarqués. Nvidia espère ainsi créer un écosystème d’IA complet, allant du cloud aux périphéries.

    Nom : nvidia.png
Affichages : 2196
Taille : 587,4 Ko

    Un coup de chance ?

    Discutant de l'émergence des GPU comme arme de choix pour les derniers grands modèles d'IA, Gelsinger a expliqué qu'il pensait que Nvidia et son PDG, Jensen Huang, se trouvaient au bon endroit au bon moment. « Jensen a travaillé très dur pour avoir de la puissance de calcul, principalement pour les graphiques au début, puis a eu une chance extraordinaire », a déclaré Gelsinger. Gelsinger a également souligné que l'IA ne faisait pas partie du plan initial de Nvidia en matière de GPGPU ou de calcul général sur GPU. « Ils ne voulaient même pas soutenir leur premier projet d'IA », a observé Gelsinger.

    De plus, Gelisnger a également affirmé que les choses auraient été très différentes si Intel n'avait pas annulé le projet Larrabee peu de temps après son départ pour 11 ans en dehors d'Intel avant de revenir en tant que PDG en février 2021.

    « Quand j'ai été expulsé d'Intel il y a 13 ans, ils ont tué le projet qui aurait changé la forme de l'IA », a déclaré Gelsinger à propos de Larrabee.

    Larrabee était un projet de GPU Intel bien avant ses cartes graphiques Arc actuelles, destiné à affronter Nvidia sur les marchés des jeux et des GPGPU grâce à des dizaines de minuscules cœurs de processeur x86. Les cartes graphiques de jeu ont été annulées fin 2009 et le reste du projet Larrabee s'est flétri par la suite.

    Le moment exact où Nvidia a réellement commencé à développer ses GPU en tant qu’outils pour les modèles d’IA est discutable. Bien sûr, l’IA n’était pas de la partie lorsque l’entreprise a commencé à promouvoir le GPGPU.

    Voici un passage d'un premier document Nvidia de 2007 décrivant l'utilisation et les avantages de sa plate-forme originale CUDA 1.0, le logiciel qui permet un calcul haute performance sur les GPU Nvidia, au-delà du simple traitement graphique et d'image.

    De nombreux algorithmes en dehors du domaine du rendu et du traitement d'images sont accélérés par le traitement parallèle des données, du traitement général du signal ou de la simulation physique à la finance informatique ou à la biologie computationnelle.
    C'était tout à fait typique du message de Nvidia à l'époque. En d’autres termes, aucune mention de l’IA comme application clé du GPGPU. Dans une certaine mesure, Gelsinger a donc raison.

    D’un autre côté, c’est Nvidia qui a poussé le GPGPU vers l’avant, qui a développé les GPU CUDA et Nvidia pour en faire la puissante force qu’ils sont aujourd’hui. Nvidia n’a peut-être pas nécessairement vu la révolution de l’IA venir dès le début. Mais la société a misé bien plus que quiconque sur les GPU.

    Alors Nvidia a-t-il eu de la chance ? En partie, certainement. Nvidia et Huang n’avaient pas vu venir la révolution de l’IA lorsqu’ils se sont lancés dans le projet GPGPU. Ou s’ils l’ont fait, ils ont manifestement omis de le mentionner. Mais il y a aussi un dicton attribué à tout le monde, du père fondateur Thomas Jefferson au golfeur professionnel Gary Player, qui s'applique sûrement ici et ressemble à ceci : « Je crois beaucoup à la chance, et je trouve que plus je travaille dur, plus j'ai de la chance ».

    Nom : many.png
Affichages : 1236
Taille : 15,7 Ko

    Concurrence n'exclut pas partenariat

    Intel n'a pas encore totalement montré de quoi il était capable dans le segment de l'IA, ou du moins n'a pas affiché tout le savoir-faire de l'entreprise. De nos jours, NVIDIA domine le segment de l'IA non pas parce qu'elle dispose d'une puissance de calcul élevée, mais parce que la plate-forme CUDA a été conçue de manière à tirer parti des performances des accélérateurs d'IA de l'entreprise. Un excellent exemple de ceci est la manière dont Team Green a récemment été comparé au MI300X récemment dévoilé par AMD, affirmant avoir des performances bien supérieures simplement en raison de sa pile logicielle autour de l'écosystème CUDA.

    Les accélérateurs Gaudi d'Intel ont été une alternative populaire aux solutions d'IA de NVIDIA, offrant un rapport performances/prix très compétitifs et la société a présenté son accélérateur Gaudi 3 de nouvelle génération lors de l'événement qui vise un lancement en 2024.

    On s'attend à ce que NVIDIA, Intel et AMD continuent de faire évoluer leurs écosystèmes logiciels tels que OpenVINO et ROCm, offrant des performances optimisées et davantage de fonctionnalités dans le domaine de l'IA. Mais pour l’instant, CUDA est la norme du marché et il sera intéressant de voir si cela change à l’avenir.

    Parallèlement, le PDG d'Intel a également déclaré que même si AMD et NVIDIA sont leurs concurrents, ils aimeraient également que les puces des deux sociétés soient produites dans ses usines. NVIDIA a également laissé entendre qu'elle ferait appel à un troisième partenaire de fabrication (Intel) pour répondre à ses besoins d'approvisionnement si nécessaire.

    Citation Envoyé par Pat Gelsinger (PDG d'Intel)
    Nous sommes traditionnellement présents sur ce marché ensemble, mais sous d'autres aspects, très différents. Notre stratégie IDM 2.0 est un élément crucial qui explique pourquoi nous différons. Nous fabriquons à grande échelle, nous fabriquons nos puces, mais de plus en plus, comme vous le savez, nous devenons également un fabricant de puces pour tout le monde. Et puis vous avez le modèle sans usine et ce sont des sociétés comme Qualcomm, NVIDIA, AMD et qui ont de nombreux produits que nous construisons également, donc essentiellement, je bâtis deux entreprises en une seule, un fabricant majeur de fonderie à grande échelle et une entreprise sans usine.

    Donc, d'une certaine manière, je suis en compétition et d'une certaine manière, je veux fabriquer toutes les puces de NVIDIA, toutes les puces d'AMD ainsi que toutes les puces d'Intel à l'avenir et nous reconstruisons les chaînes d'approvisionnement mondiales pour la ressource la plus importante du futur.
    Conclusion

    Intel regrette donc la domination « extraordinairement chanceuse » de Nvidia dans l’IA, et affirme que cette place aurait pu être la sienne si les circonstances avaient été différentes. Mais il ne suffit pas de se lamenter sur le passé, il faut aussi se projeter vers l’avenir. Intel devra faire ses preuves dans le marché de l’IA, en proposant des solutions innovantes et compétitives, qui puissent rivaliser avec la plateforme CUDA de Nvidia. Sinon, Intel risque de rester à la traîne, tandis que Nvidia continuera à renforcer sa position de leader dans l’IA.

    Intel doit faire beaucoup plus de travail s'il est déterminé à détrôner la domination de CUDA sur les marchés de l'IA, et même s'il pense que l'inférence est la voie à suivre, Team Blue doit agir rapidement. Il sera intéressant de voir comment les marchés évolueront à l’avenir, mais dans son état actuel, NVIDIA mènera le train jusqu’en 2024.

    Sources : NVIDIA (rachat de Mellanox), guide CUDA, vidéo dans le texte

    Et vous ?

    Pensez-vous qu’Intel a raison de regretter la domination de Nvidia dans l’IA ?
    Quels sont les avantages et les inconvénients de la plateforme CUDA de Nvidia ?
    Comment Intel peut-il rattraper son retard dans le domaine de l’IA ?
    Quel est l’impact de la fin de la loi de Moore sur l’innovation dans les semi-conducteurs ?
    Quelles sont les applications potentielles de l’IA dans votre domaine d’activité ou d’intérêt ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Nouveau Candidat au Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Juin 2023
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1
    Points : 1
    Points
    1
    Par défaut Oh
    La haine n'est pas sans remède, sauf quand elle naît de la jalousie.

Discussions similaires

  1. Réponses: 4
    Dernier message: 01/04/2022, 13h28
  2. Réponses: 3
    Dernier message: 25/01/2021, 13h54
  3. Réponses: 8
    Dernier message: 11/12/2019, 17h19

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo