IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Nvidia utilise l'IA pour produire ses puces d'IA plus rapidement


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    May 2019
    Messages
    1 802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : May 2019
    Messages : 1 802
    Points : 35 767
    Points
    35 767
    Par défaut Nvidia utilise l'IA pour produire ses puces d'IA plus rapidement
    Nvidia serait le principal investisseur dans les entreprises d'IA,
    avec plus de deux douzaines d'investissements dans ce domaine au cours d'une année

    Nvidia, le principal fabricant mondial de puces, s'est positionné comme le premier investisseur dans les start-ups d'intelligence artificielle (IA), renforçant ainsi sa dominance en tant que fournisseur majeur de processeurs d'IA. La société basée dans la Silicon Valley a révélé avoir investi dans « plus de deux douzaines » d'entreprises cette année, couvrant divers secteurs, de nouvelles plateformes d'IA évaluées à plusieurs milliards de dollars à des start-ups plus petites œuvrant dans des domaines tels que les soins de santé et l'énergie.

    L'intelligence artificielle, qui relevait autrefois de l'imagination et des romans de science-fiction, est devenue non seulement une réalité, mais aussi un mode de vie. Il y a quelques décennies, l'IA n'était qu'une hypothèse sur les capacités potentielles des machines. Depuis, elle est rapidement devenue une fonction technologique essentielle qui alimente tout, de nos entreprises à nos voitures.

    Nom : NvidiaTop.jpg
Affichages : 1554
Taille : 88,1 Ko

    Les possibilités fonctionnelles de l'IA ont progressé à pas de géant au cours de la dernière décennie, et aucun endroit n'est plus propice à ce développement que la Silicon Valley. Berceau de géants de l'IA tels qu'Intel et Google, la Bay Area favorise l'émergence de talents et d'innovations extraordinaires dans le domaine de l'apprentissage automatique en profondeur. Ces entreprises d'IA de la Silicon Valley démontrent tout ce qui peut être accompli lorsque les humains et les machines travaillent côte à côte.

    Selon les données de Dealroom, Nvidia a participé à 35 opérations en 2023, soit près de six fois plus que l'année précédente, consolidant sa position en tant qu'investisseur à grande échelle le plus actif dans le secteur de l'IA. Cette activité a dépassé celle des grandes sociétés de capital-risque de la Silicon Valley. Les investissements, totalisant 872 millions de dollars sur neuf mois, ont été dirigés vers des entreprises utilisant les technologies de Nvidia.

    En mai, NVIDIA a temporairement rejoint le club des entreprises américaines valant plus de 1 000 milliards de dollars, devenant ainsi le premier fabricant de puces à atteindre cette valeur. La rapide ascension de la valeur de l'action, triplée en moins de huit mois, reflète l'intérêt croissant pour l'intelligence artificielle, en particulier avec les avancées rapides de l'IA générative capable de mener des conversations humaines et de créer divers contenus, des blagues à la poésie.

    Depuis octobre, la valorisation de NVIDIA a augmenté d'environ 200 %, surpassant de loin tous les autres fabricants de puces de l'indice S&P 500. Certains analystes estiment même que le boom de l'IA indique un potentiel supplémentaire de croissance de la valeur de l'action. Les actions de l'entreprise ont connu une augmentation spectaculaire de 25 %, suivie d'une autre hausse de 5 % hier. Cette tendance à la hausse survient alors que la société anticipait une forte demande pour les avancées réalisées dans le domaine de l'IA.

    En comparaison, le deuxième plus grand fabricant de puces au monde, Taiwan Semiconductor Manufacturing, est valorisé à environ 14 437 milliards de dollars taïwanais, soit environ 471 milliards de dollars américains.

    Nvidia accélère dans l'IA : des investissements stratégiques dans des start-ups clés

    Les investissements récents de Nvidia comprennent des entreprises telles qu'Inflection AI, Cohere, Hugging Face et CoreWeave, toutes clientes de Nvidia, utilisant ses puces GPU ou ses logiciels. Les investissements ont été réalisés sans chercher à obtenir des conditions spéciales, selon Mohamed Siddeek, directeur de NVentures, la branche de capital-risque de Nvidia. L'entreprise investit de manière stratégique pour tirer parti de ses partenariats et s'affirmer comme un acteur clé dans le secteur en pleine expansion de l'IA.

    Inflection AI, Inc. est une entreprise technologique fondée en 2022 par les entrepreneurs Reid Hoffman, Mustafa Suleyman et Karén Simonyan. La société se spécialise dans le développement de matériel et d'applications axées sur l'apprentissage automatique et l'intelligence artificielle générative.

    Le produit phare d'Inflection AI, lancé à grande échelle, est un chatbot baptisé Pi, abréviation de personal intelligence. Conçu pour agir comme un assistant personnel basé sur l'intelligence artificielle, Pi vise à offrir une expérience utilisateur unique. Les objectifs de l'entreprise pour Pi incluent la fourniture d'un soutien émotionnel aux utilisateurs humains. Le chatbot est conçu pour maintenir un dialogue textuel interactif, caractérisé par des éléments de gentillesse, un ton diplomatique sur des sujets sensibles et une touche d'humour.

    Des comparaisons ont été établies entre le chatbot Pi et ChatGPT, un autre chatbot créé par OpenAI. Ces comparaisons portent sur divers aspects, mettant en lumière les différences et les similitudes entre les deux technologies.

    Cohere est désormais valorisée à plus de deux milliards de dollars. Elle ne prévoit pas de lancer de produits destinés au grand public rivalisant avec OpenAI, mais vise plutôt le marché professionnel. La boîte à outils Retrieval Augmented Generation (RAG) de Cohere permet aux LLM de répondre avec précision aux questions et de résoudre les tâches en utilisant les données de l'entreprise comme source de vérité.

    Les grands modèles de langage (LLM) de Cohere aident les entreprises à créer des applications puissantes et sécurisées qui recherchent, comprennent le sens et conversent dans le texte. Le modèle Embed de Cohere permet aux entreprises de créer des solutions de recherche puissantes. Embed est le modèle d'intégration le plus performant de l'industrie en anglais et dans plus de 100 autres langues, garantissant des résultats pertinents.

    Fondée en 2016 par les entrepreneurs français Clément Delangue, Julien Chaumond et Thomas Wolf, Hugging Face avait initialement pour objectif de créer une application de chatbot destinée aux adolescents. Cependant, après avoir ouvert le modèle de cette application, elle a élargi son champ d'action pour se concentrer sur le développement d'une plateforme d'apprentissage automatique. En 2017, Hugging Face a déménagé aux États-Unis pour rechercher des financements.

    Le 3 août 2022, la société a annoncé la disponibilité d'une version entreprise de son Hugging Face Hub public, prenant en charge le déploiement SaaS ou sur site (source secondaire souhaitée). En février 2023, Hugging Face a dévoilé un partenariat avec Amazon Web Services (AWS), rendant ainsi ses produits accessibles aux clients d'AWS. La société a également précisé que la prochaine génération de BLOOM serait exécutée sur Trainium, une puce d'apprentissage automatique développée par Amazon. Actuellement, Hugging Face compte 80 employés en France.

    La société spécialisée dans l'infrastructure d'IA en cloud, CoreWeave, a récemment vu sa valorisation grimper à 7 milliards de dollars suite à un investissement minoritaire de 642 millions de dollars dirigé par Fidelity Management and Research Co. Cette nouvelle évaluation, rapportée par Bloomberg, marque une augmentation notable par rapport à la fin du mois de mai, où la société avait déjà élargi sa série B pour atteindre une valorisation de 2 milliards de dollars.

    L'offre secondaire a également vu la participation de l'Investment Management Corporation of Ontario, Jane Street, J.P. Morgan Asset Management, Nat Friedman, Daniel Gross, Goanna Capital, Zoom Ventures, et d'autres encore. Michael Intrator, cofondateur et PDG, a commenté cette transaction en soulignant que la croissance rapide de l'entreprise a été reconnue par des investisseurs institutionnels de premier plan. Il a également noté que cette transaction met en évidence la reconnaissance du marché envers leur performance de leader, leur avantage technologique significatif et l'adoption soutenue par les clients.

    Microsoft dévoile ses puces d'IA Maia 100 : une concurrence sérieuse pour Nvidia

    Les experts estiment que Microsoft peut rattraper les leaders du secteur tels que Nvidia et Advanced Micro Devices (AMD) avec son premier Maia 100. Les nouvelles puces de Microsoft sont dotées de 105 milliards de transistors et prennent en charge les types de données 8 bits et les processeurs de serveurs refroidis par liquide.
    Microsoft a annoncé son intention d'introduire une puce d'intelligence artificielle pour soutenir le développement de grands modèles de langage (LLM) et une autre pour les processus informatiques courants.

    La grande entreprise technologique a confirmé son intention de se lancer dans la fabrication de puces lors de sa conférence Ignite, après des mois de préparation. Baptisée Maia 100, la dernière puce d'intelligence artificielle de Microsoft devrait concurrencer de près les puces de Nvidia tout en étant moins chère. Les puces H100 de Nvidia, dont le prix avoisine les 40 000 dollars, ont conquis une grande partie du marché, et l'entreprise s'efforce de répondre à la demande. Microsoft souhaite également répondre à la demande des développeurs d'IA avec son offre d'exécution de processus d'IA dans le cloud.

    Microsoft prévoit de lancer deux puces d'intelligence artificielle (IA) : Maia 100 pour soutenir le développement de grands modèles de langage (LLM), et Cobalt 100 pour les processus informatiques courants. La puce Maia 100 vise à concurrencer les puces Nvidia, tout en étant moins chère. Des tests effectués par Microsoft avec les systèmes d'OpenAI ont donné des résultats impressionnants, accélérant l'apprentissage et l'inférence des modèles. Microsoft souhaite également répondre à la demande des développeurs d'IA avec son offre d'exécution de processus d'IA dans le cloud.

    Les experts estiment que Microsoft peut rattraper les leaders du secteur avec ces nouvelles puces, qui sont dotées de 105 milliards de transistors et prennent en charge les types de données 8 bits et les processeurs refroidis par liquide. Microsoft prévoit de partager la conception de son rack unique avec ses partenaires, mais ne divulguera pas la conception des puces. En plus de Maia 100, Microsoft a également annoncé la puce Cobalt 100, concurrente directe des processeurs Intel pour les tâches informatiques générales.

    L'ascension fulgurante de Nvidia en tant qu'investisseur principal dans les start-ups d'intelligence artificielle suscite une attention significative. En tant que principal fabricant mondial de puces, l'entreprise de la Silicon Valley a non seulement renforcé sa domination en tant que fournisseur majeur de processeurs d'IA, mais elle s'est également imposée comme l'investisseur le plus actif dans ce secteur.

    Nvidia investit plus de 872 millions de dollars dans des start-ups d’IA en 2023

    L'annonce selon laquelle Nvidia a investi dans « plus de deux douzaines » d'entreprises cette année, couvrant un large éventail de secteurs allant des nouvelles plateformes d'IA à des start-ups plus petites dans les domaines tels que les soins de santé et l'énergie, souligne la diversité de son portefeuille d'investissements. Ces investissements, totalisant 872 millions de dollars sur neuf mois, ont été dirigés vers des entreprises utilisant les technologies de Nvidia, consolidant ainsi son influence dans le développement et l'expansion de l'IA.

    La statistique impressionnante de 35 opérations en 2023, soit près de six fois plus que l'année précédente, témoigne de l'engagement soutenu de Nvidia dans l'écosystème des start-ups d'IA. Cette activité a même surpassé celle des grandes sociétés de capital-risque de la Silicon Valley, démontrant la volonté de Nvidia d'occuper une position de leader dans ce domaine.

    Les investissements récents de Nvidia dans des entreprises telles qu'Inflection AI, Cohere, Hugging Face et CoreWeave, toutes clientes de Nvidia, soulignent la stratégie de l'entreprise visant à investir de manière stratégique pour consolider ses partenariats existants. Le fait que ces investissements n'aient pas été assortis de conditions spéciales témoigne de la confiance de Nvidia dans la qualité et le potentiel de ces start-ups.

    L'approche proactive de Nvidia en tant qu'investisseur dans l'IA, combinée à ses investissements stratégiques et à sa position dominante dans la fabrication de puces, laisse présager une continuité de son influence dans le secteur en pleine expansion de l'intelligence artificielle. Cependant, il sera intéressant de suivre l'évolution de ces investissements et de voir comment ils contribueront à façonner l'avenir de l'industrie de l'IA.

    Source : Nvidia

    Et vous ?

    Quelles implications cela pourrait-il avoir sur la concurrence et la diversité du secteur de l'IA si Nvidia devenait effectivement le principal investisseur ?

    Y a-t-il des préoccupations éthiques ou des risques potentiels associés au fait qu'une seule entreprise, en l'occurrence Nvidia, domine l'investissement dans les entreprises d'IA ?

    Quel est le potentiel impact sur l'innovation technologique et la diversité des solutions d'IA si un seul acteur, en l'occurrence Nvidia, détient une influence prédominante en tant qu'investisseur ?

    Voir aussi :

    NVIDIA GTC : métavers, IA générative, voiture autonome, quelle est la perspective de NVIDIA sur ces sujets ? Entretien avec Jean-Charles Vasnier, Senior Manager Solution Architect

    NVIDIA franchit temporairement la barre des 1 000 milliards de dollars de capitalisation boursière grâce à la forte demande en IA, devenant le premier fabriquant de puces à rejoindre les GAFA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    May 2019
    Messages
    1 802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : May 2019
    Messages : 1 802
    Points : 35 767
    Points
    35 767
    Par défaut Jensen Huang, PDG de Nvidia, dévoile une stratégie secrète en matière d'IA
    Jensen Huang, PDG de Nvidia, révèle une stratégie secrète en matière d'IA : « Nous avons investi dans l'IA en toute discrétion »,
    annonce-t-il lors d'une conférence

    Le fondateur et PDG de Nvidia, Jensen Huang, révèle lors d'une conférence à SIGGRAPH à Los Angeles que la décision stratégique d'investir massivement dans l'intelligence artificielle (IA) en 2018 a été cruciale pour l'avenir de l'entreprise. En misant sur le traitement d'images basé sur l'IA, notamment le ray tracing et le DLSS, Nvidia a redéfini son matériel et contribué à façonner l'industrie. Huang souligne que cette initiative a été plus qu'un succès financier, marquant le début d'un avenir alimenté par l'IA, avec le matériel Nvidia en première ligne.

    Il met en avant le rôle croissant de l'IA dans divers domaines, allant des jeux vidéo à la conception industrielle, et prédit que l'IA sera au cœur de l'industrie numérique future. Huang présente également les développements récents, comme le GH200, un matériel dédié à l'IA pour les centres de données, soulignant son efficacité et son coût avantageux. Malgré une vision optimiste teintée d'enthousiasme, certaines interrogations subsistent quant aux défis réglementaires et aux implications éthiques liées à l'IA.

    Nom : Huang Seng.jpg
Affichages : 7560
Taille : 39,4 Ko

    Autrefois confinée à l'imagination et aux récits de science-fiction, l'intelligence artificielle est aujourd'hui non seulement une réalité, mais aussi un élément intégré à notre mode de vie. Il y a quelques décennies, l'IA n'était qu'une hypothèse sur les capacités potentielles des machines. Depuis lors, elle a rapidement évolué pour devenir une fonction technologique indispensable, alimentant divers aspects de notre quotidien, de nos entreprises à nos véhicules.

    L'intelligence artificielle propulsée par l'ampere A100 de NVIDIA

    En 2020, Jensen Huang a dévoilé l'architecture GPU Ampere A100 de NVIDIA, spécifiquement conçue pour l'apprentissage automatique et les marchés HPC. Huang avait alors affirmé que l'A100 représente le plus grand et le plus puissant GPU jamais créé par NVIDIA, marquant également la plus grande puce produite sur un processus semi-conducteur de 7 nm. Doté de 6912 cœurs FP32 CUDA, 432 cœurs Tensor, et 108 SM (Streaming Multiprocessors), l'A100 est associé à une mémoire HBM2e de 40 Go, offrant une bande passante mémoire maximale de 1,6 To/s.

    Lors de la présentation, Jensen Huang a abordé divers sujets, dont l'acquisition récente de Mellanox par NVIDIA, de nouveaux produits basés sur l'architecture GPU NVIDIA Ampere très attendue, ainsi que des avancées significatives dans les technologies logicielles. Huang a annoncé que le NVIDIA A100, premier GPU basé sur l'architecture Ampere, représente le plus grand saut de performance générationnelle parmi les huit générations de GPU NVIDIA.

    Conçu pour l'analyse de données, le calcul scientifique, les graphiques cloud, il est déjà en production complète, expédié à des clients du monde entier, et comporte une quantité impressionnante de 54 milliards de transistors. Bien que la date de lancement ait été initialement fixée au 24 mars, elle a été retardée en raison de la pandémie de covid-19.

    Plus tôt cette année, des chercheurs de l'université de Tsinghua en Chine ont créé une puce hybride appelée ACCEL, combinant électronique et informatique photonique. Cette puce, considérée comme potentiellement plus efficace que la puce A100 de NVIDIA, utilise à la fois la photonique (informatique avec des photons) et l'électronique (informatique avec des électrons). La puce ACCEL, entièrement analogique, peut effectuer 74,8 milliards de milliards d'opérations par seconde en consommant seulement un watt d'énergie.

    Les chercheurs estiment que cette technologie pourrait trouver des applications étendues dans les gadgets portables, les voitures sans conducteur et les contrôles industriels, bénéficiant notamment d'un traitement visuel rapide et économe en énergie grâce à la photonique. Malgré les avantages potentiels, les défis tels que la non-linéarité, la consommation d'énergie et la fiabilité demeurent des préoccupations pour la mise en pratique de systèmes basés sur cette technologie.

    La Silicon Valley Applaudit : Nvidia en tête avec plus de 20 investissements en intelligence artificielle

    Nvidia s'affirme comme le principal investisseur dans le domaine de l'intelligence artificielle, ayant réalisé plus de vingt investissements au cours de l'année, renforçant ainsi sa position dominante en tant que fournisseur majeur de processeurs d'IA. Basée dans la Silicon Valley, la société a dévoilé ses investissements dans « plus de deux douzaines » d'entreprises au cours de l'année, couvrant divers secteurs, depuis de nouvelles plateformes d'IA évaluées à plusieurs milliards de dollars jusqu'à des start-ups plus petites opérant dans des domaines tels que les soins de santé et l'énergie.

    Selon les données de Dealroom, Nvidia a participé à 35 transactions en 2023, soit près de six fois plus que l'année précédente, consolidant ainsi sa position en tant qu'investisseur à grande échelle le plus actif dans le secteur de l'IA. Cette activité a surpassé celle des grandes sociétés de capital-risque de la Silicon Valley. Les investissements, totalisant 872 millions de dollars sur neuf mois, ont été dirigés vers des entreprises utilisant les technologies de Nvidia.

    En mai, Nvidia a brièvement rejoint le club des entreprises américaines valant plus de 1 000 milliards de dollars, devenant ainsi le premier fabricant de puces à atteindre cette valeur. La rapide augmentation de la valeur de l'action, triplée en moins de huit mois, témoigne de l'intérêt croissant pour l'intelligence artificielle, notamment avec les progrès rapides de l'IA générative capable de mener des conversations humaines et de créer divers contenus, des blagues à la poésie.

    Aujourd'hui, Jensen Huang a annoncé que Nvidia avait pris une décision commerciale cruciale en 2018, une décision dont peu de personnes étaient conscientes à l'époque, mais qui a depuis redéfini l'avenir de l'entreprise et contribué à remodeler une industrie en pleine évolution. Ces déclarations ont été faites lors d'une conférence à SIGGRAPH à Los Angeles.

    Selon Huang, le moment décisif survenu il y a cinq ans a été le choix d'adopter le traitement d'images basé sur l'IA, incarné par le ray tracing et l'upscaling intelligent, connus respectivement sous les noms de RTX et de DLSS. (Les citations sont extraites de mes notes et peuvent ne pas être textuelles ; des corrections mineures pourraient être apportées après vérification de la transcription). « Nous avons réalisé que la technique traditionnelle largement utilisée pour le rendu en 3D, le tramage, avait atteint ses limites », a-t-il souligné. L'année 2018 a été un moment décisif où nous avons choisi de « parier sur l'entreprise ». Nous devions repenser le matériel, les logiciels et les algorithmes. En réinventant l'imagerie de synthèse avec l'IA, nous avons également réinventé le GPU pour l'IA. »

    NVIDIA RTX

    La technologie NVIDIA RTX, qui représente l'une des avancées les plus significatives de NVIDIA dans le domaine des cartes graphiques, ouvre la porte à une nouvelle génération d'applications capable de simuler le monde réel à des vitesses inégalées. Grâce à des innovations majeures en matière d'intelligence artificielle, de ray tracing et de simulation, la technologie RTX permet de générer des modèles 3D exceptionnels, des simulations photoréalistes, et des effets visuels stupéfiants de manière plus rapide que jamais.

    La technologie NVIDIA RTX intègre toute la puissance de l'intelligence artificielle à l'informatique visuelle, permettant aux développeurs de créer des applications optimisées par l'IA pour accélérer de manière sans précédent les flux de travail des utilisateurs. Cela stimule significativement la créativité des infographistes et des concepteurs, en leur offrant plus de temps et de ressources grâce à des fonctionnalités novatrices de manipulation intelligente d'images, d'automatisation des tâches et d'optimisation des processus de calcul intensif.

    La technologie RTX propose des capacités avancées de rendu cinématique en temps réel, exploitant des API de ray tracing optimisées telles que NVIDIA OptiX, Microsoft DXR et Vulkan. Le rendu en temps réel d'environnements et d'objets photoréalistes, associé à des ombres, des éclairages et des reflets d'une précision jusqu'alors inégalée, offre aux infographistes et aux concepteurs la possibilité de créer des contenus exceptionnels à une vitesse inégalée.

    NVIDIA DLSS

    NVIDIA DLSS (Deep Learning Super Sampling) est une technologie graphique neuronale qui multiplie les performances en utilisant l'IA pour créer des images entièrement nouvelles, afficher une résolution plus élevée grâce à la reconstruction de l'image et améliorer la qualité de l'image d'un contenu ray-traced intensif, tout en offrant une qualité d'image et une réactivité de premier ordre.

    DLSS tire parti de modèles d'IA améliorés en permanence grâce à un entraînement continu sur les supercalculateurs NVIDIA, ce qui permet d'obtenir une meilleure qualité d'image et de meilleures performances dans un plus grand nombre de jeux et d'applications. DLSS exploite la puissance incomparable du Deep Learning et de l’intelligence artificielle pour améliorer les performances de jeu tout en préservant la qualité visuelle.

    Le DLSS permet aux joueurs de bénéficier d’un rendu fluide dans les paramètres graphiques les plus élevés, sans chute de framerate lors des séquences de jeu les plus intenses. Il est disponible sur les GPU suivants, avec la prise en charge du ray tracing DXR dans les résolutions énumérées ci-dessous :

    3840x2160 – Tous les GPU RTX
    2560x1440 - RTX 2060, RTX 2070 et RTX 2080
    1920x1080 - RTX 2060 et RTX 2070

    Efficacité technique ou préoccupations éthiques

    L'annonce du fondateur et PDG de Nvidia, Jensen Huang, sur la stratégie d'investissement massif dans l'intelligence artificielle en 2018, semble être teintée d'une vision optimiste délibérément positive, relevant davantage de l'autopromotion que d'une analyse critique. En mettant en avant le traitement d'images basé sur l'IA, notamment le ray tracing et le DLSS, Huang insiste sur le succès financier de cette initiative, présentant Nvidia comme un acteur incontournable ayant redéfini son matériel et façonné l'industrie.

    Cependant, derrière cette rhétorique triomphaliste, subsiste une lacune dans la discussion sur les véritables défis et conséquences de l'IA. Les interrogations éthiques et les implications réglementaires sont évoquées en surface, mais le discours ne s'attarde pas suffisamment sur ces questions cruciales. Les préoccupations concernant la confidentialité des données, la prise de décision automatisée, et les impacts sociétaux profonds de l'IA méritent une attention plus approfondie.


    En mettant l'accent sur le GH200, un matériel dédié à l'IA pour les centres de données, Huang présente cet outil comme une solution efficace et économique. Cependant, cela soulève des doutes sur la prédominance de l'optimisme commercial par rapport à une réflexion éthique approfondie. Les gains d'efficacité et de coûts ne doivent pas faire abstraction des potentielles conséquences néfastes et des risques inhérents à l'utilisation à grande échelle de l'IA.

    Bien que Jensen Huang évoque un avenir alimenté par l'IA et positionne Nvidia en tant que pionnier, il est crucial d'approfondir la discussion au-delà de l'enthousiasme commercial. Une analyse plus critique des implications éthiques et des défis réglementaires est nécessaire pour une compréhension complète de l'impact de cette révolution technologique sur la société et l'industrie.

    Source : Jensen Huang, Nvidia CEO, during a conference

    Et vous ?

    Êtes-vous d'avis avec Jensen Huang que l'investissement massif de Nvidia dans l'IA en 2018 a eu un impact significatif sur l'industrie ?

    Jensen Huang mentionne le ray tracing et le DLSS comme des éléments clés de l'approche de Nvidia. Quel est votre retour d'expérience quant à leur efficacité et leur valeur ajoutée ?

    Voir aussi :

    Nvidia serait le principal investisseur dans les entreprises d'IA, avec plus de deux douzaines d'investissements dans ce domaine, au cours d'une année

    Nvidia dévoile GPU Ampere A100, une puce d'intelligence artificielle, avec 54 milliards de transistors et peut exécuter 5 pétaflops de performances

    La Chine affirme avoir mis au point une puce d'IA plus puissante que celle de l'américain Nvidia, l'ACCEL chinois serait 3000 fois plus efficace que la Nvidia A100
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    May 2019
    Messages
    1 802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : May 2019
    Messages : 1 802
    Points : 35 767
    Points
    35 767
    Par défaut Nvidia utilise l'IA pour produire ses puces d'IA plus rapidement
    Nvidia utilise l'IA pour produire plus rapidement ses puces d'IA, suscitant des inquiétudes sur une dépendance excessive à l'égard de l'IA
    dans le processus de conception

    Nvidia, le leader dans la fabrication de puces graphiques (GPU), se positionne dans la course à l'intelligence artificielle (IA) en utilisant son propre système d'IA, appelé ChipNeMo, pour accélérer la conception de ses GPU. Alors que la demande de GPU pour l'entraînement et la construction de produits d'IA augmente, Nvidia cherche à répondre à cette demande croissante en exploitant l'IA pour rendre sa production de puces plus efficace.

    Les possibilités fonctionnelles de l'IA ont progressé à pas de géant au cours de la dernière décennie, et aucun endroit n'est plus propice à ce développement que la Silicon Valley. Berceau de géants de l'IA tels qu'Intel et Google, la Bay Area favorise l'émergence de talents et d'innovations extraordinaires dans le domaine de l'apprentissage automatique en profondeur. Ces entreprises d'IA de la Silicon Valley démontrent tout ce qui peut être accompli lorsque les humains et les machines travaillent côte à côte.

    Nom : nvidia.jpg
Affichages : 8706
Taille : 12,3 Ko

    Selon les données de Dealroom, Nvidia a participé à 35 opérations en 2023, soit près de six fois plus que l'année précédente, consolidant sa position en tant qu'investisseur à grande échelle le plus actif dans le secteur de l'IA. Cette activité a dépassé celle des grandes sociétés de capital-risque de la Silicon Valley. Les investissements, totalisant 872 millions de dollars sur neuf mois, ont été dirigés vers des entreprises utilisant les technologies de Nvidia.

    Le processus traditionnel de conception de GPU implique une main-d'œuvre importante, nécessitant environ 1 000 personnes et une compréhension approfondie du processus de conception. ChipNeMo, basé sur un grand modèle linguistique construit sur le Llama 2 de Meta, agit comme un chatbot capable de répondre à des questions liées à la conception de puces, simplifiant ainsi la formation d'ingénieurs débutants et résumant les notes de différentes équipes.

    NVIDIA Research compte des centaines de scientifiques et d'ingénieurs dans le monde entier qui se concentrent sur des sujets tels que l'IA, l'infographie, la vision par ordinateur, les voitures autonomes et la robotique. D'autres projets récents dans le domaine des semi-conducteurs incluent l'utilisation de l'IA pour concevoir des circuits plus petits et plus rapides et pour optimiser le placement de gros blocs.

    Les premiers résultats sont prometteurs, avec des rapports indiquant que ChipNeMo a été utile pour former des ingénieurs débutants et résumer les notes de multiples équipes. Cependant, Nvidia n'a pas confirmé si cela a directement accéléré la production de puces. Cette initiative de Nvidia intervient dans un contexte où la concurrence pour les GPU de la société s'intensifie, les entreprises cherchant à tirer parti de ces composants essentiels pour prendre l'avantage dans le domaine de l'IA. L'article souligne que Meta, par exemple, prévoit d'acquérir 600 000 GPU, dont les A100 de Nvidia, d'ici la fin de 2024.

    L'IA générative pour les développeurs

    L'IA générative transformera l'interaction homme-machine telle que nous la connaissons en permettant la création de nouveaux contenus basés sur une variété d'entrées et de sorties, y compris du texte, des images, des sons, des animations, des modèles 3D et d'autres types de données. Pour faire avancer les charges de travail d'IA générative, les développeurs ont besoin d'une plateforme informatique accélérée avec des optimisations complètes, de l'architecture de la puce et du logiciel système aux bibliothèques d'accélération et aux frameworks de développement d'applications.

    NVIDIA propose une plateforme informatique accélérée complète spécialement conçue pour les charges de travail d'IA générative. Cette plateforme est à la fois profonde et large, offrant une combinaison de matériel, de logiciels et de services - tous construits par NVIDIA et son large écosystème de partenaires - afin que les développeurs puissent fournir des solutions de pointe.

    ChipNeMo vise à explorer les applications des grands modèles de langage (LLM) pour la conception de puces industrielles. Au lieu de déployer directement des LLM commerciaux ou open-source prêts à l'emploi, nous adoptons les techniques d'adaptation au domaine suivantes : tokenizers personnalisés, pré-entraînement continu adapté au domaine, réglage fin supervisé (SFT) avec des instructions spécifiques au domaine et modèles de recherche adaptés au domaine.

    NVIDIA évalue ces méthodes sur trois applications LLM sélectionnées pour la conception de puces : un chatbot d'assistant d'ingénierie, la génération de scripts EDA, et le résumé et l'analyse de bogues. Ces résultats montrent que ces techniques d'adaptation au domaine permettent des améliorations significatives de la performance LLM par rapport aux modèles de base généraux dans les trois applications évaluées, permettant jusqu'à 5 fois la réduction de la taille du modèle avec une performance similaire ou meilleure sur une gamme de tâches de conception. Les résultats indiquent également qu'il existe encore une marge d'amélioration entre les résultats actuels et les résultats idéaux.

    Nom : pict.jpg
Affichages : 2182
Taille : 49,7 Ko

    Les développeurs peuvent choisir de s'engager avec la plateforme NVIDIA AI à n'importe quel niveau de la pile, depuis l'infrastructure, le logiciel et les modèles jusqu'aux applications, soit directement par le biais des produits NVIDIA, soit par le biais d'un vaste écosystème d'offres.

    D'autres entreprises explorent également cette question

    La stratégie de Nvidia semble bien accueillie sur le marché financier, avec une augmentation de 4 % de ses actions, atteignant un niveau record. Les analystes de Goldman Sachs prévoient des gains continus jusqu'au premier semestre de 2025. NVIDIA ne se démarque pas seule dans l'exploration du potentiel de l'IA pour améliorer la production de puces. Des entreprises majeures comme Google Deepmind et aussi chinoise investissent également dans des initiatives similaires, témoignant d'une tendance croissante vers l'intégration de l'IA dans la fabrication de semi-conducteurs et d'autres produits technologiques.

    Une équipe de chercheurs de l’université de Tsinghua en Chine a créé une puce hybride appelée ACCEL qui combine l’électronique et l’informatique photonique. Elle serait plus efficace que la puce A100 de NVIDIA, l'une des puces d'intelligence artificielle les plus utilisées dans le monde aujourd'hui. La puce ACCEL est une puce tout-analogique qui combine la lumière et l’électricité pour faire de l’informatique.

    Elle utilise à la fois la photonique, qui est l’informatique avec des photons, et l’électronique, qui est l’informatique avec des électrons. Les chercheurs affirment que la puce peut faire 74,8 milliards de milliards d’opérations par seconde en consommant seulement un watt d’énergie. « Nous proposons ici une puce entièrement analogique combinant l'électronique et la lumière, appelée ACCEL, pour des tâches de vision à haute vitesse et à faible consommation d'énergie, avec des performances et une évolutivité compétitives.

    Au lieu de se tourner vers des unités numériques pour pallier les limitations de l'informatique optique, ACCEL fusionne l'informatique analogique optique diffractive (OAC) et l'informatique analogique électronique (EAC) avec l'extensibilité, la non-linéarité et la flexibilité dans une seule puce », Chercheurs de l’université de Tsinghua. Les chercheurs ont également mené des expériences pratiques au cours desquelles ACCEL a fait preuve d'une grande précision dans des tâches telles que la reconnaissance d'images et de vidéos. Concrètement, ACCEL surpasse largement les GPU traditionnels, en atteignant le même niveau de précision, mais plus rapidement et en consommant beaucoup moins d'énergie.

    Microsoft dévoile ses puces d'IA Maia 100 : une concurrence sérieuse pour Nvidia

    Les experts estiment que Microsoft peut rattraper les leaders du secteur tels que Nvidia et Advanced Micro Devices (AMD) avec son premier Maia 100. Les nouvelles puces de Microsoft sont dotées de 105 milliards de transistors et prennent en charge les types de données 8 bits et les processeurs de serveurs refroidis par liquide. Microsoft a annoncé son intention d'introduire une puce d'intelligence artificielle pour soutenir le développement de grands modèles de langage (LLM) et une autre pour les processus informatiques courants.

    La grande entreprise technologique a confirmé son intention de se lancer dans la fabrication de puces lors de sa conférence Ignite, après des mois de préparation. Baptisée Maia 100, la dernière puce d'intelligence artificielle de Microsoft devrait concurrencer de près les puces de Nvidia tout en étant moins chère. Les puces H100 de Nvidia, dont le prix avoisine les 40 000 dollars, ont conquis une grande partie du marché, et l'entreprise s'efforce de répondre à la demande. Microsoft souhaite également répondre à la demande des développeurs d'IA avec son offre d'exécution de processus d'IA dans le cloud.

    Microsoft prévoit de lancer deux puces d'intelligence artificielle (IA) : Maia 100 pour soutenir le développement de grands modèles de langage (LLM), et Cobalt 100 pour les processus informatiques courants. La puce Maia 100 vise à concurrencer les puces Nvidia, tout en étant moins chère. Des tests effectués par Microsoft avec les systèmes d'OpenAI ont donné des résultats impressionnants, accélérant l'apprentissage et l'inférence des modèles. Microsoft souhaite également répondre à la demande des développeurs d'IA avec son offre d'exécution de processus d'IA dans le cloud.

    Les experts estiment que Microsoft peut rattraper les leaders du secteur avec ces nouvelles puces, qui sont dotées de 105 milliards de transistors et prennent en charge les types de données 8 bits et les processeurs refroidis par liquide. Microsoft prévoit de partager la conception de son rack unique avec ses partenaires, mais ne divulguera pas la conception des puces. En plus de Maia 100, Microsoft a également annoncé la puce Cobalt 100, concurrente directe des processeurs Intel pour les tâches informatiques générales.

    L'intégration de l'IA par Nvidia pour accélérer la fabrication de ses puces représente un progrès technologique majeur. Cependant, l'idée spéculative de la singularité ou du développement d'une conscience au sein de l'IA peut détourner l'attention du véritable progrès technologique. La nécessité cruciale de transparence et de délimitation dans le développement de l'IA doit être soulignée. Il est impératif de trouver un équilibre entre l'optimisation de la production grâce à l'IA et la préservation du contrôle et de la sécurité. Bien que l'utilisation de l'IA par Nvidia soit justifiée, il est essentiel de maintenir un réalisme éclairé et d'évaluer les implications réelles, en évitant les réactions excessives basées sur des scénarios hypothétiques.

    Source : Nvidia (1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Y a-t-il des préoccupations quant à la dépendance excessive de Nvidia à l'égard de l'IA dans le processus de conception ?

    Quels seraient les impacts potentiels sur l'emploi liés à l'automatisation accrue de la conception de puces grâce à l'IA chez Nvidia ?

    Voir aussi :

    Nvidia serait le principal investisseur dans les entreprises d'IA, avec plus de deux douzaines d'investissements dans ce domaine, au cours d'une année

    La Chine affirme avoir mis au point une puce d'IA plus puissante que celle de l'américain Nvidia, l'ACCEL chinois serait 3000 fois plus efficace que la Nvidia A100

    Nvidia dévoile une nouvelle puce d'IA, le NVIDIA DGX GH200, et affirme que les coûts d'exploitation des LLM vont « baisser de manière significative »
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Nouveau membre du Club
    Profil pro
    Inscrit en
    October 2007
    Messages
    19
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : October 2007
    Messages : 19
    Points : 34
    Points
    34
    Par défaut R2D2
    Ca me rappel la phrase du philosophe R2D2 dans SW Episode 2.
    "Des robots qui construisent des robots"

Discussions similaires

  1. Réponses: 2
    Dernier message: 23/08/2021, 15h27
  2. NVIDIA présente une nouvelle console de salon
    Par LittleWhite dans le forum Développement 2D, 3D et Jeux
    Réponses: 3
    Dernier message: 05/03/2015, 11h04
  3. Le PDG de Free lance une école informatique « 2.0 et P2P »
    Par Gordon Fowler dans le forum Etudes
    Réponses: 328
    Dernier message: 20/07/2014, 02h05
  4. [Carte graphique] 2 Carte graphiques, ATI + NVIDIA pour une sortie S-Video
    Par Nadriel dans le forum Composants
    Réponses: 3
    Dernier message: 31/12/2011, 11h36
  5. Le PDG de Google prédit une très bonne année pour Android
    Par Baptiste Wicht dans le forum Android
    Réponses: 11
    Dernier message: 29/04/2009, 21h02

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo