IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 385
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 385
    Points : 196 436
    Points
    196 436
    Par défaut NVIDIA se tourne vers la location de supercalculateurs d'IA à partir du cloud pour diffuser sa technologie
    Conférence NVIDIA GTC : les annonces phares concernant l’IA générative et le cloud, le métavers, les grands modèles de langage
    et les différents partenariats avec Microsoft, Google, Oracle et AWS

    Le 20 mars, NVIDIA a donné le coup d'envoi de l'édition 2023 de la GTC, sa conférence mondiale sur l'IA qui rassemble des développeurs, des ingénieurs, des chercheurs, des inventeurs et des professionnels de l'informatique. IA générative, métavers, voiture autonome, l'entreprise va aborder les sujets qui ont souvent fait l'actualité dans le secteur.

    Voici les principales annonces qui ont déjà été faites.

    NVIDIA lance DGX Cloud, permettant à chaque entreprise d'accéder instantanément à un supercalculateur d'IA à partir d'un navigateur

    NVIDIA a lancé NVIDIA DGX Cloud, un service de supercalcul d'IA qui donne aux entreprises un accès immédiat à l'infrastructure et aux logiciels nécessaires pour former des modèles avancés pour l'IA générative et d'autres applications révolutionnaires. DGX Cloud fournit des clusters dédiés de supercalcul NVIDIA DGX AI, associés au logiciel NVIDIA AI. Le service permet à chaque entreprise d'accéder à son propre supercalculateur IA à l'aide d'un simple navigateur Web, éliminant ainsi la complexité de l'acquisition, du déploiement et de la gestion de l'infrastructure sur site.

    Les entreprises louent des clusters DGX Cloud sur une base mensuelle, ce qui leur permet de faire évoluer rapidement et facilement le développement de charges de travail de formation volumineuses et multinœuds sans avoir à attendre des ressources informatiques accélérées qui sont souvent très demandées.

    « Nous sommes au moment iPhone de l'IA. Les startups se précipitent pour créer des produits et des modèles commerciaux perturbateurs, et les opérateurs historiques cherchent à réagir », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « DGX Cloud offre aux clients un accès instantané au supercalcul NVIDIA AI dans des clouds à l'échelle mondiale ».

    NVIDIA s'associe aux principaux fournisseurs de services cloud pour héberger l'infrastructure DGX Cloud, à commencer par Oracle Cloud Infrastructure (OCI). Son OCI Supercluster fournit un réseau RDMA spécialement conçu, un calcul bare-metal et un stockage local et en bloc hautes performances pouvant évoluer vers des superclusters de plus de 32 000 GPU.

    Microsoft Azure devrait commencer à héberger DGX Cloud au prochain trimestre, et le service sera bientôt étendu à Google Cloud et plus encore.

    Quelques entreprises qui s'en servent déjà

    Amgen, l'une des principales sociétés de biotechnologie au monde, le leader des technologies d'assurance CCC Intelligent Solutions (CCC) et le fournisseur de plates-formes commerciales numériques ServiceNow sont parmi les premiers pionniers de l'IA à utiliser DGX Cloud.

    Amgen utilise DGX Cloud avec le logiciel de grand modèle de langage NVIDIA BioNeMo pour accélérer la découverte de médicaments, y compris le logiciel NVIDIA AI Enterprise, qui comprend les bibliothèques d'accélération de la science des données NVIDIA RAPIDS.

    « Avec NVIDIA DGX Cloud et NVIDIA BioNeMo, nos chercheurs peuvent se concentrer sur une biologie plus profonde au lieu d'avoir à gérer une infrastructure d'IA et à mettre en place une ingénierie ML », a déclaré Peter Grandsard, directeur exécutif de la recherche, Biologics Therapeutic Discovery, Center for Research Acceleration by Digital Innovation chez Amgen. « Les puissantes capacités de calcul et multinœuds de DGX Cloud nous ont permis d'obtenir une formation 3 fois plus rapide des LLM protéiques avec BioNeMo et une analyse post-formation jusqu'à 100 fois plus rapide avec NVIDIA RAPIDS par rapport aux plates-formes alternatives ».

    CCC, une plate-forme cloud de premier plan pour l'économie de l'assurance IARD, utilise DGX Cloud pour accélérer et faire évoluer le développement et la formation de ses modèles d'IA. Ces modèles alimentent les solutions innovantes de résolution des réclamations automobiles de l'entreprise, contribuant à accélérer l'automatisation intelligente de l'industrie et à améliorer l'expérience des réclamations pour des millions d'utilisateurs professionnels et leurs consommateurs chaque jour.

    ServiceNow utilise DGX Cloud avec des supercalculateurs NVIDIA DGX sur site pour un supercalcul d'IA flexible et évolutif dans le cloud hybride qui aide à alimenter sa recherche en IA sur de grands modèles de langage, la génération de code et l'analyse causale. ServiceNow cogère également le projet BigCode, une initiative responsable d'IA générative en science ouverte, qui est formée sur le framework Megatron-LM de NVIDIA.

    Nom : un.png
Affichages : 311997
Taille : 364,7 Ko

    NVIDIA lance des plates-formes d'inférence pour les grands modèles de langage et les charges de travail d'IA générative

    NVIDIA a annoncé que Google Cloud intègre la nouvelle GPU L4 et Vertex AI pour accélérer le travail des entreprises qui créent un nombre en croissance rapide d'applications d'IA génératives.

    Google Cloud, avec son annonce des machines virtuelles G2 disponibles en avant-première privée, est le premier fournisseur de services cloud à proposer la GPU L4 Tensor Core de NVIDIA. De plus, les GPU L4 seront disponibles avec une prise en charge optimisée sur Vertex AI, qui prend désormais en charge la construction, le réglage et le déploiement de grands modèles d'IA génératifs.

    Les développeurs peuvent accéder aux dernières technologies de pointe disponibles pour les aider à mettre en place de nouvelles applications et à les exécuter rapidement et à moindre coût. La GPU NVIDIA L4 est une GPU universelle pour chaque charge de travail, avec des capacités vidéo AI améliorées qui peuvent fournir des performances vidéo alimentées par l'IA 120 fois plus que les processeurs, combinées à une efficacité énergétique 99 % supérieure.

    « L'intérêt croissant pour l'IA générative incite une vague d'entreprises à se tourner vers l'informatique basée sur le cloud pour soutenir leurs modèles commerciaux », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Nous travaillons avec Google Cloud pour nous assurer que les fonctionnalités dont ils ont besoin sont facilement disponibles et capables d'alimenter les incroyables nouveaux outils et applications qu'ils vont créer ».

    « L'IA générative représente une nouvelle ère de l'informatique, qui exige la vitesse, l'évolutivité et la fiabilité que nous offrons sur Google Cloud », a déclaré Amin Vahdat, vice-président de l'infrastructure des systèmes et des services chez Google Cloud. « Alors que nos clients commencent à explorer les possibilités de l'IA générative, nous sommes fiers de leur proposer la dernière innovation GPU L4 de NVIDIA dans le cadre de notre portefeuille Compute Engine optimisé pour la charge de travail ».

    Aider les nouvelles applications d'IA génératives à prendre vie

    Google Cloud fournit l'infrastructure à une grande variété d'organisations proposant des applications d'IA génératives, dont beaucoup sont conçues pour aider les professionnels à faire leur travail mieux et plus rapidement. L'inférence rapide est essentielle pour exécuter avec succès leurs applications.

    L'IA générative génère également un certain nombre de nouvelles applications qui aident les gens à se connecter et à s'amuser. WOMBO, qui propose une application d'art numérique alimentée par l'IA appelée Dream, a eu un accès anticipé à la plate-forme d'inférence L4 de NVIDIA sur Google Cloud.

    « WOMBO s'appuie sur la dernière technologie d'intelligence artificielle pour créer des œuvres d'art numériques immersives à partir des invites des utilisateurs, leur permettant de créer des œuvres d'art réalistes de haute qualité dans n'importe quel style avec juste une idée », a déclaré Ben-Zion Benkhin, PDG de WOMBO. « La plate-forme d'inférence L4 de NVIDIA nous permettra d'offrir une expérience de génération d'images meilleure et plus efficace aux utilisateurs cherchant à créer et à partager des œuvres d'art uniques ».

    Descript propose des fonctionnalités d'édition alimentées par l'IA qui permettent aux créateurs de supprimer les mots de remplissage, d'ajouter des légendes et de créer des clips de médias sociaux en quelques clics. Ou ils peuvent utiliser le clonage de voix IA génératif de Descript pour corriger les erreurs audio - même créer des pistes de voix off entières - simplement en tapant.

    « Descript utilise NVIDIA TensorRT pour optimiser les modèles afin d'accélérer l'inférence de l'IA », a déclaré Andrew Mason, PDG de Descript. « Il permet aux utilisateurs de remplacer leurs arrière-plans vidéo et d'améliorer leur discours pour produire un contenu de qualité studio, sans le studio ».

    NVIDIA met l'IA générative à la portée des entreprises du monde entier avec des services cloud pour la création de grands modèles linguistiques et visuels

    Pour accélérer l'adoption de l'IA générative par les entreprises, NVIDIA a annoncé aujourd'hui un ensemble de services cloud qui permettent aux entreprises de créer, d'affiner et d'exploiter de grands modèles de langage personnalisés et des modèles d'IA générative qui sont entraînés avec leurs propres données propriétaires et créés pour leurs tâches spécifiques à un domaine unique. .

    Getty Images, Morningstar, Quantiphi et Shutterstock font partie des entreprises qui créeront et utiliseront des modèles, des applications et des services d'IA construits avec les nouveaux services NVIDIA AI Foundations qui couvrent le langage, les images, la vidéo et la 3D.

    Les entreprises peuvent utiliser le service de langage NVIDIA NeMo™ et le service d'image, de vidéo et de 3D NVIDIA Picasso pour créer des applications d'IA génératives propriétaires, spécifiques à un domaine, pour le chat intelligent et l'assistance client, la création de contenu professionnel, la simulation numérique, etc. Par ailleurs, NVIDIA a également annoncé aujourd'hui de nouveaux modèles pour le service cloud NVIDIA BioNeMo™ pour la biologie.

    « L'IA générative stimule l'adoption rapide de l'IA et réinvente d'innombrables industries », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. "NVIDIA AI Foundations permet aux entreprises de personnaliser les modèles de base avec leurs propres données pour générer les ressources les plus précieuses de l'humanité - l'intelligence et la créativité."

    Aider les entreprises à créer des applications d'IA générative personnalisées

    Les services NeMo et Picasso fonctionnent sur NVIDIA DGX Cloud, accessible via un navigateur. Les développeurs peuvent utiliser les modèles proposés sur chaque service via de simples interfaces de programmation d'applications (API). Une fois les modèles prêts à être déployés, les entreprises peuvent exécuter des charges de travail d'inférence à grande échelle à l'aide des services cloud NVIDIA AI Foundations.

    Chaque service cloud comprend six éléments : des modèles préentraînés, des cadres pour le traitement des données, des bases de données vectorielles et la personnalisation, des moteurs d'inférence optimisés, des API et l'assistance d'experts NVIDIA pour aider les entreprises à ajuster les modèles pour leurs cas d'utilisation personnalisés.

    Le service NeMo permet aux entreprises de personnaliser rapidement les modèles de langage de base

    Le service cloud NeMo permet aux développeurs de rendre les grands modèles de langage (LLM) plus pertinents pour les entreprises en définissant des domaines d'intérêt, en ajoutant des connaissances spécifiques au domaine et en enseignant des compétences fonctionnelles.

    Les modèles de différentes tailles - de 8 milliards à 530 milliards de paramètres - disponibles sur le service sont régulièrement mis à jour avec des données de formation supplémentaires, offrant aux entreprises de larges options pour créer des applications qui s'alignent sur les exigences de l'entreprise en termes de vitesse, de précision et de complexité des tâches.

    En utilisant les capacités de récupération d'informations incluses dans le service NeMo, les clients pourront augmenter les LLM avec leurs données exclusives en temps réel. Cela permet aux entreprises de personnaliser des modèles pour alimenter des applications d'IA génératives précises pour l'intelligence du marché, la recherche d'entreprise, les chatbots et le service client, et plus encore.

    Morningstar, l'un des principaux fournisseurs d'informations indépendantes sur les investissements, travaille avec NeMo pour rechercher des services de renseignement avancés.

    « Les grands modèles de langage nous offrent la possibilité de collecter des données pertinentes à partir de contenus structurés et non structurés très complexes à plus grande échelle tout en donnant la priorité à la qualité et à la vitesse des données », a déclaré Shariq Ahmad, responsable de la technologie de collecte de données chez Morningstar. «Notre cadre de qualité comprend un processus humain dans la boucle qui alimente le réajustement du modèle pour garantir que nous produisons un contenu de plus en plus de haute qualité. Morningstar utilise NeMo dans sa recherche et développement sur la collecte de données sur la façon dont les LLM peuvent analyser et résumer les informations provenant de sources telles que les documents financiers pour extraire rapidement des informations sur le marché.

    Quantiphi, une société d'ingénierie numérique axée sur l'IA et l'un des partenaires de prestation de services de NVIDIA, travaille avec NeMo pour créer une solution d'IA générative modulaire. L'offre, appelée baioniq, permettra aux entreprises de créer des LLM personnalisés dotés d'informations à jour pour augmenter la productivité des travailleurs du savoir.


    NVIDIA et Microsoft apportent le métavers industriel et l'IA à des centaines de millions d'utilisateurs d'entreprise via Azure Cloud

    NVIDIA a annoncé une collaboration avec Microsoft pour fournir à des centaines de millions d'utilisateurs d'entreprise Microsoft un accès à de puissantes ressources de métavers industriel et de supercalcul d'IA via le cloud.

    Microsoft Azure hébergera deux nouvelles offres cloud de NVIDIA : NVIDIA Omniverse Cloud, une plate-forme en tant que service donnant un accès instantané à un environnement complet pour concevoir, développer, déployer et gérer des applications métavers industrielles ; et NVIDIA DGX Cloud, un service de supercalcul d'IA qui donne aux entreprises un accès immédiat à l'infrastructure et aux logiciels nécessaires pour former des modèles avancés pour l'IA générative et d'autres applications révolutionnaires.

    De plus, les entreprises unissent leurs plates-formes de productivité et de collaboration 3D en connectant les applications Microsoft 365 - telles que Teams, OneDrive et SharePoint - avec NVIDIA Omniverse, une plate-forme pour créer et exploiter des applications métavers industrielles 3D.

    Cette collaboration accélérera la capacité des entreprises à numériser leurs opérations, à s'engager dans le métavers industriel et à former des modèles avancés pour l'IA générative et d'autres applications.

    « Les plus grandes entreprises du monde s'efforcent de numériser tous les aspects de leur activité et de se réinventer en entreprises de technologie définie par logiciel », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « NVIDIA AI et Omniverse dynamisent la numérisation industrielle. La création de NVIDIA Omniverse Cloud dans Microsoft Azure offre aux clients le meilleur de nos capacités combinées ».

    « La prochaine vague informatique est en train de naître, entre les expériences immersives de nouvelle génération et les modèles d'IA fondamentaux avancés, nous voyons l'émergence d'une nouvelle plate-forme informatique », a déclaré Satya Nadella, président-directeur général de Microsoft. « Avec NVIDIA, nous nous concentrons à la fois sur la création de services qui relient les mondes numérique et physique pour automatiser, simuler et prédire chaque processus métier, et sur la mise à disposition du supercalculateur d'IA le plus puissant aux clients du monde entier ».

    Avec Omniverse connecté aux jumeaux numériques Azure Cloud Services et à l'Internet des objets, les entreprises peuvent lier les données en temps réel des capteurs du monde physique à leurs répliques numériques. Cela permettra aux entreprises de créer et d'exploiter des jumeaux numériques 3D plus précis, dynamiques et entièrement fonctionnels qui réagissent automatiquement aux changements de leurs environnements physiques. Azure fournit l'infrastructure cloud et les fonctionnalités nécessaires pour déployer des services d'entreprise à grande échelle, y compris la sécurité, l'identité et le stockage.

    Une démo keynote GTC développée par Accenture amplifie l'utilité de l'intégration de NVIDIA Omniverse avec Microsoft Teams pour permettre une collaboration 3D en temps réel. S'exécutant sur Omniverse Cloud et tirant parti d'une réunion d'équipe avec partage en direct, la démo d'Accenture montre comment cette intégration peut raccourcir le temps entre la prise de décision, l'action et la rétroaction.


    Omniverse Cloud, propulsé par les systèmes informatiques NVIDIA OVX, sera disponible sur Azure au second semestre.

    DGX Cloud sera disponible sur Azure à partir du prochain trimestre, offrant aux entreprises des clusters dédiés de supercalcul et de logiciels NVIDIA DGX AI, loués sur une base mensuelle.

    AWS et NVIDIA collaborent sur une infrastructure de nouvelle génération pour l'entraînement de grands modèles d'apprentissage automatique et la création d'applications d'IA générative

    Amazon Web Services et NVIDIA ont annoncé une collaboration en plusieurs parties axée sur la création de l'infrastructure d'intelligence artificielle (IA) à la demande la plus évolutive au monde, optimisée pour la formation de grands modèles de langage (LLM) de plus en plus complexes et le développement d'applications d'IA génératives.

    Le travail conjoint comprend des instances P5 Amazon Elastic Compute Cloud (Amazon EC2) de nouvelle génération alimentées par les GPU NVIDIA H100 Tensor Core et la mise en réseau et l'évolutivité de pointe d'AWS qui fourniront jusqu'à 20 exaFLOPS de performances de calcul pour la construction et la formation. Les instances P5 seront les premières instances basées sur GPU à tirer parti de la mise en réseau Elastic Fabric Adapter (EFA) de deuxième génération d'AWS, qui fournit 3 200 Gbit/s de débit réseau à faible latence et à bande passante élevée, permettant aux clients d'évoluer jusqu'à 20 000 GPU H100 dans EC2 UltraClusters pour un accès à la demande à des performances de classe supercalculateur pour l'IA.

    « AWS et NVIDIA collaborent depuis plus de 12 ans pour fournir à la demande des solutions basées sur GPU à grande échelle et rentables pour diverses applications telles que l'IA/ML, les graphiques, les jeux et le HPC », a déclaré Adam Selipsky, PDG d'AWS. « AWS possède une expérience inégalée dans la fourniture d'instances basées sur GPU qui ont repoussé les limites de l'évolutivité à chaque génération successive, avec de nombreux clients faisant évoluer les charges de travail de formation d'apprentissage automatique à plus de 10 000 GPU aujourd'hui. Avec l'EFA de deuxième génération, les clients pourront faire évoluer leurs instances P5 vers plus de 20 000 GPU NVIDIA H100, offrant des capacités de supercalculateur à la demande à des clients allant des startups aux grandes entreprises », a-t-il continué.

    « L'informatique accélérée et l'IA sont arrivées, et juste à temps. L'informatique accélérée permet d'accélérer les fonctions pas à pas tout en réduisant les coûts et la puissance alors que les entreprises s'efforcent de faire plus avec moins. L'IA générative a incité les entreprises à réinventer leurs produits et leurs modèles commerciaux et à être le perturbateur et non le perturbé », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « AWS est un partenaire de longue date et a été le premier fournisseur de services cloud à proposer des GPU NVIDIA. Nous sommes ravis de combiner notre expertise, notre échelle et notre portée pour aider les clients à exploiter l'informatique accélérée et l'IA générative afin de saisir les énormes opportunités à venir ».

    Nom : AWS.png
Affichages : 2268
Taille : 367,1 Ko

    Autres annonces

    En somme, voici les principales annonces qui ont déjà été faites :
    • NVIDIA lance DGX Cloud, permettant à chaque entreprise d'accéder instantanément à un supercalculateur d'IA à partir d'un navigateur.
    • NVIDIA lance des plates-formes d'inférence pour les grands modèles de langage et les charges de travail d'IA générative.
    • NVIDIA met l'IA générative à la portée des entreprises du monde entier avec des services cloud pour la création de grands modèles linguistiques et visuels.
      • Shutterstock s'associe à NVIDIA pour créer les bases de l'IA pour les outils génératifs des artistes 3D.
      • Adobe et NVIDIA s'associent pour exploiter la puissance de l'IA générative
      • NVIDIA et Getty Images accélèrent les médias grâce à l'IA générative
    • NVIDIA s'associe à Google Cloud pour les grands modèles de langage et l'inférence générative de l'IA
    • NVIDIA et Microsoft apportent le métavers industriel et l'IA à des centaines de millions d'utilisateurs d'entreprise via Azure Cloud
    • AWS et NVIDIA collaborent sur une infrastructure de nouvelle génération pour l'entraînement de grands modèles d'apprentissage automatique et la création d'applications d'IA générative
    • Oracle Cloud Infrastructure choisit la plate-forme d'accélération de centre de données NVIDIA BlueField
    • NVIDIA étend le Omniverse Cloud pour stimuler la numérisation industrielle
    • NVIDIA dévoile de grands modèles de langage et un service d'IA générative pour faire progresser la R&D dans les sciences de la vie

    Au sujet de la NVIDIA GTC, Jean-Charles Vasnier, Senior Manager Solution Architect a donné la perspective de NVIDIA sur des sujets comme le métavers, l'IA générative, et la voiture autonome.

    Suivre la conférence en ligne du 20 au 23 mars

    Source : conférence GTC NVIDIA (vidéo dans le texte)

    Et vous ?

    Quelles sont les annonces qui suscitent le plus votre intérêt ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    881
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 881
    Points : 14 561
    Points
    14 561
    Par défaut NVIDIA se tourne vers la location de supercalculateurs d'IA à partir du cloud pour diffuser sa technologie
    NVIDIA se tourne vers la location de supercalculateurs d'IA à partir du cloud pour diffuser sa nouvelle technologie, et facture ce service à 37 000 dollars par mois pour huit puces A100 ou H100

    Le directeur général de NVIDIA Corp, Jensen Huang, a présenté mardi les plans de l'entreprise pour rendre disponibles à la location les superordinateurs puissants et coûteux utilisés pour développer des technologies d'IA telles que ChatGPT, et ce pour presque toutes les entreprises.

    Même si cet accès ne sera pas bon marché - 37 000 dollars par mois pour huit puces A100 ou H100 de NVIDIA - l'offrir à un plus grand nombre d'entreprises clientes pourrait accélérer le boom de l'IA qui a fait grimper l'action de NVIDIA de 77 % cette année, la rendant environ cinq fois plus précieuse que son rival de longue date, Intel Corp.

    La société basée à Santa Clara, en Californie, domine déjà le domaine des puces d'intelligence artificielle et a aidé des partenaires tels que Microsoft Corp à construire d'énormes systèmes pour les services du créateur de ChatGPT, OpenAI, afin de répondre à des questions avec un texte semblable à celui d'un humain et de générer des images à partir d'invites.

    Lors de la conférence annuelle des développeurs de logiciels de NVIDIA qui s'est tenue mardi, M. Huang a déclaré que l'entreprise travaillait avec des partenaires tels qu'Oracle Corp pour offrir l'accès aux supercalculateurs DGX de NVIDIA, équipés de 32 000 puces NVIDIA, à toute personne pouvant se connecter à l'aide d'un navigateur web.

    Nom : dgx cloud.png
Affichages : 1170
Taille : 298,1 Ko

    "Le moment iPhone de l'IA a commencé", a déclaré M. Huang lors de son discours virtuel, faisant référence à la manière dont Apple Inc. a ouvert le marché des smartphones.

    M. Huang a indiqué que NVIDIA travaillait également avec Microsoft et Alphabet Inc. pour proposer ses superordinateurs, utilisés pour créer de nouveaux produits d'IA, en tant que service. NVIDIA a annoncé mardi de nouvelles puces et de nouveaux logiciels conçus pour rendre les produits tels que les chatbots beaucoup moins coûteux à exploiter au quotidien après leur création par des superordinateurs.

    Ces produits "ont des années d'avance sur la concurrence", a déclaré Hans Mosesmann, analyste spécialisé dans les semi-conducteurs chez Rosenblatt Securities. "Le leadership de NVIDIA sur l'aspect logiciel de l'IA n'est pas seulement monumental, il s'accélère."

    NVIDIA s'associe également à AT&T Inc pour rendre la répartition des camions plus efficace, collabore avec des chercheurs en informatique quantique pour accélérer le développement de logiciels et travaille avec le géant de l'industrie Taiwan Semiconductor Manufacturing Co pour accélérer le développement de puces, a ajouté M. Huang.

    Le nouveau service de location de NVIDIA, appelé DGX Cloud, pourrait permettre à un plus grand nombre de développeurs d'accéder à des dizaines de milliers de puces en même temps. La société de biotechnologie Amgen Inc et la société de logiciels ServiceNow Inc ont commencé à utiliser ce service, a indiqué NVIDIA.

    NVIDIA a également lancé un service appelé AI Foundations pour aider les entreprises à former leurs modèles d'intelligence artificielle personnalisés. Plusieurs grands propriétaires de bases de données d'images de stock prévoient d'utiliser ce service, ce qui permettrait d'éviter les questions juridiques concernant les droits d'auteur des images utilisées pour générer le contenu de l'IA.

    M. Huang a également annoncé une technologie permettant d'accélérer la conception et la fabrication de semi-conducteurs. Le logiciel utilise les puces NVIDIA pour accélérer une étape qui se situe entre la conception logicielle d'une puce et la fabrication physique des masques de lithographie utilisés pour imprimer cette conception sur un morceau de silicium.

    Ces calculs peuvent prendre deux semaines pour une puce informatique traditionnelle, mais NVIDIA a déclaré mardi que ses puces et ses logiciels peuvent effectuer cette tâche en une nuit et réduire la consommation d'électricité de 35 mégawatts à 5 mégawatts.

    NVIDIA a déclaré qu'elle travaillait avec ASML Holding, Synopsys Inc et TSMC pour commercialiser cette technologie. TSMC commencera à préparer la technologie pour la production en juin, a déclaré M. Huang.

    Source : NVIDIA

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que ce coût de location est à la portée de toutes les entreprises ? Selon vous, pourquoi NVIDIA a imposé un tarif aussi élevé ?


    Voir aussi

    Conférence NVIDIA GTC : les annonces phares concernant l'IA générative et le cloud, le métavers, les grands modèles de langage et les différents partenariats avec Microsoft, Google, Oracle et AWS

    Les nouvelles GPU NVIDIA pour l'intelligence artificielle seraient jusqu'à 4,5 fois plus rapides que les précédentes, selon NVIDIA

    La dernière technologie d'IA de NVIDIA peut améliorer les anciennes vidéos floues de YouTube, elle sera disponible le mois prochain pour les vidéos regardées dans les navigateurs Chrome et Edge

    La pile complète NVIDIA AI est désormais disponible sur 15 nouveaux serveurs Dell PowerEdge, aidant les entreprises à créer et déployer des charges de travail d'IA plus rapidement et plus efficacement
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 08/09/2022, 19h56
  2. Réponses: 0
    Dernier message: 25/02/2022, 11h17
  3. Conférence SpringOne 2GX : les annonces
    Par Hikage dans le forum Spring
    Réponses: 1
    Dernier message: 27/10/2010, 07h28
  4. Réponses: 2
    Dernier message: 08/02/2006, 18h56

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo