IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

NVIDIA acquiert Run:ai, fournisseur de logiciels d'orchestration GPU


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 308
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 308
    Par défaut NVIDIA acquiert Run:ai, fournisseur de logiciels d'orchestration GPU
    NVIDIA acquiert Run:ai, fournisseur de logiciels d'orchestration GPU, pour 700 millions de dollars, affirmant ainsi sa position dominante dans le domaine de l'IA, avec Run:ai, Nvidia veut gérer vos kubes d'IA

    NVIDIA acquiert Run:ai, fournisseur de logiciels d'orchestration GPU. La startup israélienne favorise l'utilisation efficace des ressources des clusters pour les charges de travail d'IA à travers une infrastructure de calcul accéléré partagée.

    Run:ai a développé une couche logicielle d'orchestration et de virtualisation adaptée aux besoins uniques des charges de travail d'IA fonctionnant sur des GPU et des chipsets similaires. La plateforme de conteneurs de Run:ai basée sur Kubernetes pour les cloud d'IA met en commun et partage efficacement les GPU en attribuant automatiquement la quantité nécessaire de puissance de calcul - de fractions de GPU, à plusieurs GPU, à plusieurs nœuds de GPU.

    NVIDIA a annoncé l'acquisition du fournisseur d'orchestration Kubernetes centré sur l'IA Run:ai dans le but d'aider à renforcer l'efficacité des clusters de calcul construits sur GPU. Les détails de l'opération n'ont pas été divulgués, mais il semblerait que l'opération soit évaluée à environ 700 millions de dollars. La startup basée à Tel Aviv a apparemment levé 118 millions de dollars à travers quatre tours de financement depuis sa fondation en 2018.

    Selon NVIDIA, la plateforme Run:ai prend déjà en charge ses plateformes de calcul DGX, y compris ses configurations Superpod, le système de gestion de cluster Base Command, la bibliothèque de conteneurs NGC et une suite AI Enterprise. En ce qui concerne l'IA, Kubernetes présente un certain nombre d'avantages par rapport aux déploiements bare metal, car l'environnement peut être configuré pour gérer la mise à l'échelle de plusieurs ressources, potentiellement distribuées géographiquement.

    Nom : 1.jpg
Affichages : 5092
Taille : 19,7 Ko

    Pour l'instant, les clients existants de Run:ai n'ont pas à craindre que NVIDIA impose des changements majeurs à la plateforme. Dans un communiqué, NVIDIA a déclaré qu'elle continuerait à proposer les produits Run:ai selon le même modèle commercial, dans un avenir immédiat - quoi que cela puisse signifier. En attendant, les personnes abonnées au DGX Cloud de NVIDIA auront accès à l'ensemble des fonctionnalités de Run:ai pour leurs charges de travail d'IA, y compris les déploiements de grands modèles de langage (LLM).

    Cette annonce intervient un peu plus d'un mois après que le géant des GPU a dévoilé une nouvelle plateforme de conteneurs pour la construction de modèles d'IA, appelée NVIDIA Inference Microservices (NIM). Les NIMS sont essentiellement des images de conteneurs préconfigurées et optimisées contenant le modèle, qu'il s'agisse de la version open source ou propriétaire, avec toutes les dépendances nécessaires pour le faire fonctionner. Comme la plupart des conteneurs, les NIM peuvent être déployés à travers une variété de temps d'exécution, y compris les nœuds Kubernetes accélérés par CUDA.

    L'idée derrière la transformation des LLM et autres modèles d'IA en microservices est qu'ils peuvent être mis en réseau et utilisés pour construire des modèles d'IA plus complexes et plus riches en fonctionnalités que ce qui serait possible sans former soi-même un modèle dédié, ou du moins c'est ainsi que NVIDIA envisage de les utiliser. Avec l'acquisition de Run:ai, NVIDIA dispose désormais d'une couche d'orchestration Kubernetes pour gérer le déploiement de ces NIM dans son infrastructure GPU.


    Une seule structure pour accéder aux GPU

    Run:ai aide les entreprises à gérer et à optimiser leur infrastructure informatique, que ce soit dans le cloud, sur site ou dans un scénario hybride. Sa couche logicielle d'orchestration et de virtualisation est adaptée aux charges de travail d'IA s'exécutant sur des GPU et d'autres chipsets.

    La plateforme de Run:ai fournit une interface utilisateur centrale et un plan de contrôle pour travailler avec une variété de variantes populaires de Kubernetes. Cela la rend un peu comme OpenShift de RedHat ou Rancher de SUSE, et elle dispose d'un grand nombre des mêmes outils pour gérer des choses comme les espaces de noms, les profils d'utilisateurs et les allocations de ressources.

    La principale différence réside dans le fait que Run:ai est conçu pour s'intégrer avec des outils et des frameworks d'IA tiers, et pour gérer des environnements de conteneurs accélérés par le GPU. Son portefeuille de logiciels comprend des éléments tels que la planification des charges de travail et le partitionnement des accélérateurs, ce dernier permettant de répartir plusieurs charges de travail sur un seul GPU.

    L'interface centralisée de l'entreprise permet aux utilisateurs de gérer l'infrastructure de calcul partagée. Les développeurs peuvent mettre en commun les GPU et partager la puissance de calcul pour diverses tâches - il peut s'agir de "fractions de GPU" ou de plusieurs GPU ou nœuds de GPU fonctionnant sur différents clusters, selon Alexis Bjorlin, vice-président et directeur général de NVIDIA DGX Cloud. Les clients bénéficient d'une meilleure utilisation des ressources des clusters de GPU, d'une meilleure gestion de l'infrastructure et d'une plus grande flexibilité.

    "Vous pouvez gérer les clusters de manière très efficace afin d'extraire de la valeur de vos investissements matériels", a déclaré Rona Segev, cofondateur et associé directeur de TLV Partners, l'investisseur de Ran:ai. Lorsque les entreprises utilisent de grandes grappes d'ordinateurs, "il est indispensable de disposer d'un type de virtualisation et d'une couche de gestion", a-t-elle déclaré. Run:ai peut "diviser les GPU en morceaux" et "les allouer dynamiquement", ajoute Segev, et peut également combiner et gérer tous les flux de travail et de données.

    Investir en amont et en aval

    Il ne se passe pas un jour sans que NVIDIA, dont la valeur est estimée à 2,2 billions de dollars, ne fasse parler d'elle, et cette année marque plus d'une douzaine d'acquisitions par la société. Notamment, elle a payé 6,9 milliards de dollars pour la société de calcul haute performance Mellanox en 2019, et a également ramassé OmniML pour les charges de travail d'IA en périphérie, SwiftStack pour le stockage et la gestion des données et Excelero pour le stockage en bloc. Elle a réalisé de nombreux autres investissements dans le matériel, les logiciels, les plateformes de gestion des centres de données, la robotique, l'analyse de la sécurité et les capacités mobiles.

    Les régulateurs ont parfois pris conscience de cette frénésie de dépenses : La tentative d'achat du concepteur de puces britannique Arm pour 40 milliards de dollars a été interrompue début 2022 en raison de "défis réglementaires importants", notamment en ce qui concerne l'étouffement de la concurrence. on estime que NVIDIA contrôle 80 % du marché des puces haut de gamme et a récemment annoncé son intention de créer une nouvelle unité commerciale chargée de concevoir des puces pour les entreprises d'informatique cloud.

    En outre, l'entreprise a des partenariats bien établis avec tous les grands acteurs de l'IA et de l'informatique cloud - même si, dans le même temps, elle est en concurrence avec certains d'entre eux - notamment OpenAI, Meta, Microsoft, Google, Amazon et d'autres. L'entreprise continue d'annoncer régulièrement de nouvelles innovations, dont récemment un "gros, gros GPU" qui "repousse les limites de la physique" et un projet d'IA multimodale, le GR00T.

    De nombreux observateurs de l'industrie ont réagi aujourd'hui à la nouvelle en soulignant l'omniprésence de l'entreprise.

    "L'intégration de Run:AI dans le DGX Cloud de NVIDIA permet de démontrer que NVIDIA intègre verticalement sa plateforme, des puces à l'inférence, ce qui en fait ostensiblement un guichet unique pour vos besoins en matière d'IA", a déclaré un utilisateur de Twitter. Un autre a partagé un graphique des investissements de NVIDIA au cours des quatre dernières années, commentant que la société cherche à "capitaliser sur son élan actuel pour étendre son écosystème et sécuriser les flux de revenus futurs. Les startups (clients) dépendent de ses GPU et la croissance de NVIDIA dépend de ces startups."

    Nom : 2.jpg
Affichages : 1021
Taille : 66,8 Ko

    Voici l'annonce de NVIDIA sur l'acquisition de Run:ai :

    Pour aider les clients à utiliser plus efficacement leurs ressources informatiques d'IA, NVIDIA annonce aujourd'hui avoir conclu un accord définitif pour acquérir Run:ai, un fournisseur de logiciels d'orchestration et de gestion des charges de travail basé sur Kubernetes. Les déploiements d'IA des clients deviennent de plus en plus complexes, avec des charges de travail réparties dans le cloud, la périphérie et l'infrastructure du centre de données sur site. La gestion et l'orchestration de l'IA générative, des systèmes de recommandation, des moteurs de recherche et d'autres charges de travail nécessitent une planification sophistiquée pour optimiser les performances au niveau du système et de l'infrastructure sous-jacente.

    Run:ai permet aux entreprises clientes de gérer et d'optimiser leur infrastructure de calcul, que ce soit sur site, dans le cloud ou dans des environnements hybrides. L'entreprise a construit une plateforme ouverte sur Kubernetes, la couche d'orchestration pour l'IA moderne et l'infrastructure cloud. Elle prend en charge toutes les variantes populaires de Kubernetes et s'intègre avec des outils et des frameworks d'IA tiers. Run:ai compte parmi ses clients certaines des plus grandes entreprises mondiales dans de multiples secteurs, qui utilisent la plateforme Run:ai pour gérer des clusters de GPU à l'échelle d'un centre de données.

    "Run:ai collabore étroitement avec NVIDIA depuis 2020 et nous partageons la même passion pour aider nos clients à tirer le meilleur parti de leur infrastructure", a déclaré Omri Geller, cofondateur et CEO de Run:ai. "Nous sommes ravis de rejoindre NVIDIA et nous sommes impatients de poursuivre notre voyage ensemble."

    La plate-forme Run:ai fournit aux développeurs d'IA et à leurs équipes :
    • Une interface centralisée pour gérer l'infrastructure de calcul partagée, permettant un accès plus facile et plus rapide pour les charges de travail d'IA complexes.
    • Des fonctionnalités permettant d'ajouter des utilisateurs, de les regrouper en équipes, de fournir un accès aux ressources du cluster, de contrôler les quotas, les priorités et les pools, ainsi que de surveiller et d'établir des rapports sur l'utilisation des ressources.
    • La possibilité de mettre en commun des GPU et de partager la puissance de calcul - de fractions de GPU à plusieurs GPU ou plusieurs nœuds de GPU fonctionnant sur différents clusters - pour des tâches distinctes.
    • L'utilisation efficace des ressources des clusters de GPU, permettant aux clients de mieux rentabiliser leurs investissements informatiques.


    NVIDIA continuera à proposer les produits Run:ai sous le même modèle commercial dans l'avenir immédiat. Et NVIDIA continuera à investir dans la feuille de route des produits Run:ai dans le cadre de NVIDIA DGX Cloud, une plate-forme d'IA conçue conjointement avec les principaux clouds pour les développeurs d'entreprise, offrant un service intégré et complet optimisé pour l'IA générative.

    Les clients de NVIDIA DGX et DGX Cloud auront accès aux capacités de Run:ai pour leurs charges de travail d'IA, notamment pour les déploiements de grands modèles de langage. Les solutions de Run:ai sont déjà intégrées dans NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, les conteneurs NGC et le logiciel NVIDIA AI Enterprise, entre autres produits. La plate-forme informatique accélérée de NVIDIA et la plate-forme de Run:ai continueront à prendre en charge un large écosystème de solutions tierces, offrant ainsi aux clients choix et flexibilité.

    Avec Run:ai, NVIDIA permettra aux clients d'avoir une seule structure qui accède aux solutions GPU n'importe où. Les clients peuvent s'attendre à bénéficier d'une meilleure utilisation des GPU, d'une meilleure gestion de l'infrastructure GPU et d'une plus grande flexibilité grâce à l'architecture ouverte.
    Source : Annonce de NVIDIA

    Et vous ?

    Pensez-vous que cette acquisition est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les analystes estiment que Nvidia détient 98 % du marché des GPU pour centres de données. L'hégémonie de Nvidia dans ce secteur crucial soulève des questions sur la diversité et la concurrence

    Nvidia dévoile le GPU Blackwell B200, la "puce la plus puissante au monde" pour l'IA qui "réduit les coûts et la consommation d'énergie jusqu'à 25 fois" par rapport à un H100, selon Nvidia

    Jensen Huang, PDG de Nvidia, révèle une stratégie secrète en matière d'IA : « Nous avons investi dans l'IA en toute discrétion », annonce-t-il lors d'une conférence
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 308
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 308
    Par défaut La Commission européenne a approuvé sans condition l'acquisition de Run:ai par NVIDIA
    La Commission européenne a approuvé sans condition l'offre d'achat de 700 millions de dollars de Nvidia sur Run:ai, elle a conclu que l'acquisition de Run:ai ne soulèverait pas de problèmes de concurrence.

    Après une enquête, la Commission européenne a conclu que l'acquisition de Run:ai par NVIDIA ne poserait pas de problèmes de concurrence. Selon la Commission, même si NVIDIA possède une position dominante dans le marché des GPU, Run:ai n'occupe pas une position significative sur le marché des logiciels d'orchestration GPU. La Commission européenne a donc autorisé sans condition le projet d'acquisition de Run:ai par NVIDIA.

    En avril 2024, NVIDIA a annoncé l'acquisition du fournisseur d'orchestration Kubernetes centré sur l'IA Run:ai dans le but d'aider à renforcer l'efficacité des clusters de calcul construits sur GPU. Les détails de l'opération n'ont pas été divulgués, mais il semblerait que l'opération soit évaluée à environ 700 millions de dollars. La startup basée à Tel Aviv a apparemment levé 118 millions de dollars à travers quatre tours de financement depuis sa fondation en 2018.

    Pour rappel, NVIDIA conçoit et fournit des unités de traitement graphique (GPU), un type de semi-conducteur destiné aux applications des centres de données. De son côté, Run:ai fournit des logiciels d'orchestration GPU permettant aux entreprises clientes de programmer, de gérer et d'optimiser leur infrastructure de calcul d'intelligence artificielle, que ce soit sur place, dans le cloud ou dans des environnements hybrides.

    NVIDIA avait affirmé lors de l'annonce : "Avec Run:ai, NVIDIA permettra aux clients d'avoir une seule structure qui accède aux solutions GPU n'importe où. Les clients peuvent s'attendre à bénéficier d'une meilleure utilisation des GPU, d'une meilleure gestion de l'infrastructure GPU et d'une plus grande flexibilité grâce à l'architecture ouverte." Cependant, la Commission européenne avait ouvert une enquête sur cette acquisition.

    Le 20 décembre 2024, la Commission européenne a décidé d'approuver sans condition l'offre de 700 millions de dollars de NVIDIA d'acquérir Run:ai. L'enquête de l'UE sur l'opération s'est concentrée sur les pratiques susceptibles de renforcer le contrôle de NVIDIA sur les GPU, des puces très recherchées qui divisent et traitent les tâches informatiques, mais elle a conclu que l'acquisition de Run:ai ne poserait pas de problèmes de concurrence.

    Nom : 1.jpg
Affichages : 2549
Taille : 15,0 Ko

    La Commission européenne autorise l'acquisition de Run:ai par NVIDIA

    La Commission européenne a donc autorisé sans condition, en vertu du règlement de l'UE sur les concentrations, le projet d'acquisition de Run:ai par NVIDIA. La Commission est parvenue à la conclusion que l'opération ne poserait aucun problème de concurrence au sein de l'Espace économique européen (EEE). En outre, la Commission confirme que l'opération n'atteint pas les seuils de notification fixés dans le règlement sur les concentrations étant donné que les recettes courantes de Run:ai sont négligeables.

    L'opération d'acquisition a d'abord été notifiée en Italie, où l'autorité nationale de concurrence a examiné l'opération qui était susceptible de présenter des risques concrets pour la concurrence. Ensuite, l'Italie a présenté une demande de renvoi à la Commission européenne pour un examen du projet d'acquisition. Même si l'opération d'acquisition de Run:ai par NVIDIA ne revêt pas une dimension européenne, selon la commission, elle présentait le risque d'affecter les échanges au sein du marché européen et menacait d'affecter de manière significative la concurrence.

    L'enquête de la Commission a commencé en novembre 2024. L'enquête portait sur l'incidence de l'opération sur les marchés de GPU discrets pour centres de données et les logiciels d'orchestration GPU. Même si les activités de NVIDIA et de Run:ai ne se chevauchent pas, les GPU et le logiciel d'orchestration GPU doivent être compatibles. La Commission a donc examiné si, après l'opération, NVIDIA serait en mesure d'entraver la compatibilité entre ses GPU et le logiciel d'orchestration GPU des concurrents de Run:ai, ainsi que la compatibilité entre le logiciel de Run:ai et les GPU des concurrents de NVIDIA.

    Sur la base de son enquête sur le marché, la Commission a conclu que:

    • NVIDIA détient probablement une position dominante sur le marché mondial des GPU discrets destinés aux centres de données. Toutefois, NVIDIA n'aura ni la capacité technique ni l'incitation à entraver la compatibilité de ses GPU avec les logiciels d'orchestration GPU concurrents en raison de la disponibilité et de l'utilisation généralisée d'outils garantissant cette compatibilité, ce qui a été confirmé par les concurrents de Run:ai

    • Run:ai n'occupe pas aujourd'hui une position significative sur le marché des logiciels d'orchestration GPU. Les clients continueront d'avoir accès à des alternatives à Run:ai, à la fois crédibles et suffisantes, ayant des fonctionnalités logicielles avancées similaires et ils auront aussi la possibilité de construire leur logiciel d'orchestration GPU en interne.


    Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive au sein de la Commission, a commenté la décision :

    L’intelligence artificielle est appelée à exercer une influence significative sur de nombreuses industries en Europe. NVIDIA étant l’un des principaux producteurs de matériel informatique essentiel pour les applications d’IA utilisées dans l’UE et au-delà, il était important de vérifier que son acquisition de la jeune société de logiciels Run:ai n’aurait pas d’incidence négative sur la concurrence sur les marchés critiques, qui sont essentiels pour la compétitivité future.

    Mais notre enquête de marché nous a confirmé que d’autres options logicielles compatibles avec le matériel informatique de NVIDIA resteront disponibles sur le marché. Cette affaire, transmise par l’Italie, souligne l’importance des renvois par les États membres pour permettre à la Commission de continuer à contrôler les transactions potentiellement problématiques.
    Conclusion

    La Commission européenne a donc autorisé sans condition le projet d'acquisition de Run:ai par NVIDIA. Elle a conclu que l'opération ne poserait aucun problème de concurrence sur aucun des marchés examinés dans l'EEE ou en Italie. Malgré ces conclusions, l'acquisition de Run:ai vient renforcer la position dominante de NVIDIA sur le marché de l'IA.

    À titre de rappel, le chiffre d'affaires de NVIDIA au troisième trimestre 2024 a grimpé de 94 %, atteignant 35,08 milliards de dollars, dépassant les attentes de 1,8 milliard de dollars. Cette augmentation des revenus est en partie dû à la demande croissante en IA et en puces pour centres de données. Pour l'avenir, NVIDIA prévoit un chiffre d'affaires de 37,5 milliards de dollars au quatrième trimestre et s'apprête à lancer ses GPU de la série RTX 50, avec une croissance supplémentaire attendue du matériel Blackwell à venir. L'acquisition Run:ai pourrait venir encore booster ces chiffres.

    Source : Commission européenne

    Et vous ?

    Pensez-vous que cette décision de la Commission européenne est crédible ou pertinente ?
    Quel est votre avis sur l'acquisition de Run:ai par NVIDIA ?

    Voir aussi :

    Nvidia détient désormais 88 % du marché des GPU après avoir enregistré une hausse de 8 % de sa part de marché au cours du dernier trimestre, réduisant de 7 % la part de marché d'AMD, soit 19 %

    Les États-Unis lancent une enquête antitrust sur Nvidia, à la suite de plaintes de concurrents concernant l'abus de position dominante sur le marché des puces d'intelligence artificielle (IA)

    L'objectif de l'Europe de porter à 20 % sa part du marché des puces d'ici à 2030 est totalement irréaliste. Elle ne développe pas ses capacités de production assez rapidement, selon le PDG d'ASML
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 308
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 308
    Par défaut Nvidia va mettre en open source Run:ai afin d'aider les entreprises à gérer les GPU pour l'IA
    Nvidia va mettre en open source Run:ai, le logiciel qu'elle a acquis pour 700 millions $ afin d'aider les entreprises à gérer les GPU pour l'IA, l'ouverture permettra d'étendre la disponibilité du logiciel.

    Run:ai annonce officiellement son acquisition par Nvidia. La startup affirme que Nvidia va ouvrir le logiciel pour offrir à l'écosystème un maximum de flexibilité, d'efficacité et d'utilisation pour les systèmes GPU. L'ouverture du logiciel permettra d'étendre sa disponibilité à l'ensemble de l'écosystème de l'IA. Pour rappel, Run:ai fournit des logiciels d'orchestration GPU permettant aux entreprises clientes de programmer, de gérer et d'optimiser leur infrastructure de calcul d'intelligence artificielle, que ce soit sur place, dans le cloud ou dans des environnements hybrides.

    Nvidia a finalisé l'acquisition de Run:ai, une société de logiciels qui permet aux clients d'orchestrer plus facilement des clouds de GPU pour l'IA, et a déclaré qu'elle mettrait le logiciel en open source. Le coût de l'opération n'a pas été divulgué, mais il était estimé à 700 millions de dollars lorsque Nvidia a fait part de son intention de conclure l'opération en avril 2024.

    Run:ai a officiellement publié la nouvelle et la société a déclaré que Nvidia prévoyait également d'ouvrir son logiciel. Le logiciel de l'entreprise planifie à distance les ressources GPU de Nvidia pour l'IA dans le cloud. Aucune des deux sociétés n'a expliqué pourquoi Run:ai allait ouvrir sa plateforme, mais ce n'est probablement pas difficile à comprendre.

    Depuis que Nvidia est devenue le premier fabricant de puces d'IA, le cours de son action a grimpé à 3 560 milliards de dollars, ce qui en fait l'entreprise la plus valorisée au monde. C'est une excellente chose pour Nvidia, mais cela rend difficile l'acquisition d'entreprises en raison de la surveillance antitrust. Un porte-parole de Nvidia s'est contenté de déclarer : "Nous sommes ravis d'accueillir l'équipe de Run:ai au sein de Nvidia".


    Lorsque Microsoft a racheté Activision Blizzard pour 68,7 milliards de dollars, elle a apaisé les autorités antitrust en accordant une licence pour le jeu Call of Duty d'Activision à d'autres plateformes pendant une décennie, afin de répondre aux craintes que l'entreprise ne devienne trop puissante dans le domaine des jeux. La même chose pourrait se produire ici.

    Les fondateurs de Run:ai, Omri Geller et Ronen Dar, ont déclaré que l'ouverture du logiciel aiderait la communauté à construire une meilleure IA, plus rapidement. Ils ont affirmé qu'ils continueraient à aider les clients à tirer le meilleur parti de leur infrastructure d'IA et à offrir à l'écosystème une flexibilité, une efficacité et une utilisation maximales des systèmes GPU, où qu'ils se trouvent : Sur site, dans le cloud grâce à des solutions natives, ou sur Nvidia DGX Cloud, conçu conjointement avec des CSP de premier plan.

    Les fondateurs ont également ajouté : "Fidèles à notre philosophie de plateforme ouverte, en tant que membre de Nvidia, nous continuerons à donner aux équipes d'IA la liberté de choisir les outils, les plateformes et les cadres qui répondent le mieux à leurs besoins. Nous continuerons à renforcer nos partenariats et à travailler avec l'écosystème pour offrir une grande variété de solutions d'IA et de choix de plateformes".

    La société basée en Israël a déclaré que son objectif, lors de sa création en 2018, était d'être une force motrice dans la révolution de l'IA et de donner aux organisations les moyens de libérer le plein potentiel de leur infrastructure d'IA. Run:ai aide les clients à orchestrer leur infrastructure d'IA, à accroître l'efficacité et l'utilisation, et à stimuler la productivité de leurs équipes d'IA.

    "Nous sommes ravis de poursuivre sur cette lancée, maintenant que nous faisons partie de Nvidia. L'IA et l'informatique accélérée transforment le monde à un rythme sans précédent, et nous pensons que ce n'est que le début", ont déclaré les fondateurs de Run:ai. "Les GPU et l'infrastructure de l'IA resteront à l'avant-garde de ces innovations transformatrices et rejoindre Nvidia nous offre une opportunité extraordinaire de poursuivre une mission commune visant à aider l'humanité à résoudre les plus grands défis du monde."

    Nvidia est depuis longtemps un fabricant de puces graphiques, et ces puces sont devenues beaucoup plus utiles ces dernières années pour exécuter des logiciels d'IA. Aujourd'hui, l'entreprise met également l'accent sur les logiciels et cette acquisition est liée au fait de donner aux clients un maximum de choix, d'efficacité et de flexibilité pour les logiciels d'orchestration GPU. Nvidia et Run:ai travaillent ensemble depuis 2020 et ont des clients communs.

    TLV Partners a dirigé le tour de table d'amorçage de Run:ai en 2018. Rona Segev, directeur général de TLV, a déclaré dans un communiqué : "Le marché de l'IA au début de 2018 semblait être un monde différent. OpenAI était encore une société de recherche et la capitalisation boursière de Nvidia n'était 'que' d'environ 100 milliards de dollars. Nous avons rencontré Omri et Ronen qui nous ont brossé un tableau de ce à quoi ressemblerait l'avenir de l'IA. Dans leur vision de l'avenir, l'IA était omniprésente".

    Et Segev d'ajouter : "Tout le monde sur la planète interagirait quotidiennement avec l'IA, et il serait évident que chaque entreprise tirerait parti de l'IA d'une manière ou d'une autre. Selon eux, la seule chose qui empêche cette vision de devenir réalité est le manque d'efficacité et les coûts associés à l'entraînement des modèles d'IA et à leur exécution en production sur de multiples grappes de GPU. Pour résoudre ce problème, Omri et Ronen ont lancé l'idée de créer une couche d'orchestration entre les modèles d'IA et les GPU qui permettrait une utilisation beaucoup plus efficace des ressources de calcul sous-jacentes, ce qui se traduirait par des temps d'entraînement plus rapides et des coûts considérablement réduits".

    Et Segev de préciser : "Bien sûr, tout cela était théorique à l'époque, car ils n'avaient pas encore constitué de société, et encore moins de produit. Nous ne savions pas grand-chose du secteur à l'époque. Mais Omri et Ronen avaient quelque chose de spécial. Ils possédaient une combinaison unique d'intelligence, de charme, de folie et d'humilité qui constituait la recette parfaite pour le type de fondateurs que nous cherchons à soutenir."

    Cette annonce officielle intervient après une enquête de la Commission européenne qui a conclu que l'acquisition de Run:ai par NVIDIA ne poserait pas de problèmes de concurrence. Selon la Commission, même si NVIDIA possède une position dominante dans le marché des GPU, Run:ai n'occupe pas une position significative sur le marché des logiciels d'orchestration GPU. La Commission européenne a donc autorisé sans condition le projet d'acquisition de Run:ai par NVIDIA.

    Nom : 1.jpg
Affichages : 5346
Taille : 25,0 Ko

    Voici le communiqué de Run:ai sur le sujet :

    Run:ai rejoint NVIDIA : Un nouveau chapitre commence

    Aujourd'hui, nous sommes ravis de rejoindre officiellement l'équipe de NVIDIA. Cela marque la fin d'un chapitre extraordinaire dans le parcours de Run:ai et le début d'un nouveau chapitre passionnant dans une nouvelle maison.

    En tant que membre de NVIDIA, nous sommes impatients de nous appuyer sur les résultats que nous avons obtenus jusqu'à présent, d'élargir notre équipe talentueuse et de développer nos produits et notre présence sur le marché. Même si nos couleurs passent du rose au vert, notre engagement envers nos clients, nos partenaires et l'ensemble de l'écosystème de l'IA reste inébranlable.

    Nous continuerons à aider nos clients à tirer le meilleur parti de leur infrastructure d'IA et à offrir à l'écosystème un maximum de flexibilité, d'efficacité et d'utilisation pour les systèmes GPU, où qu'ils se trouvent : Sur site, dans le cloud grâce à des solutions natives, ou sur NVIDIA DGX Cloud, conçu conjointement avec les principaux CSP.

    Fidèles à notre philosophie de plate-forme ouverte, en tant que membre de NVIDIA, nous continuerons à donner aux équipes d'IA la liberté de choisir les outils, les plates-formes et les cadres qui répondent le mieux à leurs besoins. Nous continuerons à renforcer nos partenariats et à travailler avec l'écosystème pour proposer une grande variété de solutions d'IA et de choix de plates-formes.

    En outre, nous prévoyons d'ouvrir le logiciel Run:ai afin d'aider la communauté à construire une meilleure IA, plus rapidement. Alors que Run:ai ne prend actuellement en charge que les GPU NVIDIA, l'open source du logiciel lui permettra d'étendre sa disponibilité à l'ensemble de l'écosystème de l'IA.

    Lorsque nous avons fondé Run:ai en 2018, notre objectif était clair : être une force motrice dans la révolution de l'IA et donner aux organisations les moyens de libérer tout le potentiel de leur infrastructure d'IA. Au fil des ans, notre équipe de classe mondiale a franchi des étapes dont nous ne pouvions que rêver à l'époque. Ensemble, nous avons mis au point une technologie innovante, un produit extraordinaire et un moteur de commercialisation incroyable.

    Nous avons aidé nos clients à orchestrer leur infrastructure d'IA, à accroître l'efficacité et l'utilisation, et à stimuler la productivité de leurs équipes d'IA. En cours de route, nous avons favorisé des collaborations significatives à travers l'écosystème, contribuant à l'avancement de l'ensemble du domaine.

    Nous sommes ravis de poursuivre sur cette lancée, maintenant que nous faisons partie de NVIDIA. L'IA et l'informatique accélérée transforment le monde à un rythme sans précédent, et nous pensons que ce n'est que le début. Les GPU et l'infrastructure de l'IA resteront à l'avant-garde de ces innovations transformatrices et le fait de rejoindre NVIDIA nous offre une opportunité extraordinaire de poursuivre une mission commune pour aider l'humanité à résoudre les plus grands défis du monde.

    Nous sommes profondément reconnaissants envers notre équipe, nos investisseurs, nos clients et nos partenaires qui nous ont accompagnés tout au long de ce voyage. Construire Run:ai a été une expérience vraiment incroyable, et nous sommes impatients de découvrir ce qui nous attend dans ce nouveau chapitre.
    Source : Annonce de Run:ai

    Et vous ?

    Pensez-vous que cette acquisition de Run:ai par Nvidia est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Nvidia dépasse à nouveau Apple en tant qu'entreprise la plus valorisée au monde, grâce à la demande de puces d'IA, cependant le fonds spéculatif Elliott estime que l'action Nvidia est "une bulle"

    Les États-Unis lancent une enquête antitrust sur Nvidia, à la suite de plaintes de concurrents concernant l'abus de position dominante sur le marché des puces d'intelligence artificielle (IA)

    Nvidia serait le principal investisseur dans les entreprises d'IA, avec plus de deux douzaines d'investissements dans ce domaine, au cours d'une année
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 14/02/2023, 12h45
  2. Réponses: 4
    Dernier message: 20/09/2021, 08h33
  3. Réponses: 3
    Dernier message: 26/02/2021, 10h52
  4. NVIDIA publie davantage de documentation sur son interface matérielle GPU
    Par Christian Olivier dans le forum Logiciels Libres & Open Source
    Réponses: 2
    Dernier message: 09/08/2019, 14h44
  5. Réponses: 11
    Dernier message: 18/05/2018, 14h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo