Amazon annonce la création d'une plateforme d'IA appelée "Bedrock" afin de rivaliser avec OpenAI
elle offre un accès aux API des modèles d'IA des entreprises telles que Stability AI et Anthropic

Amazon a annoncé jeudi le lancement d'une plateforme d'IA pour les entreprises appelée Bedrock. Elle est une suite d'outils basés sur l'IA générative qui vise à permettre aux clients d'AWS de créer des chatbots, générer et résumer des textes. Elle devrait également permettre aux utilisateurs de créer et de classer des images à partir de messages-guides. Amazon Bedrock fournit des API permettant d'accéder aux modèles d'IA générative construits par les entreprises AI21 Labs, Anthropic et Stability AI. Bedrock est disponible en avant-première limitée et offre également un accès à Titan FM (foundation models), une famille de modèles formés en interne par AWS.

Amazon lance Bedrock pour la création d'application d'IA à partir de modèles d'IA tiers

Le leader mondial du cloud computing se décide finalement à se lancer dans la course à l'IA pour défier les grands acteurs tels que Meta, Google, OpenAI et Microsoft, en lançant une plateforme dédiée à l'IA générative. L'objectif est de cibler les personnes morales qui souhaitent intégrer l'IA dans leur entreprise. Comme vous pouvez le constater, il s'agit d'une belle retombée pour les géants de la technologie qui se concentrent davantage sur les consommateurs liés à l'IA. Dans un premier temps, la plateforme nouvellement lancée par Amazon hébergera les grands modèles de langages provenant de startups telles que AI21 Labs, Anthropic et Stability AI.

En effet, alors que Meta, Microsoft et Google rivalisent pour introduire des chatbots d'IA générative dans les suites de recherche et de productivité, la stratégie du géant mondial du cloud computing consiste à rester assez neutre - comme une sorte de Suisse de l'apprentissage automatique - et à fournir un accès aux derniers modèles sur sa plateforme en nuage. Les startups qui ont accepté de travailler avec le géant du commerce électronique y trouvent leur compte. Les développeurs paient pour utiliser les API afin d'accéder aux modèles des jeunes pousses, et AWS fournit toute l'infrastructure sous-jacente qui gère et fournit entièrement ces services.


« Les clients nous ont dit qu'il y avait quelques obstacles majeurs qui les empêchaient d'avancer aujourd'hui. Premièrement, ils ont besoin d'un moyen simple de trouver et d'accéder à des modèles fondamentaux très performants qui donnent des résultats exceptionnels et qui sont les mieux adaptés à leurs besoins. Deuxièmement, les clients veulent que l'intégration dans les applications soit transparente, sans avoir à gérer d'énormes grappes d'infrastructure ou à supporter des coûts importants », a déclaré jeudi Swami Sivasubramanian, vice-président d'AWS chargé de l'apprentissage automatique, dans un billet de blogue présentant la nouvelle plateforme.

La nouvelle plateforme, appelée Bedrock, permettra aux utilisateurs d'Amazon Web Services (AWS) de développer l'IA générative à partir de modèles de fondation (FM - Foundation Models). GPT-4 est un exemple d'un tel modèle, ChatGPT étant une application d'IA générative construite dessus. Bedrock est une expérience sans serveur où les clients peuvent personnaliser en privé les FM avec leurs propres données, et les intégrer et les déployer facilement dans leurs applications. Le partenariat entre Amazon et Anthropic et Stability AI permettra aux utilisateurs de Bedrock d'avoir accès aux grands modèles de langages tels que Claude et Stable Diffusion.

Claude est le modèle d'IA d'Anthropic. Il peut effectuer une série de tâches de conversation et de traitement de texte. La suite de modèles d'IA de conversion de texte en image de Stability AI hébergée sur Bedrock, dont le fameux Stable Diffusion, peut générer des images, de l'art, des logos et des conceptions graphiques. En outre, Bedrock héberge également la famille de modèles d'IA Jurassic-2 d'AI21 Labs, qui est multilingue et peut générer du texte en espagnol, français, allemand, portugais, italien et néerlandais. Bien que Bedrock soit centré sur les modèles tiers, l'entreprise introduit néanmoins des modèles fondamentaux développés en interne.

Par exemple, Bedrock hébergera également Titan, une famille de deux modèles d'IA. Semblable au modèle GPT-4 d'OpenAI (mais pas nécessairement au même niveau de performance), Titan peut effectuer des tâches telles que la rédaction de billets de blogue et d'emails, le résumé de documents et l'extraction d'informations à partir de bases de données. Titan est un modèle d'intégration. Cela signifie qu'il traduit les entrées textuelles telles que les mots et les phrases en représentations numériques, connues sous le nom d'intégration, qui contiennent la signification sémantique du texte. Il ne faut pas le confondre avec le modèle d'IA Titan de Google.

Amazon pourrait concurrencer l'offre Azure OpenAI Service de Microsoft avec Bedrock

Bedrock est le pari le plus audacieux d'Amazon sur le marché de l'IA générative, et selon les estimations du cabinet américain d'étude de marché Grand View Research, la plateforme pourrait valoir près de 110 milliards de dollars d'ici 2030. Les détails sont un peu flous et Amazon n'a pas annoncé de prix officiels, par exemple. Mais la société a souligné que Bedrock est destiné aux grands clients qui construisent des applications d'IA à l'échelle de l'entreprise, ce qui le différencie de certains services d'hébergement de modèles d'IA, comme Replicate (ainsi que les rivaux historiques que sont Google Cloud et Azure). Mais le billet de blogue apporte peu de détail.


On peut supposer que les fournisseurs de modèles d'IA générative ont été incités par la portée d'AWS ou le partage potentiel des revenus à rejoindre Bedrock. Amazon n'a toutefois pas révélé les termes des accords de licence ou d'hébergement des modèles. L'entreprise précise toutefois que les données que les clients ajouteront lors de l'utilisation d'un modèle hébergé sur Bedrock ne seront pas intégrées à celui-ci, de sorte que ces données resteront privées et protégées des autres clients potentiels et des grands rivaux du secteur. Les entreprises craignent que les données qu'elles partagent avec les modèles d'IA soient mémorisées et divulguées ensuite.

Les coûts de formation d'un modèle d'IA peuvent être phénoménaux. Puis, une fois qu'un modèle est formé sur un ensemble de données donné, il est essentiellement "sale" avec ces données et est enclin à "halluciner" des informations à partir de celles-ci en réponse à des requêtes sans rapport. Bedrock permet aux clients de contourner ce problème en leur donnant la possibilité d'utiliser des FM préexistants comme colonne vertébrale à l'appui de leurs données. Avec Bedrock, Amazon met en veilleuse les investissements importants dans une startup d'IA en particulier. L'entreprise affirme qu'elle souhaite démocratiser l'IA en facilitant l'accès aux modèles d'IA.

Étant donné les questions juridiques sans réponse qui entoure l'IA générative, on peut se demander exactement combien de clients vont mordre à l'hameçon. Microsoft a connu le succès avec sa suite de modèles d'IA générative, Azure OpenAI Service, qui regroupe des modèles d'IA d'OpenAI avec des fonctionnalités supplémentaires destinées aux entreprises. En mars, Microsoft a rapporté que plus de 1 000 clients utilisaient Azure OpenAI Service. Mais plusieurs procès sont en cours concernant la technologie d'IA générative d'entreprises telles qu'OpenAI et Stability AI, intentés par des plaignants pour une violation présumée de leur droit d'auteur.

Les plaignants allèguent que leurs travaux (œuvres d'art, documents de recherche, poésies, codes informatiques, etc.) ont été utilisés sans autorisation pour entraîner les modèles de langage. Une autre affaire en cours devant les tribunaux cherche à établir si les modèles de génération de code source qui ne donnent pas d'attribution ou de crédit peuvent en fait être commercialisés, et un maire australien a menacé d'intenter un procès en diffamation contre OpenAI pour les inexactitudes débitées par son chatbot d'IA ChatGPT. Amazon a été évasif sur la question et a refusé de dire sur quelles données la famille de modèles Titan d'Amazon a été entraînée.

Amazon propose un outil de génération de code pour concurrencer GitHub Copilot

Amazon a également rendu CodeWhisperer, son outil d'IA de génération de code, gratuit pour les développeurs, sans aucune restriction d'utilisation. Cela suggère que CodeWhisperer n'a pas rencontré le succès escompté par Amazon. Son principal rival, GitHub Copilot, comptait plus d'un million d'utilisateurs en janvier, dont des milliers d'entreprises. CodeWhisperer a donc un retard à rattraper, ce qu'il entend faire du côté des entreprises. Amazon lance aussi CodeWhisperer Professional Tier. Il ajoute l'authentification unique avec l'intégration de la gestion des identités et des accès AWS, ainsi que des limites plus élevées pour l'analyse des vulnérabilités.

CodeWhisperer a été lancé fin juin 2022. Formé sur des milliards de lignes de code open source accessibles au public et sur la base de code d'Amazon, ainsi que sur la documentation et le code des forums publics, CodeWhisperer peut remplir automatiquement des fonctions entières dans des langages tels que JavaScript, Python et Java en se basant uniquement sur un commentaire ou quelques frappes de clavier. Il prend désormais en charge plusieurs langages supplémentaires, notamment Go, Rust, PHP, Ruby, Kotlin, C, C++, Shell scripting, SQL et Scala. Contrairement à GitHub Copilot, CodeWhisperer peut citer la source de certains extraits de code.

CodeWhisperer met en évidence et filtre éventuellement la licence associée aux fonctions qu'il suggère et qui présentent une ressemblance avec des extraits existants trouvés dans ses données d'apprentissage. Cette mise en évidence vise à éviter les problèmes juridiques auxquels GitHub est confronté avec Copilot. L'avenir nous dira si cette démarche est couronnée de succès. Par ailleurs, Amazon a annoncé jeudi le lancement d'instances Elastic Cloud Compute (EC2) Inf2 en disponibilité générale, pilotées par les puces AWS Inferentia2 de la société, qui ont été présentées en avant-première l'année dernière lors de la conférence re:Invent d'Amazon.

Les instances Inf2 sont conçues pour accélérer les temps d'exécution de l'IA, en offrant ostensiblement un meilleur débit et une latence plus faible pour améliorer les performances globales du prix de l'inférence. En outre, les instances Amazon EC2 Trn1n pilotées par AWS Trainium, la puce conçue sur mesure par Amazon pour la formation de l'IA, sont également disponibles pour les clients depuis jeudi, a annoncé Amazon. Selon Amazon, elles offrent jusqu'à 1600 Go/s de bande passante réseau et sont conçues pour offrir jusqu'à 20 % de performances supplémentaires par rapport à Trn1 pour les grands modèles à forte intensité de réseau.

Source : Amazon

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la plateforme d'IA Bedrock d'Amazon ?
Selon vous, quels avantages les clients d'AWS pourraient tirer de Bedrock ?
Bedrock est-il en mesure de concurrencer l'offre Azure OpenAI Service de Microsoft ?
Que pensez-vous de l'outil de génération de code CodeWhisperer d'Amazon ?
Avez-vous déjà essayé CodeWhisperer et GitHub Copilot ? Si oui, partagez votre expérience.

Voir aussi

Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative au sein de Twitter, des critiques suggèrent qu'il souhaitait une "pause" afin de rattraper son retard sur OpenAI

Anthropic voudrait lever jusqu'à 5 milliards de dollars en deux ans pour affronter ChatGPT d'OpenAI, prévoyant de développer un outil 10 fois plus puissant que les modèles d'IA actuels

Microsoft intègre la prise en charge de ChatGPT à la collection d'utilitaires PowerToys sur Windows 10 et 11, le plugin permettra d'effectuer des recherches pilotées par l'IA sans ouvrir un navigateur

Une pétition appelle l'UE à investir dans une infrastructure de supercalculateurs et équipée de 100 000 accélérateurs d'IA pour former des modèles d'IA open source et démocratiser la recherche en IA