Mistral AI présente Codestral, un modèle d'IA générative conçu pour les tâches de génération de code, il permet d'écrire et d'interagir avec le code grâce à une instruction partagée et une API de complétion

Mistral AI présente Codestral, son tout premier modèle de code. Codestral est un modèle d'IA générative à poids ouvert explicitement conçu pour les tâches de génération de code. Il aide les développeurs à écrire et à interagir avec le code par le biais d'une instruction partagée et d'un point de terminaison pour une API de complétion. Comme Codestral maîtrise le code et l'anglais, le modèle de code peut être utilisé pour concevoir des applications d'IA avancées pour les développeurs de logiciels.

Mistral AI est une entreprise française qui vend des produits d'intelligence artificielle (IA). Fondée en avril 2023 par d'anciens employés de Meta Platforms et de Google DeepMind, Mistral AI produit de grands modèles de langage open source, en citant l'importance fondamentale des logiciels open source et en réponse aux modèles propriétaires. En mai 2024, trois modèles ont été publiés et sont disponibles sous forme de poids. Trois autres modèles, Small, Medium et Large, sont disponibles uniquement via une API. En octobre 2023, Mistral AI a levé 385 millions d'euros et a été évaluée à plus de 2 milliards de dollars en décembre de cette même année.


Un modèle maîtrisant plus de 80 langages de programmation

Codestral est formé sur un ensemble de données diversifié de plus de 80 langages de programmation, y compris les plus populaires, tels que Python, Java, C, C++, JavaScript et Bash. Il est également performant sur des langages plus spécifiques comme Swift et Fortran. Cette large base de langages garantit que Codestral peut aider les développeurs dans divers environnements de codage et projets.

Codestral permet aux développeurs d'économiser du temps et des efforts : il peut compléter les fonctions de codage, écrire des tests et compléter n'importe quel code partiel en utilisant un mécanisme de remplissage (fill-in-the-middle). L'interaction avec Codestral permet au développeur d'améliorer son jeu de codage et de réduire le risque d'erreurs et de bogues.

Mettre la barre plus haut pour la performance de la génération de codes

Performance. En tant que modèle 22B, Codestral établit une nouvelle norme en matière de performances et de temps de latence pour la génération de codes par rapport aux modèles précédents utilisés pour le codage.

Nom : mistral codestral tab1.PNG
Affichages : 8791
Taille : 43,7 Ko

Mistral AI a comparé Codestral à des modèles existants spécifiques au codage, avec des exigences matérielles plus élevées.

Python. Quatre benchmarks sont utilisés : HumanEval pass@1, MBPP sanitised pass@1 pour évaluer la capacité de Codestral à générer du code Python, CruxEval pour évaluer la prédiction des sorties Python, et RepoBench EM pour évaluer la complétion du code au niveau du référentiel à long terme de Codestral.

SQL. Le benchmark Spider a été utilisé pour évaluer les performances de Codestral en SQL.

Nom : mistral codestral tab23.PNG
Affichages : 2210
Taille : 88,1 Ko

Démarrer avec Codestral

Utiliser Codestral via son point de terminaison dédié

Avec cette version, vient l'ajout d'un nouveau endpoint : codestral.mistral.ai. Ce point de terminaison devrait être préféré par les utilisateurs qui utilisent les routes Instruct ou Fill-In-the-Middle à l'intérieur de leur IDE. La clé API pour ce point de terminaison est gérée au niveau personnel et n'est pas liée aux limites habituelles de taux de l'organisation. Mistral AI autorise l'utilisation de ce point de terminaison gratuitement pendant une période bêta de 8 semaines et le place derrière une liste d'attente afin d'assurer une bonne qualité de service. Ce point de terminaison devrait être préféré par les développeurs qui mettent en œuvre des plugins IDE ou des applications où les clients sont censés apporter leurs propres clés API.

Construire avec Codestral sur La Plateforme

Codestral est également disponible immédiatement sur le point de terminaison habituel de l'API : api.mistral.ai où les requêtes sont facturées par jeton. Ce point de terminaison et les intégrations sont mieux adaptés à la recherche, aux requêtes par lots ou au développement d'applications tierces qui exposent les résultats directement aux utilisateurs sans qu'ils apportent leurs propres clés API.

Vous pouvez créer votre compte sur La Plateforme et commencer à développer vos applications avec Codestral en suivant ce guide. Comme tous les autres modèles de Mistral AI, Codestral est disponible dans l'offre d'auto-déploiement de Mistral AI dès aujourd'hui.

Discuter avec Codestral sur Le Chat

Mistral AI expose une version instruite de Codestral, qui est accessible dès aujourd'hui via Le Chat, son interface conversationnelle gratuite. Les développeurs peuvent interagir avec Codestral de manière naturelle et intuitive pour exploiter les capacités du modèle. Mistral AI considère Codestral comme un nouveau pas vers l'autonomisation de chacun en matière de génération et de compréhension de code.

Utiliser Codestral dans votre environnement de codage et de construction préféré

Mistral AI a travaillé avec des partenaires de la communauté pour intégrer Codestral à des outils populaires pour la productivité des développeurs et la création d'applications d'intelligence artificielle.

Les frameworks d'application. Codestral est intégré dans LlamaIndex et LangChain à partir d'aujourd'hui, ce qui permet aux utilisateurs de construire facilement des applications agentiques avec Codestral.

Intégration avec VSCode/JetBrains. Continue.dev et Tabnine permettent aux développeurs d'utiliser Codestral dans les environnements VSCode et JetBrains et leur permettent désormais de générer et de dialoguer avec le code en utilisant Codestral.

Voici (https://www.youtube.com/watch?v=mjltGOJMJZA) comment vous pouvez utiliser le plugin VSCode de Continue.dev pour la génération de code, la conversation interactive et l'édition en ligne avec Codestral, et voici (https://www.youtube.com/watch?v=pFa4NLK9Lbw) comment les utilisateurs peuvent utiliser le plugin VSCode de Tabnine pour discuter avec Codestral.

Pour des informations détaillées sur le fonctionnement des différentes intégrations avec Codestral, veuillez consulter la documentation pour des instructions de configuration et des exemples.

Commentaires de la communauté des développeurs

« Un modèle d'autocomplétion public avec cette combinaison de vitesse et de qualité n'existait pas auparavant, et cela va constituer un changement de phase pour les développeurs du monde entier », déclare Nate Sesti, directeur technique et cofondateur de Continue.dev.

« Nous sommes enthousiasmés par les capacités dévoilées par Mistral et ravis de constater que l'accent est mis sur le code et l'aide au développement, un domaine qui tient particulièrement à cœur chez JetBrains », déclare Vladislav Tankov, directeur de JetBrains AI.

« Nous avons utilisé Codestral pour effectuer un test sur notre benchmark Kotlin-HumanEval et nous avons été impressionnés par les résultats. Par exemple, dans le cas du taux de réussite pour T=0,2, Codestral a obtenu un score de 73,75, surpassant le score de 72,05 de GPT-4-Turbo et le score de 54,66 de GPT-3.5-Turbo », déclare Mikhail Evtikhiev, chercheur chez JetBrains.

« En tant que chercheur dans l'entreprise qui a créé le premier outil GenAI destiné aux développeurs, j'ai eu le plaisir d'intégrer le nouveau modèle de code de Mistral dans notre produit de chat. Je suis très impressionné par ses performances. Malgré sa taille relativement compacte, il fournit des résultats comparables à des modèles beaucoup plus importants que nous proposons à nos clients. Nous avons testé plusieurs fonctionnalités clés, notamment la génération de code, la génération de tests, la documentation, les processus d'intégration, etc. Dans tous les cas, le modèle a dépassé nos attentes. La rapidité et la précision du modèle auront un impact significatif sur l'efficacité de notre produit par rapport au modèle Mistral précédent, nous permettant de fournir une assistance rapide et précise à nos utilisateurs. Ce modèle s'impose comme un outil puissant parmi les modèles que nous prenons en charge, et je le recommande vivement à tous ceux qui recherchent des performances de haute qualité », affirme Meital Zilberstein, responsable de la recherche et du développement chez Tabnine.

« Cody accélère la boucle interne du développement logiciel, et les développeurs utilisent des fonctions comme l'autocomplétion pour alléger une partie du travail quotidien lié à l'écriture du code. Nos évaluations internes montrent que le nouveau modèle Codestral de Mistral réduit considérablement la latence de l'autocomplétion Cody tout en maintenant la qualité du code suggéré. Il s'agit donc d'un excellent choix de modèle pour l'autocomplétion, où les millisecondes de latence se traduisent par une valeur réelle pour les développeurs » , affirme Quinn Slack, PDG et cofondateur de Sourcegraph.

« J'ai été incroyablement impressionné par le nouveau modèle Codestral de Mistral pour la génération de code par l'IA. Dans les tests que j'ai effectués jusqu'à présent, il a toujours produit un code très précis et fonctionnel, même pour des tâches complexes. Par exemple, lorsque je lui ai demandé d'exécuter une fonction non triviale pour créer un nouveau moteur de requête LlamaIndex, il a généré un code qui fonctionnait sans problème, bien qu'il soit basé sur une base de code plus ancienne », déclare Jerry Liu, PDG et cofondateur de LlamaIndex.

« La génération de code est l'un des cas d'utilisation LLM les plus populaires, c'est pourquoi nous sommes vraiment ravis de la sortie de Codestral. D'après nos premiers tests, il s'agit d'une excellente option pour les flux de travail de génération de code car il est rapide, dispose d'une fenêtre contextuelle favorable et la version d'instruction prend en charge l'utilisation d'outils. Nous avons testé LangGraph pour la génération de code autocorrectif en utilisant l'outil Codestral instruct pour la sortie, et cela a très bien fonctionné dès le départ », indique Harrison Chase, PDG et cofondateur de LangChain.

Télécharger et tester Codestral
Codestral est un modèle 22B open-weight licencié sous la nouvelle licence Mistral AI Non-Production License, ce qui signifie que vous pouvez l'utiliser à des fins de recherche et de test. Codestral peut être téléchargé sur HuggingFace.

Source : Mistral AI

Et vous ?

Que pensez-vous de Codestral et de ses capacités ? Trouvez-vous qu'il s'agit d'un outil utile et intéressant ?
Seriez-vous disposé à adopter Codestral dans vos projets de développement logiciel ?

Voir aussi :

Mistral AI, le rival français d'OpenAI, serait en train de discuter avec des investisseurs pour lever des centaines de millions de dollars, et tenter d'atteindre une valorisation de 5 milliards de dollars

Mistral AI lance un nouveau grand modèle de langage "Mistral Large" pour rivaliser avec GPT-4, et sa propre alternative à ChatGPT, l'assistant chat appelé "Le Chat", gratuit en version bêta

Dans le cadre d'un nouveau partenariat, Microsoft mettra les modèles d'IA de la startup française Mistral AI à la disposition de sa plateforme de cloud computing Azure