IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La start-up française d'IA Mistral lance ses nouveaux modèles d'IA open source Mistral 3


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    2 058
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 2 058
    Par défaut La start-up française d'IA Mistral lance ses nouveaux modèles d'IA open source Mistral 3
    La start-up française d'IA Mistral lance ses nouveaux modèles d'IA open source Mistral 3, dotés de performances de pointe, afin de rester dans la course face à OpenAI et Google

    La start-up française Mistral a dévoilé ses derniers modèles d'intelligence artificielle (IA), Mistral 3, afin de concurrencer les géants du secteur tels qu'OpenAI et Google. Ce lancement comprend à la fois des modèles de grande et de petite taille, conçus pour une variété d'applications, allant des flux de travail en entreprise à la robotique et aux drones. Axés sur l'accessibilité open source, ces modèles promettent des performances élevées et une rentabilité accrue, offrant ainsi une plus grande flexibilité aux développeurs. L'initiative ambitieuse de Mistral fait suite à une importante levée de fonds, marquant son ascension en tant qu'acteur clé du secteur européen de l'IA.

    Mistral AI SAS est une entreprise française spécialisée dans l'IA, dont le siège social est situé à Paris. Fondée en 2023, elle propose des grands modèles de langage (LLM) ouverts, avec des modèles d'IA à la fois open source et propriétaires. Mistral s'est imposée comme l'une des principales entreprises européennes dans le domaine de l'IA et a levé 1,7 milliard d'euros lors d'un tour de table en septembre 2025. Le géant néerlandais d'équipements pour puces ASML a contribué à hauteur de 1,3 milliard d'euros à cette levée de fonds, à laquelle Nvidia a également participé. Au terme de ce tour de table, la start-up, qui bénéficiait auparavant du soutien de Microsoft et d'Andreessen Horowitz, a atteint une valorisation de 11,7 milliards d'euros.

    Le mardi 2 décembre 2025, la start-up spécialisée dans l'IA Mistral a publié une nouvelle suite de modèles afin de rester dans la course face aux laboratoires d'IA leaders tels que Google, OpenAI et DeepSeek. L'annonce de la société française fait suite à la publication de modèles par DeepSeek et Google ces dernières semaines, alors que les laboratoires d'IA du monde entier s'efforcent de rester à la pointe de la recherche tout en développant leurs activités commerciales.

    Le lancement comprend Mistral Large 3, un modèle de grande taille que l'entreprise présente comme « le meilleur modèle multimodal et multilingue à poids ouvert au monde ». Il s'agit du modèle d'IA le plus performant de la société à ce jour. Ce modèle propose un mélange d'experts peu dense formé de 41 milliards de paramètres actifs et de 675 milliards de paramètres au total. La suite Mistral 3 comprend également la série Ministral 3, composée de trois modèles compacts de pointe (14B, 8B et 3B), qui, selon la start-up, peuvent être utilisés dans la robotique, les appareils et les drones. Tous les modèles de la gamme sont publiés sous licence Apache 2.0.

    « Mistral 3 établit une nouvelle norme en matière de disponibilité mondiale de l'IA et ouvre de nouvelles possibilités pour les entreprises », a déclaré la société dans un communiqué. « Cette gamme de modèles étend encore davantage les capacités d'IA appliquée de nos clients à la robotique, aux drones autonomes et aux petites applications sur appareil sans accès au réseau, ainsi qu'aux flux de travail agentifs d'entreprise les plus importants au monde. »


    La famille Mistral 3 est disponible sur Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI et Together AI. Il sera également bientôt disponible sur NVIDIA NIM et AWS SageMaker.

    Mistral Large 3 : un modèle ouvert à la pointe de la technologie

    Mistral présente Large 3 comme « l'un des meilleurs modèles ouverts permissifs au monde ». Entraîné à partir de zéro sur 3 000 GPU H200 de NVIDIA, Mistral Large 3 est le premier modèle de type « mélange d'experts » de Mistral depuis la série Mixtral et représente une avancée majeure dans le domaine du pré-entraînement chez Mistral. Selon la société, après l'entraînement, le modèle atteint la parité avec les meilleurs modèles à poids ouverts optimisés pour l'instruction sur le marché en matière de requêtes générales, tout en démontrant une compréhension des images et des performances de premier ordre dans les conversations multilingues.

    Nom : Mistral 3 fig 1.PNG
Affichages : 9576
Taille : 53,9 Ko

    Mistral Large 3 fait son entrée à la deuxième place du classement LMArena dans la catégorie des modèles OSS sans raisonnement (et à la sixième place parmi tous les modèles OSS).

    Nom : Mistral 3 fig 2.PNG
Affichages : 2412
Taille : 49,3 Ko

    Le nouveau modèle de grande taille de Mistral offre de puissantes capacités agentiques et est conçu pour les assistants IA, les systèmes à enrichissement contextuel, les charges de travail scientifiques et les flux de travail d'entreprise complexes, a déclaré la société.

    Mistral a publié les versions de base et optimisée de Mistral Large 3 sous licence Apache 2.0, offrant ainsi une base solide pour une personnalisation plus poussée au sein des communautés d'entreprises et de développeurs. Une version avec raisonnement devant bientôt être disponible.

    Nom : Mistral 3 fig 3.PNG
Affichages : 2412
Taille : 29,4 Ko

    Ministral 3 : une intelligence de pointe à la frontière

    Pour les cas d'utilisation en périphérie et locaux, Mistral a lancé la série Ministral 3, disponible en trois tailles de modèles : paramètres 3B, 8B et 14B. Ministral 3, est suffisamment petit pour fonctionner dans des drones, des voitures, des robots, des téléphones et des ordinateurs portables.

    « Les modèles compacts offrent des avantages pour la plupart des applications concrètes : coût d'inférence réduit, latence réduite et performances spécifiques au domaine », a déclaré Mistral. « Ils peuvent être personnalisés pour surpasser les modèles plus grands sur des flux de travail spécifiques et atteindre des performances de pointe pour leur taille. »

    Nom : Mistral 3 fig 4.PNG
Affichages : 2400
Taille : 42,0 Ko

    Pour chaque taille de modèle, la société propose à la communauté des variantes de base, d'instruction et de raisonnement, chacune dotée de capacités de compréhension des images, le tout sous licence Apache 2.0. Associée aux capacités multimodales et multilingues natives des modèles, la famille Ministral 3 offre un modèle adapté aux besoins des entreprises ou des développeurs.


    Nom : Mistral 3 fig 5.PNG
Affichages : 2401
Taille : 72,1 Ko

    Ministral 3 offre « le meilleur rapport coût-performance de tous les modèles OSS », selon la société. Dans les cas d'utilisation réels, le nombre de jetons générés et la taille du modèle ont une importance égale. Les modèles Ministral instruct égalent ou surpassent les performances des modèles comparables tout en produisant souvent un nombre de jetons nettement inférieur.

    Nom : Mistral 3 fig 6.PNG
Affichages : 2406
Taille : 71,0 Ko

    Dans les configurations où la précision est la seule préoccupation, les variantes de raisonnement Ministral peuvent réfléchir plus longtemps pour produire une précision de pointe dans leur catégorie de poids, par exemple 85 % sur AIME '25 avec la variante 14B.

    Nom : Mistral 3 fig 7.PNG
Affichages : 2390
Taille : 54,7 Ko

    Ministral 3 peut être déployé sur un seul processeur graphique (GPU), ce qui, selon l'entreprise, réduit les coûts d'exploitation et accélère les itérations.

    « Le prochain chapitre de l'IA n'est pas seulement plus ambitieux, il est aussi plus intelligent, plus rapide et plus ouvert », a déclaré l'entreprise. « Ensemble, nous construisons une ère d'intelligence distribuée. »

    Mistral, NVIDIA, vLLM et Red Hat s'associent pour proposer une version plus rapide et plus accessible de Mistral 3

    Développé en collaboration avec vLLM et Red Hat, Mistral Large 3 offre une accessibilité élevée à la communauté open source. Mistral a publié un point de contrôle au format NVFP4, créé avec llm-compressor. Ce point de contrôle optimisé permet aux développeurs d'exécuter Mistral Large 3 efficacement sur les systèmes Blackwell NVL72 et sur un seul nœud 8×A100 ou 8×H100 à l'aide de vLLM.

    Selon Mistral, la fourniture de modèles d'IA open source avancés nécessite une optimisation étendue qui a été réalisée grâce à un partenariat avec NVIDIA. La start-up a indiqué que tous les nouveaux modèles Mistral 3, de Large 3 à Ministral 3, ont été entraînés sur des GPU NVIDIA Hopper afin d'exploiter la mémoire HBM3e à haut débit pour les charges de travail à l'échelle de la frontière.

    « L'approche de co-conception extrême de NVIDIA réunit le matériel, les logiciels et les modèles. Les ingénieurs de NVIDIA ont permis une prise en charge efficace de l'inférence pour TensorRT-LLM et SGLang pour toute la gamme Mistral 3, afin d'assurer une exécution efficace à faible précision », a déclaré la start-up.

    Pour l'architecture MoE éparse de Large 3, NVIDIA a intégré les noyaux Blackwell attention et MoE de pointe, ajouté la prise en charge du service désagrégé de préremplissage/décodage et collaboré avec Mistral sur le décodage spéculatif, permettant ainsi aux développeurs de traiter efficacement des charges de travail à long contexte et à haut débit sur GB200 NVL72 et au-delà. À la périphérie, NVIDIA a permis des déploiements optimisés des modèles Ministral sur DGX Spark, les PC et ordinateurs portables RTX et les appareils Jetson, offrant aux développeurs un chemin cohérent et hautement performant pour exécuter ces modèles ouverts, du centre de données au robot.

    Une stratégie de croissance soutenue face aux géants américains

    Le lancement de la famille Mistral 3 intervient alors que l'entreprise française cherche à intensifier son activité commerciale afin de justifier sa valeur de près de 12 milliards d'euros. Outre un accord conclu récemment avec HSBC pour permettre à la banque multinationale d'accéder à ses modèles pour des tâches allant de l'analyse financière à la traduction, Mistral a signé des contrats d'une valeur de plusieurs centaines de millions de dollars avec plusieurs entreprises.

    Mistral se tourne également de plus en plus vers les fusions-acquisitions pour accélérer sa croissance. Bien que considérée comme l'un des principaux acteurs européens dans le domaine de l'IA, Mistral dispose de moyens financiers bien inférieurs à ceux de ses concurrents américains, qui s'implantent de plus en plus sur le continent.

    Anthropic, qui a annoncé en septembre une levée de fonds de 13 milliards de dollars pour une valorisation de 183 milliards de dollars, et OpenAI, qui aurait vendu en octobre des actions secondaires pour un montant de 500 milliards de dollars, ont toutes deux annoncé l'ouverture de nouveaux bureaux en Europe en 2025.

    Alors que Mistral entend renforcer sa position face aux acteurs américains en lançant ses modèles d'IA Mistral 3, l’entreprise a également mis en lumière les coûts environnementaux associés à ces avancées. Le dernier audit environnemental de l'entreprise a détaillé l’empreinte du modèle Mistral Large 2, chiffrant les émissions, la consommation d’eau et l’utilisation de ressources rares, et démontrant ainsi l'impact négatif de l'IA sur la planète. Cette évaluation est l'une des analyses les plus complètes du secteur et propose, en outre, des solutions pour réduire l’impact de l’utilisation de cette technologie.

    Source : Mistral AI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Mistral AI crédible ou pertinente ?

    Voir aussi :

    La start-up française Mistral lance Mistral AI Studio, une plateforme web permettant de créer, d'observer et de déployer des applications d'IA à l'aide de modèles propriétaires et à poids ouvert

    Le Chat de Mistral AI peut désormais mémoriser vos conversations grâce à la nouvelle fonctionnalité Memories, et Mistral AI introduit également la prise en charge des connecteurs MCP

    Mistral AI dévoile Mistral Medium 3.1, son nouveau modèle d'IA multimodale avancé, avec des améliorations en termes de performances, de convivialité et de recherche sur le web

    Mistral présente Voxtral, sa première famille de modèles d'IA de compréhension de la parole en open source, publiée sous la licence Apache 2.0
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Nouveau candidat au Club
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    5
    Détails du profil
    Informations personnelles :
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Juin 2006
    Messages : 5
    Par défaut cool
    Comme quoi il y a milliard et milliard ... Même petite ... Elle deviendra grande !

Discussions similaires

  1. Réponses: 36
    Dernier message: 18/09/2021, 15h53
  2. Réponses: 15
    Dernier message: 10/11/2009, 14h50
  3. Réponses: 15
    Dernier message: 10/11/2009, 14h50
  4. Netapsys lance son offre de Business Intelligence open source
    Par Rémy d'Aprilli dans le forum Forum général Business Intelligence
    Réponses: 4
    Dernier message: 24/06/2009, 12h45
  5. Netapsys lance son offre de Business Intelligence open source
    Par Rémy d'Aprilli dans le forum Actualités
    Réponses: 0
    Dernier message: 21/06/2009, 13h25

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo