La start-up française Mistral AI lance Mistral Small 4, un modèle d'IA open source qui combine raisonnement, programmation et IA multimodale, pour offrir un outil unique et adaptable

Mistral AI a récemment annoncé la sortie de Mistral Small 4, un modèle unifié qui combine des capacités avancées de raisonnement, de multimodalité et de codage. Les utilisateurs bénéficient d'un modèle unique qui consolide les atouts phares de Magistral, Pixtral et Devstral, tout en conservant un effort de raisonnement configurable et une grande efficacité. Grâce à cette adaptabilité, les utilisateurs n'ont plus besoin de changer de modèle pour différentes tâches, car Small 4 s'adapte à l'évolution des besoins au sein d'un même déploiement. En termes d'accessibilité, Mistral Small 4 est publié en open source sous licence Apache 2.0, poursuivant ainsi l'approche de Mistral en matière de transparence et de personnalisation.

Mistral AI est une entreprise française fondée en avril 2023, spécialisée dans l'intelligence artificielle générative. Elle développe de grands modèles de langages open source et propriétaires. Elle a été cofondée par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Durant sa première année d'existence, elle réalise trois levées de fonds successives, d'un montant total de plus d'un milliard d'euros. Sa dernière levée en septembre 2025 la valorise à plus de onze milliards d'euros. Mistral est considérée comme l'un des leaders européens de l'intelligence artificielle.

Mistral AI a récemment annoncé la sortie de Mistral Small 4, un modèle unifié qui combine des capacités avancées de raisonnement, de multimodalité et de codage. Cette version marque un tournant dans la gamme Mistral Small en éliminant la nécessité de choisir entre un modèle d'instruction rapide, un moteur de raisonnement performant ou un assistant multimodal. Les utilisateurs bénéficient d'un modèle unique qui consolide les atouts phares de Magistral, Pixtral et Devstral, tout en conservant un effort de raisonnement configurable et une grande efficacité.

S'appuyant sur cette intégration, Small 4 est conçu comme une solution hybride prenant en charge des workflows variés tels que le chat général, les tâches d'agent, la programmation et le raisonnement complexe. Son architecture permet à la fois la saisie de texte et d'images, élargissant ainsi les possibilités d'application à des cas d'utilisation allant des assistants virtuels à la recherche en passant par le développement logiciel.

Grâce à cette adaptabilité, les utilisateurs n'ont plus besoin de changer de modèle pour différentes tâches, car Small 4 s'adapte à l'évolution des besoins au sein d'un même déploiement. Mistral AI affirme notamment : "En unifiant les capacités d'instruction, de raisonnement et multimodales, Mistral Small 4 simplifie l'intégration de l'IA et permet aux utilisateurs de s'attaquer à un plus large éventail de tâches à l'aide d'un outil unique et adaptable, apportant ainsi les avantages de l'IA open source à des cas d'utilisation concrets."

En termes d'accessibilité, Mistral Small 4 est publié en open source sous licence Apache 2.0, poursuivant ainsi l'approche de Mistral en matière de transparence et de personnalisation. Le modèle est disponible pour une utilisation immédiate via l'API Mistral, Mistral AI Studio et le référentiel Hugging Face, facilitant ainsi le déploiement et le réglage fin pour des applications spécialisées ou à usage général.

Il y a un an, Mistral AI a publié l'une des évaluations d'impact environnemental les plus détaillées à ce jour sur un modèle d'IA. Dans son analyse du cycle de vie de son modèle de langage dénommé Mistral Large 2, l'entreprise lève le voile sur les émissions, la consommation d'eau et l'épuisement des ressources matérielles, fournissant des chiffres concrets sur l'empreinte environnementale croissante de l'intelligence artificielle générative.

Elle propose en sus des solutions pour la réduction de l’impact négatif de l’utilisation de cette technologie. Il s'agit notamment de sélectionner des modèles plus petits lorsque des performances élevées ne sont pas strictement nécessaires, de regrouper les demandes pour améliorer l'efficacité informatique et de choisir des centres de données alimentés par des énergies renouvelables. Avec son nouveau modèle Small 4, Mistral AI semble proposer un modèle capable de s'adapter aux besoins.


Une nouvelle référence pour les modèles multimodaux optimisés pour le raisonnement

Mistral Small 4 est un modèle hybride optimisé pour le chat général, le codage, les tâches agentiques et le raisonnement complexe. Son architecture prend en charge à la fois les entrées textuelles et les entrées d'images, ce qui le rend polyvalent pour un large éventail d'applications. Avec Mistral Small 4, Mistral AI réaffirme son engagement en faveur des modèles open source et est fier de rejoindre la NVIDIA Nemotron Coalition en tant que membre fondateur, afin de faire progresser la collaboration et l'innovation dans le développement de l'IA.

Voici les principaux détails architecturaux :

- Mixture of Experts (MoE) : 128 experts, dont 4 actifs par token, permettant une mise à l'échelle et une spécialisation efficaces.

- 119 milliards de paramètres au total, dont 6 milliards de paramètres actifs par token (8 milliards en incluant les couches d'embedding et de sortie).

- Fenêtre de contexte de 256 000 tokens, prenant en charge les interactions longues et l'analyse de documents.

- Effort de raisonnement configurable : basculez entre des réponses rapides à faible latence et des sorties approfondies nécessitant un raisonnement intensif.

- Multimodalité native : accepte à la fois les entrées textuelles et les entrées d'images, ouvrant la voie à des cas d'utilisation allant de l'analyse de documents à l'analyse visuelle.

En matière de performances, Mistral Small 4 apporte une réduction de 40 % du temps de traitement de bout en bout (configuration optimisée pour la latence)., et 3 fois plus de requêtes par seconde (configuration optimisée pour le débit) par rapport à Mistral Small 3.

Nom : 1.jpg
Affichages : 65559
Taille : 72,1 Ko

Pourquoi Mistral Small 4 ?

Capacités unifiées

Mistral Small 4 regroupe les atouts de Magistral (raisonnement), Devstral (agents de codage) et Mistral Small (instructions) en un seul modèle. Que vous ayez besoin d’un assistant de chat, d’un partenaire de recherche ou d’un agent de codage, Small 4 s’adapte à votre tâche, sans qu’il soit nécessaire de passer d’un modèle spécialisé à un autre.

Raisonnement à la demande

Grâce au nouveau paramètre reasoning_effort, les utilisateurs peuvent ajuster dynamiquement le comportement du modèle :

- reasoning_effort="none" : réponses rapides et légères pour les tâches quotidiennes, équivalentes au style de conversation de Mistral Small 3.2.

- reasoning_effort="high" : raisonnement approfondi, étape par étape, pour les problèmes complexes, avec un niveau de verbosité équivalent à celui des modèles Magistral précédents.

Nom : 2.jpg
Affichages : 21263
Taille : 67,5 Ko

Une efficacité de niveau entreprise

- Infrastructure minimale : 4x NVIDIA HGX H100, 2x NVIDIA HGX H200 ou 1x NVIDIA DGX B200.

- Configuration recommandée : 4x NVIDIA HGX H100, 4x NVIDIA HGX H200 ou 2x NVIDIA DGX B200 pour des performances optimales.

- Mistral Small 4 est entièrement open source. Affinez-le pour des tâches spécialisées ou déployez-le tel quel pour une utilisation générale. Grâce à la collaboration avec la communauté, il est désormais disponible sur vLLM, llama.cpp, SGLang, Transformers, et bien d’autres.

- La fourniture de modèles d'IA open source avancés nécessite une optimisation à grande échelle. Grâce à une étroite collaboration avec NVIDIA, l'inférence a été optimisée à la fois pour les solutions open source vLLM et SGLang, garantissant ainsi un service efficace et à haut débit dans tous les scénarios de déploiement.

Nom : 3.jpg
Affichages : 21155
Taille : 49,3 Ko

Mistral Small 4 avec fonctionnalité de raisonnement obtient des scores compétitifs, égalant ou surpassant GPT-OSS 120B sur les trois benchmarks, tout en générant des sorties nettement plus courtes. Sur AA LCR, Mistral Small 4 obtient un score de 0,72 avec seulement 1 600 caractères, alors que les modèles Qwen nécessitent 3,5 à 4 fois plus de sortie (5 800 à 6 100 caractères) pour des performances comparables. Sur LiveCodeBench, Mistral Small 4 surpasse GPT-OSS 120B tout en produisant 20 % de résultats en moins. Cet écart d'efficacité est important dans la pratique : des résultats plus courts signifient une latence plus faible, des coûts d'inférence réduits et une meilleure expérience utilisateur.

Pour les acheteurs en entreprise :

L'efficacité par token a un impact direct sur le coût et l'évolutivité. Les modèles qui maintiennent ou améliorent leurs performances à mesure que les réponses s'allongent réduisent le besoin d'intervention manuelle, diminuent les coûts opérationnels et garantissent une qualité constante, même pour des tâches complexes et à enjeux élevés telles que la génération de rapports, le support client ou les workflows de prise de décision. Les modèles de raisonnement hybrides offrent une meilleure valeur ajoutée en maximisant la précision sans augmentation proportionnelle de l'utilisation des ressources, ce qui les rend idéaux pour les déploiements à grande échelle où la performance et la rentabilité sont essentielles.

Pour les équipes techniques et les data scientists :

La performance par token est un indicateur clé pour la sélection et l'optimisation des modèles. Les modèles qui s'adaptent efficacement permettent aux équipes de déployer des solutions pour des tâches plus longues et plus nuancées (par exemple, des analyses détaillées, un raisonnement en plusieurs étapes) sans sacrifier la précision ni faire exploser les coûts de calcul. Cela signifie moins de compromis entre la qualité et l'allocation des ressources, ce qui permet de créer des applications basées sur l'IA plus innovantes et plus fiables. Cela simplifie également le réglage fin et l'intégration, car la robustesse du modèle réduit le besoin d'ajustements constants ou de systèmes de secours.

Cas d'utilisation prévus

Mistral Small 4 est conçu pour :

- Développeurs : automatisation du codage, exploration de la base de code et workflows d'agents de code.

- Entreprises : assistants de chat généraux, compréhension de documents et analyse multimodale.

- Chercheurs : mathématiques, recherche et tâches de raisonnement complexes.

Sa licence open source et son architecture personnalisable en font un outil idéal pour le réglage fin et la spécialisation.

Source : Annonce de Mistral Small 4

Et vous ?

Pensez-vous que ce modèle est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Mistral AI mise sur la « création d'IA sur mesure » et annonce Mistral Forge, une plateforme permettant aux entreprises de créer des modèles personnalisés entraînés à partir de leurs propres données

OpenAI déploie GPT-5.4 Mini et Nano pour une IA d'entreprise en temps réel et à faible latence, apportant de nombreux atouts de GPT-5.4 à des petits modèles plus rapides et plus efficaces

Google lance son tout dernier modèle d'IA, Gemini 3.1 Flash-Lite, conçu pour être le plus rapide et le plus rentable de la série Gemini 3