IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Mistral AI a dévoilé Mistral Small 3.1 : le nouveau LLM mini open source puissant


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Mistral AI a dévoilé Mistral Small 3.1 : le nouveau LLM mini open source puissant
    La startup française d'intelligence artificielle (IA) Mistral AI a dévoilé Mistral Small 3.1, son nouveau modèle léger open source qui battrait Gemma 3, Claude et GPT-4o

    La startup française d'intelligence artificielle Mistral AI a dévoilé un nouveau modèle open-source qui, selon la société, surpasse les offres similaires de Google et d'OpenAI, ouvrant ainsi la voie à une concurrence accrue sur un marché dominé par les géants américains de la technologie. Le modèle, appelé Mistral Small 3.1, traite à la fois le texte et les images avec seulement 24 milliards de paramètres, soit une fraction de la taille des principaux modèles propriétaires, tout en égalant ou en dépassant leurs performances, selon l'entreprise.

    Fin janvier 2025, Mistral AI a dévoilé Mistral Small 3, son nouveau modèle d'IA à 24 milliards de paramètres, développé dans un souci de haute performance et de faible latence. Pour rappel, Mistral AI est une entreprise française fondée en avril 2023, spécialisée dans l'intelligence artificielle générative. Elle développe des grands modèles de langages open source et propriétaires. Mistral AI est considérée comme l'un des leaders européens de l'intelligence artificielle (IA).

    Avec une structure optimisée, Mistral Small 3 se positionne comme une alternative ouverte et transparente aux modèles propriétaires, offrant des résultats comparables à des modèles beaucoup plus grands tels que Llama 3.3 70B et Qwen 32B. Caractérisé par une efficacité de calcul, Small 3 serait un choix idéal pour 80 % des applications génératives basées sur l'IA, garantissant des temps de réponse rapides sans compromettre la précision.

    Récemment, Mistral AI a lancé un nouveau modèle léger appelé Mistral Small 3.1. Small 3.1 est open-source et capable de traiter du texte et des images avec seulement 24 milliards de paramètres. C'est une fraction de la taille des modèles les plus avancés sur le marché. Par rapport à son prédécesseur Small 3, Small 3.1 offre "des performances textuelles améliorées, une compréhension multimodale et un nombre de jetons étendu (128 000)".

    En outre, il peut traiter des données à une vitesse de 150 jetons par seconde. Cette "impressionnante réussite technique" serait due à la stratégie alternative employée par Mistral. L'accent est mis sur les améliorations algorithmiques et l'optimisation de la formation, plutôt que sur le déploiement de toujours plus de GPU pour les nouveaux modèles.

    Le fait que Mistral rende ses modèles open-source prouve une fois de plus que l'entreprise souhaite rendre l'IA accessible et n'opte pas pour des modèles fermés comme ceux d'OpenAI. Dans le même temps, elle bénéficie des opportunités de recherche et de développement de la communauté de l'IA au sens large. Cette approche porte ses fruits, puisqu'avec une valeur proche des 6 milliards d'euros, elle peut se targuer d'être la plus importante entreprise d'IA en Europe.


    Voici un extrait de l'annonce de Mistral AI :

    Nous annonçons aujourd'hui Mistral Small 3.1 : le meilleur modèle dans sa catégorie de poids.

    S'appuyant sur Mistral Small 3, ce nouveau modèle est doté de performances textuelles améliorées, d'une compréhension multimodale et d'une fenêtre contextuelle élargie pouvant contenir jusqu'à 128k tokens. Le modèle surpasse des modèles comparables tels que Gemma 3 et GPT-4o Mini, tout en offrant des vitesses d'inférence de 150 tokens par seconde.

    Mistral Small 3.1 est publié sous licence Apache 2.0.

    Les applications modernes d'intelligence artificielle exigent un mélange de capacités de traitement de texte, de compréhension d'entrées multimodales, de prise en charge de plusieurs langues et de gestion de contextes longs, avec une faible latence et un bon rapport coût-efficacité. Comme le montre le tableau ci-dessous, Mistral Small 3.1 est le premier modèle open source qui non seulement atteint, mais surpasse les performances des principaux petits modèles propriétaires dans tous ces domaines.

    Nom : 1.jpg
Affichages : 21502
Taille : 26,6 Ko

    Présentation de Mistral Small 3.1

    Mistral Small 3.1 est un modèle polyvalent conçu pour gérer un large éventail de tâches d'IA générative, notamment le suivi d'instructions, l'assistance à la conversation, la compréhension d'images et l'appel de fonctions. Il constitue une base solide pour les applications d'IA d'entreprise et grand public.

    Mistral Small 3.1 peut être utilisé dans diverses applications d'entreprise et grand public qui nécessitent une compréhension multimodale, telles que la vérification de documents, les diagnostics, le traitement d'images sur appareil, l'inspection visuelle pour les contrôles de qualité, la détection d'objets dans les systèmes de sécurité, l'assistance clientèle basée sur l'image et l'assistance générale.

    Voici les principales caractéristiques et capacités du modèle, selon Mistral AI :

    • Léger : Mistral Small 3.1 pourrait fonctionner avec une seule RTX 4090 ou un Mac avec 32 Go de RAM. Cela en fait un outil idéal pour les cas d'utilisation sur l'appareil.

    • Assistance conversationnelle à réponse rapide : Idéale pour les assistants virtuels et autres applications où des réponses rapides et précises sont essentielles.

    • Appel de fonction à faible latence : Capable d'exécuter rapidement des fonctions dans le cadre de flux de travail automatisés ou agentiques

    • Ajustement précis pour les domaines spécialisés : Mistral Small 3.1 peut être affiné pour se spécialiser dans des domaines spécifiques, créant ainsi des experts en la matière. Ceci est particulièrement utile dans des domaines tels que les conseils juridiques, les diagnostics médicaux et l'assistance technique.

    • Une base pour le raisonnement avancé : Nous continuons à être impressionnés par la façon dont la communauté construit sur les modèles ouverts de Mistral. Au cours des dernières semaines, nous avons vu plusieurs excellents modèles de raisonnement construits sur Mistral Small 3, tels que DeepHermes 24B de Nous Research. À cette fin, nous publions des points de contrôle de base et d'instruction pour Mistral Small 3.1 afin de permettre une personnalisation plus poussée du modèle en aval.


    Concernant les performances du modèle, voici les résultats publiés par Mistral AI :

    • Benchmarks d'instruction de texte

      Nom : 2.jpg
Affichages : 5661
Taille : 51,4 Ko

    • Multilingue

      Nom : 3.jpg
Affichages : 5674
Taille : 47,4 Ko

    • Contexte long

      Nom : 4.jpg
Affichages : 5677
Taille : 41,6 Ko

    Disponibilité

    Mistral Small 3.1 est disponible au téléchargement sur le site web de huggingface Mistral Small 3.1 Base et Mistral Small 3.1 Instruct. Il est également possible d'essayer le modèle via l'API ans le playground des développeurs de Mistral AI, La Plateforme. Le modèle est également disponible sur Google Cloud Vertex AI. Mistral Small 3.1 sera également disponible sur NVIDIA NIM dans les semaines à venir.


    Source : Mistral AI

    Et vous ?

    Pensez-vous que ce nouveau modèle est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La société française Mistral AI lance son API OCR pour la reconnaissance optique de caractères, qui permet d'extraire avec précision des textes structurés et des médias et surpasserait la concurrence

    Google lance Gemma 3 : "le modèle d'IA le plus puissant que vous pouvez faire tourner sur un GPU", une IA open source avec un contexte de 128K optimisée pour fonctionner sur presque tout, du GPU au smartphone

    OpenAI change de cap et annule le lancement de son modèle d'IA o3 au profit d'une version « unifiée » baptisée GPT-5, Sam Altman évoque un souci de simplification mais certains y voient un problème de coûts
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif
    Profil pro
    DSI
    Inscrit en
    Février 2010
    Messages
    89
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : DSI

    Informations forums :
    Inscription : Février 2010
    Messages : 89
    Par défaut
    non mistral, tu nous surprend là

    "
    Le nombre 9.10 est plus grand que 9.9. En mathématiques, lorsque vous comparez des nombres décimaux, vous comparez d'abord les parties entières, puis les chiffres après la virgule, de gauche à droite. Ainsi, 9.10 est plus grand que 9.9 parce que le chiffre après la virgule dans 9.10 est 1, qui est plus grand que le chiffre 9 dans 9.9.
    "

    https://www.dropbox.com/scl/fi/ub0lv...rdam9gch9&dl=0

    "Les nombres 9.9 et 9.010 sont en fait égaux. En mathématiques, les zéros à la fin d'un nombre décimal n'affectent pas sa valeur. Ainsi, 9.010 est équivalent à 9.01, qui est inférieur à 9.9. Donc, 9.9 est plus grand que 9.010."

    https://www.dropbox.com/scl/fi/p66ga...3xt3d529b&dl=0

  3. #3
    Membre chevronné
    Homme Profil pro
    Développeur Web
    Inscrit en
    Juin 2022
    Messages
    415
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 22
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Industrie

    Informations forums :
    Inscription : Juin 2022
    Messages : 415
    Par défaut
    https://www.hibyrd.fr/actualites/que...t-limites.html
    On parlera d'IA quand un raisonnement sera réellement fait ... Et pas un ensemble de génération hasardeuse basé sur de la probabilité et des hallucinations.

  4. #4
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 160
    Par défaut
    Citation Envoyé par _informix_ Voir le message
    non mistral, tu nous surprend là

    "
    Le nombre 9.10 est plus grand que 9.9. En mathématiques, lorsque vous comparez des nombres décimaux, vous comparez d'abord les parties entières, puis les chiffres après la virgule, de gauche à droite. Ainsi, 9.10 est plus grand que 9.9 parce que le chiffre après la virgule dans 9.10 est 1, qui est plus grand que le chiffre 9 dans 9.9.
    "

    https://www.dropbox.com/scl/fi/ub0lv...rdam9gch9&dl=0

    "Les nombres 9.9 et 9.010 sont en fait égaux. En mathématiques, les zéros à la fin d'un nombre décimal n'affectent pas sa valeur. Ainsi, 9.010 est équivalent à 9.01, qui est inférieur à 9.9. Donc, 9.9 est plus grand que 9.010."

    https://www.dropbox.com/scl/fi/p66ga...3xt3d529b&dl=0
    Nom : msedge_N5fUkpM7Lv.png
Affichages : 4655
Taille : 53,0 Ko
    Pour utiliser efficacement un outil, on doit d'abord apprendre à s'en servir.
    Pour obtenir une bonne réponse d'un modèle de langage, on doit d'abord écrire une bonne question et là, votre question, bien qu'elle paraisse claire pour un humain, ne l'est pas du tout pour le modèle de langage.
    Une astuce, bien que ça ne corrige pas le problème initial, qui est que la question est mauvaise, est d'ajouter "prouve-le" à la fin, comme on peut le voir sur la capture d'écran que j'ai mise.

  5. #5
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    1 200
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chambord
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 200
    Par défaut
    De mémoire, en primaire, on nous disais que 9.9 est égale à 9.90 et même 9.900000000000, tout les zéros à droite non aucune signification !

  6. #6
    Membre émérite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mars 2011
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2011
    Messages : 618
    Par défaut
    Pour utiliser efficacement un outil, on doit d'abord apprendre à s'en servir.
    Pour obtenir une bonne réponse d'un modèle de langage, on doit d'abord écrire une bonne question et là, votre question, bien qu'elle paraisse claire pour un humain, ne l'est pas du tout pour le modèle de langage.
    Une astuce, bien que ça ne corrige pas le problème initial, qui est que la question est mauvaise, est d'ajouter "prouve-le" à la fin, comme on peut le voir sur la capture d'écran que j'ai mise.
    Ah, c'est pas un bug, c'est une feature donc ?

  7. #7
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    pour les commentaires du dessus.

    Es ce que vous utilisez chatgpt pour calculer l'itinéraire sur le gps ? heureusement que non, il existe mieux comme ia pour ca.
    l'ia c'est d'ailleurs des milliers de process et algorithmes (et variantes) qui existe, les llm ne sont d'ailleurs qu'un type particulier d'ia, qui n'est pas performant ou optimisé pour pleins de cas.

    On le sait tous que ces outils sont mauvais en mathématique, mais par contre il y'a énormément de use case ou ces outils sont formidable a utiliser au quotidien.

  8. #8
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 160
    Par défaut
    Citation Envoyé par pyros Voir le message
    Ah, c'est pas un bug, c'est une feature donc ?
    Non c'est un problème entre la chaise et le clavier, comme il arrive parfois.
    Dans une voiture, si vous mettez la marche arrière puis que vous vous étonnez de ne pas avancer, ce n'est pas un problème venant de la voiture si vous voyez ce que je veux dire.
    C'est vrai que ce message peut sembler insultant, mais en réalité, la faute ne vous revient pas vraiment. Car l'ensemble de la presse a tendance à parler d'intelligence artificielle alors que ce n'en est pas du tout une, et induit ainsi en erreur les gens qui ont peu de connaissances sur le sujet.

  9. #9
    Membre émérite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mars 2011
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2011
    Messages : 618
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Non c'est un problème entre la chaise et le clavier, comme il arrive parfois.
    Dans une voiture, si vous mettez la marche arrière puis que vous vous étonnez de ne pas avancer, ce n'est pas un problème venant de la voiture si vous voyez ce que je veux dire.
    C'est vrai que ce message peut sembler insultant, mais en réalité, la faute ne vous revient pas vraiment. Car l'ensemble de la presse a tendance à parler d'intelligence artificielle alors que ce n'en est pas du tout une, et induit ainsi en erreur les gens qui ont peu de connaissances sur le sujet.
    C'était du 2nd degré, mais ça souligne le décalage ancestrale entre les développeurs et les utilisateurs.

    Un programme fait toujours ce pour quoi il a été programmé (mise à part cas limite des rayon cosmique qui viennent changer les bit de mémoire, les "out of ressource" et autres problèmes materiel). A partir de là, Il y a 2 types de bug:
    • Le programme ne fait pas ce que le développeur pensait avoir programmé.
    • Le programme ne fait pas ce que à quoi l'utilisateur s'attend.


    Et le problème, c'est que ces 2 types de bug ne sont pas forcément équivalent. Un comportement buggé du point de vue développeur peut être perçu comme normal par l'utilisateur, et un comportement normal du programme peut être vue comme annormal du point de vue utilisateur. Et il ne faut pas oublier que l'on développe des programmes avant tout pour les utilisateurs, pas pour les développeurs.

  10. #10
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 160
    Par défaut
    Citation Envoyé par pyros Voir le message
    C'était du 2nd degré, mais ça souligne le décalage ancestrale entre les développeurs et les utilisateurs.

    Un programme fait toujours ce pour quoi il a été programmé (mise à part cas limite des rayon cosmique qui viennent changer les bit de mémoire, les "out of ressource" et autres problèmes materiel). A partir de là, Il y a 2 types de bug:
    • Le programme ne fait pas ce que le développeur pensait avoir programmé.
    • Le programme ne fait pas ce que à quoi l'utilisateur s'attend.


    Et le problème, c'est que ces 2 types de bug ne sont pas forcément équivalent. Un comportement buggé du point de vue développeur peut être perçu comme normal par l'utilisateur, et un comportement normal du programme peut être vue comme annormal du point de vue utilisateur. Et il ne faut pas oublier que l'on développe des programmes avant tout pour les utilisateurs, pas pour les développeurs.
    Ce n'est pas du tout ça, L'exemple de la voiture n'était peut être pas aussi clair que l'exemple d'un programme alors voici :
    Si vous cliquez sur "imprimer" alors que vous voulez un ouvrir un fichier alors ce n'est pas un des deux types de bug.
    Ne pas savoir se servir d'un outil c'est une chose bien différente.

  11. #11
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 959
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 959
    Par défaut Mistral AI dévoile Mistral Medium 3.1, améliorant l'IA avec des performances et une convivialité supérieures
    Mistral AI dévoile Mistral Medium 3.1, pour améliorer l'IA avec des performances et une convivialité supérieures, tout en conservant un rapport coût-efficacité et une simplicité de déploiement radicaux

    Mistral AI a présenté Mistral Medium 3.1, qui établit de nouvelles normes en matière d'intelligence artificielle (IA) multimodale, de préparation des entreprises et de rentabilité pour les grands modèles de langage (LLM). S'appuyant sur son IA en pleine expansion, Mistral continue de se positionner en tant que leader européen, allant de l'avant avec des capacités d'avant-garde tout en brisant les barrières de coût et de déploiement.

    Mistral AI SAS est une start-up française d'intelligence artificielle dont le siège est à Paris et qui dispose de bureaux au Royaume-Uni, ainsi que d'antennes à Palo Alto et à Singapour. Fondée en 2023, elle est spécialisée dans les grands modèles de langage (LLM) à poids ouvert, avec des modèles d'IA open-source et propriétaires. Durant sa première année d'existence, Mistral AI a réalisé trois levées de fonds successives, d'un montant total de plus d'un milliard d'euros, et serait valorisée en juin 2024 à près de six milliards d'euros. Mistral est considérée comme l'un des leaders européens de l'IA.

    L'annonce du modèle Medium 3.1 fait suite à la publication par Mistral AI de Mistral Small 3.1, un modèle d'IA léger open source que l'entreprise décrit comme surpassant Gemma 3, Claude et GPT-4o. Malgré son architecture compacte de 24 milliards de paramètres, Mistral Small 3.1 peut traiter à la fois les textes et les images et, selon l'entreprise, offre des performances équivalentes ou supérieures à celles des principaux modèles propriétaires beaucoup plus volumineux proposés par ses principaux concurrents.

    Avec le lancement de Mistral Medium 3.1, Mistral AI poursuit ainsi ses avancées techniques en matière d'innovation et propose un modèle dont les performances rivalisent avec celles des géants, tout en conservant un rapport coût-efficacité et une simplicité de déploiement radicaux. Ses prouesses multimodales, sa personnalisation pour l'entreprise et ses solides scores de référence en font non seulement un jalon technologique, mais aussi une solution accessible pour les organisations à la recherche d'une IA avancée sans coûts prohibitifs.

    Pour les ingénieurs, les entreprises et les développeurs à la recherche d'une alternative européenne dans le domaine du LLM, Mistral Medium 3.1 est une option qui change la donne en conciliant puissance, prix et facilité de déploiement.


    Principales caractéristiques techniques de Mistral Medium 3.1

    Amélioration générale des performances : Mistral Medium 3.1 apporte des améliorations majeures au niveau du raisonnement de base, des capacités de codage et de la compétence multimodale. Les utilisateurs bénéficient d'une génération de code plus précise et d'une meilleure compréhension de divers contenus (textes, images, etc.).

    Capacités multimodales améliorées : Le modèle traite nativement les entrées textuelles et visuelles, excellant dans des tâches telles que la programmation, le raisonnement STEM, la compréhension de documents et l'analyse d'images. Les analyses comparatives révèlent des scores de premier ordre dans les tâches multimodales et à contexte long, égalant ou surpassant souvent des modèles phares comme Llama 4 Maverick, Claude Sonnet 3.7 et GPT-4o.

    Amélioration du ton et de la cohérence : Mistral Medium 3.1 offre un ton de conversation transparent et cohérent, que les invites et les outils du système soient utilisés ou non. Cette amélioration garantit des interactions plus naturelles et plus cohérentes, ce qui est essentiel pour les déploiements auprès des particuliers et des entreprises.

    Recherches sur le web plus intelligentes : Le modèle est équipé d'algorithmes optimisés pour récupérer et synthétiser les informations du web, ce qui permet d'obtenir des résultats de recherche plus précis, plus complets et plus pertinents en termes de contexte dans les interfaces de chat et les interfaces API.

    Nom : Mistral AI Medium 3.1.PNG
Affichages : 36190
Taille : 45,4 Ko

    Faibles coûts d'exploitation : L'une des principales caractéristiques de Mistral Medium 3 est son efficacité : son coût est 8 fois inférieur à celui des grands modèles traditionnels. Avec des prix aussi bas que 0,40 dollar par million de jetons d'entrée et 2 dollars par million de jetons de sortie, les entreprises peuvent mettre en place des services intelligents à un prix abordable.

    Adaptabilité à l'échelle de l'entreprise : Conçu pour être flexible, Mistral Medium 3.1 prend en charge les déploiements hybrides, sur site et en VPC. Les entreprises clientes peuvent exécuter le modèle sur des configurations auto-hébergées avec seulement quatre GPU, ce qui le rend très accessible et réduit les frictions au niveau de l'infrastructure.

    Prise en charge des langues et du codage : Le modèle prend en charge des dizaines de langues humaines et plus de 80 langages de codage, ce qui en fait un outil puissant pour les applications multilingues, les entreprises internationales et les outils de développement. Il offre des appels de fonction avancés et des flux de travail agentiques pour une automatisation complexe.

    Intégration et personnalisation : Mistral Medium 3.1 permet une post-entraînement personnalisé, un réglage fin complet et une intégration approfondie dans les bases de connaissances de l'entreprise. Il est conçu pour une intelligence adaptative, spécifique à un domaine, un apprentissage continu et des exigences commerciales en constante évolution.

    Impact en entreprise

    Mistral Medium 3.1 est conçu pour une utilisation professionnelle exigeante :

    • Assistants de codage : Précision et génération de code de premier ordre pour les flux de travail des développeurs.
    • Intelligence documentaire : Raisonnement avancé sur des documents longs et complexes, idéal pour les secteurs juridique, financier et médical.
    • Engagement des clients : Dialogue personnalisé avec une connaissance approfondie du contexte.
    • Déploiements sécurisés et personnalisés : Options hybrides et sur site pour les secteurs sensibles aux données.

    Le lancement de Mistral Medium 3.1 s'inscrit dans la continuité de l'entrée de Mistral AI sur le marché des assistants de codage, avec le lancement de Mistral Code et de sa version entreprise, un fork du projet open source Continue. Promettant une productivité décuplée de dix fois pour les développeurs grâce à une suite de modèles de langage de pointe, ces outils concurrencent des acteurs établis tels que GitHub Copilot.

    Source : Mistral AI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Mistral AI pertinente et cohérente ?

    Voir aussi :

    La startup française Mistral AI publie Devstral, un LLM open source léger spécialement conçu pour les agents de codage et le développement de l'IA agentique, qui peut être exécuté sur un ordinateur portable

    Mistral présente Voxtral, sa première famille de modèles d'IA de compréhension de la parole en open source, publiée sous la licence Apache 2.0

    La startup française Mistral AI a publié Small 3, un nouveau modèle de langage qui égale les performances des modèles beaucoup plus grands de Meta et OpenAI, avec la licence Apache 2.0, plus permissive

    Mistral AI, la startup basée à Paris, a levé 640 millions de dollars lors d'un tour de table de série B mené par General Catalyst, propulsant sa valorisation à 6 milliards de dollars, un an après sa création
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 43
    Dernier message: 09/09/2025, 16h38
  2. Réponses: 5
    Dernier message: 03/02/2025, 17h59
  3. Réponses: 4
    Dernier message: 26/10/2024, 17h17
  4. Réponses: 2
    Dernier message: 28/03/2024, 14h56
  5. Microsoft lance Phi-2, un petit LLM plus performant que Llama 2 et Mistral 7B
    Par Bruno dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 18/12/2023, 20h01

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo