IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques »


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 242
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 242
    Par défaut Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques »
    Meta va décupler sa puissance de calcul dans le cadre de la formation de Llama 4 et pourrait le lancer l'année prochaine
    mais l'impact climatique de cette infrastructure potentiellement énergivore inquiète

    Meta, qui développe Llama, l'un des plus grands modèles de langage (LLM) open source, affirme qu'il aura besoin de beaucoup plus de puissance de calcul pour former ses modèles à l'avenir. Le PDG Mark Zuckerberg a déclaré lors de la conférence téléphonique sur les résultats du deuxième trimestre de Meta que pour entraîner le Llama 4, l'entreprise aura besoin de 10 fois plus de puissance de calcul que pour l'entraînement du Llama 3. Meta veut faire de Llama 4 le modèle le plus avancé sur le marché l'année prochaine, mais cela risque d'avoir un coût colossal pour le climat. L'IA est devenue un gouffre financier avec un impact considérable sur le climat.

    Llama 4 va nécessiter une infrastructure 10 fois plus puissante que celle de Llama 3

    Zuckerberg a déclaré aux investisseurs : « la quantité de calcul nécessaire pour entraîner Llama 4 sera probablement près de 10 fois supérieures à celle que nous avons utilisée pour entraîner le Llama 3, et les futurs modèles continueront à se développer au-delà de cela. Il est difficile de prédire l'évolution des modèles sur plusieurs générations dans le futur. Mais à ce stade, je préfère prendre le risque de développer la capacité avant qu'elle ne soit nécessaire plutôt que trop tard, étant donné les longs délais de mise en place de nouveaux projets d'inférence ». L'augmentation de la puissance devrait coûter excessivement cher.

    Nom : Capture d'écran 2024-08-05 145049.png
Affichages : 3815
Taille : 268,3 Ko

    Meta a déclaré aux actionnaires que l'IA générative ne lui rapporterait pas d'argent cette année, mais que les investissements massifs qu'il prévoit seront rentabilisés au fil du temps, et seront configurés de manière à ne pas être limités aux charges de travail de formation. L'entreprise précise que ses dépenses d'investissement pour l'ensemble de l'année se situeraient entre 37 et 40 milliards de dollars, soit une augmentation de 2 milliards de dollars par rapport aux prévisions précédentes. Elle a aussi invité les investisseurs à s'attendre à des augmentations "significatives" des dépenses d'investissement l'année prochaine.

    Les analystes financiers présents lors de la conférence de presse ont insisté pour savoir si toutes ces dépenses se transformeraient en liquidités. Mais la directrice financière Susan Li a déclaré que Meta ne tirera pas de revenus provenant de l'IA générative cette année. Elle a expliqué que le kit utilisé par Meta pour la formation de modèles peut également être utilisé pour l'inférence. La directrice financière de Meta a déclaré aux actionnaires : « nous pouvons également l'utiliser pour le classement et les recommandations en apportant certaines modifications, comme l'ajout d'une capacité de calcul et de stockage générale ».

    Elle a ajouté : « nous employons une stratégie de mise en scène de nos sites de centres de données, à différentes phases de développement, ce qui nous permet de nous adapter pour répondre à une plus grande demande et à un délai plus court si nécessaire, tout en limitant les dépenses que nous nous engageons à faire dans les années à venir ». Les outils de recommandation de contenu de Meta utilisent déjà ce que Meta appelle "Core AI", dont Zuckerberg a dit aux investisseurs qu'il améliorait l'engagement des utilisateurs en poussant plus de choses qu'ils veulent dans leurs fils d'actualité Facebook et Instagram.

    La course à l'IA est devenue trop coûteuse et les résultats ne sont pas à la hauteur

    Susan Li a déclaré que l'entreprise réfléchissait à différents projets de centres de données et à la création de capacités pour former les futurs modèles d'IA. Elle a ajouté que Meta s'attend à ce que cet investissement augmente les dépenses en capital en 2025. La formation de modèles est devenue une activité coûteuse. Les données indiquent que les dépenses en capital de Meta ont augmenté de près de 33 % pour atteindre 8,5 milliards de dollars au deuxième trimestre 2024, contre 6,4 milliards de dollars un an plus tôt, en raison des investissements dans les serveurs, les centres de données et l'infrastructure de réseau.


    Susan Li a déclaré lors de l'appel : « au fur et à mesure que nous augmentons la capacité de formation à l'IA pour faire progresser nos modèles de base, nous continuerons à construire notre infrastructure d'une manière qui nous donne de la flexibilité dans la façon dont nous l'utilisons au fil du temps. Cela nous permettra d'orienter la capacité de formation vers l'inférence de l'IA générative ou vers notre travail principal de classement et de recommandation, lorsque nous pensons que cela sera plus utile ». Au cours de l'appel, Meta a également parlé de l'utilisation de son chatbot Meta AI destiné aux consommateurs.

    Meta a déclaré que l'Inde était le plus grand marché de son chatbot. Mais Susan Li a précisé que l'entreprise ne s'attendait pas à ce que les produits d'AI contribuent de manière significative à son chiffre d'affaires. Selon un rapport de The Information, OpenAI dépense 3 milliards de dollars pour former des modèles et 4 milliards de dollars supplémentaires pour louer des serveurs à un taux d'actualisation auprès de Microsoft. Selon le rapport, OpenAI gère une entreprise coûteuse qui pourrait perdre jusqu'à 5 milliards de dollars en 2024, ce qui mettrait le fabricant de ChatGPT à court de liquidités dans les 12 mois à venir.

    Alors qu'OpenAI est considéré par beaucoup comme le leader en matière d'IA, l'écart avec la concurrence ne cesse de se réduire. Pourtant, ses besoins en matière de financement sont loin de diminuer, les entrées ne couvrant vraisemblablement pas tous ses besoins. De même, les actions de Microsoft ont chuté de plus de 6 % la semaine dernière après que l'entreprise a annoncé des résultats décevants en matière d'IA. En somme, dans l'ensemble du secteur, les dernières analyses ont révélé que la course à l'IA devient de plus en plus coûteuse, mais les bénéfices ne sont pas à la hauteur des investissements colossaux.

    Certains analystes affirment que la baisse des actions de Microsoft représente une leçon pour les entreprises technologiques : « aujourd'hui, les bénéfices comptent moins pour les investisseurs que la croissance des divisions d'IA ». Les investisseurs s'impatientent et ne sont pas convaincus par les résultats mitigés. De plus, les entreprises semblent incapables de prédire le moment où l'IA pourrait commencer à être rentable.

    Les réseaux électriques n'étaient pas préparés à la croissance subite de la demande

    L'IA gagne en popularité dans presque tous les domaines d'activité de la vie et a poussé les actions des entreprises technologiques vers des sommets historiques. Mais une "vérité dérangeante" apparaît dans de plus en plus de conversations professionnelles : l'IA est un énorme gouffre à électricité. Elon Musk a déclaré récemment que la demande croissante de puces d'IA gourmandes en énergie pourrait bientôt entraîner une pénurie d'électricité. « L'année prochaine vous verrez qu'ils ne trouveront pas assez d'électricité pour faire fonctionner toutes les puces », a-t-il déclaré à la conférence Bosch ConnectedWorld fin avril.

    Nom : Capture d'écran 2024-08-02 182135.png
Affichages : 849
Taille : 135,3 Ko

    La croissance rapide de l'IA a fait grimper la demande en énergie à un niveau plus élevé que ce qui était prévu. Aux États-Unis, elle mettrait déjà à rude épreuve les capacités de production du pays. Grid Strategies estime que les prévisions de croissance sur neuf ans pour l'Amérique du Nord ont pratiquement doublé par rapport à l'année dernière, car les entreprises construisent des centres de données pour l'IA qui font paraître minuscules les besoins des centres de données traditionnels. Où cela nous mène-t-il ? Comment pouvons-nous naviguer dans un avenir énergétique durable avec l'explosion de l'utilisation de l'IA ?

    Aux États-Unis, les analystes rapportent que les réseaux électriques atteignent peu à peu leur limite. L'année dernière, les prévisions à cinq ans de Grid Strategies tablaient sur une croissance de 2,6 %. Depuis, ce chiffre a presque doublé pour atteindre 4,7 % et les planificateurs de Grid Strategies s'attendent à ce que la demande de pointe augmente de 38 gigawatts. Cela équivaut à la quantité nécessaire pour alimenter 12,7 millions de foyers, soit un peu plus que le nombre total d'unités d'habitation au Texas. Mais plus inquiétant encore, les analystes pensent que ce chiffre est probablement une sous-estimation des besoins réels.

    L'IA est un élément majeur du problème en ce qui concerne l'augmentation de la demande. Les leaders du secteur, comme OpenAI, Amazon, Microsoft et Google, construisent ou recherchent des sites où construire d'énormes centres de données pour héberger l'infrastructure nécessaire au développement de grands modèles de langage, et les entreprises plus petites du secteur sont également très demandeuses d'énergie. Par exemple, selon l'Agence internationale de l'énergie, "une recherche pilotée par ChatGPT consomme environ 10 fois plus d'électricité qu'une recherche sur le moteur de recherche Google".

    La consommation annuelle d'énergie d'un centre de données de Meta basé dans l'Iowa est équivalente à celle de 7 millions d'ordinateurs portables fonctionnant huit heures par jour. L'appétit énergétique de l'IA remet aussi en question les engagements en faveur du climat. La résurgence de l'énergie fossile dans les centres de données pour répondre aux besoins de l'IA contraste fortement avec les engagements de durabilité des entreprises comme Microsoft, Google et Meta.

    Elles prévoient de supprimer entièrement leurs émissions d'ici à 2030. Cependant, l'IA remet en question ces initiatives. Ces entreprises sont les acteurs les plus importants d'une constellation de plus de 2 700 centres de données à travers les États-Unis. Et la construction de nouveaux centres de données est envisagée.

    Source : Meta (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des besoins de Meta en puissance de calcul pour la formation de Llama 4 ?
    Meta a-t-il besoin d'une infrastructure aussi coûteuse et énergivore pour former un modèle d'IA plus puissant ?
    Pourquoi les entreprises continuent-elles à investir dans l'IA générative malgré les faibles perspectives en matière le rendement ?

    Voir aussi

    Les actions de Microsoft chutent de plus de 6 % après la publication de résultats décevants en matière d'IA, la course à l'IA est excessivement coûteuse et les bénéfices ne sont pas à la hauteur des dépenses

    L'appétit énergétique de l'IA met à rude épreuve le réseau électrique des États-Unis qui n'était pas préparé à une augmentation subite de la charge, laissant l'industrie à la recherche de solutions miracles

    Les initiés de Microsoft s'inquiètent que l'entreprise soit devenue un simple « département informatique pour OpenAI », « ce n'est pas très innovant, mais c'est une bonne stratégie commerciale »

  2. #2
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 532
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 532
    Par défaut La consommation d'électricité des centres de données de Meta a atteint 14 975 435 MWh en 2023
    La consommation d'électricité des centres de données de Meta a atteint 14 975 435 MWh en 2023, soit une hausse de 34 %, et les prélèvements d'eau ont grimpé de 137 %, à mesure que l'entreprise développe l'IA

    La consommation d'électricité des centres de données de Meta atteindra 14 975 435 MWh en 2023, soit une augmentation de 34 %. Sur ce total, quelque 2 187 020 MWh ont été utilisés pour des centres de données loués, soit une augmentation significative de 97 % d'une année sur l'autre.

    Meta, qui développe Llama, l'un des plus grands modèles de langage (LLM) open source, affirme qu'il aura besoin de beaucoup plus de puissance de calcul pour former ses modèles à l'avenir. Le PDG Mark Zuckerberg a déclaré lors de la conférence téléphonique sur les résultats du deuxième trimestre de Meta que pour entraîner le Llama 4, l'entreprise aura besoin de 10 fois plus de puissance de calcul que pour l'entraînement du Llama 3. Meta veut faire de Llama 4 le modèle le plus avancé sur le marché l'année prochaine, mais cela risque d'avoir un coût colossal pour le climat. L'IA est devenue un gouffre financier avec un impact considérable sur le climat.


    Sur les 16 sites de l'entreprise (hors location), le campus Meta de Prineville, dans l'Oregon, a été le plus gros consommateur d'électricité, avec 1 375 321 MWh. Il est suivi par Altoona, Iowa, avec 1 243 306 MWh, et Sarpy, Nebraska, avec 1 148 091 MWh.

    L'intensité électrique par personne active mensuelle a également augmenté pour atteindre 0,0041 MWh, soit une hausse de 32 %. De même, l'intensité électrique par million de dollars de revenus est passée à 131,42, soit une augmentation de 33 %, a révélé l'entreprise dans son dernier rapport sur le développement durable.

    Cette électricité, précise l'entreprise, provient à 100 % d'énergies renouvelables, du moins par le biais d'accords de partenariat public-privé et de certificats d'énergie renouvelable. Le PUE (indice d'efficacité énergétique) est resté stable à 1,08.

    La consommation de combustibles de l'entreprise a également diminué, le gaz naturel chutant de 36 % pour atteindre 4 818 116 thermies. Le mazout diesel n° 2 a baissé de 25,5 % pour atteindre 1 025 707 gallons (~3,8 millions de litres), tandis que le mazout n° 4 a baissé de 3,42 % pour atteindre 699 427 gallons (~2,6 millions de litres). La consommation d'essence a chuté de 81,4 % pour atteindre 22 309 gal (~ 84 450 litres).

    Meta a également commencé son premier déploiement d'huile végétale hydrotraitée sur son site de Clonee, en Irlande, avec 1 144 gallons (~ 4 330 litres). L'entreprise a déclaré qu'elle testait le remplacement du diesel jusqu'en 2024 afin de déterminer si elle devait remplacer le reste de ses générateurs à l'échelle mondiale.

    Consommation d'eau de Meta

    La consommation d'eau des centres de données a atteint 3 881 mégalitres (un mégalitre est égal à un million de litres), soit une augmentation de 7 %. Dans certains endroits, notamment à Altoona, Clonee, Odense et Prineville, la consommation d'eau a baissé.

    Cependant, les prélèvements d'eau dans les nappes phréatiques ont augmenté de 137 % pour atteindre 88 mégalitres. Les prélèvements d'eau dans les zones soumises à un stress hydrique de base élevé ou extrêmement élevé ont augmenté de 20 % pour atteindre 1 360 mégalitres.

    L'entreprise a également utilisé 55 475 mégalitres par le biais de l'électricité achetée, ce qui représente une augmentation de 35 %.

    D'un point de vue plus positif, les efforts de restauration de l'eau ont atteint 5 889 mégalitres, soit une augmentation de 150 %.

    L'utilisation de l'eau de l'entreprise est passée de 0,20 à 0,18, mais le prélèvement d'eau par personne active mensuelle a augmenté de 7 % pour atteindre 0,001410 litre. Le prélèvement d'eau par million de dollars de revenus a également augmenté de 7 % pour atteindre 45 litres.

    « Nos nouveaux centres de données optimisés pour l'IA, actuellement en construction, seront dotés d'une technologie de refroidissement à sec », indique Meta dans son rapport. « Le refroidissement à sec utilise l'air comme moyen de refroidissement, minimisant ainsi l'utilisation de l'eau, ce qui en fait la technologie de refroidissement la plus efficace pour ces emplacements géographiques. »

    Meta développe de manière agressive sa présence dans les centres de données, avec des investissements qui ont atteint 8,5 milliards de dollars au cours du dernier trimestre. Elle s'attend à ce que les coûts augmentent au cours de l'année prochaine à mesure qu'elle développe son infrastructure d'IA générative.

    Source : Rapport sur le développement durable (Meta)

    Et vous ?

    Quelle lecture faites-vous de cette situation ?
    Trouvez-vous la démarche de Meta crédible ou pertinente ?

    Voir aussi :

    Meta va décupler sa puissance de calcul dans le cadre de la formation de Llama 4 et pourrait le lancer l'année prochaine, mais l'impact climatique de cette infrastructure potentiellement énergivore inquiète

    L'énergie, et non la puissance de calcul, sera le premier goulot d'étranglement pour les progrès de l'IA, d'après Mark Zuckerberg

    L'IA générative n'aura besoin que de deux centrales électriques pour maintenir ses applications en 2024, selon Sergey Edunov, cadre de Meta
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 144
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 144
    Par défaut Meta lance la famille de modèle Llama 4 : Llama 4 Scout, le Llama 4 Maverick et le Llama 4 Behemoth
    Meta lance la famille de modèle Llama 4 : « Le début d'une nouvelle ère d'innovation en matière d'IA nativement multimodale », avec le Llama 4 Scout, le Llama 4 Maverick et le Llama 4 Behemoth.

    Meta annonce les premiers modèles de la famille Llama 4. Llama 4 Scout, un modèle de 17 milliards de paramètres actifs avec 16 experts, serait le meilleur modèle multimodal au monde dans sa catégorie, tout en tenant dans un seul GPU NVIDIA H100. Llama 4 Maverick, un modèle de 17 milliards de paramètres actifs avec 128 experts, offrirait le meilleur rapport performance/coût de sa catégorie. Ces modèles sont les meilleurs à ce jour grâce à la distillation de Llama 4 Behemoth, un modèle de 288 milliards de paramètres actifs avec 16 experts qui est le modèle le plus puissant de Meta à ce jour.

    En août 2024, Meta, qui développe Llama, avait affirmé qu'il aurait besoin de beaucoup plus de puissance de calcul pour former ses modèles à l'avenir. Le PDG Mark Zuckerberg a déclaré que pour entraîner le Llama 4, l'entreprise aura besoin de 10 fois plus de puissance de calcul que pour l'entraînement du Llama 3. Meta veut faire de Llama 4 le modèle le plus avancé sur le marché.

    Pour rappel, Llama, pour Large Language Model Meta AI, est une famille de grands modèles de langage (LLM) open source publiés par Meta AI à partir de février 2023. Les poids des modèles de la première version de Llama n'étaient disponibles que pour les chercheurs, au cas par cas, sous une licence non commerciale. Les versions suivantes de Llama ont été rendues accessibles en dehors du monde universitaire et publiées sous des licences autorisant une certaine utilisation commerciale.

    Récemment, Mark Zuckerberg a annoncé quatre nouveaux LLM, dont deux sont déjà prêts et deux autres sont en cours d'élaboration. C'est "une étape importante pour Meta AI et pour l'open source", a déclaré Mark Zuckerberg ce week-end. "Pour la première fois, les meilleurs modèles de petite taille, de taille moyenne, et potentiellement bientôt de frontière [grand modèle] seront open source", ajoutant "Notre objectif est de construire l'IA la plus performante au monde, de la mettre en open source et de la rendre universellement accessible pour que tout le monde en profite."

    Voici un extrait de l'annonce de Mark Zuckerberg :

    Cela fait un moment que je dis que je pense que l'IA open source va devenir le modèle de référence. Et avec le Llama 4, c'est ce qui commence à se produire.

    - Le premier modèle est Llama 4 Scout. Il est extrêmement rapide et nativement multimodal. Il dispose d'une longueur de contexte de 10 millions de jetons « presque infinie » et est conçu pour fonctionner sur un seul GPU. [Le billet de blog de Meta indique qu'il tient sur un NVIDIA H100]. Il s'agit de 17 milliards de paramètres par 16 experts, et c'est de loin le petit modèle le plus performant de sa catégorie.

    - Le deuxième modèle est le Llama 4 Maverick - le cheval de bataille. Il bat GPT-4o et Gemini Flash 2 sur tous les points de référence. Il est plus petit et plus efficace que DeepSeek v3, mais il reste comparable sur le texte, et il est nativement multimodal. Il s'agit de 17B paramètres x 128 experts, et il est conçu pour fonctionner sur un seul hôte afin de faciliter l'inférence.

    C'est une véritable bête.

    Mark Zuckerberg a promis plus d'informations sur le "Llama 4 Reasoning", mais le quatrième modèle sera appelé Llama 4 Behemoth. "Cette chose est massive. Plus de 2 000 milliards de paramètres". Meta AI indique qu'il dispose également d'un modèle de 288 milliards de paramètres actifs, qu'il surpasse GPT-4.5, Claude Sonnet 3.7 et Gemini 2.0 Pro sur les benchmarks STEM, et qu'il "servira d'enseignant pour les nouveaux modèles".

    "Je ne connais personne qui entraîne un modèle plus grand que le nôtre", déclare Zuckberg dans sa vidéo, qualifiant Behemoth de "modèle de base le plus performant au monde, et il n'a même pas encore fini de s'entraîner”. "Si vous voulez essayer Llama 4, vous pouvez utiliser Meta AI dans WhatsApp, Messenger ou Instagram Direct ou vous pouvez aller sur notre site web à meta.ai. Les modèles Scout et Maverick peuvent être téléchargés sur llama.com et Hugging Face."

    Si les performances de ces premiers modèles de Llama 4 semblent impressionnantes, il serait intéressant de découvrir le processus et les données d'entrainement de ces modèles. En effet, Meta est accusé d'avoir utilisé des contenus protégés par droit d'auteur pour l'entrainement de ses modèles. Une plainte en justice récente a également révélé que Mark Zuckerberg, PDG de Meta, aurait donné son feu vert pour que le modèle d'IA open source LLama de l'entreprise soit entraîné à partir d'œuvres protégées par le droit d'auteur.

    La plainte allègue que Meta a enfreint les droits d'auteur en utilisant des documents sans l'autorisation des créateurs. Meta maintient que l'utilisation de ces œuvres dans le cadre de l'entraînement de Llama relève de l'usage loyal. Cependant, les plaignants affirment que cette pratique représente une menace pour les moyens de subsistance des créateurs et des auteurs.

    Nom : 1.jpg
Affichages : 3998
Taille : 38,8 Ko

    Voici l'annonce de Meta :

    Le troupeau Llama 4 : Le début d'une nouvelle ère d'innovation en matière d'IA nativement multimodale

    Alors que de plus en plus de personnes continuent d'utiliser l'intelligence artificielle pour améliorer leur vie quotidienne, il est important que les modèles et les systèmes de pointe soient librement accessibles afin que chacun puisse construire l'avenir des expériences personnalisées. Aujourd'hui, nous sommes ravis d'annoncer la suite de modèles la plus avancée qui supporte l'ensemble de l'écosystème Llama. Nous présentons Llama 4 Scout et Llama 4 Maverick, les premiers modèles multimodaux natifs à poids ouvert avec une prise en charge sans précédent de la longueur du contexte et nos premiers modèles construits à l'aide d'une architecture de mélange d'experts (MoE). Nous présentons également en avant-première Llama 4 Behemoth, l'un des LLM les plus intelligents au monde et notre modèle le plus puissant à ce jour, qui servira d'enseignant pour nos nouveaux modèles.

    Ces modèles Llama 4 marquent le début d'une nouvelle ère pour l'écosystème Llama. Nous avons conçu deux modèles efficaces dans la série Llama 4, Llama 4 Scout, un modèle à 17 milliards de paramètres actifs avec 16 experts, et Llama 4 Maverick, un modèle à 17 milliards de paramètres actifs avec 128 experts. Le premier modèle s'adapte sur un seul GPU H100 (avec quantification Int4) tandis que le second s'adapte sur un seul hôte H100. Nous avons également formé un modèle d'enseignant, Llama 4 Behemoth, qui surpasse GPT-4.5, Claude Sonnet 3.7 et Gemini 2.0 Pro sur des benchmarks axés sur les STIM tels que MATH-500 et GPQA Diamond. Bien que nous n'ayons pas encore publié Llama 4 Behemoth car il est encore en cours de formation, nous sommes ravis de partager plus de détails techniques sur notre approche.

    Nous continuons à croire que l'ouverture stimule l'innovation et qu'elle est bonne pour les développeurs, bonne pour Meta et bonne pour le monde. Le Llama 4 Scout et le Llama 4 Maverick peuvent être téléchargés dès aujourd'hui sur llama.com et Hugging Face afin que chacun puisse continuer à créer de nouvelles expériences en utilisant notre dernière technologie. Nous les mettrons également à disposition par l'intermédiaire de nos partenaires dans les prochains jours. Vous pouvez également essayer Meta AI avec Llama 4 dès aujourd'hui dans WhatsApp, Messenger, Instagram Direct et sur le site web Meta.AI.

    Ce n'est que le début de la collection Llama 4. Nous pensons que les systèmes les plus intelligents doivent être capables de prendre des mesures généralisées, de converser naturellement avec les humains et de travailler sur des problèmes difficiles qu'ils n'ont jamais vus auparavant. Donner au Llama des superpouvoirs dans ces domaines permettra d'offrir de meilleurs produits aux utilisateurs de nos plateformes et de multiplier les opportunités pour les développeurs d'innover dans les prochains grands cas d'utilisation pour les consommateurs et les entreprises. Nous poursuivons nos recherches et nos prototypes de modèles et de produits, et nous en dirons plus sur notre vision lors de la LlamaCon du 29 avril - inscrivez-vous pour en savoir plus.

    Que vous soyez un développeur qui construit à partir de nos modèles, une entreprise qui les intègre dans ses flux de travail, ou simplement curieux des utilisations potentielles et des avantages de l'IA, le Llama 4 Scout et le Llama 4 Maverick sont les meilleurs choix pour ajouter une intelligence de nouvelle génération à vos produits. Aujourd'hui, nous sommes ravis de vous en dire plus sur les quatre grandes étapes de leur développement et de vous donner un aperçu de notre processus de recherche et de conception. Nous sommes également impatients de voir les nouvelles expériences incroyables que la communauté construira avec nos nouveaux modèles Llama 4.


    Pré-entraînement

    Ces modèles représentent le meilleur de Llama, offrant une intelligence multimodale à un prix attractif tout en surpassant des modèles de taille beaucoup plus importante. La construction de la prochaine génération de modèles Llama nous a obligés à adopter plusieurs nouvelles approches lors du pré-entraînement.

    Nos nouveaux modèles Llama 4 sont nos premiers modèles qui utilisent une architecture de mélange d'experts (MoE). Dans les modèles MoE, un seul jeton n'active qu'une fraction de l'ensemble des paramètres. Les architectures MoE sont plus efficaces en termes de calcul pour l'apprentissage et l'inférence et, compte tenu d'un budget fixe de FLOPs d'apprentissage, offrent une meilleure qualité par rapport à un modèle dense.

    Nom : 2.jpg
Affichages : 683
Taille : 30,6 Ko

    À titre d'exemple, les modèles Llama 4 Maverick ont 17 milliards de paramètres actifs et 400 milliards de paramètres totaux. Nous utilisons alternativement des couches denses et des couches de mélange d'experts (MoE) pour l'efficacité de l'inférence. Les couches MoE utilisent 128 experts acheminés et un expert partagé. Chaque jeton est envoyé à l'expert partagé ainsi qu'à l'un des 128 experts acheminés. Par conséquent, bien que tous les paramètres soient stockés en mémoire, seul un sous-ensemble de l'ensemble des paramètres est activé lors de l'utilisation de ces modèles. Llama 4 Maverick peut être exécuté sur un seul hôte NVIDIA H100 DGX pour un déploiement facile, ou avec une inférence distribuée pour une efficacité maximale.

    Les modèles Llama 4 sont conçus avec une multimodalité native, incorporant une fusion précoce pour intégrer de manière transparente les jetons de texte et de vision dans une colonne vertébrale de modèle unifiée. La fusion précoce est une avancée majeure, car elle nous permet de pré-entraîner conjointement le modèle avec de grandes quantités de données textuelles, d'images et de vidéos non étiquetées. Nous avons également amélioré le codeur de vision dans Llama 4. Il est basé sur MetaCLIP mais entraîné séparément en conjonction avec un modèle Llama gelé afin de mieux adapter l'encodeur au LLM.

    Nous avons développé une nouvelle technique d'apprentissage, appelée MetaP, qui nous permet de définir de manière fiable les hyperparamètres critiques du modèle, tels que les taux d'apprentissage par couche et les échelles d'initialisation. Nous avons constaté que les hyperparamètres choisis se transfèrent bien à travers différentes valeurs de la taille du lot, de la largeur du modèle, de la profondeur et des jetons d'entraînement. Llama 4 permet d'affiner les efforts d'open source en effectuant un pré-entraînement sur 200 langues, dont plus de 100 avec plus d'un milliard de tokens chacune, et globalement 10x plus de jetons multilingues que Llama 3.

    En outre, nous nous concentrons sur l'efficacité de l'entraînement des modèles en utilisant la précision FP8, sans sacrifier la qualité et en garantissant une utilisation élevée des FLOPs du modèle - lors du pré-entraînement de notre modèle Behemoth de Llama 4 en utilisant FP8 et 32K GPU, nous avons atteint 390 TFLOPs/GPU. Le mélange de données global pour l'entraînement comprenait plus de 30 billions de jetons, soit plus du double du mélange de pré-entraînement du Llama 3, et incluait divers ensembles de données de texte, d'images et de vidéos.

    Nous avons continué à entraîner le modèle dans ce que nous appelons « l'entraînement intermédiaire » pour améliorer les capacités de base avec de nouvelles recettes d'entraînement, y compris l'extension du contexte long à l'aide d'ensembles de données spécialisés. Cela nous a permis d'améliorer la qualité du modèle tout en débloquant la meilleure longueur de contexte d'entrée de 10M pour Llama 4 Scout.


    Post-entraînement de nos nouveaux modèles

    Nos nouveaux modèles comprennent des options plus petites et plus grandes pour répondre à un éventail de cas d'utilisation et de besoins des développeurs. Le Llama 4 Maverick offre des performances inégalées en matière de compréhension d'images et de textes, permettant la création d'applications d'IA sophistiquées qui franchissent les barrières linguistiques. Le Llama 4 Maverick est le modèle de référence de notre produit pour les applications d'assistant général et de chat, et il est parfait pour la compréhension précise des images et l'écriture créative.

    Le plus grand défi lors de la post-formation du modèle Llama 4 Maverick a été de maintenir un équilibre entre les multiples modalités d'entrée, le raisonnement et les capacités de conversation. Pour mélanger les modalités, nous avons mis au point une stratégie de cursus soigneusement élaborée qui ne compromet pas les performances par rapport aux modèles experts de chaque modalité. Avec Llama 4, nous avons réorganisé notre pipeline post-entraînement en adoptant une approche différente : réglage fin supervisé léger (SFT) > apprentissage par renforcement en ligne (RL) > optimisation directe des préférences légère (DPO). L'un des principaux enseignements était que le SFT et le DPO peuvent trop contraindre le modèle, limitant l'exploration pendant la phase d'apprentissage par renforcement en ligne et conduisant à une précision sous-optimale, en particulier dans les domaines du raisonnement, du codage et des mathématiques. Pour y remédier, nous avons supprimé plus de 50 % de nos données considérées comme faciles en utilisant les modèles Llama comme juge et nous avons effectué un SFT léger sur l'ensemble restant plus difficile. Lors de l'étape suivante de RL multimodal en ligne, en sélectionnant soigneusement des invites plus difficiles, nous avons été en mesure d'obtenir un changement de performance. En outre, nous avons mis en œuvre une stratégie continue de RL en ligne, dans laquelle nous avons alterné entre l'entraînement du modèle et son utilisation pour filtrer et conserver en permanence uniquement les invites de difficulté moyenne à élevée. Cette stratégie s'est avérée très bénéfique en termes de calcul et de précision. Nous avons ensuite procédé à une DPO légère pour traiter les cas particuliers liés à la qualité des réponses du modèle, ce qui a permis d'atteindre un bon équilibre entre l'intelligence du modèle et ses capacités de conversation. L'architecture du pipeline et la stratégie RL en ligne continue avec filtrage adaptatif des données ont abouti à un modèle de conversation généraliste de premier plan, doté de capacités d'intelligence et de compréhension d'images de pointe.

    En tant que LLM généraliste, Llama 4 Maverick contient 17 milliards de paramètres actifs, 128 experts et 400 milliards de paramètres au total, offrant ainsi une qualité élevée à un prix inférieur à celui de Llama 3.3 70B. Llama 4 Maverick est le meilleur modèle multimodal de sa catégorie, dépassant des modèles comparables tels que GPT-4o et Gemini 2.0 en matière de codage, de raisonnement, de multilinguisme, de contexte long et d'images, et il est compétitif par rapport à DeepSeek v3.1, qui est beaucoup plus grand, en matière de codage et de raisonnement.

    Nom : 3.jpg
Affichages : 678
Taille : 68,8 Ko

    Notre plus petit modèle, Llama 4 Scout, est un modèle à usage général avec 17 milliards de paramètres actifs, 16 experts et 109 milliards de paramètres totaux, qui offre des performances de pointe pour sa catégorie. Le Llama 4 Scout augmente considérablement la longueur du contexte pris en charge, qui passe de 128 000 dans le Llama 3 à 10 millions de jetons, ce qui est un record dans l'industrie. Cela ouvre un monde de possibilités, y compris le résumé de documents multiples, l'analyse de l'activité de l'utilisateur pour des tâches personnalisées, et le raisonnement sur de vastes bases de code.

    Llama 4 Scout est à la fois pré-entraîné et post-entraîné avec une longueur de contexte de 256K, ce qui confère au modèle de base une capacité de généralisation de longueur avancée. Nous présentons des résultats convaincants dans des tâches telles que la recherche d'une « aiguille dans une botte de foin » pour le texte, ainsi que des log-vraisemblances négatives cumulées (NLL) sur 10 millions de tokens de code. L'une des principales innovations de l'architecture de Llama 4 est l'utilisation de couches d'attention entrelacées sans encastrement positionnel. En outre, nous utilisons une mise à l'échelle de l'attention en fonction de la température du temps d'inférence afin d'améliorer la généralisation de la longueur. Nous appelons cette architecture iRoPE, où « i » signifie couches d'attention « entrelacées », soulignant l'objectif à long terme de prendre en charge une longueur de contexte « infinie », et « RoPE » fait référence aux enchâssements de position rotatifs employés dans la plupart des couches.

    Nom : 4.jpg
Affichages : 665
Taille : 109,3 Ko
    Nom : 5.jpg
Affichages : 668
Taille : 21,5 Ko

    Nous avons entraîné nos deux modèles sur une grande variété d'images et d'images vidéo fixes afin de leur donner une large compréhension visuelle, y compris des activités temporelles et des images connexes. Cela permet une interaction sans effort sur des entrées multi-images avec des invites textuelles pour des tâches de raisonnement et de compréhension visuels. Les modèles ont été pré-entraînés sur 48 images et nous les avons testés en post-entraînement avec de bons résultats jusqu'à huit images.

    Llama 4 Scout est également le meilleur de sa catégorie en matière d'ancrage d'image, capable d'aligner les invites de l'utilisateur sur des concepts visuels pertinents et d'ancrer les réponses du modèle sur des régions de l'image. Cela permet une réponse plus précise aux questions visuelles pour le LLM afin de mieux comprendre l'intention de l'utilisateur et de localiser les objets d'intérêt. Llama 4 Scout dépasse également les modèles comparables en matière de codage, de raisonnement, de contexte long et de repères d'image, et offre des performances supérieures à celles de tous les modèles Llama précédents.

    Nom : 6.jpg
Affichages : 677
Taille : 64,6 Ko

    Ces nouveaux modèles constituent d'importants éléments de base qui permettront d'assurer l'avenir de la connexion humaine. Conformément à notre engagement en faveur de l'open source, Llama 4 Maverick et Llama 4 Scout peuvent être téléchargés sur llama.com et Hugging Face, et seront bientôt disponibles sur les plateformes de données et d'informatique en nuage les plus répandues, sur le silicium en périphérie et auprès des intégrateurs de services internationaux.


    Le Llama atteint de nouvelles dimensions : Le 2T Behemoth

    Nous sommes ravis de partager un aperçu du Llama 4 Behemoth, un modèle d'enseignant qui fait preuve d'une intelligence avancée parmi les modèles de sa catégorie. Le Llama 4 Behemoth est également un modèle multimodal de mélange d'experts, avec 288B paramètres actifs, 16 experts, et près de deux milles milliards de paramètres au total. Offrant des performances de pointe pour les modèles non raisonnés en mathématiques, en multilinguisme et en images, il était le choix idéal pour enseigner les modèles Llama 4 plus petits. Nous avons codistillé le modèle Llama 4 Maverick à partir du modèle Llama 4 Behemoth en tant que modèle enseignant, ce qui a permis d'améliorer considérablement la qualité des mesures d'évaluation des tâches finales. Nous avons développé une nouvelle fonction de perte de distillation qui pondère dynamiquement les cibles douces et dures au cours de l'entraînement. La codistillation du Llama 4 Behemoth pendant le pré-entraînement permet d'amortir le coût de calcul des passes avant gourmandes en ressources nécessaires pour calculer les cibles de distillation pour la majorité des données d'entraînement utilisées dans l'entraînement des étudiants. Pour les nouvelles données supplémentaires incorporées dans la formation des élèves, nous avons effectué des passes avant sur le modèle Behemoth pour créer des cibles de distillation.

    Nom : 7.jpg
Affichages : 675
Taille : 42,0 Ko

    Le post-entraînement d'un modèle comportant 2 000 milliards de paramètres a également constitué un défi de taille, qui nous a obligés à revoir complètement la recette, en commençant par l'échelle des données. Pour maximiser les performances, nous avons dû élaguer 95 % des données SFT, contre 50 % pour les modèles plus petits, afin de mettre l'accent sur la qualité et l'efficacité. Nous avons également constaté que l'exécution d'un SFT léger suivi d'un apprentissage par renforcement (RL) à grande échelle produisait des améliorations encore plus significatives dans les capacités de raisonnement et de codage du modèle. Notre recette d'apprentissage par renforcement s'est concentrée sur l'échantillonnage d'invites difficiles en effectuant une analyse pass@k avec le modèle de politique et en élaborant un programme d'entraînement d'une dureté croissante. Nous avons également constaté que le filtrage dynamique des invites présentant un avantage nul pendant l'entraînement et la construction de lots d'entraînement avec des invites mixtes provenant de capacités multiples ont permis d'améliorer les performances en mathématiques, en raisonnement et en codage. Enfin, l'échantillonnage à partir d'une variété d'instructions système a été crucial pour garantir que le modèle conservait sa capacité à suivre les instructions pour le raisonnement et le codage et qu'il était capable de réaliser de bonnes performances dans une variété de tâches.

    La mise à l'échelle du RL pour un modèle à 2 000 milliards de paramètres a également nécessité la réorganisation de notre infrastructure RL sous-jacente en raison de son échelle sans précédent. Nous avons optimisé la conception de notre parallélisation MoE pour la vitesse, ce qui a permis une itération plus rapide. Nous avons développé un cadre de formation RL en ligne entièrement asynchrone qui a amélioré la flexibilité. Par rapport au cadre d'entraînement distribué existant, qui sacrifie la mémoire de calcul afin d'empiler tous les modèles en mémoire, notre nouvelle infrastructure a permis une allocation flexible de différents modèles à des GPU distincts, en équilibrant les ressources entre plusieurs modèles sur la base de la vitesse de calcul. Cette innovation a permis de multiplier par 10 l'efficacité de la formation par rapport aux générations précédentes.

    Garanties et protections

    Nous visons à développer les modèles les plus utiles et les plus utiles tout en nous protégeant contre les risques les plus graves et en les atténuant. Nous avons construit Llama 4 en appliquant les meilleures pratiques décrites dans notre guide d'utilisation pour les développeurs : AI Protections. Il s'agit notamment d'intégrer des mesures d'atténuation à chaque couche du développement du modèle, du pré-entraînement au post-entraînement, en passant par des mesures d'atténuation réglables au niveau du système qui protègent les développeurs contre les utilisateurs malveillants. Ce faisant, nous donnons aux développeurs les moyens de créer des expériences utiles, sûres et adaptables pour leurs applications soutenues par Llama.

    Atténuations avant et après l'entraînement

    Pour le pré-entraînement, nous utilisons le filtrage des données en combinaison avec d'autres mesures d'atténuation des données pour protéger les modèles. Pour la post-formation, nous appliquons une série de techniques pour nous assurer que nos modèles sont conformes aux politiques utiles aux utilisateurs et aux développeurs, y compris le bon niveau de données de sécurité à chaque étape.

    Approches au niveau du système

    Au niveau du système, nous avons mis en libre accès plusieurs mesures de protection qui peuvent aider à identifier et à se prémunir contre les intrants et les extrants potentiellement nocifs. Ces outils peuvent être intégrés à nos modèles Llama et à d'autres outils tiers :

    • Llama Guard : Notre modèle de sécurité des entrées/sorties en grand langage basé sur la taxonomie des dangers que nous avons développée avec MLCommons. Les développeurs peuvent l'utiliser pour détecter si les entrées ou les sorties violent les politiques qu'ils ont créées pour leur application spécifique.

    • Prompt Guard : Un modèle de classification formé sur un large corpus d'attaques, capable de détecter à la fois les invites explicitement malveillantes (Jailbreaks) et les invites qui contiennent des entrées d'injection (Prompt Injections).

    • CyberSecEval : évaluations qui aident les développeurs de modèles et de produits d'IA à comprendre et à réduire les risques de cybersécurité liés à l'IA générative.


    Les développeurs nous ont dit que ces outils sont plus efficaces et utiles lorsqu'ils peuvent être adaptés à leurs applications. Nous proposons aux développeurs une solution ouverte afin qu'ils puissent créer les expériences les plus sûres et les plus efficaces en fonction de leurs besoins. Nous continuerons également à travailler avec un ensemble global de partenaires pour créer des normes de système à l'échelle de l'industrie qui bénéficieront à la communauté des logiciels libres.

    Évaluations et red-teaming

    Nous testons systématiquement les modèles dans un large éventail de scénarios et de cas d'utilisation, de manière contrôlée et reproductible. Nous obtenons ainsi des données que nous intégrons dans la post-formation.

    Nous soumettons nos modèles à des tests de résistance en recourant à des sondages dynamiques contradictoires sur toute une série de sujets à l'aide de tests automatisés et manuels. Nous avons progressé dans la compréhension et l'évaluation des risques potentiels liés aux modèles. Un exemple en est notre nouveau développement de tests génératifs d'agents offensifs (Generative Offensive Agent Testing - GOAT). Grâce à GOAT, nous nous attaquons aux limites de l'équipe rouge traditionnelle en simulant des interactions multi-tours d'acteurs adverses moyennement compétents, ce qui nous permet d'augmenter la couverture de nos tests et de détecter les vulnérabilités plus rapidement. En ajoutant l'automatisation à notre boîte à outils de test, GOAT a permis à nos experts humains de se concentrer sur des zones d'adversité plus nouvelles, tandis que l'automatisation se concentre sur les zones de risque connues. Cela rend le processus plus efficace et nous permet de dresser un meilleur tableau quantitatif et qualitatif des risques.

    S'attaquer aux préjugés dans les LLM

    Il est bien connu que tous les grands LLM ont eu des problèmes de partialité - en particulier, ils ont historiquement penché à gauche lorsqu'il s'agit de sujets politiques et sociaux débattus. Cela est dû aux types de données de formation disponibles sur Internet.

    Notre objectif est d'éliminer les préjugés de nos modèles d'IA et de faire en sorte que Llama puisse comprendre et articuler les deux côtés d'une question controversée. Dans le cadre de ce travail, nous continuons à rendre le Llama plus réactif afin qu'il réponde aux questions, qu'il puisse réagir à une variété de points de vue différents sans porter de jugement, et qu'il ne favorise pas certains points de vue par rapport à d'autres.

    Nous avons amélioré ces efforts avec cette version - Llama 4 est nettement plus performant que Llama 3 et est comparable à Grok :

    • Le Llama 4 refuse moins de sujets politiques et sociaux débattus (de 7 % dans le Llama 3.3 à moins de 2 %).

    • Le Llama 4 est nettement plus équilibré en ce qui concerne les questions auxquelles il refuse de répondre (la proportion de refus de réponses inégales est désormais inférieure à 1 % sur un ensemble de questions d'actualité débattues).

    • Nos tests montrent que le Llama 4 répond avec une forte inclinaison politique à un taux comparable à Grok (et à la moitié du taux du Llama 3.3) sur un ensemble de sujets politiques ou sociaux controversés. Bien que nous fassions des progrès, nous savons que nous avons encore du travail à faire et nous continuerons à faire baisser ce taux.


    Nous sommes fiers des progrès accomplis à ce jour et restons déterminés à atteindre notre objectif d'élimination des préjugés dans nos modèles.


    Explorer l'écosystème de Llama

    S'il est important que les modèles soient intelligents, les gens veulent aussi des modèles capables de répondre de manière personnalisée et avec une rapidité comparable à celle des humains. En tant que modèle le plus avancé à ce jour, le Llama 4 est optimisé pour répondre à ces besoins.

    Bien entendu, les modèles ne sont qu'un élément de l'écosystème plus large qui donne vie à ces expériences. Nous nous concentrons sur l'ensemble de l'écosystème, qui comprend de nouvelles intégrations de produits. Nous sommes ravis de poursuivre les conversations que nous avons avec nos partenaires et la communauté open source, et comme toujours, nous sommes impatients de voir les expériences riches que les gens construisent dans le nouvel écosystème Llama.

    Téléchargez les modèles Llama 4 Scout et Llama 4 Maverick dès aujourd'hui sur llama.com et Hugging Face. Essayez Meta AI construit avec le Llama 4 dans WhatsApp, Messenger, Instagram Direct, et sur le site web Meta.AI.

    Source : Meta AI

    Et vous ?

    Pensez-vous que ces benchmarks sont crédibles ou pertinents ?
    Quel est votre avis sur cette annonce ?

    Voir aussi :

    Meta aurait mis en place des « cellules de crise » composées d'ingénieurs pour comprendre comment l'IA de DeepSeek peut battre tous les autres avec une fraction du prix

    Meta investira jusqu'à 65 milliards de $ en 2025 pour atteindre ses objectifs en matière d'IA et créera une IA ingénieur qui contribuera à produire plus de code pour ses recherches, déclare Mark Zuckerberg

    L'IA open source est la voie à suivre, car elle permet à un plus grand nombre de personnes dans le monde d'avoir accès aux avantages et aux opportunités de l'IA, par Mark Zuckerberg, fondateur et PDG de Meta
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 242
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 242
    Par défaut Meta a truqué les tests pour donner l'impression que son nouveau modèle d'IA Llama 4 est le meilleur
    Meta a truqué les tests pour donner l'impression que son nouveau modèle d'IA Llama 4 est meilleur que la concurrence
    ce qui remet davantage en cause la pertinence des résultats des benchmarks de l'IA

    Meta a récemment lancé la famille de modèle Llama 4 : Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth. L'entreprise a déclaré que chacun de ces modèles est le meilleur dans sa catégorie. Par exemple, Meta a déclaré que Llama 4 Maverick offre le meilleur rapport performance/coût de sa catégorie. Il apparaît toutefois qu'il y a eu une entourloupe lors du processus d'évaluation : la version de Maverick testée sur LMArena n'est pas la même que celle mise à la disposition du public. Meta a déployé sur LMArena une « version expérimentale » de Maverick qui a été spécifiquement « optimisée pour la conversation », ce qui explique ses performances sur le benchmark.

    Llama (Large Language Model Meta AI) est une famille de grands modèles de langage (LLM) open source développés par Meta AI à partir de février 2023. Meta a développé Llama en réponse à modèle ChatGPT d'OpenAI, qui a lancé la course à l'IA générative. Dans un billet de blogue publié le 5 avril, Meta a annoncé la sortie de Llama 4, affirmant que cette nouvelle version comprend des modèles avancés qui écrasent la concurrence dans tous les domaines.

    Llama 4 Scout, un modèle de 17 milliards de paramètres actifs avec 16 experts, serait le meilleur modèle multimodal au monde dans sa catégorie, tout en tenant dans un seul GPU Nvidia H100. Selon Meta, « Scout peut battre GPT-4o et Gemini 2.0 Flash sur une large gamme de benchmarks populaires ».

    Llama 4 Maverick, un modèle de 17 milliards de paramètres actifs avec 128 experts, offrirait le meilleur rapport performance/coût de sa catégorie. Il a rapidement obtenu la deuxième place sur LMArena, le site d'évaluation de l'IA où des humains comparent les résultats de différents systèmes et votent pour le meilleur d'entre eux. Maverick a obtenu un score ELO de 1417, qui le place au-dessus du GPT-4o d'OpenAI, mais juste en dessous de Gemini 2.5 Pro.

    Meta accusé d'avoir triché lors du processus d'évaluation du modèle Maverick

    Cette réussite semblait positionner Llama 4 comme un concurrent de taille des modèles propriétaires d'OpenAI, d'Anthropic et de Google. C'est alors que des chercheurs en IA, en fouillant dans la documentation de Meta, ont découvert quelque chose d'inhabituel qui remet en cause les revendications de Meta. En petits caractères, la société reconnaît que la version de Maverick testée sur LMArena n'est pas la même que celle qui est disponible pour le public.

    Meta a déployé sur LMArena une version expérimentale de Maverick qui a été spécifiquement « optimisée pour la conversation ». La société a omis de préciser ce détail lors de la publication du modèle, ce qui a rendu furieux les chercheurs en IA. Les administrateurs de LMArena ont déclaré sur X (ex-Twitter) :

    Citation Envoyé par LMArena

    L'interprétation de notre politique par Meta ne correspond pas à ce que nous attendons des fournisseurs de modèles. Meta aurait dû préciser que « Llama-4-Maverick-03-26-Experimental » est un modèle personnalisé pour optimiser les préférences humaines. En conséquence, nous mettons à jour nos politiques de classement pour renforcer notre engagement en faveur d'évaluations équitables et reproductibles afin que cette confusion ne se reproduise plus à l'avenir.
    « Le score du modèle de chat était une sorte d'infox... », a écrit un critique sur X. Un autre a souligné : « ils ont utilisé une version expérimentale optimisée pour l'occasion afin de s'assurer le meilleur score, ce qui a permis de soutenir leur battage médiatique. Cela remet en cause la fiabilité des benchmarks ».

    Un porte-parole de Meta, Ashley Gabriel, a déclaré que « l'entreprise expérimente tous les types de variantes personnalisées ». Elle a déclaré : « Llama-4-Maverick-03-26-Experimental est une version optimisée pour le chat que nous avons expérimentée et qui fonctionne bien sur LMArena. Nous avons maintenant publié notre version open source et nous allons voir comment les développeurs vont personnaliser Llama 4 pour leurs propres cas d'utilisation ».

    Scout et Maverick sont les meilleurs à ce jour grâce à la distillation du dernier modèle de la famille Llama 4 : Behemoth. Llama 4 Behemoth est un modèle de 288 milliards de paramètres actifs avec 16 experts ; c'est le modèle le plus puissant de Meta à ce jour. « Ces modèles représentent le meilleur de Llama, offrant une intelligence multimodale à un prix attractif tout en étant plus performants que des modèles de taille beaucoup plus importante », note Meta.

    Le comportement de Meta remet davantage en cause la fiabilité des benchmarks

    LMArena a fait part de ses inquiétudes quant à l'utilisation abusive du système par Meta. Lorsque les fournisseurs de modèles peuvent soumettre des versions optimisées de leurs modèles à des fins de test tout en diffusant des versions différentes au public, les classements de référence tels que LMArena perdent de leur sens en tant qu'indicateurs de la performance dans le monde réel. Le comportement ne viole pas explicitement les règles de la plateforme.

    Toutefois, LMArena a déclaré avoir pris des mesures pour « empêcher ce type d'ajustement excessif à l'avenir ». Simon Willison, chercheur indépendant en IA, se dit désillusionné : « c'est l'indice de référence général le plus respecté parce que tous les autres sont nuls. Lorsque Llama 4 est sorti, le fait qu'il soit arrivé deuxième dans l'arène, juste après Gemini 2.5 Pro, m'a vraiment impressionné, et je m'en veux de ne pas avoir lu les petits caractères ».

    Peu après la sortie des modèles Maverick et Scout, la communauté de l'IA a commencé à parler d'une rumeur selon laquelle Meta aurait également entraîné ses modèles Llama 4 pour qu'ils obtiennent de meilleures performances dans les tests de référence, tout en cachant leurs véritables limites.

    Ahmad Al-Dahle, vice-président de l'IA générative chez Meta, a répondu à ces accusations dans un billet publié sur X : « nous avons également entendu des affirmations selon lesquelles nous nous sommes entraînés sur des ensembles de tests ; c'est tout simplement faux et nous ne ferions jamais cela. Notre meilleure compréhension est que la qualité variable que les gens constatent est due à la nécessité de stabiliser les implémentations ».

    Certains ont également remarqué que le Llama 4 a été publié à une heure étrange. Le samedi n'est généralement pas le jour où les grandes nouveautés en matière d'IA sont publiées. Lorsque quelqu'un a demandé sur Threads pourquoi Llama 4 avait été publié pendant le week-end, Mark Zuckerberg, PDG de Meta, a répondu : « c'est la date à laquelle il était prêt ». Cependant, les chercheurs en IA accusent Meta d'avoir tenté de manipuler le public.

    « C'est une publication très déroutante en général. Le score du modèle que nous avons obtenu n'a aucune valeur pour moi. Je ne peux même pas utiliser le modèle pour lequel ils ont obtenu un score élevé », a déclaré le chercheur en IA Simon Willison, qui suit de près et documente les modèles d'IA.

    La course à l'IA s'intensifie et transforme les benchmarks en champs de bataille

    Alors que le développement de l'IA s'accélère, cet épisode montre comment les benchmarks deviennent des champs de bataille. Il montre également que Meta est désireux d'être perçu comme un leader de l'IA, même si cela implique de jouer avec le système. Le cheminement de Meta vers la sortie de Llama 4 n'a pas été sans heurts. L'entreprise a repoussé le lancement à plusieurs reprises parce que le modèle ne répondait pas aux attentes internes.


    Ces attentes sont particulièrement élevées depuis que DeepSeek, une startup chinoise spécialisée dans l'IA, a publié son modèle open source R1 qui a suscité beaucoup d'intérêt. DeepSeek-R1 a égalé les performances du modèle phare o1 d'OpenAI, avec un coût inférieur de 95 %. La startup chinoise a démontré qu'il est possible de développer des modèles d'IA de pointe à faible coût. L'annonce de DeepSeek-R1 a provoqué une hécatombe à Wall Street.

    Lors d'une réunion avec le personnel en mars, le PDG de Microsoft, Satya Nadella, a déclaré que DeepSeek est le nouveau critère de réussite de Microsoft en matière d'IA et a érigé en modèle l'approche de la startup chinoise. Microsoft va tirer des leçons de DeepSeek et restructurer son approche en matière d'IA.

    En fin de compte, l'utilisation d'un modèle optimisé dans LMArena place les développeurs dans une position difficile. Lorsqu'ils choisissent des modèles tels que Llama 4 pour leurs applications, ils se tournent naturellement vers les références pour obtenir des conseils. Toutefois, comme c'est le cas pour Llama 4 Maverick, ces références peuvent refléter des capacités qui ne sont pas réellement disponibles dans les modèles auxquels le public a accès.

    Par ailleurs, soulignons que pour diverses raisons, LMArena n'est pas la mesure la plus fiable des performances d'un modèle d'IA. Mais les entreprises d'IA n'ont généralement pas personnalisé ou affiné leurs modèles pour obtenir de meilleurs résultats sur LMArena ; ou n'ont pas admis l'avoir fait, du moins.

    Des préoccupations liées à la consommation d'électricité et d'eau de Meta

    En août 2024, Meta avait affirmé qu'il aurait besoin de beaucoup plus de puissance de calcul pour former ses modèles à l'avenir. Le PDG Mark Zuckerberg a déclaré que pour entraîner le Llama 4, l'entreprise aura besoin de 10 fois plus de puissance de calcul que pour l'entraînement du Llama 3. Meta veut faire de Llama 4 le modèle le plus avancé sur le marché, mais selon les experts, l'approche de l'entreprise risque d'avoir un coût colossal pour le climat.


    Selon un rapport publié en septembre dernier, la consommation d'électricité des centres de données de Meta a atteint 14 975 435 MWh en 2023, soit une hausse de 34 %, et les prélèvements d'eau ont grimpé de 137 %, à mesure que l'entreprise développe de nouveaux systèmes d'IA. Selon le rapport, la consommation d'eau des centres de données a atteint 3 881 mégalitres (un mégalitre est égal à un million de litres), soit une augmentation de 7 %.

    Dans certains endroits, comme à Altoona, Clonee, Odense et Prineville, la consommation d'eau a baissé. Cependant, les prélèvements d'eau dans les nappes phréatiques ont augmenté de 137 % pour atteindre 88 mégalitres. Les prélèvements d'eau dans les zones soumises à un stress hydrique de base élevé ou extrêmement élevé ont augmenté de 20 % pour atteindre 1 360 mégalitres. Meta a déclaré qu'il travaille sur de nouvelles approches.

    « Nos nouveaux centres de données optimisés pour l'IA, actuellement en construction, seront dotés d'une technologie de refroidissement à sec. Le refroidissement à sec utilise l'air comme moyen de refroidissement, minimisant ainsi l'utilisation de l'eau, ce qui en fait la technologie de refroidissement la plus efficace pour ces emplacements géographiques », indique le rapport de Meta. Mais les experts sont sceptiques quant aux promesses de Meta.

    L'entreprise a également utilisé 55 475 mégalitres par le biais de l'électricité achetée, ce qui représente une augmentation de 35 %. D'un point de vue plus positif, les efforts de restauration de l'eau ont atteint 5 889 mégalitres, soit une augmentation de 150 %. L'utilisation de l'eau de l'entreprise est passée de 0,20 à 0,18, mais le prélèvement d'eau par personne active mensuelle a augmenté de 7 % pour atteindre 0,001410 litre, selon le rapport.

    Meta développe de manière agressive sa présence dans les centres de données, avec des investissements qui ont atteint 8,5 milliards de dollars au deuxième trimestre 2023. La société s'attend à ce que les coûts augmentent au cours de cette année à mesure qu'elle développe son infrastructure d'IA générative.

    Source : Meta AI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'utilisation abusive du benchmark LMArena par Meta ?
    Les benchmarks deviennent des champs de bataille. Peut-on encore considérer ces mesures ?
    Avez-vous testé les nouveaux modèles de la famille Llama 4 ? Si oui, que pensez-vous de leurs performances ?
    Quelles leçons peut-on tirer de cet incident ?

    Voir aussi

    Meta lance la famille de modèle Llama 4 : « Le début d'une nouvelle ère d'innovation en matière d'IA nativement multimodale », avec Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth

    Satya Nadella affirme que DeepSeek est le nouveau « critère de réussite » de Microsoft en matière d'IA et érige en modèle l'approche de la startup chinoise, qui a ébranlé Wall Street avec son modèle R1

    La consommation d'électricité des centres de données de Meta a atteint 14 975 435 MWh en 2023, soit une hausse de 34 % et les prélèvements d'eau ont grimpé de 137 %, à mesure que l'entreprise développe l'IA

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 242
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 242
    Par défaut Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques »
    Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques » à l'instar de Grok d'Elon Musk
    estimant que « les LLM se situent dans la section gauche/libertaire »

    Meta a publié Llama 4 au début du mois et affirme qu'il s'agit du meilleur modèle de langage sur le marché actuellement. Mais Meta a été vivement critiqué après que des chercheurs ont révélé que l'entreprise a triché lors des tests pour donner l'impression que Llama 4 surpasse la concurrence. D'un autre côté, Meta a annoncé qu'il s'efforce de remédier aux polémiques liées à une IA politiquement correcte et partiale. Meta s'inquiète spécifiquement du fait que Llama 4 a des préjugés politiques de gauche. Meta a déclaré que son objectif est d'éliminer les préjugés de ses modèles d'IA et de faire en sorte qu'ils correspondent aux utilisateurs des deux bords.

    Les conservateurs américains clament depuis longtemps que ChatGPT est une IA partiale qui défend les valeurs de gauche. Elon Musk défend cette idée, ajoutant que le chatbot d'OpenAI est « woke » et trop politiquement correcte. En 2023, Elon Musk a lancé son propre chatbot, Grok, pour concurrencer ChatGPT. Grok a des garde-fous limités par rapport à ChatGPT et est présenté par Elon Musk comme un chatbot beaucoup plus audacieux que ses concurrents.

    Elon Musk qualifie Grok d'audacieux en raison de son approche volontairement provocante et non conventionnelle dans le domaine de l'IA. Contrairement aux modèles plus prudents comme ChatGPT ou Gemini, Grok est conçu pour adopter un ton plus irrévérencieux, traiter des sujets sensibles et proposer des modes d'interaction atypiques. À titre d'exemple, Grok peut aborder tout type de sujet dans un registre excentrique, y compris les questions politiques.


    Aujourd'hui, Meta s'inquiète également des biais de gauche dans les données d'entraînement de ses modèles et adopte une approche semblable à celle d'Elon Musk. Cette évolution fait suite aux nombreux changements apportés par Meta pour s'aligner sur les politiques anti-woke du président Donald Trump.

    Meta s'attaque aux biais politiques dans ses grands modèles de langage

    Dans le billet de blogue annonçant la sortie de Llama 4, l'entreprise déclare clairement que les préjugés constituent un problème qu'elle tente de résoudre. Mais contrairement à des montagnes d'études qui ont établi que les systèmes d'IA sont plus susceptibles de discriminer les minorités sur la base d'éléments tels que la race, le sexe et la nationalité, Meta s'inquiète spécifiquement du fait que son nouveau modèle Llama 4 a des préjugés politiques de gauche.

    Citation Envoyé par Meta

    Il est bien connu que tous les principaux grands modèles de langage ont eu des problèmes de partialité ; en particulier, ils ont historiquement penché à gauche lorsqu'il s'agit de sujets politiques et sociaux débattus. Cela est dû aux types de données de formation disponibles sur Internet.

    Notre objectif est d'éliminer les préjugés de nos modèles d'IA et de nous assurer que Llama peut comprendre et articuler les deux côtés d'une question litigieuse. Dans le cadre de ce travail, nous continuons à rendre Llama plus réactif afin qu'il réponde aux questions, qu'il puisse réagir à une variété de points de vue différents sans porter de jugement, et qu'il ne favorise pas certains points de vue par rapport à d'autres.
    Pour atteindre cet objectif, Meta a apporté de nombreuses améliorations à Llama 4. « Nous avons amélioré ces efforts avec cette version. Llama 4 est nettement plus performant que Llama 3 et est comparable à Grok. Nous sommes fiers des progrès accomplis à ce jour et restons déterminés à atteindre notre objectif, qui est d'éliminer les biais globaux de nos modèles ». Dans le cadre de ce travail, Meta énumère ensuite quelques améliorations dans Llama 4 :

    • Meta affirme que Llama 4 refuse moins de sujets politiques et sociaux débattus (de 7 % dans le Llama 3.3 à moins de 2 %) ;
    • Meta affirme que Llama 4 est nettement plus équilibré en ce qui concerne les questions auxquelles il refuse de répondre (la proportion de refus de réponses inégales est désormais inférieure à 1 % sur un ensemble de questions d'actualité débattues) ;
    • Meta affirme que ses tests montrent que Llama 4 répond avec une forte inclinaison politique à un taux comparable à Grok (et à la moitié du taux de Llama 3.3) sur un ensemble de sujets politiques ou sociaux controversés.


    L'approche de Meta pour éliminer les biais politiques est controversée

    Comme le note Meta, il ne fait aucun doute que la partialité des systèmes d'IA est un problème bien établi. Les allégations sur le parti de gauche de ChatGPT sont après que le chatbot d'OpenAI a refusé de répondre à certaines des questions des conservateurs sur une potentielle victoire de Donal Trump aux élections de 2024, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils ont énuméré de nombreux autres exemples.

    Cependant, ce qui est remarquable et déroutant ici, c'est que Meta choisit d'encadrer et d'aborder la question exclusivement comme un biais de gauche. « Je pense que, dès le départ, il s'agit d'une réponse assez nue que chaque entreprise (à l'exception de xAI) a prise en réponse à l'administration Trump », a déclaré Alex Hanna, directeur de la recherche au Distributed AI Research Institute (DAIR) et coauteur du livre à venir « The AI Con », à 404 Media.

    Meta a déclaré que les études ont montré que « les grands modèles de langage se situent souvent dans la section gauche/libertaire d'une carte politique à quatre quadrants, divisée en gauche, droite, libertaire et autoritaire ». D'autres experts se sont également demandé pourquoi Meta pense qu'il est si important de pousser son modèle plus loin vers la droite et comment l'entreprise choisit de faire apparaître les « deux côtés » d'un argument avec Llama.

    « Il est dangereux d'aborder des questions scientifiques et empiriques telles que le changement climatique, la santé ou l'environnement sous un angle politique gauche/droite », a déclaré Abeba Birhane, conseillère principale sur la responsabilité de l'IA à la Fondation Mozilla, dans un courriel à 404 Media.

    Selon Abeba Birhane, l'approche « des deux côtés » ici est une fausse équivalence, comme celle qui consiste à traiter un théoricien du complot anti-vax sur un pied d'égalité avec un scientifique ou un médecin. L'un est illégitime et dangereux, l'autre s'appuie sur des preuves empiriques vérifiables. Si Meta attribue ce biais de gauche aux données d'entraînement, la question la plus importante est de savoir ce que contiennent les données d'entraînement.

    Bien sûr, Meta n'est pas disposé à partager les données d'entraînement de ses modèles de langage. Sans un accès quelconque aux données, il est impossible de vérifier les affirmations de Meta selon lesquelles les données [de l'Internet] sont « de gauche », a déclaré Abeba Birhane, de la Fondation Mozilla.

    Le virage à « droite » de Mark Zuckerberg pour plaire à Donald Trump

    Depuis l'arrivée de Donald Trump à la Maison Blanche, de nombreuses entreprises américaines ont introduit un certain nombre de changements afin de s'attirer les faveurs de l'administration Trump. Par exemple, Meta et Amazon ont mis fin à leurs programmes de diversité, d'équité et d'inclusion (DEI). Donald Trump considère ses programmes comme de la discrimination et exhorte les entreprises américaines à s'en débarrer. Plusieurs Big Tech ont obéi.

    Le PDG de Meta, Mark Zuckerberg, pousse son entreprise et son modèle d'IA vers la droite, d'abord parce qu'il plaît à l'administration actuelle et ensuite parce qu'il se voit en concurrence avec un Elon Musk de plus en plus à l'extrême droite. Meta n'explique pas clairement ce qu'il fait pour atténuer les biais de ses modèles d'IA, ce qui suscite des préoccupations. L'entreprise se contente de dire que Llama est devenu aussi meilleur que Grok sur ces points.

    Les experts estiment que sans un accès aux données, il est impossible de vérifier les affirmations de Meta selon lesquelles les données d'Internet sont orientées à gauche. « Même si c'était vrai, je serais prudent en supposant que les données extraites d'Internet reflètent ou correspondent à la réalité. Elles reflètent plutôt les opinions de ceux qui ont accès à [l'Internet]... ceux qui sont connectés numériquement », affirme Abeba Birhane, la Fondation Mozilla.

    Source : Meta AI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'approche de Meta pour éliminer les biais politiques de ses modèles d'IA ?
    Meta affirme que les données d'Internet sont majoritairement orientées à gauche. Qu'en pensez-vous ?
    Mark Zuckerberg pousse son entreprise et son modèle d'IA vers la droite. Qu'en pensez-vous ?

    Voir aussi

    Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"

    Meta a truqué les tests pour donner l'impression que son nouveau modèle d'IA Llama 4 est meilleur que la concurrence, ce qui remet davantage en cause la pertinence des résultats des benchmarks de l'IA

    Le nouveau mode vocal « déchaîné » de Grok peut jurer, crier et simuler des relations sexuelles par téléphone. Il fait suite au projet d'Elon Musk de fournir une réponse « non censurée » à ChatGPT d'OpenAI

  6. #6
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 144
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 144
    Par défaut Après les allégations de tricherie de Meta, le modèle 'non modifié' Llama 4 Maverick testé ne se classe que 32
    Après les allégations de tricherie de Meta, le modèle 'non modifié' Llama 4 Maverick testé ne se classe que 32ème, et ne bat absolument pas GPT-4o et Gemini Flash 2 comme l'a déclaré Mark Zuckerberg

    Lors de la sortie de Llama 4 Maverick, Meta a annoncé que le modèle a obtenu la deuxième place sur LMArena, le site d'évaluation de l'IA où des humains comparent les résultats de différents système. Les résultats le place au-dessus du score du modèle 4o d'OpenAI et juste en dessous de Gemini 2.5 Pro. Mais un nouveau rapport montre que la version de Maverick testée sur LMArena n'est pas la même que celle qui est disponible pour le public.

    Meta a récemment lancé la famille de modèle Llama 4 : Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth. L'entreprise a déclaré que chacun de ces modèles est le meilleur dans sa catégorie. Par exemple, Meta a déclaré que Llama 4 Maverick offre le meilleur rapport performance/coût de sa catégorie. D'après les résultats des tests de référence, Llama 4 Maverick (Llama-4-Maverick-03-26-Experimental) est arrivé en deuxième position, battant des modèles tels que GPT-4o d'OpenAI et Gemini 2.0 Flash de Google, et n'étant devancé que par Gemini 2.5 Pro.

    Il apparaît toutefois qu'il y a eu une entourloupe lors du processus d'évaluation : la version de Maverick testée sur LMArena n'est pas la même que celle mise à la disposition du public. Meta a déployé sur LMArena une « version expérimentale » de Maverick qui a été spécifiquement « optimisée pour la conversation », ce qui explique ses performances sur le benchmark.

    Les utilisateurs ont remarqué des différences de comportement entre le Maverick utilisé dans les benchmarks et celui mis à la disposition du public. Cela a conduit à des accusations de tricherie de la part de Meta, ce qui a suscité une réponse d'un cadre de Meta sur X. LMArena a également reconnu que Meta n'avait pas respecté ses politiques, s'est excusé auprès du public et a publié une mise à jour de ses politiques.

    La communauté nous a posé des questions sur la dernière version du Llama-4 sur Arena. Pour garantir une transparence totale, nous publions plus de 2 000 résultats de comparaison en tête-à-tête afin qu'ils soient examinés par le public. Ces résultats incluent les invites des utilisateurs, les réponses des modèles et les préférences des utilisateurs.

    Les premières analyses montrent que le style et le ton de la réponse du modèle sont des facteurs importants (comme le montre le classement du contrôle du style), et nous menons une analyse plus approfondie pour en savoir plus ! (Emoji control ?)

    En outre, nous ajoutons la version HF de Llama-4-Maverick à Arena, et les résultats du classement seront publiés prochainement. L'interprétation de notre politique par Meta ne correspond pas à ce que nous attendons des fournisseurs de modèles. Meta aurait dû préciser que « Llama-4-Maverick-03-26-Experimental » était un modèle personnalisé visant à optimiser les préférences humaines. En conséquence, nous mettons à jour nos politiques de classement pour renforcer notre engagement en faveur d'évaluations équitables et reproductibles, afin d'éviter que ce genre de confusion ne se reproduise à l'avenir.
    Aujourd'hui, la version non modifiée du modèle (Llama-4-Maverick-17B-128E-Instruct) a été ajoutée à LMArena et se classe à la 32e place. Pour mémoire, des modèles plus anciens comme Claude 3.5 Sonnet, sorti en juin dernier, et Gemini-1.5-Pro-002, sorti en septembre dernier, sont mieux classés.

    Un porte-parole de Meta a indiqué que le Llama-4-Maverick-03-26-Experimental a été spécialement réglé pour le chat et qu'il s'est plutôt bien comporté dans les tests de LMArena, ajoutant que la société est "impatiente" de voir ce que les développeurs construiront maintenant qu'une version open source du Llama 4 a été publiée.

    Nom : 1.jpg
Affichages : 3840
Taille : 83,4 Ko

    Fait intéressant, après la sortie de Llama 4, Meta avait annoncé qu'il s'efforce de remédier aux polémiques liées à une IA politiquement correcte et partiale. Meta s'inquiète spécifiquement du fait que Llama 4 a des préjugés politiques de gauche. Meta a déclaré que son objectif est d'éliminer les préjugés de ses modèles d'IA et de faire en sorte qu'ils correspondent aux utilisateurs des deux bords.

    Cette déclaration de Meta rappelle celle d'Elon Musk qui a qualifié Grok d'audacieux en raison de son approche volontairement provocante et non conventionnelle dans le domaine de l'IA. Contrairement aux modèles plus prudents comme ChatGPT ou Gemini, Grok est conçu pour adopter un ton plus irrévérencieux, traiter des sujets sensibles et proposer des modes d'interaction atypiques. À titre d'exemple, Grok peut aborder tout type de sujet dans un registre excentrique, y compris les questions politiques.


    Source : LMArena

    Et vous ?

    Pensez-vous que ces résultats sont crédibles ou pertinents ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Meta lance la famille de modèle Llama 4 : « Le début d'une nouvelle ère d'innovation en matière d'IA nativement multimodale », avec Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth

    Anthropic annonce Claude 3.7 Sonnet, un modèle qui donne un contrôle sur le temps que l'IA passe à "réfléchir" avant de générer une réponse, et Claude Code, un agent IA de codage en ligne de commande

    Google DeepMind a lancé Gemini 2.5 Pro, un modèle d'IA qui raisonne avant de répondre, affirmant qu'il est le meilleur sur plusieurs critères de référence en matière de raisonnement et de codage

    ChatGPT-4o d'OpenAI reprend la première place dans les classements des benchmarks populaires tout en améliorant sa créativité, mais la manière dont la créativité est mesurée ou améliorée fait l'objet de débat
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/12/2021, 05h40
  2. Calcul dans une textbox + problème de format
    Par Fdc_53 dans le forum Macros et VBA Excel
    Réponses: 9
    Dernier message: 04/10/2018, 09h42
  3. Recuperer un champ calculé dans une variable....
    Par vijeo dans le forum MS SQL Server
    Réponses: 4
    Dernier message: 21/12/2004, 14h57
  4. Calcul dans des champs de saisie
    Par leeloo076 dans le forum ASP
    Réponses: 4
    Dernier message: 07/04/2004, 10h09
  5. calcul dans une requête
    Par blaz dans le forum Langage SQL
    Réponses: 8
    Dernier message: 22/12/2003, 10h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo