La fuite concernant « Claude Mythos » d'Anthropic révèle le nouveau modèle d'IA le plus puissant jamais développé par l'entreprise en matière de raisonnement et de programmation, mais il comporte des risques

Le dernier modèle d'IA d'Anthropic a fait l'objet d'une fuite avant même son lancement et a fait grand bruit sur les réseaux sociaux. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement après que des descriptions du modèle ont été stockées dans un cache de données accessible au public, comme l'a rapporté Fortune. La start-up spécialisée dans l'IA aurait laissé le brouillon de l'article de blog annonçant Mythos dans un lac de données public et non sécurisé. L'entreprise a également qualifié les documents non publiés présents dans le lac de données de « premières ébauches de contenu envisagées pour publication ». Un porte-parole d'Anthropic, s'exprimant auprès de Fortune au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. »

Anthropic PBC est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.

Récemment, le dernier modèle d'IA d'Anthropic a fait l'objet d'une fuite avant même son lancement et a fait grand bruit sur les réseaux sociaux. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement après que des descriptions du modèle ont été stockées dans un cache de données accessible au public, comme l'a rapporté Fortune. Après la révélation de la fuite du modèle d'IA, un porte-parole d'Anthropic a confirmé son existence et a souligné que le modèle représentait « un changement radical » en termes de performances d'IA et qu'il était « le plus performant que nous ayons construit à ce jour ».

Les détails concernant le nouveau modèle auraient été stockés dans un brouillon de blog accessible dans un entrepôt de données non sécurisé et consultable par le public. Anthropic estime que son prochain modèle présente des risques de cybersécurité sans précédent. Anthropic aurait laissé près de 3 000 ressources liées à l'article de blog qui n'avaient pas été publiées auparavant sur les sites d'actualités ou de recherche de l'entreprise.

La start-up spécialisée dans l'IA aurait laissé le brouillon de l'article de blog annonçant Mythos dans un lac de données public et non sécurisé, qui a été découvert par Roy Paz, chercheur senior en sécurité de l'IA. Après avoir été informée de la faille, Anthropic a immédiatement empêché le public de rechercher et de récupérer des documents dans le référentiel de données. Anthropic a imputé la fuite à une « erreur humaine » dans la configuration de son système de gestion de contenu (CMS), qui a rendu le brouillon de l'article de blog accessible au public. L'entreprise a également qualifié les documents non publiés présents dans le lac de données de « premières ébauches de contenu envisagées pour publication ».


La révélation la plus importante issue de cette fuite est un brouillon d'article de blog détaillant le modèle de nouvelle génération d'Anthropic. Ce brouillon présentait un tout nouveau niveau de modèles d'IA appelé « Capybara ». Il convient de noter qu'Anthropic divise jusqu'à présent ses modèles en trois niveaux : Haiku (le plus rapide), Sonnet (niveau intermédiaire) et Opus (le plus grand/le plus performant). Cependant, il semble que l'entreprise envisage d'introduire Capybara comme prochain modèle haut de gamme, qui pourrait être plus volumineux, plus performant et plus coûteux qu'Opus.

Selon le document divulgué, Capybara obtient des scores nettement supérieurs en matière de codage logiciel, de raisonnement académique et de tâches liées à la cybersécurité par rapport au meilleur modèle précédent d'Anthropic, Claude Opus 4.6. Le brouillon de l'article de blog mentionne également qu'Anthropic a achevé l'entraînement de Claude Mythos, décrit comme « de loin le modèle d'IA le plus puissant que nous ayons jamais développé ».

Un porte-parole d'Anthropic, s'exprimant auprès de Fortune au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. » « Compte tenu de la puissance de ses capacités, nous réfléchissons mûrement à la manière dont nous allons le commercialiser. Conformément aux pratiques courantes du secteur, nous travaillons avec un petit groupe de clients bénéficiant d’un accès anticipé pour tester le modèle. Nous considérons ce modèle comme une avancée majeure et le plus performant que nous ayons construit à ce jour », a ajouté le porte-parole.

Parallèle intéressant, en janvier dernier, Microsoft a encouragé une partie significative de ses équipes internes à utiliser Claude Code, l'outil de programmation IA développé par Anthropic. Depuis des mois, les communautés techniques comparent les forces et les faiblesses de Claude Code, Cursor ou encore GitHub Copilot, sans qu’un vainqueur incontestable ne s’impose. Claude Code se distingue toutefois par un point clé : sa facilité d’usage. Là où certains outils restent cantonnés à des profils très techniques, Claude Code est perçu comme plus accessible, y compris pour des utilisateurs non développeurs.

Le brouillon de l'article de blog aurait également abordé les risques liés à la cybersécurité associés à Claude Capybara. « Nous souhaitons comprendre les risques potentiels à court terme du modèle dans le domaine de la cybersécurité, et partager ces résultats afin d'aider les cyberdéfenseurs à se préparer », peut-on lire dans le document. Anthropic aurait également averti que le modèle est « bien en avance sur tout autre modèle d'IA en matière de capacités cybernétiques » et qu'il pourrait déclencher une « vague de modèles capables d'exploiter les vulnérabilités d'une manière qui dépasse de loin les efforts des défenseurs ».

Cette fuite intervient dans un contexte où les récentes avancées d'Anthropic suscitent une attention accrue. Depuis deux ans, la plupart des éditeurs de logiciels ont adopté une posture rassurante. L’intelligence artificielle était présentée comme une couche supplémentaire, un accélérateur de productivité venant enrichir des produits existants sans en bouleverser l’architecture ni le modèle économique. Cependant, les avancées mises en avant par Anthropic, notamment autour d’agents capables de raisonner, de planifier et d’exécuter des tâches complexes de bout en bout, suggèrent que l’IA ne se contente plus d’assister le logiciel. Elle commence à en devenir le cœur fonctionnel, voire un substitut. Pour le marché, cette nuance inquiète les investisseurs.

Source : Fortune

Et vous ?

Pensez-vous que cette fuite est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic dote les assistants IA Claude Code et Cowork de capacités leur permettant d'effectuer des tâches de manière autonome sur votre PC, mais cette initiative pose plusieurs risques en matière de sécurité

La start-up française Mistral AI lance Mistral Small 4, un modèle d'IA open source qui combine raisonnement, programmation et IA multimodale, pour offrir un outil unique et adaptable

OpenAI déploie GPT-5.4 Mini et Nano pour une IA d'entreprise en temps réel et à faible latence, apportant de nombreux atouts de GPT-5.4 à des petits modèles plus rapides et plus efficaces