IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Anthropic a accusé DeepSeek et d'autres laboratoires IA chinois d'utiliser Claude pour entraîner leurs modèles


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    545
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 545
    Par défaut Anthropic a accusé DeepSeek et d'autres laboratoires IA chinois d'utiliser Claude pour entraîner leurs modèles
    Anthropic accuse DeepSeek et d'autres laboratoires chinois d'IA d'utiliser Claude pour extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles, à l'aide de 24 000 comptes frauduleux

    Anthropic accuse trois laboratoires chinois d'IA, DeepSeek, MiniMax et Moonshot AI (Kimi), d'utiliser abusivement son modèle Claude pour améliorer leurs propres produits d'IA. Anthropic affirme que l'objectif était la distillation, qui consiste à faire apprendre à un modèle plus petit à partir des résultats d'un modèle plus performant, et soutient que le fait de procéder ainsi sans autorisation peut permettre à des concurrents d'accéder à des capacités avancées sans investissement comparable. Alors qu'Anthropic a soulevé ces préoccupations liées à la menace chinoise, le PDG de xAI, Elon Musk, a critiqué l'entreprise d'IA et l'a accusée d'avoir volé des données et d'utiliser gratuitement des données publiques, ce qui, selon Musk, a valu à Anthropic une amende de 1,5 milliard de dollars.

    Anthropic est une entreprise américaine spécialisée dans l'IA, fondée en 2021 par un groupe d'anciens chercheurs et cadres d'OpenAI. L'entreprise est surtout connue pour avoir développé une famille de modèles d'IA baptisée Claude. L'entreprise mène des recherches et développe des IA afin d'« étudier leurs propriétés de sécurité à la pointe de la technologie » et utilise ces recherches pour déployer des modèles sûrs destinés au grand public.

    Claude est une série de grands modèles de langage développés par Anthropic. C'est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande. Claude Sonnet désigne la version moyenne du modèle. Claude Opus est un modèle plus coûteux et plus performant, et Haiku un modèle plus léger et plus rapide.

    Récemment, Anthropic accuse trois laboratoires chinois d'IA, DeepSeek, MiniMax et Moonshot AI (Kimi), d'utiliser abusivement son modèle Claude pour améliorer leurs propres produits d'IA. La société affirme que cette activité a impliqué environ 24 000 comptes frauduleux et plus de 16 millions d'interactions avec Claude, qu'elle qualifie de campagnes à l'échelle industrielle. Anthropic affirme que l'objectif était la distillation, qui consiste à faire apprendre à un modèle plus petit à partir des résultats d'un modèle plus performant, et soutient que le fait de procéder ainsi sans autorisation peut permettre à des concurrents d'accéder à des capacités avancées sans investissement comparable.

    Anthropic met en garde contre le fait que les modèles produits par distillation illicite peuvent ne pas intégrer les mesures de sécurité essentielles, ce qui augmente le risque d'utilisation abusive. Selon elle, ces systèmes pourraient être utilisés à des fins militaires, de renseignement ou de surveillance de masse, y compris dans le cadre d'opérations cyberoffensives ou de campagnes de désinformation. Anthropic affirme que DeepSeek a effectué au moins 150 000 échanges ciblés axés sur les capacités de raisonnement de Claude et sur la génération d'alternatives sans censure à des sujets sensibles, tandis que MiniMax et Moonshot ont enregistré plus de 13 millions et 3,4 millions d'échanges.

    Anthropic exhorte les entreprises d'IA, les fournisseurs de services cloud et les décideurs politiques à se pencher sur la question de la distillation et suggère de restreindre davantage l'accès aux puces avancées afin de réduire l'ampleur de ces efforts. Ces affirmations interviennent dans le cadre d'un débat en cours aux États-Unis sur les politiques d'exportation de puces vers la Chine et de préoccupations plus générales concernant la sécurité nationale et les risques économiques liés à « l'extraction non autorisée de modèles ».

    Alors qu'Anthropic a soulevé ces préoccupations liées à la menace chinoise, le PDG de xAI, Elon Musk, a critiqué l'entreprise d'IA et l'a accusée d'avoir volé des données et d'utiliser gratuitement des données publiques, ce qui, selon Musk, a valu à Anthropic une amende de 1,5 milliard de dollars. Musk a répondu aux publications d'Anthropic sur les attaques par distillation en citant des notes de la communauté sur X, et a également mentionné que l'entreprise d'IA avait dû payer plusieurs milliards de dollars pour régler un litige concernant le vol présumé de données afin d'entraîner ses modèles d'IA. Ces accusations croisées sont devenues assez courantes ces derniers temps, et le domaine de l'IA en est truffé, car le manque de données d'entraînement pourrait les inciter à s'engager sur une voie sombre.

    La note de la communauté sous la publication d'Anthropic suggère que l'entreprise aurait piraté plus de 7 millions de livres provenant de bibliothèques fantômes pour entraîner Claude, et aurait également téléchargé plus de 20 000 chansons via torrent. Musk utilise essentiellement la phrase classique « Regardez qui parle » pour critiquer Anthropic et suggère que l'entreprise devrait d'abord se remettre en question avant d'accuser quiconque de voler ses données.

    En effet, en août 2024, des auteurs ont poursuivi la startup d'IA Anthropic, l'accusant d'avoir entraîné son chatbot sur des livres piratés. La plainte affirme qu'Anthropic a profité d'œuvres protégées par des droits d'auteur sans consentement ni compensation. "Il n'est pas exagéré de dire que le modèle d'Anthropic cherche à tirer profit de l'exploitation de l'expression humaine et de l'ingéniosité qui se cachent derrière chacune de ces œuvres", affirme la plainte.

    De son côté, Anthropic soutient que la formation à l'IA relève de l'usage loyal, mais le procès conteste cette interprétation. En août 2025, Anthropic a réglé le recours collectif. La doctrine de l'« usage loyal », qui autorise la reproduction limitée de matériel protégé par le droit d'auteur sans consentement dans certaines circonstances, est un élément clé de la défense des sociétés d'IA contre les plaintes pour violation du droit d'auteur. « Cet accord historique profitera à tous les membres du groupe », a déclaré Justin Nelson, associé chez Susman Godfrey et avocat des auteurs. « Nous sommes impatients d'annoncer les détails de l'accord dans les semaines à venir. »

    Voici le rapport d'Anthropic :

    Détection et prévention des attaques par distillation

    Nous avons identifié des campagnes à l'échelle industrielle menées par trois laboratoires d'IA (DeepSeek, Moonshot et MiniMax) visant à extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles. Ces laboratoires ont généré plus de 16 millions d'échanges avec Claude via environ 24 000 comptes frauduleux, en violation de nos conditions d'utilisation et des restrictions d'accès régionales.

    Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d'un modèle plus puissant. La distillation est une méthode d'entraînement largement utilisée et légitime. Par exemple, les laboratoires d'IA de pointe distillent régulièrement leurs propres modèles afin de créer des versions plus petites et moins coûteuses pour leurs clients. Mais la distillation peut également être utilisée à des fins illicites : les concurrents peuvent l'utiliser pour acquérir les puissantes capacités d'autres laboratoires en une fraction du temps et à un coût bien inférieur à ceux nécessaires pour les développer de manière indépendante.

    Ces campagnes gagnent en intensité et en sophistication. La marge de manœuvre pour agir est réduite et la menace dépasse le cadre d'une seule entreprise ou région. Pour y faire face, une action rapide et coordonnée entre les acteurs du secteur, les décideurs politiques et la communauté mondiale de l'IA sera nécessaire.

    Pourquoi la distillation est-elle importante ?

    Les modèles distillés illicitement ne disposent pas des garanties nécessaires, ce qui crée des risques importants pour la sécurité nationale. Anthropic et d'autres entreprises américaines construisent des systèmes qui empêchent les acteurs étatiques et non étatiques d'utiliser l'IA pour, par exemple, développer des armes biologiques ou mener des activités cybermalveillantes. Les modèles construits par distillation illicite sont peu susceptibles de conserver ces garanties, ce qui signifie que des capacités dangereuses peuvent proliférer sans aucune protection.

    Les laboratoires étrangers qui distillent des modèles américains peuvent ensuite intégrer ces capacités non protégées dans des systèmes militaires, de renseignement et de surveillance, permettant ainsi aux gouvernements autoritaires de déployer une IA de pointe pour des opérations cyberoffensives, des campagnes de désinformation et une surveillance de masse. Si les modèles distillés sont open source, ce risque est multiplié, car ces capacités se propagent librement au-delà du contrôle d'un seul gouvernement.

    Attaques par distillation et contrôles à l'exportation

    Anthropic a toujours soutenu les contrôles à l'exportation afin de maintenir l'avance des États-Unis dans le domaine de l'IA. Les attaques par distillation sapent ces contrôles en permettant aux laboratoires étrangers, y compris ceux soumis au contrôle du Parti communiste chinois, de réduire l'avantage concurrentiel que les contrôles à l'exportation visent à préserver par d'autres moyens.

    Sans visibilité sur ces attaques, les progrès apparemment rapides réalisés par ces laboratoires sont interprétés à tort comme la preuve que les contrôles à l'exportation sont inefficaces et peuvent être contournés par l'innovation. En réalité, ces progrès dépendent en grande partie des capacités extraites des modèles américains, et l'exécution de cette extraction à grande échelle nécessite l'accès à des puces avancées. Les attaques par distillation renforcent donc la justification des contrôles à l'exportation : l'accès restreint aux puces limite à la fois la formation directe des modèles et l'ampleur de la distillation illicite.

    Ce que nous avons découvert

    Les trois campagnes de distillation détaillées ci-dessous ont suivi un scénario similaire, utilisant des comptes frauduleux et des services proxy pour accéder à Claude à grande échelle tout en échappant à la détection. Le volume, la structure et l'orientation des invites étaient distincts des modèles d'utilisation normaux, reflétant une extraction délibérée des capacités plutôt qu'une utilisation légitime.

    Nous avons attribué chaque campagne à un laboratoire spécifique avec un haut degré de confiance grâce à la corrélation des adresses IP, aux métadonnées des requêtes, aux indicateurs d'infrastructure et, dans certains cas, à la corroboration de partenaires industriels qui ont observé les mêmes acteurs et comportements sur leurs plateformes. Chaque campagne ciblait les capacités les plus différenciées de Claude : raisonnement agentique, utilisation d'outils et codage.

    DeepSeek

    Ampleur : plus de 150 000 échanges

    L'opération visait :

    - Les capacités de raisonnement dans diverses tâches
    - Les tâches de notation basées sur des rubriques qui ont permis à Claude de fonctionner comme un modèle de récompense pour l'apprentissage par renforcement
    - La création d'alternatives à l'abri de la censure pour les requêtes sensibles sur le plan politique

    DeepSeek a généré un trafic synchronisé entre les comptes. Des modèles identiques, des méthodes de paiement partagées et un timing coordonné suggéraient un « équilibrage de charge » visant à augmenter le débit, améliorer la fiabilité et éviter la détection.

    Une technique notable consistait à demander à Claude d'imaginer et d'articuler le raisonnement interne derrière une réponse complète, puis de l'écrire étape par étape, générant ainsi efficacement des données d'entraînement à grande échelle sur la chaîne de pensée. Nous avons également observé des tâches dans lesquelles Claude était utilisé pour générer des alternatives à l'abri de la censure pour des requêtes politiquement sensibles, telles que des questions sur les dissidents, les chefs de parti ou l'autoritarisme, probablement dans le but de former les propres modèles de DeepSeek à détourner les conversations des sujets censurés. En examinant les métadonnées des requêtes, nous avons pu remonter jusqu'à des chercheurs spécifiques du laboratoire.

    Moonshot AI

    Ampleur : plus de 3,4 millions d'échanges

    L'opération visait :

    - Le raisonnement agentique et l'utilisation d'outils
    - Le codage et l'analyse de données
    - Le développement d'agents utilisant des ordinateurs
    - La vision par ordinateur

    Moonshot (modèles Kimi) a utilisé des centaines de comptes frauduleux couvrant plusieurs voies d'accès. La diversité des types de comptes a rendu la campagne plus difficile à détecter en tant qu'opération coordonnée. Nous avons attribué la campagne grâce aux métadonnées des requêtes, qui correspondaient aux profils publics des cadres supérieurs de Moonshot. Dans une phase ultérieure, Moonshot a utilisé une approche plus ciblée, en tentant d'extraire et de reconstruire les traces du raisonnement de Claude.

    MiniMax

    Ampleur : plus de 13 millions d'échanges

    L'opération visait :

    - Le codage agentique
    - L'utilisation et l'orchestration d'outils

    Nous avons attribué la campagne à MiniMax grâce aux métadonnées des requêtes et aux indicateurs d'infrastructure, et avons confirmé les délais par rapport à leur feuille de route publique. Nous avons détecté cette campagne alors qu'elle était encore active, avant que MiniMax ne publie le modèle qu'il était en train de former, ce qui nous a donné une visibilité sans précédent sur le cycle de vie des attaques par distillation, de la génération des données au lancement du modèle. Lorsque nous avons publié un nouveau modèle pendant la campagne active de MiniMax, ils ont pivoté en moins de 24 heures, redirigeant près de la moitié de leur trafic pour capturer les capacités de notre dernier système.

    Comment les distillateurs accèdent aux modèles de pointe

    Pour des raisons de sécurité nationale, Anthropic n'offre actuellement pas d'accès commercial à Claude en Chine, ni aux filiales de ses entreprises situées en dehors du pays.

    Pour contourner cette restriction, les laboratoires utilisent des services de proxy commerciaux qui revendent l'accès à Claude et à d'autres modèles d'IA de pointe à grande échelle. Ces services fonctionnent selon ce que nous appelons des architectures « hydra cluster » : des réseaux tentaculaires de comptes frauduleux qui distribuent le trafic sur notre API ainsi que sur des plateformes cloud tierces. L'étendue de ces réseaux signifie qu'il n'y a pas de point de défaillance unique. Lorsqu'un compte est banni, un nouveau prend sa place. Dans un cas, un seul réseau proxy gérait simultanément plus de 20 000 comptes frauduleux, mélangeant le trafic de distillation avec des demandes de clients sans rapport afin de rendre la détection plus difficile.

    Une fois l'accès sécurisé, les laboratoires génèrent de grands volumes d'invites soigneusement conçues pour extraire des capacités spécifiques du modèle. L'objectif est soit de collecter des réponses de haute qualité pour l'entraînement direct du modèle, soit de générer des dizaines de milliers de tâches uniques nécessaires à l'exécution de l'apprentissage par renforcement. Ce qui distingue une attaque par distillation d'une utilisation normale, c'est le modèle. Une invite comme celle qui suit (qui se rapproche d'invites similaires que nous avons vues utilisées de manière répétitive et à grande échelle) peut sembler anodine en soi :

    Vous êtes un analyste de données expert qui allie rigueur statistique et connaissance approfondie du domaine. Votre objectif est de fournir des informations basées sur les données — et non des résumés ou des visualisations — fondées sur des données réelles et étayées par un raisonnement complet et transparent.
    Mais lorsque des variations de cette invite apparaissent des dizaines de milliers de fois sur des centaines de comptes coordonnés, tous ciblant la même capacité restreinte, le schéma devient clair. Un volume massif concentré dans quelques domaines, des structures hautement répétitives et un contenu qui correspond directement à ce qui est le plus précieux pour l'entraînement d'un modèle d'IA sont les caractéristiques d'une attaque par distillation.

    Comment nous réagissons

    Nous continuons à investir massivement dans des défenses qui rendent ces attaques par distillation plus difficiles à exécuter et plus faciles à identifier. Il s'agit notamment de :

    - Détection Nous avons mis au point plusieurs classificateurs et systèmes d'empreintes comportementales conçus pour identifier les schémas d'attaques par distillation dans le trafic API. Cela inclut la détection de la chaîne de pensée utilisée pour construire les données d'entraînement du raisonnement. Nous avons également mis au point des outils de détection permettant d'identifier les activités coordonnées sur un grand nombre de comptes.

    - Partage de renseignements. Nous partageons des indicateurs techniques avec d'autres laboratoires d'IA, des fournisseurs de cloud et les autorités compétentes. Cela permet d'avoir une vision plus globale du paysage de la distillation.

    - Contrôles d'accès. Nous avons renforcé la vérification des comptes éducatifs, des programmes de recherche en sécurité et des start-ups, qui sont les voies les plus couramment exploitées pour créer des comptes frauduleux.

    - Contre-mesures. Nous développons des mesures de protection au niveau des produits, des API et des modèles, conçues pour réduire l'efficacité des résultats des modèles pour la distillation illicite, sans dégrader l'expérience des clients légitimes.

    Mais aucune entreprise ne peut résoudre ce problème seule. Comme nous l'avons mentionné ci-dessus, les attaques par distillation à cette échelle nécessitent une réponse coordonnée de l'ensemble du secteur de l'IA, des fournisseurs de cloud et des décideurs politiques. Nous publions ces informations afin de mettre les preuves à la disposition de toutes les personnes concernées par le résultat.

    Source : Rapport d'Anthropic

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic suscite la controverse pour avoir attribué à la Chine une prétendue campagne de cyberattaque impliquant son IA Claude sans éléments probants : « le rapport d'Anthropic a un sérieux parfum d'intox »

    Google affirme qu'une attaque à utilisé plus de 100 000 instructions génératives pour tenter de cloner le chatbot IA Gemini. Une extraction de modèle pour obtenir la logique qui fait fonctionner le modèle

    OpenAI a trouvé des preuves que la start-up chinoise DeepSeek a utilisé les modèles propriétaires d'OpenAI pour former son propre modèle open-source en utilisant la technique de "distillation"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    597
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 597
    Par défaut Non mais...
    Quand ça les touches eux (les gens produisant des IA), ils se plaignent, alors que leur IA n'existe que parce qu'elle a été entraînée sur des données dont ils se foutait bien du "droit d'auteur". Moi je peux, toi tu peux pas...

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 645
    Par défaut
    Les voleurs de données qui se plaignent d'être victimes des voleurs de données!


    Qui a écrit "les cons çà ose tout, c'est même à çà qu'on les reconnait"???

Discussions similaires

  1. Réponses: 4
    Dernier message: 30/04/2021, 14h34
  2. [Plugin] Utiliser Subclipse pour la création d'un autre plugin
    Par bulldo dans le forum Eclipse Platform
    Réponses: 0
    Dernier message: 21/07/2010, 17h48
  3. Réponses: 7
    Dernier message: 17/03/2010, 12h01
  4. Ormis Pentaho, quels autres applications de dashboards existe-t-il pour Oracle ?
    Par EK1_ dans le forum Approche théorique du décisionnel
    Réponses: 3
    Dernier message: 24/04/2007, 23h51

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo