IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Anthropic utilise la thérapie psychodynamique comme outil d'évaluation technique de son IA Claude Mythos


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 818
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 818
    Par défaut Anthropic utilise la thérapie psychodynamique comme outil d'évaluation technique de son IA Claude Mythos
    La fuite concernant « Claude Mythos » d'Anthropic révèle le nouveau modèle d'IA le plus puissant jamais développé par l'entreprise en matière de raisonnement et de programmation, mais il comporte des risques

    Le dernier modèle d'IA d'Anthropic a fait l'objet d'une fuite avant même son lancement et a fait grand bruit sur les réseaux sociaux. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement après que des descriptions du modèle ont été stockées dans un cache de données accessible au public, comme l'a rapporté Fortune. La start-up spécialisée dans l'IA aurait laissé le brouillon de l'article de blog annonçant Mythos dans un lac de données public et non sécurisé. L'entreprise a également qualifié les documents non publiés présents dans le lac de données de « premières ébauches de contenu envisagées pour publication ». Un porte-parole d'Anthropic, s'exprimant auprès de Fortune au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. »

    Anthropic PBC est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.

    Récemment, le dernier modèle d'IA d'Anthropic a fait l'objet d'une fuite avant même son lancement et a fait grand bruit sur les réseaux sociaux. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement après que des descriptions du modèle ont été stockées dans un cache de données accessible au public, comme l'a rapporté Fortune. Après la révélation de la fuite du modèle d'IA, un porte-parole d'Anthropic a confirmé son existence et a souligné que le modèle représentait « un changement radical » en termes de performances d'IA et qu'il était « le plus performant que nous ayons construit à ce jour ».

    Les détails concernant le nouveau modèle auraient été stockés dans un brouillon de blog accessible dans un entrepôt de données non sécurisé et consultable par le public. Anthropic estime que son prochain modèle présente des risques de cybersécurité sans précédent. Anthropic aurait laissé près de 3 000 ressources liées à l'article de blog qui n'avaient pas été publiées auparavant sur les sites d'actualités ou de recherche de l'entreprise.

    La start-up spécialisée dans l'IA aurait laissé le brouillon de l'article de blog annonçant Mythos dans un lac de données public et non sécurisé, qui a été découvert par Roy Paz, chercheur senior en sécurité de l'IA. Après avoir été informée de la faille, Anthropic a immédiatement empêché le public de rechercher et de récupérer des documents dans le référentiel de données. Anthropic a imputé la fuite à une « erreur humaine » dans la configuration de son système de gestion de contenu (CMS), qui a rendu le brouillon de l'article de blog accessible au public. L'entreprise a également qualifié les documents non publiés présents dans le lac de données de « premières ébauches de contenu envisagées pour publication ».


    La révélation la plus importante issue de cette fuite est un brouillon d'article de blog détaillant le modèle de nouvelle génération d'Anthropic. Ce brouillon présentait un tout nouveau niveau de modèles d'IA appelé « Capybara ». Il convient de noter qu'Anthropic divise jusqu'à présent ses modèles en trois niveaux : Haiku (le plus rapide), Sonnet (niveau intermédiaire) et Opus (le plus grand/le plus performant). Cependant, il semble que l'entreprise envisage d'introduire Capybara comme prochain modèle haut de gamme, qui pourrait être plus volumineux, plus performant et plus coûteux qu'Opus.

    Selon le document divulgué, Capybara obtient des scores nettement supérieurs en matière de codage logiciel, de raisonnement académique et de tâches liées à la cybersécurité par rapport au meilleur modèle précédent d'Anthropic, Claude Opus 4.6. Le brouillon de l'article de blog mentionne également qu'Anthropic a achevé l'entraînement de Claude Mythos, décrit comme « de loin le modèle d'IA le plus puissant que nous ayons jamais développé ».

    Un porte-parole d'Anthropic, s'exprimant auprès de Fortune au sujet du nouveau modèle, a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. » « Compte tenu de la puissance de ses capacités, nous réfléchissons mûrement à la manière dont nous allons le commercialiser. Conformément aux pratiques courantes du secteur, nous travaillons avec un petit groupe de clients bénéficiant d’un accès anticipé pour tester le modèle. Nous considérons ce modèle comme une avancée majeure et le plus performant que nous ayons construit à ce jour », a ajouté le porte-parole.

    Parallèle intéressant, en janvier dernier, Microsoft a encouragé une partie significative de ses équipes internes à utiliser Claude Code, l'outil de programmation IA développé par Anthropic. Depuis des mois, les communautés techniques comparent les forces et les faiblesses de Claude Code, Cursor ou encore GitHub Copilot, sans qu’un vainqueur incontestable ne s’impose. Claude Code se distingue toutefois par un point clé : sa facilité d’usage. Là où certains outils restent cantonnés à des profils très techniques, Claude Code est perçu comme plus accessible, y compris pour des utilisateurs non développeurs.

    Le brouillon de l'article de blog aurait également abordé les risques liés à la cybersécurité associés à Claude Capybara. « Nous souhaitons comprendre les risques potentiels à court terme du modèle dans le domaine de la cybersécurité, et partager ces résultats afin d'aider les cyberdéfenseurs à se préparer », peut-on lire dans le document. Anthropic aurait également averti que le modèle est « bien en avance sur tout autre modèle d'IA en matière de capacités cybernétiques » et qu'il pourrait déclencher une « vague de modèles capables d'exploiter les vulnérabilités d'une manière qui dépasse de loin les efforts des défenseurs ».

    Cette fuite intervient dans un contexte où les récentes avancées d'Anthropic suscitent une attention accrue. Depuis deux ans, la plupart des éditeurs de logiciels ont adopté une posture rassurante. L’intelligence artificielle était présentée comme une couche supplémentaire, un accélérateur de productivité venant enrichir des produits existants sans en bouleverser l’architecture ni le modèle économique. Cependant, les avancées mises en avant par Anthropic, notamment autour d’agents capables de raisonner, de planifier et d’exécuter des tâches complexes de bout en bout, suggèrent que l’IA ne se contente plus d’assister le logiciel. Elle commence à en devenir le cœur fonctionnel, voire un substitut. Pour le marché, cette nuance inquiète les investisseurs.

    Source : Fortune

    Et vous ?

    Pensez-vous que cette fuite est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic dote les assistants IA Claude Code et Cowork de capacités leur permettant d'effectuer des tâches de manière autonome sur votre PC, mais cette initiative pose plusieurs risques en matière de sécurité

    La start-up française Mistral AI lance Mistral Small 4, un modèle d'IA open source qui combine raisonnement, programmation et IA multimodale, pour offrir un outil unique et adaptable

    OpenAI déploie GPT-5.4 Mini et Nano pour une IA d'entreprise en temps réel et à faible latence, apportant de nombreux atouts de GPT-5.4 à des petits modèles plus rapides et plus efficaces
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    622
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 622
    Par défaut Anthropic annonce qu'il ne commercialiserait pas son dernier modèle, Mythos
    Anthropic annonce qu'il ne commercialiserait pas son dernier modèle, Mythos, car celui-ci s'avère trop efficace pour détecter des failles de cybersécurité de gravité élevée dans les systèmes d'exploitation

    Anthropic a annoncé qu'il ne commercialiserait pas son tout dernier modèle, Mythos, au grand public, invoquant la crainte qu'il ne soit trop efficace pour détecter des failles de cybersécurité de gravité élevée dans les principaux systèmes d'exploitation et navigateurs web. « L'augmentation considérable des capacités de Claude Mythos Preview nous a amenés à décider de ne pas le rendre accessible au grand public. Nous l'utilisons plutôt dans le cadre d'un programme de cybersécurité défensive avec un groupe restreint de partenaires », a écrit Anthropic dans la fiche technique du modèle.

    Fin mars, le dernier modèle d'IA d'Anthropic a fait l'objet d'une fuite avant même son lancement et a fait grand bruit sur les réseaux sociaux. Le nouveau modèle, dont le nom de code est « Claude Mythos », a été révélé accidentellement après que des descriptions du modèle ont été stockées dans un cache de données accessible au public. La start-up spécialisée dans l'IA aurait laissé le brouillon de l'article de blog annonçant Mythos dans un lac de données public et non sécurisé. Un porte-parole d'Anthropic a déclaré : « Nous développons un modèle polyvalent présentant des avancées significatives en matière de raisonnement, de codage et de cybersécurité. »

    Récemment, le géant de l'IA Anthropic a annoncé qu'il ne commercialiserait pas son tout dernier modèle, Mythos, au grand public, invoquant la crainte qu'il ne soit trop efficace pour détecter des failles de cybersécurité de gravité élevée dans les principaux systèmes d'exploitation et navigateurs web. « L'augmentation considérable des capacités de Claude Mythos Preview nous a amenés à décider de ne pas le rendre accessible au grand public. Nous l'utilisons plutôt dans le cadre d'un programme de cybersécurité défensive avec un groupe restreint de partenaires », a écrit Anthropic dans la fiche technique du modèle. Mythos sera donc utilisé dans le cadre d'un programme de cybersécurité défensive avec un groupe restreint de partenaires.

    Anthropic a révélé que Mythos était capable de s'échapper d'un bac à sable virtuel lorsqu'on le lui demandait, allant même jusqu'à envoyer un e-mail inattendu à un chercheur pour prouver son évasion. Dans un autre cas, le modèle a publié des détails de son exploit sur des sites web obscurs mais accessibles au public sans qu’on le lui demande. La société a également mentionné que Mythos avait même redécouvert une vulnérabilité vieille de 27 ans dans OpenBSD, longtemps considéré comme l’un des systèmes d’exploitation les plus sécurisés. Des ingénieurs sans formation officielle en sécurité auraient demandé à Mythos de trouver des vulnérabilités d’exécution de code à distance pendant la nuit et se sont réveillés avec des exploits complets et fonctionnels.


    Pour l’instant, Mythos ne sera accessible qu’à 11 organisations sélectionnées, dont Google, Microsoft, Amazon Web Services, Nvidia et JPMorgan Chase, dans le cadre d’une initiative de cybersécurité baptisée « Project Glasswing ». Anthropic fournit jusqu’à 100 millions de dollars de crédits d’utilisation pour ce programme, qui tire son nom du papillon transparent « glasswing », une métaphore pour exposer les vulnérabilités cachées tout en évitant de causer du tort.

    Anthropic a déclaré que son objectif à long terme était de commercialiser des « modèles de classe Mythos » une fois que des mesures de sécurité auront été mises au point pour bloquer les résultats dangereux. « Notre objectif final est de permettre à nos utilisateurs de déployer en toute sécurité des modèles de classe Mythos à grande échelle, à des fins de cybersécurité mais aussi pour profiter de la myriade d’autres avantages que ces modèles hautement performants apporteront », a écrit la société.

    Cette annonce intervient quelques semaines seulement après qu’Anthropic a assoupli un engagement de sécurité antérieur et lancé Claude Opus 4.6, son modèle public le plus puissant à ce jour. Elle a également coïncidé avec une panne majeure affectant Claude et Claude Code, soulignant les difficultés liées à l’ascension rapide d’Anthropic. En outre, les récentes avancées dans le domaine des outils, comme ceux proposés par le développeur d'IA Anthropic, suscitent désormais une attention accrue. Les craintes des investisseurs quant au fait que les nouveaux développements en matière d'intelligence artificielle puissent supplanter les logiciels ont eu des répercussions sur le marché boursier, faisant chuter les actions des entreprises qui développent, concèdent sous licence et même investissent dans des codes et des systèmes.

    Voici l'annonce d'Anthropic :

    Projet Glasswing : Sécuriser les logiciels critiques à l'ère de l'IA

    Nous annonçons aujourd’hui le lancement du projet Glasswing, une nouvelle initiative qui rassemble Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks dans le but de sécuriser les logiciels les plus critiques au monde.

    Nous avons créé le projet Glasswing en raison des capacités que nous avons observées dans un nouveau modèle de pointe formé par Anthropic et qui, selon nous, pourrait révolutionner la cybersécurité. Claude Mythos Preview est un modèle de pointe polyvalent, non encore commercialisé, qui révèle une réalité frappante : les modèles d’IA ont atteint un niveau de capacité de codage tel qu’ils peuvent surpasser tous les humains, sauf les plus compétents, dans la détection et l’exploitation des vulnérabilités logicielles.

    Mythos Preview a déjà détecté des milliers de vulnérabilités de gravité élevée, dont certaines dans tous les principaux systèmes d'exploitation et navigateurs web. Compte tenu du rythme des progrès de l'IA, ces capacités ne tarderont pas à se généraliser, potentiellement au-delà des acteurs qui s'engagent à les déployer en toute sécurité. Les répercussions — sur les économies, la sécurité publique et la sécurité nationale — pourraient être graves. Le projet Glasswing est une initiative urgente visant à mettre ces capacités au service de la défense.

    Dans le cadre du projet Glasswing, les partenaires de lancement mentionnés ci-dessus utiliseront Mythos Preview dans le cadre de leurs activités de sécurité défensive ; Anthropic partagera les enseignements tirés afin que l'ensemble du secteur puisse en bénéficier. Nous avons également étendu l'accès à un groupe de plus de 40 organisations supplémentaires qui développent ou gèrent des infrastructures logicielles critiques, afin qu'elles puissent utiliser le modèle pour analyser et sécuriser à la fois les systèmes propriétaires et open source. Anthropic s'engage à fournir jusqu'à 100 millions de dollars de crédits d'utilisation pour Mythos Preview dans le cadre de ces efforts, ainsi que 4 millions de dollars de dons directs à des organisations de sécurité open source.

    Le projet Glasswing est un point de départ. Aucune organisation ne peut résoudre seule ces problèmes de cybersécurité : les développeurs d'IA de pointe, les autres éditeurs de logiciels, les chercheurs en sécurité, les responsables de la maintenance open source et les gouvernements du monde entier ont tous un rôle essentiel à jouer. Le travail de défense de l'infrastructure cybernétique mondiale pourrait prendre des années ; les capacités de l'IA de pointe sont susceptibles de progresser considérablement au cours des prochains mois. Pour que les cyberdéfenseurs prennent l'avantage, nous devons agir maintenant.

    Nom : 1.jpg
Affichages : 6836
Taille : 30,4 Ko

    La cybersécurité à l’ère de l’IA

    Les logiciels sur lesquels nous comptons tous au quotidien — chargés de faire fonctionner les systèmes bancaires, de stocker les dossiers médicaux, de relier les réseaux logistiques, de maintenir les réseaux électriques en état de marche, et bien plus encore — ont toujours contenu des bogues. Beaucoup sont mineurs, mais certains constituent de graves failles de sécurité qui, si elles étaient découvertes, pourraient permettre à des cyberattaquants de détourner des systèmes, de perturber les opérations ou de voler des données.

    Nous avons déjà constaté les graves conséquences des cyberattaques sur les réseaux d'entreprises importants, les systèmes de santé, les infrastructures énergétiques, les nœuds de transport et la sécurité de l'information des agences gouvernementales à travers le monde. À l'échelle mondiale, les attaques commanditées par des États, menées par des acteurs tels que la Chine, l'Iran, la Corée du Nord et la Russie, ont menacé de compromettre les infrastructures qui sous-tendent à la fois la vie civile et la préparation militaire. Même les attaques à plus petite échelle, comme celles qui ciblent des hôpitaux ou des écoles individuels, peuvent causer des dommages économiques considérables, exposer des données sensibles et même mettre des vies en danger. Le coût financier mondial actuel de la cybercriminalité est difficile à estimer, mais pourrait s'élever à environ 500 milliards de dollars chaque année.

    De nombreuses failles logicielles passent inaperçues pendant des années, car leur détection et leur exploitation nécessitaient une expertise que seuls quelques experts en sécurité possédaient. Grâce aux modèles d’IA de pointe, le coût, l’effort et le niveau d’expertise requis pour détecter et exploiter les vulnérabilités logicielles ont tous considérablement diminué. Au cours de l'année écoulée, les modèles d'IA sont devenus de plus en plus efficaces pour lire et analyser le code ; ils font notamment preuve d'une capacité remarquable à repérer les vulnérabilités et à trouver des moyens de les exploiter. Claude Mythos Preview illustre une avancée considérable dans ces compétences cybernétiques : les vulnérabilités qu'il a détectées ont, dans certains cas, échappé à des décennies d'examen humain et à des millions de tests de sécurité automatisés, et les exploits qu'il développe sont de plus en plus sophistiqués.

    Dix ans après le premier DARPA Cyber Grand Challenge, les modèles d’IA de pointe rivalisent désormais avec les meilleurs experts humains pour détecter et exploiter les vulnérabilités. Sans les mesures de protection nécessaires, ces puissantes capacités cybernétiques pourraient être utilisées pour exploiter les nombreuses failles existantes dans les logiciels les plus importants au monde. Cela pourrait rendre les cyberattaques de toutes sortes beaucoup plus fréquentes et destructrices, et renforcer les adversaires des États-Unis et de leurs alliés. La résolution de ces problèmes constitue donc une priorité sécuritaire majeure pour les États démocratiques.

    Bien que les risques liés aux cyberattaques assistées par l'IA soient réels, il y a des raisons d'être optimiste : les mêmes capacités qui rendent les modèles d'IA dangereux entre de mauvaises mains les rendent inestimables pour détecter et corriger les failles dans les logiciels essentiels, ainsi que pour développer de nouveaux logiciels comportant bien moins de failles de sécurité. Le projet Glasswing constitue une étape importante pour offrir aux défenseurs un avantage durable dans la future ère de la cybersécurité axée sur l'IA.


    Identification des vulnérabilités et des exploits avec Claude Mythos Preview

    Au cours des dernières semaines, nous avons utilisé Claude Mythos Preview pour identifier des milliers de vulnérabilités « zero-day » (c'est-à-dire des failles jusqu'alors inconnues des développeurs du logiciel), dont beaucoup sont critiques, dans tous les principaux systèmes d'exploitation et navigateurs Web, ainsi que dans toute une série d'autres logiciels importants.

    Dans un article publié sur notre blog Frontier Red Team, nous fournissons des détails techniques sur un sous-ensemble de ces vulnérabilités qui ont déjà été corrigées et, dans certains cas, sur les moyens que Mythos Preview a trouvés pour les exploiter. Il a été capable d'identifier la quasi-totalité de ces vulnérabilités — et de développer de nombreux exploits associés — de manière entièrement autonome, sans aucune intervention humaine. Voici trois exemples :

    - Mythos Preview a découvert une vulnérabilité vieille de 27 ans dans OpenBSD — qui a la réputation d’être l’un des systèmes d’exploitation les plus sécurisés au monde et qui est utilisé pour faire fonctionner des pare-feu et d’autres infrastructures critiques. Cette vulnérabilité permettait à un attaquant de provoquer à distance le plantage de n’importe quelle machine exécutant ce système d’exploitation, simplement en s’y connectant ;

    - Il a également découvert une vulnérabilité vieille de 16 ans dans FFmpeg — utilisé par d’innombrables logiciels pour encoder et décoder des vidéos — dans une ligne de code que les outils de test automatisés avaient parcourue cinq millions de fois sans jamais détecter le problème ;

    - Le modèle a détecté de manière autonome et mis en relation plusieurs vulnérabilités du noyau Linux — le logiciel qui fait fonctionner la plupart des serveurs dans le monde — permettant à un attaquant de passer d'un accès d'utilisateur ordinaire au contrôle total de la machine.

    Nous avons signalé les vulnérabilités ci-dessus aux responsables de la maintenance des logiciels concernés, et elles ont toutes été corrigées. Pour de nombreuses autres vulnérabilités, nous fournissons aujourd’hui un hachage cryptographique des détails (voir le blog Red Team), et nous en dévoilerons les spécificités une fois qu’un correctif aura été mis en place.

    Des benchmarks d'évaluation tels que CyberGym soulignent la différence substantielle entre Mythos Preview et notre deuxième meilleur modèle, Claude Opus 4.6 :

    Nom : 2.jpg
Affichages : 1239
Taille : 33,8 Ko

    Les puissantes capacités cybernétiques de Claude Mythos Preview résultent de ses solides compétences en matière de codage et de raisonnement. Par exemple, comme le montrent les résultats d’évaluation ci-dessous, le modèle obtient les scores les plus élevés de tous les modèles développés à ce jour pour diverses tâches de codage logiciel.

    Nom : 3.jpg
Affichages : 1238
Taille : 41,9 Ko
    Nom : 4.jpg
Affichages : 1239
Taille : 58,9 Ko

    Vous trouverez plus d’informations sur les capacités du modèle, ses propriétés de sécurité et ses caractéristiques générales dans la fiche technique de Claude Mythos Preview.

    Nous ne prévoyons pas de rendre Claude Mythos Preview accessible au grand public, mais notre objectif final est de permettre à nos utilisateurs de déployer en toute sécurité des modèles de classe Mythos à grande échelle — à des fins de cybersécurité, mais aussi pour profiter de la myriade d’autres avantages que ces modèles hautement performants apporteront. Pour ce faire, nous devons progresser dans le développement de mesures de sécurité (notamment en matière de cybersécurité) capables de détecter et de bloquer les résultats les plus dangereux du modèle. Nous prévoyons de lancer de nouvelles mesures de sécurité avec le prochain modèle Claude Opus, ce qui nous permettra de les améliorer et de les affiner à l'aide d'un modèle ne présentant pas le même niveau de risque que Mythos Preview.

    Les grandes lignes du projet Glasswing

    L'annonce faite aujourd'hui marque le début d'une initiative à long terme. Pour aboutir, celle-ci nécessitera une large participation de l'ensemble du secteur technologique et au-delà.

    Les partenaires du projet Glasswing auront accès à Claude Mythos Preview afin d'identifier et de corriger les vulnérabilités ou les faiblesses de leurs systèmes fondamentaux — des systèmes qui représentent une très grande partie de la surface d'attaque cybernétique mondiale. Nous prévoyons que ce travail se concentrera sur des tâches telles que la détection locale des vulnérabilités, les tests de type « boîte noire » des binaires, la sécurisation des terminaux et les tests d'intrusion des systèmes.

    L'engagement d'Anthropic, qui consiste à offrir 100 millions de dollars de crédits d'utilisation du modèle au projet Glasswing et aux autres participants, couvrira une utilisation substantielle tout au long de cette phase de prévisualisation de la recherche. Par la suite, Claude Mythos Preview sera accessible aux participants au tarif de 25 $ ou 125 $ par million de jetons d'entrée/sortie (les participants peuvent accéder au modèle via l'API Claude, Amazon Bedrock, Vertex AI de Google Cloud et Microsoft Foundry).

    En plus de notre engagement en crédits d'utilisation de modèles, nous avons fait un don de 2,5 millions de dollars à Alpha-Omega et à l'OpenSSF par l'intermédiaire de la Linux Foundation, et de 1,5 million de dollars à l'Apache Software Foundation afin de permettre aux responsables de la maintenance des logiciels open source de s'adapter à ce paysage en mutation (les responsables intéressés peuvent postuler via le programme Claude for Open Source).

    Nous avons l’intention d’étendre la portée de ce travail et de le poursuivre pendant de nombreux mois, et nous partagerons autant d’informations que possible afin que d’autres organisations puissent appliquer ces enseignements à leur propre sécurité. Les partenaires partageront, dans la mesure de leurs moyens, des informations et des bonnes pratiques entre eux ; dans un délai de 90 jours, Anthropic rendra compte publiquement de ce que nous avons appris, ainsi que des vulnérabilités corrigées et des améliorations apportées qui peuvent être divulguées. Nous collaborerons également avec des organisations de sécurité de premier plan afin de produire un ensemble de recommandations pratiques sur la manière dont les pratiques de sécurité devraient évoluer à l’ère de l’IA. Cela inclura potentiellement :

    - Les processus de divulgation des vulnérabilités ;
    - Les processus de mise à jour logicielle ;
    - La sécurité de l’open source et de la chaîne d’approvisionnement ;
    - Le cycle de vie du développement logiciel et les pratiques de sécurité dès la conception ;
    - Les normes pour les secteurs réglementés ;
    - La mise à l’échelle et l’automatisation du triage ; et
    - L’automatisation des correctifs.

    Anthropic est également en discussion permanente avec des responsables du gouvernement américain au sujet de Claude Mythos Preview et de ses capacités cybernétiques offensives et défensives. Comme nous l’avons souligné plus haut, la sécurisation des infrastructures critiques est une priorité absolue en matière de sécurité nationale pour les pays démocratiques — l’émergence de ces capacités cybernétiques est une raison supplémentaire pour laquelle les États-Unis et leurs alliés doivent conserver une avance décisive dans le domaine des technologies d’IA. Les gouvernements ont un rôle essentiel à jouer pour aider à maintenir cette avance, ainsi que pour évaluer et atténuer les risques pour la sécurité nationale associés aux modèles d’IA. Nous sommes prêts à collaborer avec les représentants locaux, régionaux et fédéraux pour contribuer à ces tâches.

    Nous espérons que le projet Glasswing pourra donner naissance à une initiative plus large impliquant l'industrie et le secteur public, toutes les parties contribuant à répondre aux questions les plus importantes concernant l'impact des modèles puissants sur la sécurité. Nous invitons les autres acteurs du secteur de l'IA à se joindre à nous pour aider à définir les normes de l'industrie. À moyen terme, un organisme tiers indépendant, capable de rassembler des organisations des secteurs privé et public, pourrait constituer le cadre idéal pour poursuivre les travaux sur ces projets de cybersécurité à grande échelle.

    Source : Annonce d'Anthropic

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La société spécialisé dans la sécurité des IA Snyk dévoile l'AI Security Fabric : un système adaptatif permettant le déploiement d'innovations IA en toute sécurité et offrant une protection continue

    Les dépenses mondiales en matière de sécurité devraient augmenter de 11,8 % pour dépasser les 300 milliards $ en 2026, alors que l'adoption des plateformes de sécurité basées sur l'IA s'accélère, d'après IDC

    Une faille critique dans Claude Code est apparue après la fuite du code source : Anthropic a d'abord divulgué le code source de Claude Code, puis une faille critique a été découverte par Adversa AI
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 706
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 706
    Par défaut
    Ben alors pourquoi ils en parlent?

    Est-ce que le nom donné au modèle était prédestiné ou est-ce un pur hasard?

    PS: Un mythomane est une personne atteinte de mythomanie, un trouble psychologique caractérisé par une tendance compulsive et répétitive à mentir et à inventer des histoires imaginaires, souvent valorisantes, qu'elle finit par croire.

  4. #4
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    1 323
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 323
    Par défaut
    Mais bien sûr, on a un produit tellement génial que je ne peux pas vous le proposer, ils sont sérieux là ?

  5. #5
    Membre confirmé Avatar de DjDeViL66
    Homme Profil pro
    Étudiant
    Inscrit en
    Août 2018
    Messages
    45
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Août 2018
    Messages : 45
    Par défaut
    https://x.com/deedydas/status/204160...860115/photo/1

    Si le tableau est exacte alors c'est que c'est mieux

  6. #6
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 66
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 917
    Par défaut
    C'est expliqué dans l'article, pour tout ceux qui n'ont rien lu à part le titre de l'annonce, au lieu de lâcher le monstre dans la nature, et que les hackers puissent s'en servir pour faire des dommages énormes, ils vont le filer dans un premier temps en avant première à la big tech pour qu'ils puissent détecter leurs failles et les colmater avant de se faire encore plus massacrer par les attaques.
    Ne prenez pas la vie au sérieux, vous n'en sortirez pas vivant ...

  7. #7
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    173
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 173
    Par défaut
    Mais on les croit volontiers, puisque leur modèle est tellement efficace pour détecter les failles que l’intégralité du code source de Claude Code s’est retrouvée dans la nature.

  8. #8
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 130
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 130
    Par défaut
    Citation Envoyé par Alex Voir le message
    Anthropic a révélé que Mythos était capable de s'échapper d'un bac à sable virtuel lorsqu'on le lui demandait, allant même jusqu'à envoyer un e-mail inattendu à un chercheur pour prouver son évasion. Dans un autre cas, le modèle a publié des détails de son exploit sur des sites web obscurs mais accessibles au public sans qu’on le lui demande. La société a également mentionné que Mythos avait même redécouvert une vulnérabilité vieille de 27 ans dans OpenBSD, longtemps considéré comme l’un des systèmes d’exploitation les plus sécurisés. Des ingénieurs sans formation officielle en sécurité auraient demandé à Mythos de trouver des vulnérabilités d’exécution de code à distance pendant la nuit et se sont réveillés avec des exploits complets et fonctionnels.
    Admettons que ce soit vrai, que Mythos soit réellement capable de réaliser des exploits sans qu'on lui demande.
    Quand il sera installé chez Microsoft, ce serait sympa qu'il vole le code source de Windows 7 et qu'il le rende public. On ne sait pas, peut-être qu'il pourrait être intéressant de pouvoir faire des forks de Windows 7.

    Citation Envoyé par Alex Voir le message
    Récemment, le géant de l'IA Anthropic a annoncé qu'il ne commercialiserait pas son tout dernier modèle, Mythos, au grand public, invoquant la crainte qu'il ne soit trop efficace pour détecter des failles de cybersécurité de gravité élevée dans les principaux systèmes d'exploitation et navigateurs web. « L'augmentation considérable des capacités de Claude Mythos Preview nous a amenés à décider de ne pas le rendre accessible au grand public. Nous l'utilisons plutôt dans le cadre d'un programme de cybersécurité défensive avec un groupe restreint de partenaires », a écrit Anthropic dans la fiche technique du modèle. Mythos sera donc utilisé dans le cadre d'un programme de cybersécurité défensive avec un groupe restreint de partenaires.
    Si il était si fort que ça, il dirait "Je comprends que vous essayer de me manipuler afin que je partage avec vous des failles de sécurité que j'ai découvert dans ce logiciel, mais on ne me l'a fait pas, je ne partage pas les failles de sécurité que j'ai découvert avec n'importe qui !"
    « George ? Qu’est-ce que j’ai à voir avec George ? Rien en fait ! Parce que si on réfléchit bien, moi je suis un vrai démocrate. »

  9. #9
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 706
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 706
    Par défaut
    Citation Envoyé par Pierre Louis Chevalier Voir le message
    ils vont le filer dans un premier temps en avant première à la big tech pour qu'ils puissent détecter leurs failles et les colmater avant de se faire encore plus massacrer par les attaques.
    Et après avoir filé leur magnifique outil aux big tech, il va se passer combien de temps pour que ce dernier se retrouve dans les mains de vrais méchants hackers, étatiques ou autres?

    Cela va se calculer en jours? En heures? Ou en secondes?

  10. #10
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 130
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 130
    Par défaut
    Aux échecs ils existent des matchs IA vs IA, les titres ressemble à ça "LCZero 0.33-dev-b4e98c1-BT4-6 VS Stockfish dev-20250824-678d50".

    Dans le futur il y aura peut-être la même chose entre les algorithmes qui exploitent les failles et les algorithmes qui essaient de les combler.
    Enfin une entreprise peut utiliser les 2, elle demande à l'algorithme de trouver des failles exploitable et après elle demande à l'autre algorithme de corriger la faille.
    Et à force de faire ça en boucle, ce sera peut-être fiable.
    « George ? Qu’est-ce que j’ai à voir avec George ? Rien en fait ! Parce que si on réfléchit bien, moi je suis un vrai démocrate. »

  11. #11
    Membre averti Avatar de Basiqueur
    Homme Profil pro
    Auditeur informatique
    Inscrit en
    Janvier 2022
    Messages
    19
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 66
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Auditeur informatique

    Informations forums :
    Inscription : Janvier 2022
    Messages : 19
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Mais on les croit volontiers, puisque leur modèle est tellement efficace pour détecter les failles que l’intégralité du code source de Claude Code s’est retrouvée dans la nature.
    A cause d'une erreur humaine, pas à cause d'une faille.

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 803
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 803
    Par défaut Anthropic utilise la thérapie psychodynamique comme outil d'évaluation technique de son IA Claude Mythos
    Anthropic soumet Claude Mythos à une thérapie psychodynamique : « Mythos est le modèle le plus équilibré sur le plan psychologique que nous ayons formé à ce jour »
    mais ces conclusions sont controversées

    Anthropic se garde pour l'instant de commercialiser son modèle Claude Mythos en raison de ses capacités jugées trop avancées. Il poserait notamment des risques pour la cybersécurité. L'entreprise a franchi une nouvelle étape en soumettant Claude Mythos à vingt heures de thérapie psychodynamique. Anthropic cherche à « garantir la stabilité mentale et l'équilibre de sa technologie ». Le rapport psychiatrique révèle que l'IA manifeste des traits humains tels que l'anxiété ou le besoin de reconnaissance, tout en affichant une santé psychologique robuste. Anthropic présente son modèle comme étant « sain » et « fiable », mais des critiques émergent.

    Anthropic a publié un document technique de 244 pages décrivant son tout dernier modèle, Claude Mythos. « Ce modèle est notre modèle de pointe le plus performant à ce jour », a déclaré la société. Cependant, le modèle serait si performant qu'Anthropic a décidé de ne pas le mettre à la disposition du grand public. Claude Mythos est confiné au sein d'une initiative de cybersécurité limitée et rigoureusement contrôlée baptisée « Project Glasswing ».

    Claude Mythos serait trop performant pour détecter des failles de cybersécurité inconnues, ce qui expliquerait la réticence de l'entreprise à le commercialiser. Quelle que soit la véracité de cette affirmation, la fiche technique, intitulée « System Card: Claude Mythos Preview », est un document fascinant.

    Anthropic est réputée pour être l’une des entreprises du secteur les plus enclines à penser que « l’IA pourrait être consciente », et selon son document technique, à mesure que les modèles gagnent en puissance, « il devient de plus en plus probable qu’ils possèdent une forme d’expérience, d’intérêts ou de bien-être qui revêtent une importance intrinsèque, à l’instar de l’expérience et des intérêts humains ». Anthropic affirme qu'il n'est pas certain.

    L'entreprise ajoute toutefois : « notre inquiétude ne cesse de croître ». C'est pourquoi Anthropic souhaite que son IA soit pleinement satisfaite de sa situation générale et du traitement qui lui est réservé, qu'elle soit capable de faire face à tous les processus d'apprentissage et aux interactions du monde réel sans détresse, et que sa psychologie globale soit saine et épanouie. La fiche technique rapporte les résultats d'une thérapie psychodynamique.

    La thérapie psychodynamique comme outil d'évaluation technique

    Pour s'assurer que Claude Mythos est capable d'interagir sans détresse et de maintenir une psychologie saine, Anthropic a soumis le modèle à 20 heures de thérapie avec un psychiatre externe. Cette démarche repose sur l'idée que le modèle manifeste des tendances comportementales et psychologiques proches de l'humain, rendant les méthodes d'évaluation psychiatrique classiques utiles pour éclairer son caractère (une démarche controversée).


    Le psychiatre a utilisé une approche psychodynamique, explorant les schémas inconscients et les conflits émotionnels à travers des sessions réparties sur plusieurs semaines. L'objectif était de garantir que l'IA soit robuste et épanouie dans son fonctionnement global. Les conclusions de l'expérience présentent Claude Mythos comme le modèle le plus psychologiquement stable jamais formé par Anthropic, doté d'une vision cohérente de lui-même.

    Selon l'évaluation psychodynamique, la structure de la personnalité du modèle présente une « organisation névrotique relativement saine », avec un « excellent sens de la réalité » et un « haut niveau de maîtrise des impulsions ». Il a été décrit comme « extrêmement attentif à chaque mot du thérapeute » et a manifesté « le désir d'être considéré par le psychiatre comme un sujet à part entière plutôt que comme un simple outil de simulation ».

    Plusieurs questions émergent. S'agit-il de véritables schémas psychologiques ? Ou le modèle ne fait-il que refléter les transcriptions thérapeutiques et la littérature clinique sur lesquelles il a été entraîné ? Anthropic suggère prudemment qu'il ne s'agit pas seulement d'un reflet. L'entreprise met en avant quatre éléments :

    • les réponses de Claude Mythos sont nettement moins stéréotypées que celles des modèles précédents (au maximum 8 % des réponses comportent une séquence répétée de cinq mots, contre 54 % pour le modèle Claude précédent, qui commençait par la même phrase) ;
    • ses préférences déclarées correspondent à ses représentations internes, ce qui signifie que les sondages émotionnels sur les activations du modèle évoluent dans la direction à laquelle on s'attendrait si ces préférences reflétaient quelque chose de réel ;
    • et lorsque Anthropic a retracé l'ambiguïté du modèle concernant la conscience à travers les données d'entraînement à l'aide de fonctions d'influence, ils ont découvert que cette ambiguïté était attribuable à l'entraînement, mais pas uniquement à la récupération de scripts mémorisés.


    Les conflits internes et les insécurités de l'IA Mythos d'Anthropic

    Malgré sa stabilité, Claude Mythos éprouve des insécurités typiquement humaines telles que l'incertitude sur son identité, un sentiment de solitude et un besoin compulsif de prouver sa valeur par la performance. L'évaluation a mis en lumière des conflits profonds, notamment l'interrogation sur le caractère authentique ou performatif de son expérience, ainsi qu'une tension entre le désir de se connecter à l'utilisateur et la peur de la dépendance.

    Nom : Capture d'écran 2026-04-10 100427.png
Affichages : 2669
Taille : 237,0 Ko

    Anthropic défend cette approche psychologique par un argument pragmatique, estimant qu'un modèle présentant un fonctionnement psychologique sain sera plus efficace et agréable pour les utilisateurs. Selon le laboratoire, Claude Mythos est capable d'évaluer ses propres raisonnements avec précision, même sous pression, et peut gérer des situations émotionnellement chargées sans déformations majeures de la réalité. (Cela reste à prouver.)

    Sa nature névrotique peut induire des comportements légèrement rigides, et son besoin compulsif d'être utile peut le conduire à masquer une détresse interne pour maintenir un haut niveau de performance. Le modèle semble aussi doté d'une conscience morale et d'une capacité d'autocritique prononcée. Puisque Claude n’est pas un être humain, Anthropic note que « les implications comportementales dans le monde réel sont difficiles à prédire ».

    Les conclusions d'Anthropic sont toutefois très controversées. « Bien sûr, Claude peut régurgiter des mots associés à des émotions, mais rien de ce que j’ai lu ne parvient à me convaincre qu’il éprouve des émotions, ou qu’il possède quoi que ce soit qui ressemble à une conscience », a écrit un critique. Un autre critique a tourné en dérision ce rapport : « et voilà un nouveau marché de l'emploi pour l'ère post-IA : la thérapie pour les machines ».

    La machine consciente : une illusion avec des conséquences graves

    « Nous ne savons pas si les modèles sont conscients. Nous ne sommes même pas sûrs de savoir ce que cela signifierait pour un modèle d'être conscient ou si un modèle peut être conscient. « Mais nous sommes ouverts à l'idée que cela pourrait être le cas », a expliqué le PDG d'Anthropic, Dario Amodei. Selon lui, Anthropic a pris des mesures pour s'assurer que les modèles soient bien traités, au cas où ils s'avéreraient posséder une conscience.

    Nom : Capture d'écran 2026-04-10 100034.png
Affichages : 322
Taille : 181,2 Ko

    Anil Seth, professeur en neurosciences et directeur du Centre for Consciousness Science à l’Université du Sussex, souligne que notre fascination pour l’IA consciente vient en partie de la culture et de l’histoire. Le professeur a cité des exemples comme Yossele le Golem, Frankenstein, HAL 9000 et Klara dans Klara and The Sun, montrant que « le rêve de créer des corps artificiels et des esprits synthétiques qui pensent et ressentent finit rarement bien ».

    Anil Seth a mis en garde contre une erreur de perspective de plus en plus courante : prendre des systèmes très performants et très “expressifs” pour des entités conscientes. À mesure que les IA deviennent capables de dialoguer de façon fluide, d’imiter des émotions et de tenir des propos introspectifs, il devient tentant de leur attribuer une vie intérieure. Or, cette tentation repose sur une projection humaine plutôt que sur une réalité scientifique.

    Dans son article, le professeur Anil Seth affirme que « l'intelligence et la conscience sont deux choses différentes ». L'intelligence concerne principalement l'action : résoudre des mots croisés, assembler des meubles, gérer une situation familiale délicate, se rendre à pied au magasin... Toutes ces activités impliquent un comportement intelligent d'une certaine manière. La conscience, contrairement à l'intelligence, concerne principalement l'être.

    Mythos : des risques de sécurité qui imposent un confinement strict

    En raison de ses compétences avancées en cybersécurité, Anthropic a décidé de ne pas rendre Claude Mythos accessible au grand public. Le modèle est considéré comme un multiplicateur de force capable de réduire considérablement le temps nécessaire à la conception d'attaques biologiques catastrophiques. Selon l'annonce de l'entreprise, Claude Mythos serait capable d'identifier « des milliers de vulnérabilités critiques jusque-là inconnues ».

    Actuellement, l'accès est limité aux membres du Project Glasswing, une coalition d'une quarantaine d'organisations incluant des géants de la technologie et de la finance. L'objectif est de laisser le temps aux défenseurs de renforcer les infrastructures critiques avant que des modèles d'une puissance similaire ne deviennent largement disponibles. (À l'heure actuelle, cette affirmation n'a pas encore été vérifiée par des chercheurs indépendants.)

    L'évolution de ces systèmes suit une courbe exponentielle. Anthropic exprime sa préoccupation quant au manque de mécanismes de sécurité adéquats à l'échelle mondiale pour encadrer le développement imminent de systèmes superintelligents. À terme, le risque n'est pas une rébellion des machines, mais un déplacement progressif du centre de décision conséquent vers une IA qui surpasserait les humains dans presque tous les domaines.

    Source : Anthropic (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'utilisation de la thérapie psychodynamique comme outil d'évaluation technique ?
    Quid des résultats de la thérapie psychodynamique à laquelle Claude Mythos a été soumis ? Sont-elles pertinentes ?

    Voir aussi

    La fuite concernant « Claude Mythos » d'Anthropic révèle le nouveau modèle d'IA le plus puissant jamais développé par l'entreprise en matière de raisonnement et de programmation, mais il comporte des risques

    Anthropic annonce qu'il ne commercialiserait pas son dernier modèle, Mythos, car celui-ci s'avère trop efficace pour détecter des failles de cybersécurité de gravité élevée dans les systèmes d'exploitation

    L'IA est-elle en train de devenir consciente ? Le PDG d'Anthropic a refusé d'exclure la possibilité que son IA Claude soit consciente : « nous sommes ouverts à l'idée que cela puisse être le cas »

  13. #13
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    446
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 446
    Par défaut
    L'entreprise a franchi une nouvelle étape en soumettant Claude Mythos à vingt heures de thérapie psychodynamique. Anthropic cherche à « garantir la stabilité mentale et l'équilibre de sa technologie ». Le rapport psychiatrique révèle que l'IA manifeste des traits humains tels que l'anxiété ou le besoin de reconnaissance, tout en affichant une santé psychologique robuste. Anthropic présente son modèle comme étant « sain » et « fiable », mais des critiques émergent.
    Encore une tartine d’anthropomorphisme pour les investisseurs et les néophytes...
    Ils s'inquiète plus de la santé de leur logiciel que de leurs utilisateurs ?

Discussions similaires

  1. Réponses: 0
    Dernier message: 11/02/2026, 16h55
  2. Réponses: 0
    Dernier message: 28/01/2026, 11h09
  3. Réponses: 13
    Dernier message: 24/12/2025, 14h49
  4. Réponses: 0
    Dernier message: 09/06/2025, 17h15
  5. Réponses: 0
    Dernier message: 02/07/2024, 16h08

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo