IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 919
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 919
    Par défaut La mise à jour Claude Code masque ses actions fichier par fichier, provoquant la colère des développeurs
    « Suppression idiote d'informations précieuses » : la mise à jour Claude Code 2.1.20 d'Anthropic masque ses actions fichier par fichier, provoquant la colère des développeurs
    Une situation qui révèle le gouffre entre créateurs et utilisateurs avancés

    En réduisant la verbosité de Claude Code dans sa version 2.1.20, Anthropic a déclenché une fronde inattendue au sein de sa propre communauté de développeurs. Entre arguments de simplification de l'interface et exigences légitimes de transparence opérationnelle, cet incident révèle une tension profonde dans la conception des outils d'IA agentique : jusqu'où peut-on abstraire les actions d'une machine qui touche à votre code de production ?

    Tout a commencé par ce qui aurait pu passer pour une simple évolution d'interface. Anthropic a mis à jour Claude Code, son outil de codage par IA, en modifiant l'affichage des actions en cours pour masquer les noms des fichiers que l'outil lisait, écrivait ou éditait. Concrètement, la version 2.1.20 condensait la sortie de manière à ne plus afficher, par exemple, les noms des fichiers et le nombre de lignes lues, se contentant d'imprimer « Read 3 files (ctrl+o to expand) ». Les détails restent techniquement accessibles via un raccourci clavier, mais devoir invoquer manuellement ce raccourci à chaque opération rend le flux de travail fastidieux et inefficace dans la pratique.

    La réaction de la communauté a été immédiate et sévère. Sur GitHub, une issue dédiée a recueilli des dizaines de commentaires d'ingénieurs exprimant leur frustration, allant bien au-delà du simple mécontentement cosmétique.

    Nom : claude.png
Affichages : 46498
Taille : 44,6 Ko

    Pourquoi la visibilité des fichiers est-elle critique ?

    Pour qui n'a jamais utilisé un agent IA de codage de manière intensive, la réclamation peut sembler anecdotique. Il n'en est rien. Les développeurs ont de multiples raisons légitimes de vouloir voir les noms des fichiers : pour des raisons de sécurité, pour savoir immédiatement si Claude tire son contexte des mauvais fichiers, et pour effectuer un audit facile de l'activité passée en faisant défiler la conversation.

    Mais la dimension économique est tout aussi saillante. Si les développeurs repèrent que Claude s'engage dans une mauvaise direction, ils peuvent interrompre la session et éviter de gaspiller des tokens — et donc de l'argent. Dans un modèle de facturation à l'usage, chaque token consommé inutilement a un coût réel. « Je ne saurais vous dire combien de fois j'ai bénéficié de voir les fichiers que Claude lisait, pour comprendre comment l'interrompre et lui donner un peu plus de contexte... économisant des milliers de tokens », a déclaré un utilisateur sur Hacker News.

    La sécurité constitue un autre argument de poids. Dans un contexte professionnel où des bases de code sensibles, des fichiers de configuration contenant des secrets, ou des modules critiques sont manipulés, savoir en temps réel quel fichier est accédé n'est pas un luxe : c'est une exigence de base pour maintenir la maîtrise de son environnement. Un développeur peut ainsi détecter immédiatement si l'agent s'apprête à modifier un fichier qu'il n'aurait pas dû toucher, ou s'il lit un fichier de configuration contenant des identifiants.

    La réponse d'Anthropic : entre incompréhension et condescendance

    Sur GitHub, Boris Cherny, créateur et responsable de Claude Code chez Anthropic, a répondu que « ce n'est pas une fonctionnalité de vibe coding, c'est une façon de simplifier l'interface pour que vous puissiez vous concentrer sur ce qui compte, les diffs et les sorties bash/mcp. » Il a suggéré aux développeurs de « l'essayer quelques jours » et affirmé que les développeurs d'Anthropic eux-mêmes « appréciaient la réduction du bruit ».

    Cette justification a été mal reçue. Le terme « vibe coding » — qui désigne une approche décontractée du développement assisté par IA, où l'on laisse le modèle agir sans trop superviser — est précisément le type de pratique que les développeurs professionnels cherchent à éviter dans des contextes de production. En répondant de cette manière, Cherny semblait implicitement accuser les détracteurs de mal utiliser l'outil, ce qui n'a fait qu'amplifier les tensions.

    Cherny a suggéré que les développeurs qui voulaient plus de détails pouvaient activer le mode verbeux. Les réponses ont été tièdes, l'un d'entre eux écrivant : « Le mode verbeux n'est pas une alternative viable, il y a beaucoup trop de bruit. » L'autre extrémité du spectre — soit tout voir, soit presque rien — ne répond pas au besoin réel, qui est un niveau d'information intermédiaire et ciblé : voir les noms de fichiers sans être noyé dans les logs de débogage complets.

    Un utilisateur a formulé la critique de manière lapidaire : « Ce n'est pas une belle simplification, c'est une suppression idiote d'informations précieuses. »

    Une tentative de compromis qui ne convainc pas

    Face au tollé, Anthropic a tenté d'ajuster sa position. Cherny a annoncé avoir reconfiguré le mode verbeux existant de sorte qu'il « montre les chemins de fichiers pour les lectures/recherches, sans afficher la pensée complète, les sorties de hooks, ou les sorties de sous-agents ».

    Mais cette solution a elle-même créé un nouveau problème : en rendant le mode verbeux moins verbeux, Anthropic a rendu mécontents ceux qui avaient justement besoin des détails complets que ce mode fournissait précédemment. Le compromis proposé ressemble à un jeu à somme nulle : on satisfait partiellement les uns en frustrant les autres, sans véritablement résoudre le problème de fond, qui est l'absence d'une granularité fine et configurable dans la sortie.

    Cherny a également participé à une longue discussion sur Hacker News, expliquant que « Claude est devenu plus intelligent, il fonctionne pendant de plus longues périodes et est capable d'utiliser plus d'outils de manière agentique... La quantité de sorties que cela génère peut rapidement devenir écrasante dans un terminal, c'est quelque chose que nous entendons souvent de la part des utilisateurs. » L'argument est recevable : un agent qui multiplie les opérations peut effectivement générer un volume de logs indigeste. Mais la solution retenue — masquer par défaut — est peut-être la moins adaptée à une audience de professionnels.

    Nom : moins.png
Affichages : 14076
Taille : 17,3 Ko

    Un symptôme d'une tension plus profonde dans l'IA agentique

    Cette controverse n'est pas un simple bug de communication. Elle cristallise une question fondamentale sur la conception des outils d'IA agentique : à qui appartient le contrôle, et jusqu'où l'interface doit-elle abstraire les mécanismes internes ?

    Le débat est important car si des outils d'IA comme Claude Code cachent ce qu'ils font aux développeurs, les erreurs ont plus de chances de passer inaperçues. Un développeur l'a exprimé avec force : « Je suis un utilisateur de Claude qui a été récemment lésé par l'opacité croissante du système. En ce moment, Claude ne peut pas être digne de confiance pour faire les choses correctement sans une supervision constante et des corrections fréquentes, souvent pour une seule étape. Si je ne peux pas suivre le raisonnement, lire l'intention, ou détecter les disconnexions logiques tôt, la session brûle simplement mon quota de tokens. »

    Ce témoignage met en lumière un paradoxe inhérent à l'IA agentique : plus le modèle est capable — et donc autonome — plus le besoin de supervision augmente, et non l'inverse. Un agent IA puissant qui agit de manière opaque n'est pas un gain en productivité ; c'est un risque opérationnel déguisé en fonctionnalité.
    Ce n'est pas la première friction entre Anthropic et sa communauté de développeurs sur des questions de transparence et de contrôle.

    En janvier 2026, Anthropic avait bloqué l'utilisation de Claude Code par des clients tiers, provoquant un tollé parmi les développeurs qui avaient intégré des outils open source comme OpenCode dans leur flux de travail quotidien. En juillet 2025, des utilisateurs s'étaient heurtés à des limites d'utilisation drastiques et inattendues sans la moindre explication claire, un développeur résumant la situation : « Soyez juste transparents. Le manque de communication fait perdre confiance aux gens. »

    Un pattern se dessine : Anthropic, startup valorisée à plusieurs dizaines de milliards de dollars et dont Claude Code a atteint un milliard de dollars de revenus annualisés en seulement six mois à compter de janvier 2026, semble parfois prendre des décisions unilatérales qui affectent directement ses utilisateurs les plus intensifs sans concertation préalable suffisante.

    Le paradoxe d'un outil que ses créateurs utilisent eux-mêmes sans le surveiller

    L'ironie de la situation n'échappe à personne. Fin janvier 2026, Boris Cherny lui-même avait déclenché un mini-séisme sur X en affirmant ne plus avoir écrit une seule ligne de code depuis plus de deux mois, tout déléguant à son propre outil. D'ailleurs, Anthropic s'est vantée d'avoir développé Claude Cowork grâce au vibe coding en « une semaine et demie », alors que l'assistant IA a été lancé avec une vulnérabilité connue en matière d'exfiltration de données. Mike Krieger, directeur produit d'Anthropic, avait renchéri lors du Cisco AI Summit en affirmant que « presque 100% » du code d'Anthropic serait désormais généré par intelligence artificielle.

    Cette posture de confiance totale dans l'outil — voire de délégation aveugle — contraste avec les besoins exprimés par la communauté. Si les créateurs de Claude Code font confiance à leur modèle au point de ne plus superviser ses actions, comment peuvent-ils comprendre intuitivement pourquoi leurs utilisateurs, eux, ont besoin de voir chaque fichier accédé ?

    L'expérience des développeurs d'Anthropic, qui travaillent probablement sur une base de code qu'ils connaissent intimement, n'est pas représentative de celle d'un développeur consultant qui intervient sur des projets variés, d'une équipe qui intègre Claude Code dans un pipeline CI/CD complexe, ou d'un ingénieur sécurité qui doit auditer les accès fichiers pour des raisons de conformité.


    Vers une interface configurable et des niveaux de verbosité granulaires

    La solution à ce débat semble pourtant évidente : offrir des niveaux de verbosité configurables et persistants, avec des profils adaptés aux différents usages. Un mode « débutant » ou « vibe coding » pour ceux qui veulent se concentrer sur le résultat, un mode « professionnel » affichant les noms de fichiers sans les logs de débogage, et un mode « verbeux complet » pour les cas d'audit et de débogage intensif.

    Claude Code évolue fréquemment, il est donc probable que cet aspect sera encore peaufiné, mais il n'y a pas encore d'indication qu'il reviendra au comportement précédent. En attendant, la communauté reste mobilisée, et la discussion se poursuit sur de nombreux forums spécialisés.

    Ce qui est certain, c'est que cet incident illustre une tension universelle dans le développement de produits technologiques avancés : le fossé entre la vision du créateur, qui cherche à simplifier l'expérience pour le plus grand nombre, et les besoins des utilisateurs avancés, qui veulent précisément la complexité que l'outil tente de masquer. Dans le domaine de l'IA agentique, où les enjeux de sécurité, de coût et de fiabilité sont directement liés à la visibilité des actions du modèle, ce fossé peut s'avérer particulièrement coûteux — dans tous les sens du terme.

    Source : GitHub (1, 2, 3, 4)

    Et vous ?

    Pensez-vous qu'un outil d'IA agentique destiné aux développeurs professionnels doit afficher par défaut toutes ses actions, même au prix d'un terminal surchargé d'informations ?

    La décision d'Anthropic de masquer les noms de fichiers est-elle révélatrice d'un biais « grand public » dans la conception de Claude Code, au détriment des développeurs expérimentés qui constituent pourtant son cœur de cible ?

    À quel moment la supervision humaine d'un agent IA devient-elle illusoire si l'interface elle-même est conçue pour en réduire la visibilité ? Où se situe la limite entre « réduction du bruit » et opacité problématique ?

    Faut-il envisager un standard ouvert de journalisation des actions pour les agents IA de codage, indépendant des décisions unilatérales des éditeurs ?

    Voir aussi :

    Spotify affirme que ses meilleurs développeurs n'ont pas écrit une seule ligne de code depuis décembre, grâce à l'IA, qui alimente alors une polémique : doit-elle être considérée comme outil ou collègue ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre très actif
    Avatar de la.lune
    Homme Profil pro
    Directeur Technique
    Inscrit en
    Décembre 2010
    Messages
    550
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Comores

    Informations professionnelles :
    Activité : Directeur Technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2010
    Messages : 550
    Par défaut
    Dans un passage les developpeurs d'Anthropic disent deleguer toute la programmation à Claude mais les développeurs d'Athropic n'ont pas un soucis d'épuisement de tokens, c'est comme l'ingénieur qui a créé le compilateur C en Rust avec Claude , j'ai cru que c'était un indépendant et pourtant c'est un ingénieur d'Athropic , 20 000 dollars et plus d'un milliard de tokens c'est pas peu mais c'est pas un souci pour celui qui utilise Claude sans limite

  3. #3
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    552
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 552
    Par défaut Anthropic lance Claude Code Security pour l'analyse autonome des vulnérabilités
    Anthropic annonce Claude Code Security, un outil autonome de détection des vulnérabilités intégré à Claude Code, qui analyse les bases de code à la recherche de problèmes de sécurité et propose des corrections

    Anthropic vient d'annoncer Claude Code Security, un outil autonome de détection des vulnérabilités intégré à Claude Code. Il analyse les bases de code à la recherche de problèmes de sécurité et propose des corrections ciblées à examiner par des humains. Ce lancement fait suite à des rapports indiquant que des pirates, y compris des acteurs soutenus par des États, ont utilisé les modèles Anthropic pour identifier des vulnérabilités exploitables dans des bases de code nouvelles et bien entretenues.

    Anthropic est une société américaine spécialisée dans l'intelligence artificielle (IA) qui développe la famille de grands modèles de langage (LLM) Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des recherches et développe des IA afin d'« étudier leurs propriétés de sécurité à la pointe de la technologie » et utilise ces recherches pour déployer des modèles sûrs pour le public.

    Claude Code est une interface en ligne de commande qui s'exécute sur l'ordinateur d'un utilisateur. Elle se connecte à une instance Claude hébergée sur les serveurs d'Anthropic via une API et permet à l'instance Claude d'exécuter des commandes, de lire des fichiers, d'écrire des fichiers et d'échanger des messages avec l'utilisateur. Claude peut exécuter des commandes en avant-plan ou en arrière-plan. Le comportement de Claude Code est généralement configuré via des documents Markdown sur l'ordinateur de l'utilisateur, tels que CLAUDE.md, AGENTS.md, SKILL.md, etc. En janvier 2026, certains utilisateurs le considèrent comme le meilleur assistant de codage IA.

    Avec la popularité de son outil, Anthropic a introduit ce qui devait être une simple évolution d'interface en février 2026. Anthropic a mis à jour Claude Code en modifiant l'affichage des actions en cours pour masquer les noms des fichiers que l'outil lisait, écrivait ou éditait. Concrètement, la version 2.1.20 condensait la sortie de manière à ne plus afficher, par exemple, les noms des fichiers et le nombre de lignes lues, se contentant d'imprimer « Read 3 files (ctrl+o to expand) ». Les détails restent techniquement accessibles via un raccourci clavier, mais devoir invoquer manuellement ce raccourci à chaque opération rend le flux de travail fastidieux et inefficace dans la pratique.

    La réaction de la communauté a été immédiate et sévère. Sur GitHub, une issue dédiée a recueilli des dizaines de commentaires d'ingénieurs exprimant leur frustration, allant bien au-delà du simple mécontentement cosmétique. Les développeurs ont de multiples raisons légitimes de vouloir voir les noms des fichiers : pour des raisons de sécurité, pour savoir immédiatement si Claude tire son contexte des mauvais fichiers, et pour effectuer un audit facile de l'activité passée en faisant défiler la conversation. Cet incident révèle une tension profonde dans la conception des outils d'IA agentique : jusqu'où peut-on abstraire les actions d'une machine qui touche à votre code de production ?

    Pour renforcer la sécurité dans Claude Code, Anthropic vient d'annoncer Claude Code Security, un outil autonome de détection des vulnérabilités intégré à Claude Code. Il analyse les bases de code à la recherche de problèmes de sécurité et propose des corrections ciblées à examiner par des humains. Ce lancement fait suite à des rapports indiquant que des pirates, y compris des acteurs soutenus par des États, ont utilisé les modèles Anthropic pour identifier des vulnérabilités exploitables dans des bases de code nouvelles et bien entretenues.


    Anthropic affirme que cet outil se distingue des produits de sécurité conventionnels en raisonnant à travers le code à la manière d'un chercheur en sécurité, plutôt qu'en s'appuyant sur une comparaison de modèles basée sur des règles par rapport à des signatures de vulnérabilités connues. Les résultats comprennent des évaluations de gravité pour la hiérarchisation et des scores de confiance, avec des vérifications automatisées destinées à réduire les faux positifs avant que les problèmes n'apparaissent dans un tableau de bord destiné aux équipes de sécurité.

    Claude Code Security ne modifie pas directement le code et est actuellement proposé en avant-première limitée à des fins de recherche pour les clients Enterprise et Team, avec un accès accéléré gratuit pour les responsables de maintenance open source éligibles. Cette annonce semble également avoir pesé sur les actions liées à la cybersécurité, des médias tels que SiliconANGLE rapportant que CrowdStrike a clôturé en baisse de près de 8 % et Cloudflare de plus de 8 % lors de la même séance de bourse.

    Comment fonctionne Claude Code Security

    L'analyse statique, une forme largement déployée de test de sécurité automatisé, est généralement basée sur des règles, ce qui signifie qu'elle compare le code à des modèles de vulnérabilité connus. Cela permet de détecter les problèmes courants, tels que les mots de passe exposés ou le chiffrement obsolète, mais passe souvent à côté de vulnérabilités plus complexes, telles que les failles dans la logique métier ou les contrôles d'accès défaillants.

    Plutôt que de rechercher des modèles connus, Claude Code Security lit et analyse votre code comme le ferait un chercheur en sécurité humain : il comprend comment les composants interagissent, suit le cheminement des données dans votre application et détecte les vulnérabilités complexes que les outils basés sur des règles ne détectent pas.

    Chaque résultat passe par un processus de vérification en plusieurs étapes avant d'être transmis à un analyste. Claude réexamine chaque résultat, en essayant de prouver ou de réfuter ses propres conclusions et de filtrer les faux positifs. Les résultats sont également classés par niveau de gravité afin que les équipes puissent se concentrer en priorité sur les corrections les plus importantes.

    Les résultats validés apparaissent dans le tableau de bord de Claude Code Security, où les équipes peuvent les examiner, inspecter les correctifs suggérés et approuver les corrections. Comme ces problèmes comportent souvent des nuances difficiles à évaluer à partir du seul code source, Claude attribue également un niveau de confiance à chaque résultat. Rien n'est appliqué sans l'accord d'un humain : Claude Code Security identifie les problèmes et suggère des solutions, mais ce sont toujours les développeurs qui prennent la décision finale.


    Voici comment l'équipe d'Anthropic a utilisé Claude pour la cybersécurité :

    Claude Code Security s'appuie sur plus d'un an de recherche sur les capacités de Claude en matière de cybersécurité. Notre équipe Frontier Red Team a systématiquement testé ces capacités : elle a inscrit Claude à des concours Capture-the-Flag, s'est associée au Pacific Northwest National Laboratory pour expérimenter l'utilisation de l'IA dans la défense des infrastructures critiques et a perfectionné la capacité de Claude à trouver et à corriger les vulnérabilités réelles dans le code.

    Les capacités de cyberdéfense de Claude se sont ainsi considérablement améliorées. À l'aide de Claude Opus 4.6, sorti au début du mois, notre équipe a découvert plus de 500 vulnérabilités dans des bases de code open source en production, des bogues qui étaient passés inaperçus pendant des décennies, malgré des années d'examen par des experts. Nous travaillons actuellement avec les responsables de la maintenance pour trier et divulguer ces informations de manière responsable, et nous prévoyons d'étendre notre travail de sécurité à la communauté open source.

    Nous utilisons également Claude pour examiner notre propre code, et nous avons constaté qu'il était extrêmement efficace pour sécuriser les systèmes d'Anthropic. Nous avons créé Claude Code Security afin de rendre ces mêmes capacités défensives plus largement accessibles. Et comme il est basé sur Claude Code, les équipes peuvent examiner les résultats et itérer les corrections dans les outils qu'elles utilisent déjà.
    Cette annonce dans un contexte où les capacités agentiques de l'IA représentent une menace supplémentaire à la cybersécurité. Dario Amodei, cofondateur et PDG d'Anthropic, a récemment déclaré que le monde s'approchait d'un moment de transformation où les systèmes d'IA dépasseraient la plupart des humains dans la plupart des tâches cognitives, créant des opportunités sans précédent pour lutter contre la maladie et la pauvreté, mais entraînant également de sérieux risques d'abus et de perturbations économiques.

    « Il ne faudra que quelques années pour que les modèles d'IA surpassent les capacités cognitives de la plupart des humains dans la plupart des domaines. Nous nous rapprochons de plus en plus de ce que j'ai appelé un pays de génies dans un centre de données, un ensemble d'agents IA qui sont plus compétents que la plupart des humains dans la plupart des domaines et qui peuvent se coordonner à une vitesse surhumaine », a-t-il déclaré.

    Si ces déclarations de Dario Amodei s'accomplissent, les pirates utiliseront l'IA pour trouver plus rapidement que jamais les failles exploitables. Dans le même cas, les défenseurs qui agissent rapidement peuvent trouver ces mêmes failles, les corriger et réduire le risque d'attaque. Anthropic affirme que Claude Code Security est un pas vers un objectif de bases de code plus sécurisées et d'un niveau de sécurité plus élevé dans l'ensemble du secteur.


    Source : Anthropic

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Anthropic interdit officiellement l'utilisation de l'authentification par abonnement à Claude Code à des fins tierces, y compris OpenClaw. Les développeurs doivent désormais utiliser des clés API à la place

    Les craintes liées à la sécurité d'OpenClaw poussent Meta et d'autres entreprises d'IA à en restreindre l'utilisation. L'outil est réputé pour ses capacités exceptionnelles et son extrême imprévisibilité

    Le code généré par l'IA contient plus de bogues et d'erreurs que celui produit par l'homme : les demandes d'extraction effectuées à l'aide d'outils d'IA comportaient en moyenne 10,83 problèmes contre 6,45
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 17/06/2025, 18h37
  2. Mise à jour de code-source
    Par Menerlach dans le forum Général Conception Web
    Réponses: 3
    Dernier message: 30/03/2015, 18h50
  3. [AC-2002] requête de mise à jour avec code VBA
    Par sylvie dans le forum VBA Access
    Réponses: 5
    Dernier message: 26/05/2010, 14h56
  4. Mise à jour d'une table avec un fichier csv
    Par blackangel dans le forum PostgreSQL
    Réponses: 4
    Dernier message: 26/05/2005, 15h46

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo