IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Alibaba Cloud lance la série de modèles d'IA Qwen3.5-Omni, dotée de fonctionnalités multilingues et omnimodale


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    622
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 622
    Par défaut Alibaba Cloud lance la série de modèles d'IA Qwen3.5-Omni, dotée de fonctionnalités multilingues et omnimodale
    Alibaba lance Qwen3.5, un modèle natif de vision-langage à poids ouvert de 397 milliards de paramètres, affichant de améliorations en matière de raisonnement, de codage et de capacités d'agent

    Alibaba a officiellement lancé Qwen3.5, rendant le modèle ouvert Qwen3.5-397B-A17B disponible pour la recherche et le développement. En tant que modèle natif de vision-langage, Qwen3.5-397B-A17B affiche d'excellents résultats dans les benchmarks, notamment en matière de raisonnement, de codage, de capacités d'agent et de compréhension multimodale. Sur cette base, le modèle introduit une architecture hybride innovante qui combine l'attention linéaire via des réseaux Gated Delta avec un système de mélange d'experts clairsemé.

    Alibaba Cloud est une société de cloud computing, filiale du groupe Alibaba. Alibaba Cloud fournit des services de cloud computing aux entreprises en ligne et à l'écosystème de commerce électronique d'Alibaba. Alibaba Cloud propose des services cloud disponibles sur la base d'un paiement à l'utilisation, notamment des services de calcul élastique, de stockage de données, de bases de données relationnelles, de traitement de mégadonnées, de protection contre les attaques DDoS et de réseaux de diffusion de contenu (CDN). Alibaba Cloud a également développé la famille de grands modèles de langage Qwen.

    Alibaba a officiellement lancé Qwen3.5, rendant le modèle ouvert Qwen3.5-397B-A17B disponible pour la recherche et le développement. En tant que modèle natif de vision-langage, Qwen3.5-397B-A17B affiche d'excellents résultats dans les benchmarks, notamment en matière de raisonnement, de codage, de capacités d'agent et de compréhension multimodale. Sur cette base, le modèle introduit une architecture hybride innovante qui combine l'attention linéaire via des réseaux Gated Delta avec un système de mélange d'experts clairsemé. Bien que le modèle contienne au total 397 milliards de paramètres, seuls 17 milliards sont actifs lors de chaque inférence, ce qui permet d'optimiser à la fois l'efficacité et les coûts de calcul sans réduire les capacités du modèle.

    Parallèlement à ces avancées techniques, Qwen3.5 étend la prise en charge des langues et des dialectes de 119 à 201, offrant ainsi une meilleure accessibilité à une base d'utilisateurs mondiale plus large. Les gains de performance par rapport à la série Qwen3 proviennent d'une augmentation considérable de la mise à l'échelle des tâches d'apprentissage par renforcement et des environnements pris en charge. Qwen3.5 fait encore progresser le pré-entraînement, en mettant l'accent sur la puissance, l'efficacité et la polyvalence.

    Ces améliorations sont facilitées par une infrastructure hétérogène qui sépare les approches de parallélisme pour les composants de vision et de langage, ce qui permet d'éviter les inefficacités observées dans les systèmes unifiés. Les utilisateurs peuvent désormais accéder à Qwen3.5 via Qwen Chat avec les modes auto, réflexion et rapide, et essayer le modèle phare Qwen3.5-Plus via Alibaba Cloud ModelStudio.


    Performances de Qwen 3.5

    Voici les principales performances de Qwen 3.5 :

    Nom : 1.jpg
Affichages : 4289
Taille : 77,1 Ko

    Par rapport à la série Qwen 3, les gains de performance post-entraînement de Qwen 3.5 proviennent principalement de la mise à l'échelle extensive de pratiquement toutes les tâches et tous les environnements RL conçus. L'approche de l'équipe de Qwen a mis l'accent sur l'augmentation de la difficulté et de la généralisation des environnements RL, plutôt que sur l'optimisation de métriques spécifiques ou de catégories étroites de requêtes.

    Voici les améliorations des capacités générales des agents résultant de cette mise à l'échelle de l'environnement RL. Les performances globales sont calculées en faisant la moyenne du classement de chaque modèle sur les benchmarks suivants : BFCL-V4, VITA-Bench, DeepPlanning, Tool-Decathlon et MCP-Mark. Les résultats supplémentaires de la mise à l'échelle sur un éventail plus large de tâches seront détaillés dans notre prochain rapport technique.

    Nom : 2.jpg
Affichages : 745
Taille : 63,3 Ko

    Pré-entraînement

    Qwen3.5 fait progresser le pré-entraînement dans trois dimensions : puissance, efficacité et polyvalence.

    - Puissance : entraîné sur une échelle de tokens visuels et textuels nettement plus grande que Qwen3, avec des données enrichies en chinois/anglais, multilingues, STEM et de raisonnement soumises à un filtrage plus strict. Cela permet une parité intergénérationnelle : Qwen3.5-397B-A17B correspond au Qwen3-Max-Base à plus de 1 T de paramètres.

    - Efficacité : basé sur l'architecture Qwen3-Next : MoE à plus grande parcimonie, attention hybride Gated DeltaNet + Gated Attention, optimisations de la stabilité et prédiction multi-tokens. Avec une longueur de contexte de 32k/256k, le débit de décodage de Qwen3.5-397B-A17B est 8,6 fois/19,0 fois supérieur à celui de Qwen3-Max, et les performances sont comparables. Le débit de décodage de Qwen3.5-397B-A17B est 3,5 fois/7,2 fois supérieur à celui de Qwen3-235B-A22B.

    - Polyvalence : multimodal nativement grâce à la fusion précoce du texte et de la vision et à l'expansion des données visuelles/STEM/vidéo, surpassant Qwen3-VL à des échelles similaires. La couverture multilingue passe de 119 à 201 langues/dialectes ; un vocabulaire de 250 000 mots (contre 150 000) augmente l'efficacité de l'encodage/décodage de 10 à 60 % dans la plupart des langues.

    Nom : 3.jpg
Affichages : 733
Taille : 32,0 Ko

    Infrastructure

    Qwen3.5 permet un entraînement multimodal natif efficace grâce à une infrastructure hétérogène qui découple les stratégies de parallélisme entre les composants visuels et linguistiques, évitant ainsi les inefficacités des approches uniformes. En exploitant les activations clairsemées pour le chevauchement des calculs entre les composants, il atteint un débit d'entraînement proche de 100 % par rapport aux références en texte pur sur des données mixtes texte-image-vidéo.

    En complément, un pipeline FP8 natif applique une faible précision aux activations, au routage MoE et aux opérations GEMM, avec une surveillance en temps réel préservant le BF16 dans les couches sensibles, ce qui permet une réduction d'environ 50 % de la mémoire d'activation et une accélération de plus de 10 %, tout en s'adaptant de manière stable à des dizaines de billions de tokens.

    Afin de libérer en permanence la puissance de l'apprentissage par renforcement, nous avons construit un cadre RL asynchrone et évolutif qui prend en charge les modèles Qwen3.5 de toutes tailles, couvrant les paramètres texte, multimodaux et multi-tours. En adoptant une architecture d'entraînement-inférence entièrement désagrégée, le cadre permet une utilisation nettement améliorée du matériel, un équilibrage dynamique de la charge et une récupération fine des pannes. Il optimise en outre le débit et améliore la cohérence entre l'entraînement et l'inférence grâce à des techniques telles que l'entraînement de bout en bout FP8, la relecture du routeur de déploiement, le décodage spéculatif et le verrouillage de déploiement multi-tours.

    Grâce à une conception conjointe étroite du système et de l'algorithme, le cadre limite efficacement la stagnation des gradients et atténue l'asymétrie des données, préservant ainsi la stabilité et les performances de l'entraînement. De plus, il prend en charge nativement les flux de travail agentiques, facilitant les interactions multi-tours transparentes sans interruptions induites par le cadre. Cette conception découplée permet au système de s'adapter à des échafaudages et des environnements d'agents à l'échelle du million, ce qui améliore considérablement la généralisation du modèle. Collectivement, ces optimisations permettent un gain de vitesse de bout en bout de 3 à 5 fois supérieur, démontrant une stabilité, une efficacité et une évolutivité supérieures.

    Nom : 4.jpg
Affichages : 735
Taille : 73,7 Ko

    Cette annonce intervient dans un contexte où les modèles chinois open source gagnent de plus en plus de popularité. Les modèles d'intelligence artificielle (IA) open source chinois ont considérablement étendu leur présence à l'échelle mondiale, leur taux d'adoption passant de 13 % à près de 30 % de l'utilisation totale en 2025, principalement grâce à Qwen et DeepSeek. Cette tendance a été documentée dans le rapport "State of AI" d'OpenRouter, qui a analysé plus de 100 000 milliards de jetons sur plus de 300 modèles, révélant ainsi le passage d'une domination propriétaire à une concurrence pluraliste et open source à l'échelle mondiale.

    Source : Annonce de Qwen 3.5

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Alibaba dévoile la dernière version de son modèle d'IA Qwen3-Max-Thinking pour concurrencer les meilleurs modèles d'IA tels que GPT 5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro

    Anthropic lance son dernier modèle d'IA de « vibe working », Claude Opus 4.6, qui est présenté comme plus performant en matière de codage et capable de produire un travail professionnel de meilleure qualité

    Plus fort que ChatGPT-5 d'OpenAI et Claude 4.5 d'Anthropic ? La Chine lance Kimi K2.5 et Kimi Code en open source et mise sur « Parallel Agent Swarm » pour orchestrer un essaim de 100 IA spécialisées
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    622
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 622
    Par défaut Alibaba Cloud lance la série de modèles d'IA Qwen3.5-Omni, dotée de fonctionnalités multilingues et omnimodale
    Alibaba Cloud lance la série de modèles d'IA Qwen3.5-Omni, dotée de fonctionnalités multilingues et omnimodales, notamment la compréhension du texte, des images, de l'audio et des contenus audiovisuels

    Alibaba Cloud a présenté Qwen3.5-Omni, le dernier-né de sa gamme de grands modèles de langage, élargissant ainsi la série avec les modèles Qwen3.5-Omni-Plus et Qwen3.5-Omni-Plus-Realtime. Qwen3.5-Omni se positionne comme le principal modèle de langage omnimodal de l'entreprise, offrant une prise en charge intégrée de la compréhension du texte, des images, de l'audio et des contenus audiovisuels. L'architecture utilise le modèle Hybrid-Attention Mixture-of-Experts, le même que celui de Qwen3.5, pour ses composants Thinker et Talker. S'appuyant sur cette base, les modèles Qwen3.5-Omni permettent une entrée de contexte long de 256 000 jetons, traitent plus de 10 heures d'audio et gèrent plus de 400 secondes de vidéo 720p à une image par seconde.

    Alibaba Cloud est une société de cloud computing, filiale du groupe Alibaba. Alibaba Cloud fournit des services de cloud computing aux entreprises en ligne et à l'écosystème de commerce électronique d'Alibaba. Alibaba Cloud propose des services cloud disponibles sur la base d'un paiement à l'utilisation, notamment des services de calcul élastique, de stockage de données, de bases de données relationnelles, de traitement de mégadonnées, de protection contre les attaques DDoS et de réseaux de diffusion de contenu (CDN).

    Alibaba Cloud a également développé la famille de grands modèles de langage Qwen. De nombreuses variantes de Qwen sont distribuées sous forme de modèles à poids ouverts sous licence Apache 2.0, tandis que d'autres sont hébergées sur Alibaba Cloud. En juillet 2024, le South China Morning Post a rapporté que la plateforme de benchmarking SuperCLUE classait Qwen2-72B-Instruct derrière le GPT-4o d'OpenAI et le Claude 3.5 Sonnet d'Anthropic, mais devant les autres modèles chinois.

    En février 2026, Alibaba a lancé Qwen3.5, rendant le modèle ouvert Qwen3.5-397B-A17B disponible pour la recherche et le développement. En tant que modèle natif de vision-langage, Qwen3.5-397B-A17B affiche d'excellents résultats dans les benchmarks, notamment en matière de raisonnement, de codage, de capacités d'agent et de compréhension multimodale. Sur cette base, le modèle introduit une architecture hybride innovante qui combine l'attention linéaire via des réseaux Gated Delta avec un système de mélange d'experts clairsemé. Bien que le modèle contienne au total 397 milliards de paramètres, seuls 17 milliards sont actifs lors de chaque inférence, ce qui permet d'optimiser à la fois l'efficacité et les coûts de calcul sans réduire les capacités du modèle.

    Récemment, Alibaba Cloud a présenté Qwen3.5-Omni, le dernier-né de sa gamme de grands modèles de langage, élargissant ainsi la série avec les modèles Qwen3.5-Omni-Plus et Qwen3.5-Omni-Plus-Realtime. Qwen3.5-Omni se positionne comme le principal modèle de langage omnimodal de l'entreprise, offrant une prise en charge intégrée de la compréhension du texte, des images, de l'audio et des contenus audiovisuels. L'architecture utilise le modèle Hybrid-Attention Mixture-of-Experts, le même que celui de Qwen3.5, pour ses composants Thinker et Talker. La gamme comprend des modèles d'instruction aux capacités variées : Plus, Flash et Light.

    Nom : 0.jpg
Affichages : 2457
Taille : 61,2 Ko

    S'appuyant sur cette base, les modèles Qwen3.5-Omni permettent une entrée de contexte long de 256 000 jetons, traitent plus de 10 heures d'audio et gèrent plus de 400 secondes de vidéo 720p à une image par seconde. Ces modèles sont pré-entraînés sur de vastes ensembles de données multimodales, comprenant plus de 100 millions d’heures de matériel audiovisuel, ce qui soutient leur génération et leur perception de contenu sur tous les formats.

    En termes de prise en charge linguistique, Qwen3.5-Omni apporte des améliorations majeures avec la reconnaissance vocale pour 113 langues et dialectes, et la génération vocale dans 36 d’entre eux. Si ces améliorations multilingues élargissent sa portée, Qwen3.5-Omni-Plus surpasse également Gemini-3.1 Pro dans les tâches audio et égale ses performances en matière de compréhension audiovisuelle. La série propose un sous-titrage avancé, capable de descriptions de niveau scénario, de segmentation de scènes, d’horodatage et de cartographie détaillée des relations entre les personnages au sein du contenu audio. Les nouveaux modèles sont disponibles via des API hors ligne et en temps réel.

    Voici l'annonce de Qwen3.5-Omni :

    Qwen3.5-Omni : Évolution vers une IA générale (AGI) omnimodale native

    Qwen3.5-Omni est la dernière génération de LLM entièrement omnimodal de Qwen, capable de comprendre du texte, des images, des fichiers audio et des contenus audiovisuels. Les modules Thinker et Talker de Qwen3.5-Omni adoptent tous deux le modèle Hybrid-Attention MoE. La série Qwen3.5-Omni comprend des versions Instruct en trois tailles : Plus, Flash et Light, prenant en charge des entrées de contexte long de 256k. Le modèle peut traiter plus de 10 heures d'entrée audio et plus de 400 secondes d'entrée audiovisuelle en 720p à 1 image par seconde.

    Il est pré-entraîné de manière native et omnimodale sur d'énormes quantités de texte, de données visuelles et plus de 100 millions d'heures de données audiovisuelles, démontrant ainsi des capacités exceptionnelles de perception et de génération toutes modalités confondues. Par rapport à Qwen3-Omni, Qwen3.5-Omni offre des capacités multilingues considérablement améliorées, prenant en charge la reconnaissance vocale dans 113 langues/dialectes et la génération vocale dans 36 langues/dialectes. Il est actuellement disponible via l'API hors ligne et l'API en temps réel.

    Nom : 1.jpg
Affichages : 250
Taille : 35,7 Ko

    Hors ligne

    Qwen3.5-Omni-Plus a obtenu des résultats de pointe (SOTA) sur 215 sous-tâches et benchmarks de compréhension, de raisonnement et d'interaction audio et audiovisuelle, couvrant 3 benchmarks audiovisuels, 5 benchmarks audio, 8 benchmarks ASR, 156 tâches S2TT spécifiques à une langue et 43 tâches ASR spécifiques à une langue. Il surpasse notamment Gemini-3.1 Pro en matière de compréhension audio générale, de raisonnement, de reconnaissance, de traduction et de dialogue, tandis que sa compréhension audiovisuelle globale atteint le niveau de Gemini-3.1 Pro. Parallèlement, ses capacités visuelles et textuelles sont comparables à celles des modèles Qwen3.5 de même taille.

    L'une des fonctionnalités phares de Qwen3.5-Omni-Plus est sa capacité de sous-titrage audio et audiovisuel, qui permet de générer des sous-titres contrôlables, détaillés et structurés, ainsi que des descriptions fines de niveau scénario, incluant la segmentation automatique, l'annotation d'horodatage et des descriptions détaillées des personnages et de leur relation avec l'audio. De plus, grâce à la mise à l'échelle multimodale native, nous avons observé l'émergence d'une nouvelle capacité dans les modèles omnimodaux : la réalisation directe de codage basé sur des instructions audiovisuelles, que nous appelons « Audio-Visual Vibe Coding » ; toutes les fonctionnalités ci-dessus sont disponibles via l'API hors ligne.

    Nom : 2.jpg
Affichages : 248
Taille : 34,4 Ko

    Temps réel

    Au-delà de ses solides capacités de base, nous nous sommes également concentrés sur l'amélioration des capacités interactives de Qwen3.5-Omni. Premièrement, nous prenons en charge l'interruption sémantique en développant une reconnaissance native des intentions de prise de parole basée sur Omni, ce qui évite les interruptions causées par les réactions de confirmation et les bruits de fond insignifiants ; cette fonctionnalité est déjà prise en charge en natif dans l'API. Deuxièmement, nous prenons en charge en natif les fonctionnalités WebSearch et FunctionCall complexes, permettant au modèle de décider de manière autonome s'il doit invoquer WebSearch pour répondre aux questions des utilisateurs en temps réel.

    Troisièmement, nous prenons en charge le contrôle vocal et le dialogue de bout en bout, ce qui permet au modèle de suivre des instructions comme un humain et de contrôler librement des aspects tels que le volume, la vitesse et l’émotion de la parole. Quatrièmement, Qwen3.5-Omni prend en charge le clonage vocal, permettant aux utilisateurs de télécharger une voix pour personnaliser celle de l’assistant IA ; toutes les fonctionnalités ci-dessus sont disponibles via l’API en temps réel. Les utilisateurs peuvent également modifier l'invite du système pour changer le comportement du modèle, tel que son style conversationnel ou son identité.

    Cinquièmement, pour remédier à l'instabilité de la parole dans les interactions vocales en continu causée par des différences d'efficacité d'encodage entre les tokens de texte et de parole — telles que les omissions, les erreurs de lecture ou la prononciation imprécise des chiffres —, nous proposons ARIA (Adaptive Rate Interleave Alignment), une technique qui aligne dynamiquement les unités de texte et de parole. Tout en préservant les performances en temps réel, ARIA améliore considérablement le naturel et la robustesse de la synthèse vocale.

    Nom : 3.jpg
Affichages : 247
Taille : 45,9 Ko

    Architecture

    Qwen3.5-Omni continue d'adopter l'architecture Thinker-Talker. Le Thinker reçoit des signaux visuels et audio via le Vision Encoder et l'AuT, tandis que les signaux audiovisuels sont entrelacés et encodés avec des informations de position à l'aide de TMRoPE. Le Thinker est chargé de traiter les signaux omnimodaux et de générer du texte, tandis que le Talker reçoit les entrées multimodales et les sorties textuelles du Thinker pour effectuer la génération de parole contextuelle. Les représentations de la parole sont encodées à l'aide de la méthode RVQ proposée dans Qwen3-Omni, remplaçant ainsi les opérations DiT, très gourmandes en ressources de calcul.

    Grâce à la conception de l'entrée en flux par blocs et à la conception du Talker en flux, l'ensemble du modèle prend en charge l'interaction en temps réel. Contrairement à l'entrée à double voie du Talker dans la génération précédente de Qwen3-Omni, le Talker adopte l'ARIA (Adaptive Rate Interleave Alignment) dans l'organisation de ses entrées pour aligner dynamiquement les unités de texte et de parole, puis les entrelacer, évitant ainsi l'instabilité de la parole causée par les différences d'efficacité d'encodage des tokens de texte et de parole, telles que les omissions, les erreurs de lecture ou la prononciation imprécise des chiffres.

    Nom : 4.jpg
Affichages : 246
Taille : 85,2 Ko

    La sortie des modèles d'Alibaba Cloud s'est accérélée depuis qu'un rapport de septembre 2025 a révélé que la division cloud computing du groupe Alibaba aurait développé une nouvelle puce plus avancée que ses produits existants. La nouvelle avait frappé les marchés, le titre du géant du commerce électronique ayant progressé alors que les actions des fabricants de puces américains avaient largement reculé. Son PDG, Eddie Wu, avait notamment déclaré : « Le groupe Alibaba dispose de deux opportunités historiques pour construire une plateforme technologique centrée sur l'IA et le cloud et pour créer une plateforme complète de services de consommation pour les achats et la vie quotidienne ».

    Puis en octobre 2025, le groupe Alibaba a dévoilé Aegaeon, un nouveau système de mutualisation des GPU conçu pour réduire considérablement la dépendance au matériel Nvidia pour les charges de travail liées à l'intelligence artificielle (IA). Présenté lors d'un Symposium à Séoul, ce système permettrait de réduire l'utilisation des GPU de 82 %, faisant passer les besoins de 1 192 à 213 unités Nvidia H20 pour les modèles comportant jusqu'à 72 milliards de paramètres. Testé sur la place de marché des modèles d'Alibaba Cloud, Aegaeon permet à plusieurs modèles d'IA de partager un seul GPU, remédiant ainsi à certaines inefficacités du service de modèles à grande échelle. Ces différents rapports montrent que la Chine ne se laissera pas faire dans la bataille pour la domination de l'IA.

    Source : Annonce de Qwen3.5-Omni

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Alibaba dévoile la dernière version de son modèle d'IA Qwen3-Max-Thinking pour concurrencer les meilleurs modèles d'IA tels que GPT 5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro

    La start-up française Mistral AI lance Mistral Small 4, un modèle d'IA open source qui combine raisonnement, programmation et IA multimodale, pour offrir un outil unique et adaptable

    La fuite concernant « Claude Mythos » d'Anthropic révèle le nouveau modèle d'IA le plus puissant jamais développé par l'entreprise en matière de raisonnement et de programmation, mais il comporte des risques
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 10/02/2026, 14h51
  2. Réponses: 0
    Dernier message: 24/09/2025, 16h04
  3. Réponses: 3
    Dernier message: 04/11/2021, 09h42
  4. Réponses: 0
    Dernier message: 25/03/2020, 08h59
  5. Alibaba Cloud : le géant chinois défie les principaux acteurs du marché
    Par Claude Michel dans le forum Cloud Computing
    Réponses: 2
    Dernier message: 27/07/2017, 12h10

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo