IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Sam Altman cherche désormais à s'emparer de la réglementation sur l'IA et à réaliser des profits illimités


Sujet :

Intelligence artificielle

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    592
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 592
    Points : 10 749
    Points
    10 749
    Par défaut Sam Altman cherche désormais à s'emparer de la réglementation sur l'IA et à réaliser des profits illimités
    Sam Altman cherche désormais à s'emparer de la réglementation sur l'IA et à réaliser des profits illimités
    il est accusé de vouloir verrouiller le marché pour préserver la position d'OpenAI

    Sam Altman, PDG d'OpenAI, continue d'insister sur la nécessité de réglementer l'IA et met en garde contre ses impacts potentiels sur les élections présidentielles de 2024 aux États-Unis. Il a déclaré dans une interview début novembre que l'IA représente non seulement un risque existentiel pour l'humanité, mais qu'elle peut également permettre de manipuler les électeurs. Il estime que les politiques doivent introduire rapidement des règles pour prévenir ces risques, mais il est accusé de vouloir s'appuyer sur la réglementation pour verrouiller le marché et dicter la marche à suivre aux acteurs existants. Ce qui lui permettrait de gagner plus d'argent avec ses produits.

    Altman appelle les politiques à protéger les élections contre les capacités de l'IA

    Sam Altman a donné au début du mois de novembre, quelques semaines avant le chaos momentané chez OpenAI, une interview qui est passée presque inaperçue. La discussion a porté sur les dangers potentiels des technologies d'IA émergentes et s'inscrit dans le cadre de l'événement "Joy Buolamwini and Sam Altman : Unmasking the Future of AI", organisé par Deepa Seetharaman, journaliste technologique au Wall Street Journal, au Commonwealth Club de San Francisco. Altman a déclaré lors de l'interview que l'IA progresse rapidement et a davantage d'impact sur des aspects comme les normes sociétales, la protection de la vie privée et la démocratie.


    Il a déclaré que l'IA pourrait être utilisée à mauvais escient lors des élections présidentielles de 2024 aux États-Unis d'une manière que le monde n'avait encore jamais vue auparavant. L'une des utilisations malveillantes les plus répandues de l'IA est les deepfakes, mais Altman affirme que ce n'est pas la chose qui l'effraie le plus. Il a déclaré que l'IA peut être utilisée pour personnaliser le discours, ce qui permet à attaquant d'avoir un pouvoir de "persuasion redoutable" sur sa victime. Selon Altman, les électeurs connaissent les deepfakes et peuvent les repérer en faisant preuve de vigilance, mais ils n'ont jamais été confrontés à une telle menace par le passé.

    « Je suis très inquiet de l'impact que cela aura sur les élections. Mais la principale inquiétude que j'ai n'est pas celle qui est la plus médiatisée. Tout le monde parle des deepfakes. Et je pense que les deepfakes constituent un problème politique dans la société de bien d'autres manières. Toutefois, dans un certain sens, c'est la dernière guerre. Nous connaissons les deepfakes. Les gens ont un certain degré d'anticorps contre eux. Nous avons une certaine vigilance sociétale. Lorsque les gens regardent une image, une vidéo ou toute autre chose, ils savent qu'il se peut que ce ne soit pas réel », a-t-il déclaré malgré les défis persistants liés aux deepfakes. Il a ajouté :

    « Et tout le monde pense qu'il n'y est pas sensible. C'est juste quelqu'un d'autre qui l'est. Nous sommes probablement tous un peu sensibles, mais c'est au moins un problème connu. Ce qui me préoccupe vraiment, pour cette prochaine élection et les suivantes, et plus généralement, c'est la capacité de persuasion personnalisée et individuelle de ces nouveaux modèles. C'est une chose nouvelle pour laquelle nous n'avons pas un antidote et je pense que nous y serons tous plus sensibles que nous ne le pensons ». La présentatrice a ensuite demandé à Altman ce à quoi cette manipulation pourrait ressembler à l'avenir, mais sa réponse n'a pas été très approfondie.

    « À quoi cela ressemble-t-il ? Comme si ChatGPT essayait de vous convaincre pour qui voter ? », a demandé la journaliste. Ce à quoi Altman a répondu : « probablement pas. Si vous demandez à ChatGPT pour qui voter lors des élections, j'ai d'autres questions à vous poser », faisant réagir le public. Toutefois, il a ajouté : « cela signifie que des systèmes sur Internet pilotés par l'IA à des degrés divers vous influencent subtilement ». Altman n'a pas développé sa pensée, mais laisser supposer que l'IA pourrait permettre à un acteur de la menace de créer des campagnes ciblées - remplies d'infox sur un candidat, par exemple - pour influencer certains électeurs.

    À la question de savoir comment OpenAI tente de résoudre ce problème, Altman a répondu : « sur notre système, nous faisons beaucoup pour résoudre ce problème, mais il y aura d'autres modèles que les gens utiliseront dans le monde et que je ne pense pas que nous (ni aucun autre modèle) puissions détecter. Une seule entreprise, par exemple, peut les détecter. La question qui se pose est la suivante : peut-on utiliser un système d'IA pour détecter les résultats d'un autre système d'IA ? Pouvez-vous les marquer d'un filigrane ? Pouvez-vous faire quelque chose même si les systèmes ne sont pas filigranés ? Pouvez-vous détecter les bons modèles ? ».

    Pour Altman, ce sont les questions les plus "effrayantes" sur lesquelles il faut réfléchir : « je pense franchement que ces capacités sont quelque peu exagérées. Mais c'est comme si un adversaire étranger avait formé son propre système d'IA dont personne ne connaît l'existence. C'est ce genre de choses qui m'inquiète ». Il estime que les politiques doivent rapidement intervenir pour établir des règles pour l'industrie : « nous [chez OpenAI] avons appelé à une réglementation gouvernementale, je pense que nous sommes les premiers et les plus bruyants de toutes les entreprises. Nous avons absolument besoin que le gouvernement joue un rôle dans ce domaine ».

    Altman torpille les initiatives de l'UE visant à établir une réglementation sur l'IA

    Dans la communauté, beaucoup ne croient pas aux discours d'Altman. Il est accusé de tenir des discours alarmistes pour susciter la peur chez son auditoire et pour inciter les politiques à adopter une législation prématurée. De plus, les critiques affirment qu'Altman se met en scène afin de pouvoir influencer la réglementation et veiller à ce qu'elle soit favorable à OpenAI. Certains critiques estiment qu'à l'heure actuelle, une réglementation risquerait de relever considérablement les barrières d'entrée sur le marché, ce qui nuirait à la concurrence et à l'innovation. Pour eux, Altman ne se préoccupe pas du bien-être de l'humanité, mais bien de celui de son entreprise.


    En octobre dernier, Yann LeCun, responsable de l'IA chez Meta, a publié sur X un message dans lequel il a dénoncé les multiples appels d'Altman à une réglementation et a fustigé les personnes qui appellent à l'interdiction des projets d'IA open source : « Altman, Hassabis et Amodei sont ceux qui exercent actuellement un lobbying massif auprès des entreprises. Ce sont eux qui tentent de s'emparer de l'industrie de l'IA par le biais d'une réglementation. Vous, Geoff et Yoshua, donnez des munitions à ceux qui font pression pour interdire la R&D ouverte en matière d'IA ». LeCun, pionnier de l'IA et prix Turing 2018, semble convaincu qu'Altman se joue de l'industrie.

    « Je vous l'ai dit. La route de l'argent est son objectif. Au diable les gens qui ont menacé de démissionner quand ce type est parti », a écrit un critique. Altman trouve néanmoins du soutien auprès de plusieurs de ces pairs, ainsi que de son interlocutrice Joy Buolamwini lors de l'événement. « Les entreprises ont un rôle à jouer, mais c'est là que je vois que les gouvernements doivent intervenir parce que leur intérêt devrait être l'intérêt public », note-t-elle. Buolamwini est informaticienne et activiste numérique au MIT. Elle est la fondatrice de "Algorithmic Justice League", une organisation qui combat les préjugés dans les processus de décision des logiciels.

    Lors de l'événement, certains membres de l'auditoire ont critiqué les commentaires des orateurs, en particulier ceux d'Altman. « J'ai trouvé que certains des propos de Sam étaient un peu idéalisés et pas vraiment fondés sur ce que son outil [ChatGPT] a produit », a noté Emma Charity, membre du Laboratoire de technologie d'intérêt public de Stanford. Faisant écho à Charity, Emily Tianshi, qui étudie la science des données et les systèmes sociaux, a déclaré : « Altman parlait comme s'il n'avait pas de contrôle direct sur les préjudices dont il s'inquiète ». Sur la toile, d'autres ont rappelé le double jeu d'Altman en ce qui concerne la réglementation européenne.

    En effet, Altman appelle publiquement à une réglementation sur l'IA, mais torpille les tentatives de l'Union européenne d'imposer une réglementation stricte aux entreprises. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq plus grands lobbyistes qui font pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

    La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé de supprimer la partie de la loi qui vise à réglementer les modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, comme ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Avec lobbying intense, la France, l'Italie et l'Allemagne veulent laisser les fournisseurs de modèles de base se réguler eux-mêmes.

    Au cours de leur discussion, Buolamwini a demandé à Altman : « avez-vous quelque chose [à dire] qui pourrait apaiser les inquiétudes des gens ? ». Ce à quoi Altman a répondu : « je pense que je vous mentirais en apaisant vos inquiétudes. Je suis moi-même assez nerveux à ce sujet. Ce qui est le plus difficile à comprendre, c'est que nous sommes en train de construire une technologie qui, si elle continue, si elle suit cette courbe, peut être la meilleure ou la pire chose que l'humanité ait jamais construite ». Enfin, Altman déplore également le fait qu'il n'y a que très peu d'investissements productifs dans ce qu'il a appelé : le risque existentiel.

    Et vous ?

    Que pensez-vous de l'appel incessant d'Altman à une réglementation sur l'IA ?
    Que pensez-vous des propos d'Altman sur les impacts potentiels de l'IA sur les élections ?
    Pourquoi appelle-t-il à la réglementation de l'IA et combat dans le même temps la législation de l'UE ?
    Altman se livre-t-il à un jeu de dupe ? Que pensez-vous des allégations portées par Yann LeCun contre Altman ?

    Voir aussi

    Le responsable de l'IA chez Meta affirme que les modèles d'IA open source sont le seul moyen d'empêcher que le secteur soit contrôlé par un petit groupe d'entreprises et s'oppose à la réglementation

    La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques, elles font pression pour retirer "les modèles de base" de la réglementation

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

  2. #22
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    989
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 989
    Points : 16 296
    Points
    16 296
    Par défaut Le PDG d'OpenAI met en garde contre les "désalignements sociétaux" qui pourraient rendre l'IA dangereuse
    Le PDG d'OpenAI, Sam Altman, met en garde contre les "désalignements sociétaux" qui pourraient rendre l'IA dangereuse et faire des ravages dans les systèmes, ce qui l'empêche de dormir la nuit

    Le PDG d'OpenAI, créateur de ChatGPT, a déclaré ce mardi 13 février que les dangers qui l'empêchent de dormir en ce qui concerne l'intelligence artificielle sont les "désalignements sociétaux très subtils" qui pourraient faire des ravages dans les systèmes.

    Sam Altman, qui s'exprimait par appel vidéo lors du Sommet mondial des gouvernements à Dubaï, a réitéré son appel à la création d'un organisme tel que l'Agence internationale de l'énergie atomique pour superviser l'IA, qui progresse probablement plus vite que le monde ne le prévoit.

    "Il y a là-dedans des choses faciles à imaginer et où les choses tournent vraiment mal. Et je ne suis pas très intéressé par les robots tueurs qui se promènent dans les rues et qui risquent de mal tourner", a déclaré M. Altman. "Je m'intéresse beaucoup plus aux désalignements sociétaux très subtils, où nous avons simplement ces systèmes dans la société et sans mauvaise intention particulière, les choses tournent horriblement mal."

    Toutefois, M. Altman a souligné que l'industrie de l'IA, comme OpenAI, ne devrait pas être aux commandes lorsqu'il s'agit d'élaborer des réglementations régissant l'industrie.

    "Nous en sommes encore au stade des discussions. Tout le monde organise une conférence. Tout le monde a une idée, un document d'orientation, et c'est très bien ainsi", a déclaré M. Altman. "Je pense que nous sommes encore à une époque où le débat est nécessaire et sain, mais à un moment donné dans les prochaines années, je pense que nous devons nous diriger vers un plan d'action avec une véritable adhésion dans le monde entier."


    OpenAI, une jeune entreprise d'intelligence artificielle basée à San Francisco, est l'un des leaders dans ce domaine. Microsoft a investi environ 1 milliard de dollars dans OpenAI. L'Associated Press a signé un accord avec OpenAI pour lui permettre d'accéder à ses archives d'actualités. De son côté, le New York Times a intenté un procès à OpenAI et à Microsoft pour avoir utilisé ses articles sans autorisation afin d'entraîner les chatbots d'OpenAI.

    Le succès d'OpenAI a fait de M. Altman le visage public de la commercialisation rapide de l'IA générative - et des craintes que suscite cette nouvelle technologie.

    Les Émirats arabes unis, fédération autocratique de sept cheikhs régis par l'hérédité, présentent des signes de ce risque. La liberté d'expression y est étroitement contrôlée. Ces restrictions affectent le flux d'informations exactes - les mêmes détails sur lesquels les programmes d'IA comme ChatGPT s'appuient en tant que systèmes d'apprentissage automatique pour fournir leurs réponses aux utilisateurs.

    Les Émirats disposent également de la société G42 d'Abou Dhabi, supervisée par le puissant conseiller à la sécurité nationale du pays. Le G42 possède ce que les experts considèrent comme le meilleur modèle d'intelligence artificielle en langue arabe au monde. L'entreprise a fait l'objet d'allégations d'espionnage en raison de ses liens avec une application de téléphonie mobile identifiée comme un logiciel espion. Elle a également fait l'objet d'allégations selon lesquelles elle aurait pu recueillir secrètement du matériel génétique d'Américains pour le compte du gouvernement chinois.

    Le G42 a déclaré qu'elle couperait ses liens avec les fournisseurs chinois en raison des inquiétudes des Américains. Toutefois, la discussion avec M. Altman, animée par Omar al-Olama, ministre d'État des Émirats arabes unis chargé de l'intelligence artificielle, n'a abordé aucune des préoccupations locales.

    Pour sa part, M. Altman s'est dit encouragé de voir que les écoles, où les enseignants craignaient que les élèves n'utilisent l'IA pour rédiger leurs devoirs, considèrent désormais cette technologie comme cruciale pour l'avenir. Il a toutefois ajouté que l'IA n'en était encore qu'à ses balbutiements.

    "Je pense que la raison en est que la technologie dont nous disposons actuellement est comparable au tout premier téléphone portable dont l'écran était en noir et blanc", a déclaré M. Altman. "Il faut donc nous laisser un peu de temps. Mais je pense que dans quelques années, la technologie sera bien meilleure qu'aujourd'hui. Et dans une décennie, ce sera tout à fait remarquable".

    Source : Sam Altman, lors du Sommet mondial des gouvernements à Dubaï

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que les craintes soulevées par M. Altman sont justifiées ou pertinentes ?

    Voir aussi :

    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #23
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    989
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 989
    Points : 16 296
    Points
    16 296
    Par défaut Sam Altman estime qu'une agence internationale devrait surveiller les IA "les plus puissantes"
    Sam Altman, PDG d'OpenAI, estime qu'une agence internationale devrait surveiller les IA "les plus puissantes" pour garantir une "sécurité raisonnable", car ces systèmes peuvent "causer d'importants dommages"

    Le développement rapide de l'intelligence artificielle (IA) a suscité un débat mondial sur son impact potentiel et sur la nécessité d'un développement responsable. L'un des aspects essentiels de ce débat est la réglementation de l'IA, les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA. Sam Altman, PDG d'OpenAI, une société de recherche axée sur le développement d'une intelligence artificielle générale sûre et bénéfique, est l'un des principaux acteurs de ce débat.

    Samuel Harris Altman est un entrepreneur et investisseur américain surtout connu pour être le PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Il est également directeur général d'AltC Acquisition Corp depuis 2021. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il a abandonné l'université de Stanford au bout de deux ans et a fondé Loopt, un service de réseau social mobile, levant plus de 30 millions de dollars en capital-risque. En 2011, Altman a rejoint Y Combinator, un accélérateur de startups, dont il a été le président de 2014 à 2019.

    Dans une récente interview podcast, M. Altman a plaidé en faveur de la création d'une agence internationale chargée de contrôler et de garantir la « sécurité raisonnable » des puissants systèmes d'IA.


    Pourquoi une agence internationale ?

    La proposition d'Altman de créer une agence internationale découle de sa conviction que les systèmes d'IA les plus puissants auront le potentiel de causer des dommages importants à l'échelle mondiale. Il estime que les effets négatifs d'une IA aussi avancée pourraient dépasser les frontières nationales et qu'il serait donc difficile pour les pays de les réglementer efficacement par eux-mêmes.

    Dans le cadre du podcast All-In, M. Altman s'est dit préoccupé par l'avenir proche, déclarant qu'« il arrivera un moment [...] où les systèmes d'IA d'avant-garde seront capables de causer des dommages importants à l'échelle mondiale ».

    Il envisage la création d'une agence internationale chargée d'examiner les systèmes les plus puissants et de garantir des tests de sécurité raisonnables.

    M. Altman reconnaît toutefois la nécessité d'une approche équilibrée. Il souligne les dangers d'une « réglementation excessive » et cherche un cadre qui permette d'éviter les restrictions excessives tout en atténuant les risques. Il souligne les pièges potentiels de la sous-réglementation et de la sur-réglementation.

    Les lois ne peuvent pas rattraper les progrès de l'IA

    Ce débat sur la réglementation de l'IA coïncide avec les efforts législatifs en cours dans le monde entier. L'Union européenne a récemment adopté la loi sur l'intelligence artificielle, qui vise à catégoriser les risques liés à l'IA et à interdire les applications inacceptables. De même, aux États-Unis, le président Biden a signé un décret visant à promouvoir la transparence des modèles d'IA puissants. La Californie s'est également imposée comme chef de file en matière de réglementation de l'IA, les législateurs examinant une multitude de projets de loi pertinents.

    M. Altman estime qu'une agence internationale offre une plus grande adaptabilité qu'une législation nationale. Il souligne le rythme rapide du développement de l'IA, suggérant que des lois rigides deviendraient rapidement obsolètes. Il exprime son scepticisme quant à la capacité des législateurs à élaborer des réglementations à l'épreuve du temps, déclarant : « Ce qui est écrit dans la loi, c'est que dans 12 mois, tout sera écrit de travers. »

    En termes plus simples, M. Altman compare la surveillance de l'IA à la réglementation en matière de sécurité aérienne. Il explique : « Lorsque des pertes importantes de vies humaines sont une possibilité sérieuse [...] comme dans les avions [...], je pense que nous sommes heureux de disposer d'une sorte de cadre de tests. » Son scénario idéal implique un système dans lequel les utilisateurs, comme les passagers d'un avion, peuvent faire confiance à la sécurité de l'IA sans avoir besoin d'en comprendre les moindres détails.

    Pourquoi n'y a-t-il pas encore de véritable réglementation de l'IA ?

    Malgré ces efforts continus, l'élaboration d'un cadre réglementaire réellement efficace pour l'IA présente plusieurs défis.

    L'un des principaux obstacles est le rythme rapide du développement de l'IA. Le domaine est en constante évolution et il est donc difficile pour les réglementations de suivre le rythme des avancées technologiques. Les lois rédigées aujourd'hui peuvent être insuffisantes pour faire face aux risques posés par les systèmes d'IA développés demain.

    Un autre défi réside dans la complexité des systèmes d'IA. Ces systèmes peuvent être incroyablement complexes et difficiles à comprendre, même pour les experts. Cette complexité fait qu'il est difficile pour les régulateurs d'identifier et d'atténuer les risques potentiels.

    En outre, il n'existe pas de consensus mondial sur la manière de réglementer l'IA. Les priorités et la tolérance au risque varient d'un pays à l'autre en ce qui concerne le développement de l'IA. Il est donc difficile d'établir un cadre international unifié.

    Enfin, il existe une inquiétude quant à la possibilité d'étouffer l'innovation. Des réglementations trop restrictives pourraient entraver le développement d'applications bénéfiques de l'IA.

    Il est essentiel de trouver un juste équilibre entre la sécurité, l'innovation et la coopération internationale pour élaborer des réglementations efficaces en matière d'IA.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous le point de vue de M. Altman crédible ou pertinent ?

    Voir aussi :

    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 81
    Dernier message: 08/05/2024, 09h47
  2. Réponses: 0
    Dernier message: 07/06/2023, 18h01
  3. Réponses: 0
    Dernier message: 17/05/2023, 12h24
  4. Réponses: 3
    Dernier message: 03/02/2023, 07h55
  5. Réponses: 0
    Dernier message: 24/01/2017, 20h20

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo