IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #361
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 061
    Points : 2 855
    Points
    2 855
    Par défaut
    Citation Envoyé par Rolllmops Voir le message
    Ils auront beau signaler quelles vidéos sont des faux ou non, ça n'empêchera pas ces demeurés de républicains de croire toute fausse vidéo discréditant Joe Biden et d'écarter toute vraie vidéo discréditant Trump.

    Ce pays a hélas atteint un niveau où la logique et la réalité n'ont plus cours.
    Ce pays a surtout atteint un niveau d’abstention est de désintérêt pour la politique très élevé, probablement parce que les gens on vraiment la sensation d'un foutage de gueule généralisé.
    Les seuls qui votent encore aux USA se sont les cons

  2. #362
    Membre averti
    Homme Profil pro
    Développeur Web
    Inscrit en
    Avril 2021
    Messages
    245
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Avril 2021
    Messages : 245
    Points : 342
    Points
    342
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    En fait c'est simple de détecter un deepfake de Joe Biden ; s'il ne fait pas d'erreur ou de confusion de son discours, c'est que c'est un deepfake .

    Tandis que Trump raconte tellement n'importe quoi et a un débit de parole tellement laborieux en permanence qu'il est impossible de créer un fake qui soit pire

  3. #363
    Membre expérimenté
    Inscrit en
    Mai 2006
    Messages
    351
    Détails du profil
    Informations forums :
    Inscription : Mai 2006
    Messages : 351
    Points : 1 452
    Points
    1 452
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Ce pays a surtout atteint un niveau d’abstention est de désintérêt pour la politique très élevé, probablement parce que les gens on vraiment la sensation d'un foutage de gueule généralisé.
    En quoi il diffère du notre du coup ?

  4. #364
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 384
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 384
    Points : 9 751
    Points
    9 751
    Par défaut
    Citation Envoyé par virginieh Voir le message
    En quoi il diffère du notre du coup ?
    C'était la question que je me posais également.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  5. #365
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 605
    Points : 18 523
    Points
    18 523
    Par défaut
    Citation Envoyé par Rolllmops Voir le message
    Tandis que Trump raconte tellement n'importe quoi
    Objectivement Joe Biden raconte plus de conneries que Trump, puisque Joe Biden a des problèmes de mémoire (officiellement, en réalité ça doit bien être pire que ça).

    Citation Envoyé par OrthodoxWindows Voir le message
    les gens on vraiment la sensation d'un foutage de gueule généralisé.
    Si j'ai bien compris le truc, aux USA il y a une histoire de système biparti, en gros il y a 2 gros partis : démocrate et républicain, le reste est appelé tiers parti (third party).

    Les petits partis sont quasiment ignorés.
    En France c'est pas exactement pareil, sinon chaque second tour se finirait en PS vs LR.
    En 2017 et en 2022 il n'y avait ni PS, ni LR.

    En 2017 le PS a préféré soutenir Macron que de soutenir son candidat : Benoît Hamon.
    Depuis il fait des petits scores. En 2022 le PS s'est fait battre par Debout la France, Parti communiste français, Résistons !, Europe-Ecologie-Les Verts, Les Républicains, Reconquête, La France insoumise, etc. (si le PS continu comme ça il pourrait finir par faire faillite)

    =====
    En France il n'y a pas toujours de système de primaire (il y a eu des primaires LR et des primaires PS en 2017 et les gens ont choisi Fillon et Hamon (alors que les partis espéraient Juppé et Valls)).

    Aux USA les candidats républicains se disent tous "j'abandonne je ne peux pas lutter contre Trump, il est beaucoup trop populaire".
    En France il y a Taubira qu'arrive et qui se présente en plus de Jospin.
    Ce serait intéressant que les petits partis de gauche (PS, EELV, PCF, LO, NPA) ne se présentent pas et laissent la place à François Ruffin.
    Parfois il n'y a pas de candidat EELV, parfois il n'y a pas de candidat PCF, donc il est tout à fait possible de ne pas se présenter.

    Si un candidat, comme François Ruffin par exemple, arrivait à motiver les abstentionnistes à voter, il pourrait atteindre le second tour.
    LFI n'est pas si loin du pouvoir que ça.

    ====
    Bref, tout ça pour dire que j'aime bien le première tour, parce que parfois il y a Jean Lassalle, parfois il y a François Asselineau, je trouve ça cool.
    Keith Flint 1969 - 2019

  6. #366
    Membre éclairé
    Inscrit en
    Mai 2010
    Messages
    300
    Détails du profil
    Informations forums :
    Inscription : Mai 2010
    Messages : 300
    Points : 880
    Points
    880
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Objectivement Joe Biden raconte plus de conneries que Trump, puisque Joe Biden a des problèmes de mémoire (officiellement, en réalité ça doit bien être pire que ça).
    A lire comme :

    Objectivement, moi qui regarde surtout FoxNews, je vous assure que Biden rassure plus de conneries que Trump.


    alors que'au final, les deux sont trop vieux pour le poste et c'est inquiétant de voir le non renouvellement (qui s'explique par ailleurs cependant).
    "«Les petites filles sont des punks»."

  7. #367
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 605
    Points : 18 523
    Points
    18 523
    Par défaut
    Citation Envoyé par David_g Voir le message
    Objectivement, moi qui regarde surtout FoxNews
    1. Je n'ai jamais regardé cette chaine
    2. Elle ne soutient pas Trump

    Même les gens qui votent pour le parti démocrate reconnaissent que la santé mentale de Biden est inquiétante.
    C'est dans tous les médias.

    ‘Hair on fire’: Democratic worries grow over claims about Biden’s memory lapses
    Biden’s age and fitness top the list of voters’ concerns, poll finds

    Les électeurs démocrates seraient plus content avec un autre candidat. Si c'était Kamala Harris à la place de Biden ils seraient satisfait.
    Là ils se disent tous "putain notre candidat est quand même bien pourri".

    Du côté de Trump c'est différent, le parti Républicain n'aime pas Trump, mais le peuple aime Trump.
    Tump est en forme, il sait où il est, il tient debout, ses propos sont cohérents.

    Biden est pire que le personnage Thomas 'Tug' Benson.
    Keith Flint 1969 - 2019

  8. #368
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 384
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 384
    Points : 9 751
    Points
    9 751
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Même les gens qui votent pour le parti démocrate reconnaissent que la santé mentale de Biden est inquiétante.
    C'est dans tous les médias.

    ‘Hair on fire’: Democratic worries grow over claims about Biden’s memory lapses
    Biden’s age and fitness top the list of voters’ concerns, poll finds

    Les électeurs démocrates seraient plus content avec un autre candidat. Si c'était Kamala Harris à la place de Biden ils seraient satisfait.
    Là ils se disent tous "putain notre candidat est quand même bien pourri".
    Ils sont tellement dans cet état d'esprit que : Biden remporte aisément la première primaire en Caroline du sud


    Citation Envoyé par Ryu2000 Voir le message
    Du côté de Trump c'est différent, le parti Républicain n'aime pas Trump, mais le peuple aime Trump.
    Non, ce sont les suprémacistes et les complotistes, qui aiment Trump. La victoire de Trump aux primaires pourraient d'ailleurs permettre à Biden de gagner plus facilement. En effet, les indécis et les Républicains modérés ne souhaitent pas s'engager avec Trump, et donc risquent de s'abstenir, voire de voter Biden. Trump est la meilleure chance de victoire de Biden.
    Citation Envoyé par Ryu2000 Voir le message
    Tump est en forme, il sait où il est, il tient debout, ses propos sont cohérents.
    Aussi cohérents que les tiens en général, je confirme. Ça se place donc entre le "grand n'importe quoi" et le "ridicule absolu".
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  9. #369
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 457
    Points
    3 457
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Objectivement Joe Biden raconte plus de conneries que Trump, puisque Joe Biden a des problèmes de mémoire (officiellement, en réalité ça doit bien être pire que ça).
    Il y a une grosse différence entre les moyens et le résultat.
    Si Biden et Trump mentent autant et que l'un n'a plus les moyens de faire autrement alors il est plus honnête que l'autre.
    Les Américains se retrouvent devant un cas encore plus difficile que nous : choisir entre un mythomane et un sénile.
    Si j'ai bien compris le truc, aux USA il y a une histoire de système biparti, en gros il y a 2 gros partis : démocrate et républicain, le reste est appelé tiers parti (third party).
    C'était le cas depuis longtemps en France, on est passé en système triparti depuis quelques années.
    Est ce que le système américain le permettrait? (je ne suis pas sûr parce qu'on dirait que les démocrates et les républicains ont une capacité de soutien tellement énorme qu'elle garanti leur duopole)
    En France il y a Taubira qu'arrive et qui se présente en plus de Jospin.
    Ou en 2022 Taubira qui est élue sans se présenter qui fait illusion 3 jours et qui démissionne.
    je ne répond pas à la suite parce qu'on dérive de la discussion et tu vas finir pas nous accuser de te harceler dans un débat hors sujet

  10. #370
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 605
    Points : 18 523
    Points
    18 523
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Ils sont tellement dans cet état d'esprit que : Biden remporte aisément la première primaire en Caroline du sud
    Ils sont fous.
    Ou alors les primaires démocrates sont truquées.
    Il y a un problème quelque part, c'est pas normal de vouloir que Biden se présente à nouveau.

    Prenez cet article du 08 février 2024 par exemple :
    Pas de charges retenues contre Joe Biden pour rétention de documents classifiés, le président répond
    Le procureur spécial décrit le président américain comme un « homme âgé avec une mauvaise mémoire », et conclut qu’« une inculpation ne se justifierait pas ». Dans la soirée, Biden, en colère, a affirmé ne pas avoir de problèmes de mémoire.
    Quand la justice arrive et dit "laissez tomber, il ne sait plus où il est, ça ne sert à rien de le condamner" normalement on change de candidat.
    Si Biden devient le nouveau candidat démocrate, c'est vraiment que le système politique US est une blague.
    Normalement on n'envoie pas un candidat complétement sénile à une élection présidentielle.

    Vidéo de mars 2020 (c'est pas un deep fake, ce sont des vrais extraits audio) :

    Sa santé mentale n'a fait que se dégrader depuis. Vu que c'est aux USA il ne serait pas étonnant que des médecins lui prescrivent des amphétamines et ça ne doit pas tellement lui faire du bien.

    Citation Envoyé par Jon Shannow Voir le message
    Non, ce sont les suprémacistes et les complotistes, qui aiment Trump.
    C'est faux, sinon il n'aurait gagné aucune primaire, il n'aurait pas été élu président.
    Aujourd'hui il bat des records, il y a des étasuniens de tous bords qui pensent que c'est le meilleur candidat.

    Pour énormément d'étasuniens son bilan est excellent alors que celui de Biden est catastrophique.

    Citation Envoyé par totozor Voir le message
    Si Biden et Trump mentent autant et que l'un n'a plus les moyens de faire autrement alors il est plus honnête que l'autre.
    Ouais Trump est clairement plus honnête que Biden, c'est clair.

    Citation Envoyé par totozor Voir le message
    C'était le cas depuis longtemps en France, on est passé en système triparti depuis quelques années.
    Je ne suis pas d'accord.
    En France ça ne fonctionne pas comme ça.
    Normalement tous les partis sont égaux.

    Lors des campagnes :
    Le NPA doit être autant médiatisé que le RN.
    LO doit être autant médiatisé que LREM.
    Asselineau doit être autant respecté que Macron.
    Jean Lasalle doit être autant respecté que le ou la candidate PS.

    Normalement il y a une histoire d'équité et d'égalité entre tous les partis.
    Aucun média ne devrait dire "les favoris sont le RN et LREM".
    Si les règles étaient respectées, pendant les campagnes, tous les partis devraient être sur un pied d'égalité, les médias ne devraient pas accorder plus de temps à l'ensemble des gens d'LREM qu'au candidat LO.
    On devrait voir autant Nathalie Arthaud qu'on voit Macron, Darmanin, Attal, Philippe et tous les autres connards.

    Citation Envoyé par totozor Voir le message
    je ne répond pas à la suite parce qu'on dérive de la discussion
    Arf, tant qu'on est à dire que Biden est sénile, c'est un peu en rapport avec le topic.
    Parce que :
    Citation Envoyé par Stéphane le calme Voir le message
    Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.

    Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Etzioni.

    « On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».
    Les images qui montrent à quel point Biden a perdu la tête ne sont pas truquées, c'est la réalité.
    Il est incapable de lire prompteur et il pourrait être le prochain candidat du parti démocrate, c'est n'importe quoi.

    Envoyer Biden c'est chercher à perdre, il n'y a pas pire candidat.
    Ou alors ses électeurs sont plus fous que lui.
    Ce qui n'est pas impossible vu la merde que fait le parti démocrate…
    Pour être satisfait de cette politique il faut avoir un grain.

    Comme dirait Elon Musk :
    https://twitter.com/elonmusk/status/1757264224512798913
    And we are only 6 weeks into 2024!
    Keith Flint 1969 - 2019

  11. #371
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 560
    Points
    15 560
    Par défaut Les entreprises de la Tech prévoient de signer un accord pour lutter contre les fraudes électorales par l'IA
    Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu

    Au moins six grandes entreprises technologiques prévoient de signer cette semaine un accord qui guiderait la manière dont elles tentent de mettre un terme à l'utilisation d'outils d'intelligence artificielle pour perturber les élections démocratiques.

    L'événement à venir lors de la conférence sur la sécurité de Munich en Allemagne intervient alors que plus de 50 pays doivent organiser des élections nationales en 2024.


    Des tentatives d'ingérence électorale générées par l'IA ont déjà commencé, comme lorsque des robocalls imitant la voix du président américain Joe Biden ont tenté de décourager les gens de voter lors des élections primaires du New Hampshire le mois dernier.

    "En cette année cruciale pour les élections mondiales, les entreprises technologiques travaillent sur un accord visant à lutter contre l'utilisation trompeuse de l'IA ciblant les électeurs", a déclaré le mardi 13 février une déclaration commune de plusieurs entreprises. "Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres travaillent conjointement pour progresser sur cet objectif commun et nous espérons finaliser et présenter les détails vendredi lors de la Conférence de Munich sur la sécurité."

    Les entreprises ont refusé de donner des détails sur le contenu de l'accord. Nombre d'entre elles ont déjà déclaré qu'elles mettaient en place des mesures de protection pour leurs propres outils d'IA générative qui peuvent manipuler des images et des sons, tout en s'efforçant d'identifier et d'étiqueter les contenus générés par l'IA afin que les utilisateurs des médias sociaux sachent si ce qu'ils voient est réel.

    X, la plateforme anciennement connue sous le nom de Twitter, n'a pas été mentionnée dans la déclaration.

    Source : Déclaration commune de plusieurs entreprises dont Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres, lors la conférence de Munich sur la sécurité

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de cette initiative, trouvez-vous qu'elle est appropriée et pertinente ?

    Pensez-vous que cette initiative lancée par les entreprises technologiques soit suffisante pour lutter contre l'ingérence de l'IA dans le processus électoral ?

    Voir aussi :

    Des agents chinois sont soupçonnés d'utiliser des images générées par l'IA pour désinformer les électeurs américains, selon un rapport de Microsoft

    Le gouvernement irlandais craint que l'IA ne soit utilisée pour diffuser des infox à l'approche des élections, il estime que cela pourrait influencer le vote des électeurs et saper la démocratie

    OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024, en s'appuyant sur des programmes de vérification des informations et d'authenticité des images

    Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #372
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 353
    Points
    66 353
    Par défaut "Vous ne pouvez pas croire toutes les vidéos que vous voyez", selon Brad Smith, vice-président de Microsoft
    "Vous ne pouvez pas croire toutes les vidéos que vous voyez", selon Brad Smith, vice-président de Microsoft, il indique comment lutter contre le contenu abusif de l'IA et les deepfakes malveillants.

    Microsoft a découvert que ses propres outils étaient utilisés par des acteurs malveillants dans un épisode récemment médiatisé. Microsoft indique dans un billet de blog que l'entreprise "s'est engagée à adopter une approche solide et globale", citant six domaines d'action différents. Brad Smith, le vice-président de Microsoft écrit que "nous devons agir de toute urgence pour lutter contre tous ces problèmes".

    Nous assistons actuellement à une expansion rapide de l'utilisation abusive des nouveaux outils d'IA par des acteurs malveillants", écrit Brad Smith, vice-président de Microsoft, "notamment par le biais de deepfakes basés sur des vidéos, des sons et des images générés par l'IA". Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par le biais de la pornographie non consensuelle et la nouvelle génération de cyberintimidation.

    Chaque jour, des millions de personnes utilisent de puissants outils d'IA générative pour stimuler leur expression créative. À bien des égards, l'IA offrira à chacun des possibilités passionnantes de donner vie à de nouvelles idées. Toutefois, à mesure que ces nouveaux outils sont commercialisés par Microsoft et l'ensemble du secteur technologique, on doit prendre de nouvelles mesures pour nous assurer que ces nouvelles technologies résistent aux abus.

    L'histoire de la technologie montre depuis longtemps que la créativité n'est pas l'apanage des personnes bien intentionnées. Les outils deviennent malheureusement aussi des armes, et ce schéma se répète. On assiste actuellement à une expansion rapide de l'utilisation abusive de ces nouveaux outils d'IA par des acteurs malveillants, notamment par le biais de "deepfakes" basés sur des vidéos, des sons et des images générés par l'IA. Cette tendance fait peser de nouvelles menaces sur les élections, la fraude financière, le harcèlement par la pornographie non consensuelle et la nouvelle génération de cyberintimidation.


    On doit agir de toute urgence pour lutter contre tous ces problèmes. Voici l'approche de Microsoft pour lutter contre les contenus abusifs générés par l'IA :

    Il est encourageant de constater que nous pouvons tirer de nombreux enseignements de notre expérience en tant qu'industrie dans des domaines adjacents : faire progresser la cybersécurité, promouvoir la sécurité des élections, lutter contre les contenus extrémistes violents et protéger les enfants. En tant qu'entreprise, nous nous engageons à adopter une approche solide et globale qui protège les personnes et nos communautés, en nous appuyant sur six domaines d'action :

    1. Une architecture de sécurité solide. Nous nous engageons à adopter une approche technique globale fondée sur la sécurité dès la conception. Selon le scénario, une architecture de sécurité solide doit être appliquée au niveau de la plateforme d'IA, du modèle et des applications. Elle comprend des aspects tels que l'analyse continue de l'équipe rouge, les classificateurs préemptifs, le blocage des invites abusives, les tests automatisés et l'interdiction rapide des utilisateurs qui abusent du système. Elle doit s'appuyer sur une analyse de données solide et étendue. Microsoft a mis en place une architecture solide et partagé ses connaissances par le biais de ses normes en matière d'IA responsable et de sécurité numérique, mais il est clair que nous devrons continuer à innover dans ces domaines au fur et à mesure que la technologie évolue.

    2. Provenance durable des médias et filigrane. C'est essentiel pour lutter contre les "deepfakes" dans la vidéo, les images ou l'audio. L'année dernière, lors de notre conférence Build 2023, nous avons annoncé des capacités de provenance des médias qui utilisent des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA avec des métadonnées sur sa source et son historique. Avec d'autres grandes entreprises, Microsoft a joué un rôle de premier plan dans la recherche et le développement de méthodes d'authentification de la provenance, notamment en tant que cofondateur du projet Origin et de l'organisme de normalisation Coalition for Content Provenance and Authenticity (C2PA). La semaine dernière, Google et Meta ont pris des mesures importantes pour soutenir la C2PA, mesures que nous apprécions et applaudissons.

      Nous utilisons déjà la technologie de provenance dans les outils de création d'images Microsoft Designer dans Bing et dans Copilot, et nous sommes en train d'étendre la provenance des médias à tous nos outils qui créent ou manipulent des images. Nous étudions également activement les techniques de filigrane et d'empreinte digitale qui contribuent à renforcer les techniques de provenance. Nous nous engageons à poursuivre l'innovation afin d'aider les utilisateurs à déterminer rapidement si une image ou une vidéo a été générée ou manipulée par l'IA.

    3. Protéger nos services contre les contenus et les comportements abusifs. Nous nous engageons à protéger la liberté d'expression. Mais cela ne devrait pas protéger les individus qui cherchent à imiter la voix d'une personne pour escroquer l'argent d'une personne âgée. Elle ne doit pas s'étendre aux "deepfakes" qui modifient les actions ou les déclarations de candidats politiques pour tromper le public. Elle ne doit pas non plus protéger un cyber-homme de main ou un distributeur de pornographie non consensuelle. Nous nous engageons à identifier et à supprimer les contenus trompeurs et abusifs de ce type lorsqu'ils se trouvent sur nos services hébergés destinés aux consommateurs, tels que LinkedIn, notre réseau de jeux et d'autres services pertinents.

    4. Une collaboration solide entre les entreprises et avec les gouvernements et la société civile. Bien que chaque entreprise soit responsable de ses propres produits et services, l'expérience montre que c'est souvent lorsque nous travaillons ensemble pour un écosystème numérique plus sûr que nous obtenons les meilleurs résultats. Nous nous engageons à travailler en collaboration avec d'autres acteurs du secteur technologique, notamment dans les domaines de l'IA générative et des médias sociaux. Nous nous engageons également à déployer des efforts proactifs avec les groupes de la société civile et à collaborer de manière appropriée avec les gouvernements.

      Pour aller de l'avant, nous nous appuierons sur notre expérience de la lutte contre l'extrémisme violent dans le cadre de l'appel de Christchurch, sur notre collaboration avec les forces de l'ordre par l'intermédiaire de notre unité de lutte contre la criminalité numérique, et sur nos efforts pour mieux protéger les enfants dans le cadre de l'alliance mondiale WeProtect et d'une manière plus générale. Nous sommes déterminés à prendre de nouvelles initiatives dans l'ensemble du secteur technologique et avec d'autres groupes de parties prenantes.

    5. Une législation modernisée pour protéger les personnes contre l'utilisation abusive des technologies. Il est déjà évident que certaines de ces nouvelles menaces nécessiteront l'élaboration de nouvelles lois et de nouveaux efforts de la part des forces de l'ordre. Nous sommes impatients de contribuer aux idées et de soutenir les nouvelles initiatives des gouvernements du monde entier, afin de mieux protéger les internautes tout en respectant des valeurs intemporelles telles que la protection de la liberté d'expression et de la vie privée.

    6. Sensibilisation et éducation du public. Enfin, une défense solide nécessitera un public bien informé. À l'approche du deuxième quart du XXIe siècle, la plupart des gens ont appris qu'il ne faut pas croire tout ce que l'on lit sur l'internet (ou ailleurs). Une combinaison de curiosité et de scepticisme bien informé est une compétence essentielle pour tout le monde.

      De la même manière, nous devons aider les gens à reconnaître qu'il ne faut pas croire toutes les vidéos que l'on voit ou tous les sons que l'on entend. Nous devons aider les gens à apprendre à repérer les différences entre un contenu légitime et un contenu falsifié, y compris en ce qui concerne le filigrane. Cela nécessitera de nouveaux outils et programmes d'éducation du public, notamment en étroite collaboration avec la société civile et les dirigeants de l'ensemble de la société.


    En fin de compte, rien de tout cela ne sera facile. Il faudra déployer des efforts difficiles mais indispensables chaque jour. Mais avec un engagement commun en faveur de l'innovation et de la collaboration, nous pensons que nous pouvons tous travailler ensemble pour faire en sorte que la technologie reste en tête dans sa capacité à protéger le public. Peut-être plus que jamais, tel doit être notre objectif collectif.
    Source : Brad Smith, vice-président de Microsoft

    Et vous ?

    Pensez-vous que cette approche de Microsoft est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les entreprises technologiques prévoient de signer un accord pour lutter contre les fraudes électorales générées par l'IA, alors que des tentatives d'ingérence électorale par l'IA ont déjà eu lieu

    Microsoft comble la lacune qui a causé l'incident "Taylor Swift", avec plus de protections pour Designer. Le générateur d'images par IA était utilisé pour produire des images pornographiques

    Conférence développeurs et IT Pro Ignite 2023 : Microsoft dévoile sa stratégie pour l'IA, le Cloud, et la sécurité, ainsi que pour Windows, Copilot, ChatGPT, GTP-4, Azure, et Microsoft Office 365
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #373
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 969
    Points
    197 969
    Par défaut Le président Joe Biden demande l'interdiction des imitations vocales par l'IA après des incidents préoccupants
    Le président Joe Biden demande l'interdiction des imitations vocales par l'IA après des incidents préoccupants.
    Une mesure de sécurité ou une entrave à l’innovation ?

    Dans un monde de plus en plus numérisé, la question de l’authenticité et de la sécurité des voix synthétisées par intelligence artificielle (IA) prend une importance capitale. Récemment, le président Joe Biden a abordé cette problématique lors de son discours sur l’état de l’Union, appelant à une interdiction des imitations vocales par l’IA. Cette proposition fait suite à des incidents préoccupants, tels que l’utilisation d’appels robotisés imitant la voix du président pour dissuader les électeurs lors des primaires dans le New Hampshire2. Ces événements soulignent les risques potentiels associés à la technologie deepfake, notamment en matière de désinformation et de fraude.

    La société s'interroge peut-être sur la manière de réglementer l'IA. Mais le président Biden est déjà convaincu que les États-Unis doivent interdire la capacité de cette technologie à imiter la voix des gens. Lors de son discours sur l'état de l'Union, jeudi, Biden n'a mentionné l'IA qu'à deux reprises au cours de son intervention d'une heure. Il a toutefois souligné que l'usurpation de la voix par l'IA constituait une menace à laquelle il fallait mettre un terme.

    « Exploitez les promesses de l'IA et protégez-nous du danger. Interdisez les usurpations d'identité par l'IA et bien plus encore », a-t-il déclaré vers la fin de son discours.

    Ce discours intervient plus d'un mois après qu'un robot téléphonique imitant la voix de Biden a été utilisé pour décourager les électeurs des primaires dans le New Hampshire. Ironiquement, ce n'était pas l'œuvre d'escrocs ou de propagandistes étrangers. C'est un consultant politique démocrate, Steve Kramer, qui a admis avoir orchestré ces appels pour attirer l'attention sur la menace que représente l'usurpation de la voix de l'IA.

    « Je suis peut-être un méchant aujourd'hui, mais je pense qu'en fin de compte, nous aurons un meilleur pays et une meilleure démocratie grâce à ce que j'ai fait, délibérément », a déclaré Kramer à l'Associated Press.

    Jusqu'à présent, l'administration Biden a tenté de réprimer l'usurpation d'identité vocale par l'IA par l'intermédiaire de la FCC. Le mois dernier, le régulateur américain a confirmé que les appels vocaux générés par l'IA violaient les lois américaines existantes conçues pour protéger les consommateurs contre les appels automatisés préenregistrés. Mais cette décision n'empêche en rien les acteurs malveillants de diffuser des "deepfakes" sur l'internet.


    Aucune sanction éventuelle n'a été évoquée

    Lors de son discours sur l'état de l'Union, le président Joe Biden a fait un clin d'œil à un problème croissant dans les secteurs du divertissement et de la technologie, en appelant à l'interdiction des imitations vocales par l'IA.

    « Ici, chez nous, j'ai signé plus de 400 projets de loi bipartisans. Il en reste encore pour faire passer mon programme d'unité », a déclaré le président Biden, en commençant à énumérer une série de propositions différentes qu'il espère aborder s'il est élu pour un second mandat. « Renforcer les sanctions contre le trafic de fentanyl, adopter une législation bipartisane sur la protection de la vie privée pour protéger nos enfants en ligne, exploiter les promesses de l'intelligence artificielle pour nous protéger des dangers, interdire les usurpations de voix par l'intelligence artificielle, etc. »

    Le président n'a pas précisé les types de garde-fous ou de sanctions qu'il prévoyait d'instaurer autour de cette technologie en plein essor, ni s'ils s'étendraient à l'industrie du divertissement. L'IA a été l'une des principales préoccupations de la SAG-AFTRA lors des négociations et de la grève du syndicat des acteurs contre les grands studios l'année dernière. Les négociations se sont finalement conclues par un accord établissant des exigences en matière de consentement et de rémunération pour les productions qui utilisent l'IA pour reproduire les ressemblances et les voix des acteurs. Toutefois, l'accord n'empêche pas les studios d'entraîner les systèmes d'IA à créer des interprètes « synthétiques » qui ne ressemblent en rien à des personnes réelles.


    Plusieurs projets de loi en cours, les défenseurs des droits numérique tirent la sonnette d'alarme

    Entre-temps, les législateurs américains ont proposé au moins deux projets de loi pour tenter de mettre un terme à l'usurpation de la voix de l'IA. L'un d'entre eux, le No AI Fraud Act des représentantes María Elvira Salazar (R-FL) et Madeleine Dean (D-PA), propose d'autoriser les personnes à poursuivre les fabricants de ces imitations pour obtenir des dommages-intérêts. Toutefois, l'Electronic Frontier Foundation, un groupe de défense de la vie privée, a critiqué la formulation de la loi, la jugeant trop vague et trop large et susceptible d'englober tous les types de médias numériques contenant l'image d'une personne.

    « Si le Congrès veut vraiment protéger les artistes-interprètes et les gens ordinaires contre les utilisations trompeuses ou abusives de leurs images et de leur voix, il devrait adopter une approche précise, prudente et pratique qui évite les dommages collatéraux potentiels à la liberté d'expression, à la concurrence et à l'innovation », a ajouté l'EFF.

    Au Sénat, la loi DEFIANCE (Disrupt Explicit Forged Images and Non-Consensual Edits) créerait un « recours civil fédéral » pour les victimes de "deepfake porn". Elle couvre « les contrefaçons numériques qui représentent la victime nue, ou engagée dans un comportement sexuellement explicite ou des scénarios sexuels » créés par des logiciels, l'apprentissage automatique, l'intelligence artificielle et d'autres moyens technologiques ou générés par ordinateur.

    Nom : IA.png
Affichages : 4783
Taille : 595,3 Ko

    Des escroqueries qui s'appuient sur l'IA pour cloner les voix de vos proches et simuler une situation de rançon

    Récemment, une femme nommée Robin a reçu un coup de fil semblant provenir de sa belle-mère, Mona, qui, pourtant, ne l'appelait jamais après minuit. Elle s'est dit qu'il s'agissait probablement d'une fausse manipulation et l'a ignoré. Mais son numéro l'a rappelée. Face à l'insistance, elle a décroché et, à l'autre bout du fil, elle a entendu la voix de Mona qui se lamentait et répétait les mots « Je ne peux pas le faire, je ne peux pas le faire ». « J'ai cru qu'elle essayait de me dire qu'une chose horrible et tragique s'était produite »; a expliqué Robin.

    La première pensée de Robin a été qu'il y avait eu un accident. Puis elle a entendu ce qui semblait être la voix de son beau-père, Bob, au téléphone. « Mona, passe-moi le téléphone », a dit la voix de Bob, puis s'adressant à Robin, « va chercher Steve [son mari] ». Elle s'est exécutée et a réveillé son mari : « Je crois que c'est ta mère », lui dit-elle. « Je pense qu'elle me dit que quelque chose de terrible est arrivé ».

    Lorsqu'il a pris le téléphone, il a entendu une voix masculine détendue à l'autre bout du fil : « Tu ne vas pas appeler la police, tu ne vas le dire à personne. J'ai un pistolet sur la tempe de ta mère et je vais lui faire sauter la cervelle si tu ne fais pas exactement ce que je te dis ».

    L'homme a demandé de l'argent; il voulait cinq cents dollars, envoyés par Venmo. « C'était une somme tellement insensée pour un être humain », se souvient Steve. « Mais aussi : Il est évident que je vais payer cette somme ».

    Après que Steve a envoyé les cinq cents dollars, l'homme lui a fait envoyé 250 dollars de plus. Puis, environ 25 minutes après l'échange téléphonique, il a appelé sa mère pour s'assurer que ses parents étaient désormais en sécurité. Après quelques tentatives, son père Bob a décroché le téléphone et l'a tendu à Mona. « Tu es à la maison ? Tu vas bien ? » Lui a demandé Steve.

    Mona avait l'air d'aller bien, mais elle ne savait pas de quoi ils parlaient. « Oui, je suis couchée », a-t-elle répondu. « Pourquoi ? »

    Ils venaient de se faire escroquer.

    Cette arnaque est un exemple alarmant de la tendance croissante à l’utilisation de l’IA pour imiter les voix et tromper les gens en leur faisant croire que leurs proches sont en danger. La Commission Fédérale du Commerce des États-Unis a même émis un avertissement urgent concernant ces escroqueries, qui sont désormais les plus couramment signalées dans le pays

    Selon la Federal Trade Commission, qui enquête sur la fraude à la consommation, les Américains ont perdu plus de deux millions de dollars à cause d'escroqueries de toutes sortes en 2022. L'année dernière, la FTC a publié un avis de clonage vocal, notant : « Si l'appelant demande de virer de l'argent, d'envoyer de la cryptomonnaie ou d'acheter des cartes-cadeaux et de lui donner les numéros de carte et les codes PIN, cela pourrait être le signe d'une arnaque ». Mais elle n’a pas encore créé de lignes directrices pour l’utilisation de la technologie de clonage vocal. Même si des lois sont adoptées, il sera extrêmement difficile de les faire respecter. Les fraudeurs peuvent utiliser des applications cryptées pour exécuter leurs stratagèmes, et les appels sont effectués en quelques minutes.

    Conclusion

    L’appel du président Biden pour une interdiction des imitations vocales par l’IA met en lumière la nécessité d’une réglementation prudente et ciblée. Alors que la technologie continue de progresser, il est crucial de trouver un équilibre entre l’exploitation de ses avantages et la protection contre ses méfaits.

    Sources : State of the Union, EFF

    Et vous ?

    Quelles pourraient être les conséquences positives et négatives d’une interdiction des imitations vocales par l’IA ?
    Comment les gouvernements devraient-ils équilibrer la protection de la vie privée avec les avantages de l’IA dans le domaine de la synthèse vocale ?
    Les artistes et les créateurs de contenu devraient-ils avoir un droit de regard sur l’utilisation de leur voix par des technologies d’IA, même après avoir donné leur consentement initial ?
    Quel rôle les entreprises technologiques devraient-elles jouer pour garantir l’authenticité des voix synthétisées et prévenir les abus ?
    Les lois actuelles sont-elles suffisantes pour lutter contre les deepfakes et autres formes de désinformation générées par l’IA ? Sinon, quelles mesures supplémentaires devraient être prises ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #374
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 969
    Points
    197 969
    Par défaut IA : le gouvernement US doit agir « rapidement et de manière décisive » pour éviter les risques importants
    Le gouvernement US doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'IA
    qui pourrait, dans le pire des cas, provoquer une « extinction à la hauteur de la menace »

    Le gouvernement américain doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'intelligence artificielle (IA) qui pourrait, dans le pire des cas, constituer une « menace d'extinction pour l'espèce humaine », selon un rapport commandé par le gouvernement américain et publié lundi.

    « Le développement actuel de l'IA pose des risques urgents et croissants pour la sécurité nationale », indique le rapport. « L'essor de l'IA avancée et de l'AGI [intelligence artificielle générale] pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». L'AGI est une technologie hypothétique qui pourrait accomplir la plupart des tâches à un niveau égal ou supérieur à celui d'un humain. De tels systèmes n'existent pas à l'heure actuelle, mais les principaux laboratoires d'IA y travaillent et beaucoup s'attendent à ce que l'AGI arrive dans les cinq prochaines années ou moins.

    Le document final, intitulé « An Action Plan to Increase the Safety and Security of Advanced AI », recommande une série de mesures politiques radicales et sans précédent qui, si elles étaient adoptées, perturberaient radicalement l'industrie de l'IA. Le Congrès devrait rendre illégal, selon le rapport, l'entraînement de modèles d'IA utilisant plus d'un certain niveau de puissance de calcul. Le seuil, recommande le rapport, devrait être fixé par une nouvelle agence fédérale de l'IA, bien que le rapport suggère, à titre d'exemple, que l'agence pourrait le fixer juste au-dessus des niveaux de puissance de calcul utilisés pour former les modèles de pointe actuels tels que le GPT-4 d'OpenAI et le Gemini de Google.

    La nouvelle agence de l'IA devrait exiger des entreprises d'IA situées à la « frontière » du secteur qu'elles obtiennent l'autorisation du gouvernement pour former et déployer de nouveaux modèles au-delà d'un certain seuil, ajoute le rapport. Les autorités devraient également envisager « de toute urgence » de rendre illégale la publication des « poids » ou du fonctionnement interne des puissants modèles d'IA, par exemple dans le cadre de licences libres, les infractions pouvant être punies d'une peine d'emprisonnement, selon le rapport. Le gouvernement devrait également renforcer les contrôles sur la fabrication et l'exportation de puces d'IA et orienter le financement fédéral vers la recherche sur « l'alignement » qui vise à rendre l'IA avancée plus sûre, recommande le rapport.

    Nom : IA.png
Affichages : 4691
Taille : 475,3 Ko

    Les recommandations du rapport

    Le rapport a été commandé par le département d'État en novembre 2022 dans le cadre d'un contrat fédéral d'une valeur de 250 000 dollars, selon des documents publics. Il a été rédigé par Gladstone AI, une entreprise de quatre personnes qui organise des séances d'information technique sur l'IA à l'intention des fonctionnaires. (Certaines parties du plan d'action recommandent que le gouvernement investisse massivement dans la formation des fonctionnaires sur les fondements techniques des systèmes d'IA afin qu'ils puissent mieux comprendre leurs risques). Le rapport a été remis au département d'État le 26 février sous la forme d'un document de 247 pages. Le département d'État n'a pas répondu à plusieurs demandes de commentaires sur le rapport. Les recommandations « ne reflètent pas le point de vue du Département d'État des États-Unis ou du gouvernement des États-Unis », indique la première page du rapport.

    Les recommandations du rapport, dont beaucoup étaient auparavant impensables, font suite à une série vertigineuse de développements majeurs dans le domaine de l'IA qui ont amené de nombreux observateurs à revoir leur position à l'égard de cette technologie. Le chatbot ChatGPT, lancé en novembre 2022, a été la première fois que ce rythme de changement est devenu visible pour la société dans son ensemble, ce qui a conduit de nombreuses personnes à se demander si les futures IA pourraient poser des risques existentiels pour l'humanité.

    Depuis, de nouveaux outils, dotés de capacités accrues, continuent d'être mis sur le marché à un rythme soutenu. Alors que les gouvernements du monde entier discutent de la meilleure façon de réglementer l'IA, les plus grandes entreprises technologiques ont rapidement mis en place l'infrastructure nécessaire pour former la prochaine génération de systèmes plus puissants, en prévoyant dans certains cas d'utiliser une puissance de calcul 10 ou 100 fois supérieure. Parallèlement, plus de 80 % des Américains pensent que l'IA pourrait accidentellement provoquer un événement catastrophique, et 77 % des électeurs estiment que le gouvernement devrait faire davantage pour réglementer l'IA, selon un récent sondage réalisé par l'AI Policy Institute.

    Nom : audio.png
Affichages : 796
Taille : 336,8 Ko

    Un rapport qui risque de se heurter à des difficultés politiques

    Selon le rapport, interdire la formation de systèmes d'IA avancés au-delà d'un certain seuil pourrait « modérer la dynamique de course entre tous les développeurs d'IA » et contribuer à réduire la vitesse de fabrication de matériel plus rapide par l'industrie des puces. Au fil du temps, une agence fédérale de l'IA pourrait relever le seuil et autoriser la formation de systèmes d'IA plus avancés une fois que la sécurité des modèles de pointe aura été suffisamment prouvée, propose le rapport. De même, le gouvernement pourrait abaisser le seuil de sécurité si des capacités dangereuses sont découvertes dans des modèles existants.

    La proposition risque de se heurter à des difficultés politiques. « Je pense qu'il est très peu probable que cette recommandation soit adoptée par le gouvernement des États-Unis », déclare Greg Allen, directeur du Wadhwani Center for AI and Advanced Technologies au Center for Strategic and International Studies (CSIS), en réponse à un résumé fourni par TIME de la recommandation du rapport visant à interdire les entraînements à l'IA au-delà d'un certain seuil. La politique actuelle du gouvernement américain en matière d'IA, note-t-il, consiste à fixer des seuils de calcul au-delà desquels des exigences supplémentaires en matière de transparence, de contrôle et de réglementation s'appliquent, mais pas à fixer des limites au-delà desquelles les essais d'entraînement seraient illégaux. « En l'absence d'un choc exogène, je pense qu'il est peu probable qu'ils changent d'approche », déclare Allen.

    Jeremie et Edouard Harris, respectivement PDG et directeur technique de Gladstone, informent le gouvernement américain sur les risques de l'IA depuis 2021. Les deux frères affirment que les représentants du gouvernement qui ont assisté à leurs premières réunions d'information ont reconnu que les risques de l'IA étaient importants, mais leur ont dit que la responsabilité de les gérer incombait à différentes équipes ou départements. À la fin de l'année 2021, les Harris affirment que Gladstone a finalement trouvé un service gouvernemental chargé de traiter les risques liés à l'IA : le Bureau de la sécurité internationale et de la non-prolifération du département d'État. Les équipes du Bureau ont un mandat inter-agences pour traiter les risques liés aux technologies émergentes, y compris les armes chimiques et biologiques, ainsi que les risques radiologiques et nucléaires. À la suite de réunions d'information organisées par Jeremie et Mark Beall, alors directeur général de Gladstone, le Bureau a lancé, en octobre 2022, un appel d'offres pour la rédaction d'un rapport susceptible d'éclairer la décision d'ajouter ou non l'IA à la liste des autres risques qu'il surveille. (Le département d'État n'a pas répondu à une demande de commentaire sur l'issue de cette décision). L'équipe Gladstone a remporté ce contrat et le rapport publié lundi en est le résultat.

    Le rapport se concentre sur deux catégories de risques distinctes

    La première catégorie, appelée « risque d'armement », est décrite dans le rapport : « Ces systèmes pourraient potentiellement être utilisés pour concevoir et même exécuter des attaques biologiques, chimiques ou cybernétiques catastrophiques, ou permettre des applications armées sans précédent dans le domaine de la robotique en essaim ». La deuxième catégorie est ce que le rapport appelle le risque de « perte de contrôle », c'est-à-dire la possibilité que les systèmes d'IA avancés soient plus malins que leurs créateurs. Il y a, selon le rapport, « des raisons de croire qu'ils pourraient être incontrôlables s'ils sont développés à l'aide des techniques actuelles, et qu'ils pourraient se comporter de manière hostile à l'égard des êtres humains par défaut ».

    Selon le rapport, ces deux catégories de risques sont exacerbées par la « dynamique de la course » dans le secteur de l'IA. Selon le rapport, la probabilité que la première entreprise à réaliser l'AGI récolte la majorité des bénéfices économiques incite les entreprises à donner la priorité à la vitesse plutôt qu'à la sécurité. « Les laboratoires d'IA d'avant-garde sont confrontés à une incitation intense et immédiate à faire évoluer leurs systèmes d'IA aussi vite que possible », indique le rapport. « Ils ne sont pas immédiatement incités à investir dans des mesures de sûreté ou de sécurité qui n'apportent pas d'avantages économiques directs, même si certains le font par souci sincère ».

    Le rapport Gladstone identifie le matériel - en particulier les puces informatiques haut de gamme actuellement utilisées pour former les systèmes d'IA - comme un goulot d'étranglement important pour l'augmentation des capacités de l'IA. Selon le rapport, la réglementation de la prolifération de ce matériel pourrait être "la condition la plus importante pour préserver la sécurité mondiale à long terme de l'IA". Il indique que le gouvernement devrait envisager de lier les licences d'exportation de puces à la présence de technologies sur puce permettant de contrôler si les puces sont utilisées dans de grandes séries d'entraînement à l'IA, afin de faire respecter les règles proposées contre l'entraînement de systèmes d'IA plus grands que le GPT-4. Toutefois, le rapport note également que toute intervention devra tenir compte de la possibilité qu'une surréglementation soutienne les industries de puces étrangères, érodant ainsi la capacité des États-Unis à influencer la chaîne d'approvisionnement.

    Les auteurs du rapport ont travaillé pendant plus d'un an, s'entretenant avec plus de 200 fonctionnaires, experts et employés d'entreprises d'avant-garde dans le domaine de l'IA, comme OpenAI, Google DeepMind, Anthropic et Meta, dans le cadre de leurs recherches. Les comptes rendus de certaines de ces conversations brossent un tableau inquiétant, suggérant que de nombreux travailleurs de la sécurité de l'IA dans les laboratoires de pointe sont préoccupés par les incitations perverses qui motivent la prise de décision par les dirigeants qui contrôlent leurs entreprises.

    Source : rapport

    Et vous ?

    Quelles devraient être les priorités du gouvernement pour réguler l’intelligence artificielle ?
    Comment pouvons-nous équilibrer les avantages de l’IA avec les risques potentiels pour la sécurité ?
    Quel rôle les citoyens devraient-ils jouer dans la surveillance de l’évolution de l’IA ?
    Quelles mesures internationales pourraient être prises pour assurer une utilisation éthique de l’IA ?
    Comment la recherche et l’innovation en IA peuvent-elles contribuer à prévenir les scénarios catastrophiques ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #375
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 061
    Points : 2 855
    Points
    2 855
    Par défaut
    Citation Envoyé par virginieh Voir le message
    En quoi il diffère du notre du coup ?
    En effet, la situation politique en France est malheureusement assez proche. La seul différence est qu'il y a toujours un mince espoir par le fait que le système est moins fondé sur le bipartisme. Depuis 2017, les politiciens de LR et du PS ayant les idées les plus anti-démocratique on rejoins Macron, ce qui a créé un éclatement du système politique. De plus, aux USA toute voix de gauche (j’entends social) est réduite au silence au sein du parti démocrate (comme Bernie Sanders par exemple, pourtant pas si à gauche que ça). L'obligation de faire carrière dans un des deux principaux partis est clairement un carcans énorme.

  16. #376
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 841
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 841
    Points : 51 491
    Points
    51 491
    Par défaut La Chine utilisera l'IA pour perturber les élections aux USA, en Corée du Sud et en Inde, prévient Microsoft
    La Chine utilisera l'IA pour perturber les élections aux USA, en Corée du Sud et en Inde, prévient Microsoft
    A propos du tsunami de désinformation dû à l’avènement des deepfakes et IA génératives

    Le gouvernement chinois intensifie ses efforts en matière d'intelligence artificielle pour perturber les élections dans le monde entier, d’après l'équipe de renseignement sur les menaces de Microsoft. Le géant technologique affirme qu'une multitude de groupes cybercriminels soutenus par l'État chinois prévoient d'utiliser l'IA pour perturber les élections de 2024 aux États-Unis, en Inde et en Corée du Sud. Les experts en sécurité de l'entreprise ont ajouté que la Corée du Nord participait également à cet effort, qui pourrait s'étendre à toute une série de canaux, y compris les médias sociaux.

    La Chine utilise de faux comptes de médias sociaux pour sonder les électeurs sur ce qui les divise le plus, afin de semer la discorde et d'influencer éventuellement le résultat de l'élection présidentielle américaine en sa faveur. C’est ce qui ressort de l’alerte de Microsoft qui ajoute que le Parti communiste chinois soutient des groupes cybercriminels qui, ces derniers mois, ont tenté de diviser les Américains sur une série d'événements récents, notamment en affirmant que le gouvernement américain pourrait être impliqué dans le déraillement du train du Kentucky en novembre 2023, que les États-Unis empoisonnent de façon intentionnelle les réserves d'eau étrangères, les raisons de la consommation de drogues aux États-Unis, ainsi que les politiques d'immigration et les tensions raciales dans le pays.

    Nom : 2.png
Affichages : 7757
Taille : 429,0 Ko

    L’un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à l’IA, qui peuvent faire dire ou faire n’importe quoi à n’importe qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique comme le président Joe Biden être transporté à l’hôpital, ou un candidat dire des choses qu’il ou elle n’a jamais dites.

    Près de trois ans après que les émeutiers ont pris d’assaut le Capitole des États-Unis, les théories du complot à l’origine de cette violente attaque restent répandues sur les réseaux sociaux et dans l’actualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.

    Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois s’érodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.

    De nombreux Américains, encouragés par l’ancien président Donald Trump, ont continué à promouvoir l’idée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden n’a pas été légitimement élu président.

    Parallèlement, les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.

    Les deepfakes IA deviennent de plus en plus répandus

    Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.

    Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection.

    « On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital. On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu », soulignent des observateurs

    Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.

    Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.

    Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.

    Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.

    Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.


    Les protections des médias sociaux s'effondrent : l'exemple de X/Twitter

    Il y a un peu plus d’un an, Elon Musk a racheté Twitter et a commencé à licencier ses dirigeants, à démanteler certaines de ses fonctionnalités principales et à remodeler la plateforme de médias sociaux pour en faire ce que l’on appelle désormais X.

    Depuis lors, il a bouleversé le système de vérification, laissant les agents publics vulnérables aux usurpateurs d’identité. Il s'est débarrassé des équipes qui luttaient autrefois contre la désinformation sur la plateforme, laissant la communauté des utilisateurs se modérer. Et il a rétabli les comptes de théoriciens du complot et d’extrémistes qui étaient auparavant bannis.

    Les changements ont été applaudis par de nombreux conservateurs qui affirment que les précédentes tentatives de modération de Twitter équivalaient à une censure de leurs opinions. Mais les partisans des démocrates affirment que cette prise de pouvoir a transformé ce qui était autrefois une ressource imparfaite mais utile en matière d’information et d’informations électorales en une chambre d’écho largement non réglementée qui amplifie les discours de haine et la désinformation.

    Twitter était autrefois l'une des plateformes « les plus responsables », montrant sa volonté de tester des fonctionnalités susceptibles de réduire la désinformation, même au détriment de l'engagement, a déclaré Jesse Lehrich, co-fondateur d'Accountable Tech, un groupe de surveillance à but non lucratif.

    « De toute évidence, ils se trouvent désormais à l'autre extrémité du spectre », a-t-il déclaré, ajoutant qu'il pensait que les changements apportés par l'entreprise avaient permis à d'autres plateformes d'assouplir leurs propres politiques.

    Nom : 3.png
Affichages : 1204
Taille : 540,0 Ko

    X, Meta et YouTube et leurs gestions de la désinformation

    À l’approche de 2024, X, Meta et YouTube ont supprimé ensemble 17 politiques protégeant contre la haine et la désinformation, selon un rapport de Free Press, une organisation à but non lucratif qui défend les droits civiques dans la technologie et les médias.

    En juin, YouTube a annoncé que même s’il continuerait de réglementer les contenus trompeurs sur les élections en cours ou à venir, il cesserait de supprimer les contenus prétendant faussement que les élections de 2020 ou d’autres élections américaines précédentes ont été entachées de « fraudes, erreurs ou problèmes généralisés ». La plateforme a déclaré que cette politique visait à protéger la capacité de « débattre ouvertement des idées politiques, même celles qui sont controversées ou basées sur des hypothèses réfutées ».

    Lehrich a déclaré que même si les entreprises technologiques veulent éviter de supprimer les contenus trompeurs, « il existe de nombreuses façons neutres en termes de contenu » pour les plateformes de réduire la propagation de la désinformation, depuis l'étiquetage des articles vieux de plusieurs mois jusqu'à rendre plus difficile le partage de contenu sans l'examiner. d'abord.

    X, Meta et YouTube ont également licencié des milliers d'employés et de sous-traitants depuis 2020, dont certains incluent des modérateurs de contenu.

    Le rétrécissement de ces équipes, que beaucoup attribuent à la pression politique, « prépare le terrain pour que les choses soient pires en 2024 qu’en 2020 », a déclaré Kate Starbird, experte en désinformation à l’Université de Washington.

    Meta explique sur son site Internet qu'elle compte quelque 40 000 personnes dévouées à la sûreté et à la sécurité et qu'elle gère « le plus grand réseau indépendant de vérification des faits de toutes les plateformes ». Il supprime également fréquemment les réseaux de faux comptes de réseaux sociaux visant à semer la discorde et la méfiance. « Aucune entreprise technologique n’en fait ou n’investit autant que Meta pour protéger les élections en ligne – pas seulement pendant les périodes électorales mais à tout moment », indique le message.

    Ivy Choi, porte-parole de YouTube, a déclaré que la plateforme était « fortement investie » dans la connexion des gens à du contenu de haute qualité sur YouTube, y compris pour les élections. Elle a souligné les panneaux de recommandation et d’information de la plateforme, qui fournissent aux utilisateurs des informations électorales fiables, et a déclaré que la plateforme supprimait les contenus qui induisaient les électeurs en erreur sur la manière de voter ou encourageaient l’ingérence dans le processus démocratique.

    La montée en puissance de TikTok et d’autres plateformes moins réglementées telles que Telegram, Truth Social et Gab a également créé davantage de silos d’informations en ligne où des allégations sans fondement peuvent se propager. Certaines applications particulièrement populaires parmi les communautés de couleur et les immigrés, comme WhatsApp et WeChat, s'appuient sur des discussions privées, ce qui rend difficile pour les groupes extérieurs de voir la désinformation qui peut se propager.

    « Je crains qu’en 2024, nous assistions à des faux récits recyclés et enracinés similaires, mais à des tactiques plus sophistiquées », a déclaré Roberta Braga, fondatrice et directrice exécutive du Digital Democracy Institute of the Americas. « Mais du côté positif, j'espère qu'il y aura plus de résilience sociale face à ces choses ».

    « Si une campagne de désinformation est suffisamment efficace pour qu’un pourcentage suffisamment important de la population américaine ne croit pas que les résultats reflètent ce qui s’est réellement passé, alors le 6 janvier [date de l’assaut du Capitole par des partisans de Donald Trump] ressemblera probablement à un échauffement », a averti Laura Rosenberger, directrice du groupe de réflexion Alliance for Securing Democracy.

    Face à ce défi, certains acteurs tentent de sensibiliser le public et de renforcer la résilience démocratique. C’est le cas d'un groupe d’étudiants du Minnesota qui se concentre sur la promotion et la sensibilisation des électeurs. Le groupe organise des séances d’information avec des responsables électoraux, des experts en désinformation et des journalistes, et encourage les jeunes à s’informer auprès de sources fiables et diversifiées : « Nous voulons que les gens soient conscients de ce qui se passe, qu’ils sachent comment vérifier les faits et qu’ils comprennent comment les médias sociaux peuvent influencer leur perception de la réalité ».

    Source : Microsoft

    Et vous ?

    Quelle est votre opinion sur le développement de l’IA et son impact sur la désinformation ?
    Pensez-vous que les réseaux sociaux devraient être plus responsables et régulés face à la diffusion des deepfakes et des fausses informations ?
    Comment vous informez-vous sur les candidats et les enjeux des élections en général et de l’élection américaine de 2024 en particulier ? Craignez-vous une ingérence de l'IA dans les élections présidentielles de votre pays tandis que la technologie se perfectionne ? Dans quelle mesure ?
    Quel rôle pensez-vous que les citoyens et les organisations civiles peuvent jouer pour renforcer la résilience démocratique face à la désinformation ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #377
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 605
    Points : 18 523
    Points
    18 523
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Quelle est votre opinion sur le développement de l’IA et son impact sur la désinformation ?
    Même avant l'IA il y avait de la désinformation partout.

    Par exemple régulièrement des gens comme Bruno Le Maire, Gérald Darmanin, Emmanuel Macron, Gabriel Attal, diffusent de fausses informations.
    Les Mensonges de la Macronie

    Citation Envoyé par Patrick Ruiz Voir le message
    Pensez-vous que les réseaux sociaux devraient être plus responsables et régulés face à la diffusion des deepfakes et des fausses informations ?
    Non.
    Déjà parce que c'est techniquement impossible. J'imagine qu'il existe une course entre les outils qui génèrent des deepfakes et les outils qui identifient les deepfakes.
    Donc bonne chance pour identifier les deepfakes.

    Ensuite il est rarement possible de savoir ce qui est une "vraie information".
    Ou alors il faudrait un ministère de la vérité qui dise "ça c'est vrai" / "ça c'est faux", ce qui serait digne d'un régime totalitaire.

    Citation Envoyé par Patrick Ruiz Voir le message
    Comment vous informez-vous sur les candidats et les enjeux des élections en général et de l’élection américaine de 2024 en particulier ?
    Aux USA les 2 candidats favoris sont Trump et Biden.
    Les électeurs peuvent utiliser leurs expériences personnelles pour se forger un jugement. Trump a été président, Biden a été président ; il est donc possible de s'imaginer ce que cela donnerait si l'un d'entre eux prenait le pouvoir en 2024.

    Celui qui est très satisfait du bilan de Biden peut voter Biden, celui qui préfère le bilan de Trump peut voter Trump.
    Ou sinon les électeurs peuvent regarder les promesses de campagne.

    Si c'est vrai ce qui est dit dans cet article je préfère le programme de Trump :
    Duel Trump vs Biden: que disent leurs programmes ?
    Ça parle de protectionnisme, ce qui est toujours cool.
    Ça parle de diminuer l'immigration illégale, ce qui est important.
    Ça parle de faire quelque chose contre la crise des opioïdes, il y a un grave problème avec ces médicaments aux USA, les médecins se sont laissé manipuler par les laboratoires et en ont prescris trop facilement.
    Il dit que les USA ne reconnaitront que 2 genres (ce qui est bien puisque c'est le cas dans la réalité).

    Citation Envoyé par Patrick Ruiz Voir le message
    Craignez-vous une ingérence de l'IA dans les élections présidentielles de votre pays tandis que la technologie se perfectionne ? Dans quelle mesure ?
    J'ai plus peur des instituts de sondages, des médias mainstream, du gouvernement et de la justice de mon propre pays.

    Citation Envoyé par Patrick Ruiz Voir le message
    Quel rôle pensez-vous que les citoyens et les organisations civiles peuvent jouer pour renforcer la résilience démocratique face à la désinformation ?
    Des démocraties ne fonctionnent pas très bien.
    Une candidate fait des promesses pendant la campagne, une fois qu'elle est présidente elle fait ce qu'elle veut et on ne peut rien faire pour la dégager.
    Le pire c'est que parfois, après un mandat catastrophique elle se fait réélire, alors que tout le monde la déteste.

    Il parait qu'en Suisse c'est légèrement mieux.
    Là-bas il y a un truc qui s'appelle "referendum", ça n'existe pas en France, c'est un procédé par lequel une autorité politique consulte l'ensemble des citoyens.
    Keith Flint 1969 - 2019

  18. #378
    Membre expérimenté
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    389
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 389
    Points : 1 690
    Points
    1 690
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Même avant l'IA il y avait de la désinformation partout.

    Par exemple régulièrement des gens comme Bruno Le Maire, Gérald Darmanin, Emmanuel Macron, Gabriel Attal, diffusent de fausses informations.
    Les Mensonges de la Macronie

    Il parait qu'en Suisse c'est légèrement mieux.
    Là-bas il y a un truc qui s'appelle "referendum", ça n'existe pas en France, c'est un procédé par lequel une autorité politique consulte l'ensemble des citoyens.
    Entièrement d'accord avec vous. Depuis Sarkozy les élus Français ont très bien compris qu'il fallait mieux arrêter de nous demander notre avis vu qu'on a dit non à la constitution européenne. Pour aggrandir les murs de la prison améliorer notre démocratie il faut donc constamment nous inonder d'infos sinon fausse, très fortement orientée pour qu'ils puissent continuer à nous emmener droit dans le mur pour éviter que les USA ne chutent trop bruyamment.

    Nords Stream a sauté, l'Europe est dans une récession sans précédent, mais la priorité ce serait de continuer à lutter contre la discrimination capillaire.

Discussions similaires

  1. Réponses: 69
    Dernier message: 24/11/2023, 13h10
  2. Réponses: 4
    Dernier message: 15/07/2021, 14h42
  3. Réponses: 0
    Dernier message: 19/03/2021, 07h58
  4. Réponses: 2
    Dernier message: 30/07/2015, 00h48
  5. Réponses: 3
    Dernier message: 20/06/2012, 18h00

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo