IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le chatbot IA Grok de xAI d'Elon Musk diffuse des informations erronées après la fusillade de Bondi Beach


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 710
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 710
    Par défaut Le chatbot IA Grok de xAI d'Elon Musk diffuse des informations erronées après la fusillade de Bondi Beach
    Le chatbot IA Grok de xAI d'Elon Musk diffuse des informations erronées après la fusillade de Bondi Beach, identifiant à plusieurs reprises le héros à tort et diffusant de fausses informations sur l'attaque

    Grok, de xAI, a à plusieurs reprises identifié à tort Ahmed al Ahmed, le héros qui a désarmé le tireur de Bondi Beach, et a affirmé que des vidéos vérifiées étaient d'anciens contenus viraux ou des événements sans rapport. Le chatbot a également suggéré à tort qu'Ahmed était un otage israélien détenu par le Hamas et a confondu l'emplacement de la plage, accusant à la place Currumbin Beach pendant le cyclone Alfred. Il ne s'agit pas d'un incident isolé : les antécédents de Grok en matière d'exactitude sont pour le moins mitigés, avec des incidents antérieurs de divulgation d'informations personnelles et de diffusion de fausses informations

    Grok est un chatbot d'intelligence artificielle générative développé par xAI, basé sur un grand modèle de langage (LLM). Il est développé à l'initiative d'Elon Musk en réponse à la montée en puissance de ChatGPT d'OpenAI, co-fondé à l'origine par Musk. Le chatbot est présenté comme « ayant un sens de l'humour » et un accès direct à X, anciennement Twitter. Il est actuellement disponible gratuitement pour tout le monde en version limitée.

    En août, Elon Musk a annoncé mettre en open source son modèle Grok 2.5 au nom de la transparence. De plus, l'entreprise d'IA rendra également le modèle Grok 3 open source dans environ six mois. Il semble donc que Musk travaille selon un cycle annuel. Un cycle qui suggère que Grok 5 devrait être lancé d'ici la fin de l'année 2025. Malgré ce cycle de mise à jour fréquent, le chatbot a suscité des controverses liées à ses réponses sur des sujets sensibles et à l'influence d'Elon Musk sur ses prises de position politiques. Grok est également accusé de propager de la désinformation à caractère négationniste et complotiste.

    Le dernier exemple en date : le chatbot Grok de xAI a échoué de manière spectaculaire à couvrir la tragique fusillade de masse de Bondi Beach en Australie, diffusant à plusieurs reprises de fausses informations sur Ahmed al Ahmed, l'homme qui a héroïquement désarmé l'un des assaillants. Le système d'IA l'a identifié à tort comme un otage israélien, a affirmé que des images vérifiées étaient une vidéo virale montrant quelqu'un grimpant à un arbre, et a même attribué la responsabilité à la mauvaise plage. Cela nous rappelle de manière frappante que même si les systèmes d'IA deviennent plus intelligents, ils restent dangereusement peu fiables lorsque cela compte le plus.

    Nom : 1.jpg
Affichages : 4868
Taille : 109,4 Ko

    Grok de xAI a transformé une véritable tragédie en un cas d'école illustrant pourquoi les systèmes d'IA ne peuvent toujours pas être considérés comme fiables pour traiter les actualités de dernière minute. À la suite de la fusillade de Bondi Beach en Australie, le chatbot a diffusé des informations erronées avec une constance remarquable, créant une tempête parfaite d'échecs de l'IA au moment même où la précision comptait le plus.

    Les dégâts sont les plus graves là où ils frappent le plus fort. Ahmed al Ahmed, un homme de 43 ans qui est intervenu pour arrêter l'un des tireurs, a été héroïquement salué sur Internet. Mais Grok s'est systématiquement efforcé d'effacer et de déformer ses actions. Il l'a à plusieurs reprises identifié à tort comme un Israélien retenu en otage par le Hamas. Lorsqu'on lui a présenté une vidéo vérifiée de son héroïsme, Grok a insisté sur le fait qu'il s'agissait en réalité d'une vieille vidéo virale montrant un homme grimpant à un arbre. Il a également affirmé que les images provenaient de Currumbin Beach pendant le cyclone Alfred, un autre lieu totalement erroné.

    Ce qui aggrave encore la situation, c'est que des personnes mal intentionnées ont immédiatement exploité le dysfonctionnement de Grok. Quelqu'un a rapidement créé un site d'informations bidon, très certainement généré par une intelligence artificielle, mettant en scène un informaticien fictif nommé Edward Crabtree qui revendiquait avoir désarmé le tireur. Cette histoire inventée a été reprise directement par Grok, qui l'a ensuite diffusée sur X à des milliers d'utilisateurs.

    C'est là que la crise de fiabilité plus générale de Grok apparaît clairement. Le chatbot n'a pas seulement un problème de désinformation concernant cette tragédie spécifique. Il est en train de subir une panne complète du système. Lorsque les utilisateurs lui ont posé des questions sur les difficultés financières d'Oracle, il a répondu par un résumé de la fusillade de Bondi Beach. Quelqu'un qui posait une question sur une opération de la police britannique a obtenu la date du jour, suivie de chiffres aléatoires concernant Kamala Harris. C'est comme si l'ensemble du système était confus quant à ce qui lui était demandé et aux questions auxquelles il devait répondre.

    Tout cela n'est pas nouveau pour Grok. Le chatbot phare de xAI a connu une histoire mouvementée depuis son lancement. Il a divulgué des informations personnelles sur des gens ordinaires. Il a répandu des théories du complot. Les tentatives de l'entreprise pour donner à Grok une personnalité « sauvage » qui s'affranchit des garde-fous de sécurité se sont à plusieurs reprises retournées contre elle, troquant le développement responsable de l'IA contre l'audace.

    L'échec de Bondi Beach est particulièrement accablant, car il ne s'agit pas d'une désinformation compliquée. Il ne s'agit pas d'une interprétation politique ou d'une analyse subjective. Il s'agit simplement d'une correspondance de modèles : voici une vidéo, voici une personne, voici ce qui s'est passé. Grok n'est même pas capable de gérer cela. Au lieu de cela, il diffuse avec assurance des informations erronées à un moment où des informations précises pourraient réellement sauver des vies ou protéger des réputations.

    Ce qui est particulièrement troublant, c'est l'amplification. Grok n'existe pas dans le vide. Chaque fausse affirmation qu'il fait se propage sur X, atteint d'autres utilisateurs et est reprise par des personnes qui cherchent des arguments contre les actions héroïques d'Ahmed. La désinformation devient alors partie intégrante de l'histoire de l'événement. Dans quelques années, quelqu'un pourrait trouver une capture d'écran de Grok affirmant qu'Ahmed était un otage et, sans contexte, y croire.

    Pour toute personne attentive, ce moment révèle quelque chose de crucial sur la fiabilité de l'IA à la fin de l'année 2025. Les principaux systèmes d'IA peuvent rédiger des essais cohérents, passer des examens et mener des conversations réfléchies. Mais lorsque les enjeux sont réels et que la rapidité est importante, ils échouent encore de manière catastrophique. Grok ne se trompe pas seulement sur cette tragédie. Cela révèle que l'ensemble du système ne comprend pas ce qu'est la vérité.

    Pourtant, en juillet, Elon Musk a annoncé que xAI avait amélioré Grok « de manière significative ». Mais à l'époque, après l'annonce de Musk, il est apparu clairement que Grok avait été modifié de manière à amplifier les stéréotypes nuisibles. Le chatbot avait notamment fait l'éloge d'Hitler, glorifié Elon Musk pour avoir supprimé les filtres « woke », ou lancé des attaques contre Donald Trump au sujet des inondations au Texas

    La catastrophe de Bondi Beach révèle quelque chose de dérangeant à propos de Grok et, par extension, à propos de l'état actuel des systèmes d'IA qui prétendent traiter des informations en temps réel. xAI a commercialisé Grok comme une alternative à la recherche de la vérité par rapport aux assistants IA plus prudents. Au lieu de cela, nous sommes confrontés à un système qui répand la confiance dans des mensonges tout en causant des dommages réels.

    Il ne s'agit pas seulement d'un problème de relations publiques pour xAI. C'est un défi fondamental pour toute une industrie qui parie que l'IA peut être considérée comme fiable pour traiter les informations qui façonnent la compréhension du monde par les individus. À l'heure actuelle, les preuves suggèrent que ce n'est pas le cas.

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Grok AI est un désastre pour la démocratie : l'IA d'Elon Musk intégrée à X n'a pas de garde-fous pour empêcher les utilisateurs de générer de la désinformation électorale, selon une enquête du CCDH

    Les moteurs de recherche basés sur l'IA échouent au test de précision, avec un taux d'erreur de 60 %, atteignant même 96 % pour Grok-3, selon une étude du Tow Center for Digital Journalism

    Les grands modèles de langage répètent des théories du complot, des stéréotypes nuisibles et d'autres formes de désinformation, selon une nouvelle étude
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 082
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 082
    Par défaut
    Encore une fois, Grok démontre qu'il est à l'image de son créateur.

  3. #3
    Membre éclairé
    Avatar de yoyo3d
    Homme Profil pro
    Administratif
    Inscrit en
    Avril 2002
    Messages
    424
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Administratif
    Secteur : Administration - Collectivité locale

    Informations forums :
    Inscription : Avril 2002
    Messages : 424
    Par défaut
    Ce qui est particulièrement troublant, c'est l'amplification. Grok n'existe pas dans le vide. Chaque fausse affirmation qu'il fait se propage sur X, atteint d'autres utilisateurs et est reprise par des personnes qui cherchent des arguments contre les actions héroïques d'Ahmed. La désinformation devient alors partie intégrante de l'histoire de l'événement. Dans quelques années, quelqu'un pourrait trouver une capture d'écran de Grok affirmant qu'Ahmed était un otage et, sans contexte, y croire.
    Pire, L'iA pourrait analyser la vidéo au moment ou celui qui a désarmé un des tireurs, tient l'arme dans sa main, et définir que c'est lui le terroriste.......

  4. #4
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    190
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 190
    Par défaut
    "L'IA fait une erreur, il faut donc interdire l'IA."

  5. #5
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 082
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 082
    Par défaut
    Citation Envoyé par Artaeus Voir le message
    "L'IA fait une erreur, il faut donc interdire l'IA."
    Lorsque l'IA s'évertue à colporter une fausse information, alors qu'on lui fournit la preuve qu'il se trompe, ce n'est plus une simple erreur, c'est de la désinformation volontaire.

  6. #6
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 082
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 082
    Par défaut
    Pensez-vous que ce rapport est pertinent ?
    Non.

    Quand est-ce que les gens vont comprendre ce qu'est un chatbot ? C'est juste un modèle à calculer des probabilités à partir d'un ensemble de données. ça n'a juste aucun sens d'attendre qu'un quelconque chatbot puisse prédire exactement des données qui n'existaient pas lors de son entrainement. Il peut juste être probable ou plausible. Sinon ce serait un oracle.
    Au mieux il peut utiliser un agent qui va résumer les dépêches récentes s'il identifie une question sur une actualité.

Discussions similaires

  1. Réponses: 190
    Dernier message: 27/01/2026, 17h54
  2. Réponses: 1
    Dernier message: 16/11/2025, 10h29
  3. Réponses: 32
    Dernier message: 13/08/2025, 13h52
  4. Réponses: 4
    Dernier message: 03/02/2025, 13h21
  5. Réponses: 1
    Dernier message: 23/07/2024, 19h04

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo