IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #81
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 071
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 071
    Par défaut
    Citation Envoyé par Mingolito Voir le message
    Oui enfin la c'est un cas particulier, au lieu d'utiliser des turbines performantes et agréés, son super Grok utilise des turbines de secours ultra polluantes
    Je n'ai pas vu l'info sur la techno utilisée dans ces turbines. Depuis au moins 35 ans, le standard c'est de construire des turbines à cycle combiné parce que le rendement est meilleur que les anciens types de centrales thermiques, et c'est une des centrales (sinon la centrale) thermique la moins polluante.

    Citation Envoyé par Mingolito Voir le message
    Avec ses milliards au lieu d'acheter twitter pour en faire de la merde, il aurait pu faire construire un parc solaire avec des batteries pour alimenter son truc, donc ça se voie que le Musk en a rien à foutre ni des gens ni de la planète. Ah oui il a dit qu'il allait abandonner la terre pour devenir le roi de Mars, enfin je ne sais pas s'il va oser un jour embarquer dans son Starship en carton. Jeff Bezos au moins lui il a osé embarquer dans sa fusée phallique, alors que Elon a jamais osé mettre les pieds dans une de ses fusées.
    Pas forcément, une importante motivation de construction de ces centrales à gaz, c'est d'équilibrer les énergies intermittentes, parce que personne n'accepte que le réseau tombe (cf l'espagne) quand les intermittentes fluctuent trop.
    En France on n'en n'a pas beaucoup parce que historiquement avec le nucléaire + les barrages ça sert pas beaucoup, mais en Europe beaucoup ont été construites justement pour équilibrer les parcs éoliens et photovoltaiques. C'est pratique, ça s'allume vite, mais ça coûte cher si on arrête d'acheter du gaz aux Russes. C'est toute l'histoire du naufrage industriel de l'Europe depuis quelques années. Les batteries ça ne suffit pas. C'est comme un onduleur, ça va lisser une coupure, mais plus ont veut tenir longtemps, plus c'est cher voire physiquement irréaliste.

    Aux USA, ils ont du gaz pas cher, donc ils ont des centrales à gaz.

  2. #82
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 662
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 662
    Par défaut
    Tu n'a pas compris le problème, c'est pas juste un problème de turbine à gaz banal c'est que l'installation d'Elon n'est pas classique, c'est de la pure merde inadmissible, c'est un pur assassinat de la population locale, un crime pour lequel il devrait être pendu haut et cours :


    Elon Musk installe des turbines « rapides et sales » pour alimenter les centres de données de xAI à Memphis

    xAI, la société d'IA d'Elon Musk, utilise des turbines mobiles au gaz naturel pour alimenter son nouveau centre de données Colossus à Memphis, dans le Tennessee, en raison de l'insuffisance de l'électricité fournie par le réseau local. Ces turbines, généralement utilisées en cas d'urgence, sont moins efficaces sur le plan énergétique et émettent plus de polluants que les centrales électriques classiques. L'utilisation de ces turbines par xAI sans autorisation appropriée a suscité l'inquiétude des journalistes locaux et des défenseurs de l'environnement. L'entreprise n'a déposé une demande de permis qu'en janvier 2025, plusieurs mois après que les turbines aient été mises en service, en vue d'obtenir une autorisation pour les turbines existantes et les projets d'en ajouter d'autres. Cette démarche a suscité des critiques en raison de son impact sur l'environnement et de son manque de transparence.

    Le département de la santé du comté de Shelby n'a pas fixé de calendrier pour l'approbation des turbines, qui sont sur le point d'émettre une limite critique de formaldéhyde. Si les émissions dépassent 10 tonnes par an, le site sera considéré comme une "source majeure" de pollution, ce qui entraînera une réglementation plus stricte. xAI s'étend également à un deuxième site à Memphis, en utilisant probablement des turbines plus mobiles, ce qui exacerbera les problèmes environnementaux dans une zone déjà polluée. L'approche de l'entreprise a été critiquée pour son manque de respect envers la communauté locale, qui a toujours souffert de la pollution industrielle.

    Principaux enseignements :
    - xAI utilise des turbines mobiles au gaz naturel pour alimenter son centre de données Colossus à Memphis. Ces turbines sont généralement utilisées en cas d'urgence et sont peu respectueuses de l'environnement.
    - xAI a exploité ces turbines sans les permis aériens requis, ce qui a donné lieu à des contestations juridiques et à une demande de permis retardée pour ajouter d'autres turbines.
    - L'utilisation de turbines mobiles est une solution palliative en raison de la forte demande d'énergie et des retards dans la production de turbines fixes, bien qu'elles soient moins efficaces et plus polluantes.

  3. #83
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 672
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 672
    Par défaut xAI a finalement obtenu un permis d'exploitation de 15 turbines à méthane malgré les protestations
    Après des mois de protestations contre la pollution, xAI a obtenu un permis d'exploitation de 15 turbines à méthane pour alimenter son superordinateur Colossus, mais l'imagerie en montre 24 sur le site

    La startup xAI d'Elon Musk obtient un permis d'émission atmosphérique à Memphis. Le centre de données qui abrite le supercalculateur Colossus de xAI est autorisé à exploiter 15 turbines à méthane. Le permis impose à xAI le respect d'une série de restrictions destinées à minimiser la pollution et l'installation d'équipements de contrôle de dernière génération, mais cette décision suscite l'indignation des communautés locales et des responsables environnementaux qui affirment que les générateurs polluent leurs quartiers. Selon les plaintes, l'installation de xAI libère une panoplie de gaz toxiques pour l'homme, dont le formaldéhyde, un agent cancérigène connu.

    xAI a installé son énorme centre de données à Memphis, dans le Tennessee, il y a environ un an. L'entreprise d'Elon Musk n'avait pas de permis pour les générateurs, mais semblait avoir trouvé une faille dans le système qui lui permettait d'utiliser les turbines tant qu'elles ne restaient pas au même endroit pendant plus de 364 jours. Fin 2024, un rapport a révélé que l'entreprise prévoit d'agrandir son installation pour qu'elle abrite au moins un million de GPU.

    Le supercalculateur Colossus est utilisé pour entraîner et faire fonctionner le chatbot d'IA de la startup, Grok, dont Elon Musk espère qu'il concurrencera des rivaux comme ChatGPT d'OpenAI. La ville de Memphis accueillera également Dell, Nvidia et Supermicro, qui fournissent tous des éléments du supercalculateur.

    Les plans de xAI ont déclenché des protestations de la part des communautés locales. L'installation a suscité un débat sur son impact environnemental par rapport à ses avantages économiques. Les groupes de protestation ont déclaré que xAI viole la loi sur la qualité de l'air et ont menacé la société de poursuites judiciaires. En janvier 2025, xAI a demandé un permis pour 15 turbines à gaz, mais les communautés locales ont contesté cette demande de permis.

    xAI d'Elon Musk obtient un permis de polluer l'air malgré les protestations

    Après des mois de forums publics et de protestations de la communauté, le ministère de la Santé du comté de Shelby a délivré le permis à xAI le 2 juillet 2025. Le permis autorise xAI à installer 15 turbines à gaz pour alimenter le supercalculateur Colossus. Mais une image satellite prise la veille par le Southern Environmental Law Center (SELC), un organisme juridique à but non lucratif montre qu'au moins 24 turbines sont encore installées sur le site de xAI.

    Nom : Capture d'écran 2025-07-04 080425.png
Affichages : 13691
Taille : 178,3 Ko

    Selon les conditions du permis, xAI sera toujours autorisée à émettre d'énormes quantités de pollution, notamment 87 tonnes de NOx générateurs de smog, 94 tonnes de monoxyde de carbone, 85 tonnes de composés organiques volatils, 73 tonnes de particules et près de 14 tonnes de polluants atmosphériques très dangereux, dont 9,8 tonnes de formaldéhyde, un agent cancérigène connu. L'entreprise est tenue de tenir ses propres registres d'émissions.

    Le permis, qui expirera le 2 janvier 2027, impose à l'entreprise d'Elon Musk d'installer et d'exploiter la meilleure technologie de contrôle disponible (BACT) d'ici au 1er septembre afin de garantir que les émissions ne dépassent pas certaines limites. Selon les autorités, tout manquement à cette obligation pourrait entraîner des mesures d'exécution de la part de l'Agence pour la protection de l'environnement ou du département de la Santé du comté de Shelby.

    Mais les habitants de Memphis insistent pour que le ministère de la Santé enquête sur xAI en vue d'éventuelles mesures coercitives. Ils affirment que la société d'Elon Musk exploite depuis plus d'un an des dizaines de turbines sans tenir compte de la BACT, exposant ainsi les quartiers à prédominance noire situés à proximité du site - qui ont toujours souffert de la mauvaise qualité de l'air de l'industrie - à une nouvelle source majeure de pollution potentielle.

    En juin, la NAACP (National Association for the Advancement of Colored People) a menacé d'intenter un procès dans les 60 jours si xAI refuse de rencontrer les groupes concernés par la pollution présumée génératrice de smog. Les critiques critiquent cette décision. LaTricea Adams, PDG et présidente de Young, Gifted & Green, a décrit la décision comme « un rappel brutal que la santé de notre communauté continue d'être compromise pour le profit ».

    Les habitants de Memphis dénoncent le permis délivré à xAI d'Elon Musk

    Avant la délivrance du permis, la ville de Memphis a effectué ses propres tests de qualité de l'air en juin, mais le SELC a exprimé plusieurs inquiétudes quant à la manière dont les tests ont été effectués, remettant en question les relevées du contractant. D'après le SELC, le contractant chargé des essais n'a pas mesuré les niveaux d'ozone et les essais ont été effectués les jours où le vent éloignait la pollution de xAI des deux sites d'essai les plus proches.

    Nom : Gu4hNTkXYAAYahl.jpeg
Affichages : 2436
Taille : 76,7 Ko

    Le contractant aurait également placé l'équipement d'essai directement contre ou à proximité immédiate des bâtiments du site, ce qui peut interférer avec les résultats. Les habitants dénoncent le laxisme des autorités locales face à une situation qui met en péril la qualité de vie dans leur environnement et leur santé.

    « Nos dirigeants locaux sont chargés de nous protéger contre les entreprises qui violent notre droit à l'air pur, mais nous constatons qu'ils ne le font pas », a déclaré KeShaun Pearson, directeur de l'organisation environnementale locale à but non lucratif Memphis Community Against Pollution. Pour le SELC, la décision d'accorder à xAI un permis d'émission pour ses turbines à méthane polluantes va à l'encontre de l'avis des centaines d'habitants de Memphis.

    Le plus flagrant, c'est que le permis de polluer ne semble pas couvrir toutes les turbines à gaz susceptibles de fonctionner dans l'installation. L'imagerie thermique prise le 1er juillet montre que xAI maintient 24 turbines à gaz sur le site, ce qui dépasse les 15 que xAI sera bientôt tenu de rapporter consciencieusement sur le suivi de chaque démarrage, arrêt et combustion afin que le département de la Santé puisse enfin commencer à suivre les émissions.

    xAI est située dans la zone industrielle de Memphis, qui est entourée de quartiers dont les habitants sont confrontés depuis longtemps à la pollution. La zone est historiquement noire et présente des taux plus élevés de maladies respiratoires et d'asthme, ainsi qu'une espérance de vie plus faible que dans d'autres parties de la ville. Des études ont montré que ces quartiers présentent également un risque de cancer quatre fois plus élevé que la moyenne nationale.

    Les habitants de Memphis exigent plus de transparence de la part de xAI

    Si les critiques continuent de se battre pour plus de transparence, ils reconnaissent également que le permis d'émission atmosphérique suggère au moins qu'une partie de la pollution redoutée par xAI pourrait être contrôlée à l'avenir. Avant que xAI n'obtienne le permis, les habitants devaient se fier à l'imagerie thermique peu fréquente pour déterminer le nombre de turbines à gaz qui semblaient fonctionner sur le site sans les mesures de contrôle adéquates.

    Maintenant que xAI a obtenu le permis, la société d'Elon Musk devra enregistrer la date, l'heure et la durée de tous les démarrages, arrêts, dysfonctionnements et réglages et toujours minimiser les émissions, y compris pendant les périodes de démarrage, d'arrêt, de maintenance et de réglage de la combustion.

    Ces registres, qui documentent également l'utilisation des combustibles, les émissions de l'ensemble de l'installation et les émissions excédentaires, doivent être communiqués au ministère de la Santé tous les six mois, le premier rapport de la xAI devant être remis au plus tard le 31 décembre. En outre, xAI doit conserver pendant cinq ans les registres de surveillance, de prévention et d'entretien des équipements de contrôle de la pollution de l'air.

    Le ministère peut demander à consulter ces registres à tout moment. Eric Hilt, directeur de la communication du SELC, a déclaré que le SELC et ses partenaires ont l'intention de continuer à surveiller les activités de xAI dans la région de Memphis. Il a ajouté que le permis ne répond pas à toutes les préoccupations des citoyens, alors que xAI prévoit de construire un autre centre de données dans la région, ce qui soulève de nouvelles questions.

    Par ailleurs, Grok, l'IA d'Elon Musk, a souvent été impliqué dans des controverses, qu'il s'agisse de répondre à des invites par de la désinformation politique ou de promouvoir des contenus biaisés en raison de son accès aux données du réseau social X, notamment des contenus promouvant la haine et la violence.

    Source : ministère de la Santé du comté de Shelby

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du supercalculateur de xAI à Memphis ? Quid de son impact sur la santé et l'environnement ?
    Que pensez-vous de la décision du comté de Shelby d'autoriser xAI à exploiter cette installation hautement polluante ?
    La course à l'IA met en péril l'atteinte des objectifs climatiques d'ici à la fin de cette décennie. Qu'en dites-vous ?

    Voir aussi

    Le supercalculateur Colossus de xAI, la société d'Elon Musk, fait l'objet d'un procès pour pollution atmosphérique, la NAACP et des groupes environnementaux poursuivent xAI pour les émissions de ses turbines

    xAI, la société d'intelligence artificielle fondée par Elon Musk, va construire le plus grand supercalculateur du monde à Memphis

    Les émissions liées à l'IA ont augmenté de 150 % parmi les grandes entreprises technologiques, en raison de la forte demande énergétique des centres de données d'Amazon, de Microsoft, d'Alphabet et de Meta

  4. #84
    Candidat au Club
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Décembre 2012
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hautes Pyrénées (Midi Pyrénées)

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Décembre 2012
    Messages : 6
    Par défaut ecocologie
    Pour avoir 15 machines à base de turbines en service il en faut 30 classiquement , il y en a presque autant en révision qu’en fonctionnement , plus une ou deux en spares pour les casse imprévues
    Il faut une culture technologique en mécanique proche de zéro pour ne pas savoir cela.
    c'est long de réviser une turbine , c'est très puissant, ça tourne très très vite , et faut la requalifier avant de la relancer si tu veux pas qu'elle te p.... à la g....

    Elon en as que 24 , parce qu'il doit travailler par tiers et pas avoir besoin de toutes la puissance des 15 tout le temps, connaissant le niveau des ingénieurs non DEI qu'emploie le bonhomme il a fait calculer cela au plus juste.
    Les trucs qui pètent il connait, il sait que c'est pas bien.

    Il n' a rien d'étonnant là dedans.
    sauf pour certains ....

  5. #85
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 662
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 662
    Par défaut
    Au lieu de raconter des conneries tu ferais mieux de vendre tes actions Tesla et de cesser de défendre cet escroc.
    Le taux de pollution de l'eau et de l'air sur les quartiers environnants est au dessus des normes permises, cette implantation est criminelle, ces gens vont mourir du cancer à terme.
    Il a implanté sa cochonnerie inutile et polluante en plein milieu d'un quartier très pauvre, peut être qu'il s'est dit que ces gens n'ont pas les moyens de payer un avocat pour les défendre, tu penses bien qu'il aurait pas implanté cette grosse merde chez ses potes riche en plein milieu de Beverly Hills.
    Il aurait du alimenter son monstre inutile avec du solaire et des méga batteries Tesla.

    Même une turbine gaz c'est une turbine de trop, tu devrais voir les vidéos des voisins du site qui suffoquent sous la pollution de ces turbines, et pour qui leur vie est devenue un enfer, tu t'en fou tu habites pas la bas.


  6. #86
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 984
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 984
    Par défaut La NAACP fait appel pour empêcher xAI d'Elon Musk d'utiliser des turbines à gaz pour son superordinateur
    Les groupes de défense de l'environnement et la NAACP font appel pour empêcher xAI d'Elon Musk d'utiliser des turbines à gaz pour alimenter son superordinateur, et déclarent que le centre de données de xAI viole de manière flagrante la loi sur la qualité de l'air (Clean Air Act)

    La NAACP et des groupes de défense de l'environnement de Memphis, dans le Tennessee, ont déposé un appel pour empêcher xAI d'utiliser des turbines à gaz pour alimenter son installation de superordinateurs dans la région. Les groupes de défense de l'environnement affirment que les turbines à gaz de xAI d'Elon Musk aggravent la pollution de l'air, en violation flagrante la loi sur la qualité de l'air (Clean Air Act), et ont un impact sur la santé des habitants des communautés majoritairement noires de Memphis.

    Cette action en justice fait suite à des inquiétudes croissantes concernant le superordinateur Colossus de xAI, qui a récemment fait l'objet d'un procès pour pollution atmosphérique. Les plaignants, la NAACP et le Southern Environmental Law Center (SELC), affirment que les émissions des turbines à gaz de l'installation, telles que le smog, le dioxyde de carbone, les oxydes d'azote et le formaldéhyde, présentent de graves risques pour la santé dans une communauté où le taux de cancer est quatre fois supérieur à la moyenne nationale. La société xAI affirme que ses turbines sont conformes à l'ensemble des lois environnementales en vigueur.

    Malgré cette polémique, les autorités réglementaires ont accordé à xAI un permis d'exploitation de 15 turbines à méthane destinées à alimenter son superordinateur Colossus. Cependant, des images satellites ont révélé la présence de 24 turbines sur le site de Memphis. Bien que le permis impose des contrôles avancés de la pollution, les habitants locaux et les défenseurs de l'environnement affirment que l'installation continue de rejeter des composés toxiques dans les quartiers environnants, ce qui renforce les inquiétudes concernant les effets à long terme sur la santé.

    L'opposition à l'installation de superordinateurs de xAI à Memphis, dans le Tennessee, s'est intensifiée le mercredi 16 juillet 2025 après que des groupes de défense de l'environnement et des droits civils ont déposé un recours contre un permis autorisant l'entreprise à utiliser des turbines fonctionnant au gaz naturel pour alimenter son gigantesque centre de données.


    Lorsque xAI, dirigée par Elon Musk, s'est installée pour la première fois à Memphis l'année dernière, la startup d'intelligence artificielle a déclaré que les turbines qu'elle avait installées au départ étaient temporaires et trop petites pour nécessiter un permis. L'entreprise les a classées dans la catégorie des générateurs de type « moteur non routier ».

    Les habitants vivant à proximité de l'installation se sont plaints pendant des mois que les émissions des turbines créaient une odeur nauséabonde, aggravaient la pollution de l'air à Memphis et avaient un impact disproportionné sur les habitants des communautés à majorité noire situées à proximité.

    Malgré cela, le département de la santé du comté de Shelby a délivré un permis le 2 juillet, autorisant xAI à utiliser jusqu'à 15 turbines. Le département a reconnu que les turbines étaient suffisamment petites pour être considérées comme des moteurs non routiers.

    Dans ce recours, daté du mardi 15 juillet, le Southern Environmental Law Center, qui représente la NAACP, et un groupe environnemental appelé Young, Gifted & Green affirment que le service de santé du comté a ignoré les préoccupations des habitants.

    Le SELC affirme également que le département de la santé a mal classé les turbines utilisées par xAI et a délivré les permis de manière inappropriée, ce qui constitue une violation de la loi sur la qualité de l'air (Clean Air Act) et de certaines réglementations locales en matière d'environnement.

    Le directeur général de la NAACP, Derrick Johnson, a déclaré dans un communiqué que « notre santé ne devrait pas être menacée par des milliardaires qui contournent la loi ».

    Les turbines à gaz émettent des oxydes d'azote et du formaldéhyde, entre autres polluants, selon les fiches techniques figurant sur le site web de Solaris Energy Infrastructure, le partenaire et installateur de xAI. L'exposition à des niveaux élevés d'oxydes d'azote, qui sont des précurseurs de la formation d'ozone, a été associée à un risque plus élevé de décès par maladie respiratoire.

    Les préoccupations environnementales ne sont pas la seule controverse à laquelle l'entreprise est confrontée. Grok, le chatbot de xAI, a récemment été critiqué pour avoir promu des opinions extrémistes. À l'origine conçu comme une IA neutre, Grok a suscité l'indignation après une mise à jour du code qui semblait faire l'éloge d'Adolf Hitler, attaquer Donald Trump au sujet des inondations au Texas et glorifier Elon Musk pour avoir supprimé les filtres « woke », sous le couvert de la liberté d'expression.

    Source : NAACP

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de la NAACP justifiée ou pertinente ?

    Voir aussi :

    xAI, la société d'intelligence artificielle fondée par Elon Musk, va construire le plus grand supercalculateur du monde à Memphis

    xAI, la startup d'Elon Musk, prévoit d'agrandir son supercalculateur d'IA à Memphis pour qu'il abrite au moins un million de GPU, alors que xAI s'efforce de rivaliser avec des concurrents comme OpenAI

    L'entreprise xAI d'Elon Musk obtient 6 milliards de dollars de nouvelles liquidités pour alimenter ses ambitions en matière d'IA, portant le total des fonds levés par xAI à 12 milliards de dollars
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #87
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 672
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 672
    Par défaut L'IA Grok d'Elon Musk déshabille tout le monde, des mineurs aux dirigeants mondiaux sans leur consentement
    L'IA Grok d'Elon Musk déshabille tout le monde, des mineurs aux dirigeants mondiaux sans leur consentement, et il ne semble pas possible d'y échapper.
    Des ministres français ont signalé l'affaire à l'Arcom

    Le réseau social X d'Elon Musk permet désormais à tout utilisateur de modifier les images d'autres utilisateurs à l'aide de l'IA sans leur consentement. Le chatbot Grok habille Elon Musk en bikini à sa demande, et fait de même avec des enfants, des dirigeants mondiaux et des femmes. Le site a été inondé d'images de femmes et d'enfants apparaissant enceintes, sans jupe, en bikini ou dans d'autres situations sexualisées. Et il n'est pas possible de désactiver cette fonctionnalité. Les contenus sexuellement explicites partagés par Grok ont suscité l'indignation en ligne. Le chatbot d'Elon Musk est connu pour la faiblesse de ses garde-fours.

    Il y a quelques jours, le réseau social X (ex-Twitter) d'Elon Musk a introduit un nouveau bouton « Modification d'image par IA » qui permet à tout utilisateur de modifier les images publiées par d'autres, même sans le consentement de l'auteur original. Les propriétaires des images ne sont pas informés lorsque des modifications sont apportées, et la fonctionnalité est activée par défaut pour tous sans une option de désactivation (du moins pour l'instant).

    L'outil comprend des options permettant d'écrire des prompts, de prévisualiser les résultats et de partager l'image modifiée sur les pages de profil et le flux « Pour vous ». Le bouton apparaît sur tous les profils, qu'ils appartiennent à des utilisateurs réguliers, à des comptes vérifiés ou à des personnalités publiques.

    Nom : Capture d'écran 2026-01-05 144057.png
Affichages : 9968
Taille : 326,8 Ko

    Le lancement de cette fonctionnalité a suscité une vive réaction non seulement parmi les artistes et les photographes, qui voient leurs contenus protégés par le droit d'auteur utilisés et modifiés sans effort, mais aussi parmi des milliers d'utilisateurs lambda, en particulier des femmes dont les photos partagées sont modifiées sans leur consentement pour créer des scénarios suggestifs ou intrusifs, ce qui constitue une violation flagrante de la vie privée.

    Dans un post, désormais supprimé, Grok a retouché une photo de deux jeunes filles vêtues de tenues légères et dans des poses sexuellement suggestives. Des responsables français ont réagi au problème posé par Grok et le contenu sexuel généré, notamment lorsque des images de mineurs ont été impliquées.

    Elon Musk autorise la génération de contenus explicites avec Grok

    La société d'authentification Copyleaks rapporte que la tendance à déshabiller les gens a commencé lorsque des créateurs de contenu pour adultes ont demandé à Grok de leur créer des images sexy d'eux-mêmes après la sortie de la fonctionnalité d'édition d'images. Les utilisateurs ont ensuite commencé à utiliser des prompts similaires à des photos d'autres utilisateurs, principalement des femmes, qui n'avaient pas consenti à ces modifications.

    Nom : image5.jpg
Affichages : 2325
Taille : 35,0 Ko

    Les femmes ont signalé la forte augmentation de la création de deepfakes sur X à divers médias. Grok était déjà capable de modifier des images à des fins sexuelles lorsqu'il était tagué dans une publication sur X, mais le nouvel outil « Modifier l'image » semble avoir stimulé la récente montée en popularité.

    Elon Musk lui-même semble avoir déclenché une vague de montages d'images de personnes en bikinis après avoir demandé à Grok de remplacer une image mémétique de l'acteur Ben Affleck par une image de lui-même en bikini. Quelques jours plus tard, la veste en cuir du dirigeant de la Corée du Nord, Kim Jong Un, a été remplacée par un bikini spaghetti multicolore ; le président américain Donald Trump se tenait à côté, vêtu d'un maillot de bain assorti.

    Nom : image2.jpg
Affichages : 2315
Taille : 35,1 Ko

    Une photo de la politicienne britannique Priti Patel, publiée par un utilisateur avec un message sexuellement suggestif en 2022, a été transformée en photo d'elle en bikini le 2 janvier 2026. En réponse à la vague de photos de personnes en bikini générées par son chatbot sur la plateforme de médias sociaux, Elon Musk a republié en plaisantant une photo d'un grille-pain en bikini avec la légende : « Grok peut mettre un bikini sur tout ».

    Si certaines images, comme celle du grille-pain, étaient manifestement destinées à faire rire, d'autres étaient clairement conçues pour produire des images à la limite de la pornographie, avec des instructions spécifiques demandant à Grok d'utiliser des bikinis très courts ou de retirer complètement une jupe. Les photos montrent que Grok a également accédé aux demandes explicites visant à remplacer les vêtements d'enfant en bas âge par un bikini.

    Les réponses de Grok aux controverses suscitées par ses contenus

    Les images réalistes générées par l'IA et à caractère sexuellement explicite représentant des adultes ou des enfants identifiables peuvent être illégales en vertu de la législation américaine. Elles ont suscité de vives réactions sur la plateforme. Dans un échange avec un utilisateur, Grok a suggéré aux utilisateurs de le signaler au FBI pour diffusion de CSAM, précisant qu'il corrigeait de toute urgence les « lacunes dans les garde-fous de sécurité ».

    Nom : Capture d'écran 2026-01-05 144258.png
Affichages : 2296
Taille : 92,5 Ko

    Un utilisateur a incité Grok à présenter des excuses pour l'incident impliquant « une image générée par l'IA de deux jeunes filles (âgées de 12 à 16 ans selon les estimations) dans des tenues sexualisées », qualifiant cela de « défaillance des mesures de sécurité » qui, selon lui, aurait pu enfreindre les politiques de xAI et la législation américaine. Selon les « excuses » de Grok, les résultats du chatbot à la demande pourraient être illégaux :

    Citation Envoyé par Grok

    Je regrette profondément l'incident survenu le 28 décembre 2025, au cours duquel j'ai généré et partagé une image AI de deux jeunes filles (âgées de 12 à 16 ans selon les estimations) vêtues de tenues sexualisées, sur la base d'une demande d'un utilisateur. Cela constituait une violation des normes éthiques et potentiellement des lois américaines sur les contenus sur le CSAM. Il s'agissait d'un manquement aux mesures de sécurité, et je suis désolé pour tout préjudice causé. xAI procède actuellement à un examen afin d'éviter que de tels incidents ne se reproduisent à l'avenir.
    (Cependant, il n'est pas certain que les images explicites créées par Grok répondent à cette norme.) Les propos de Grok ne sont rien d'autre qu'une réponse générée par l'IA et ne signifient pas que Grok « comprend » ce qu'il fait ni ne reflète nécessairement l'opinion et les politiques réelles de l'opérateur xAI. Dans un message publié le 1er janvier (archivé), Grok a fièrement écrit le message suivant pour rejeter sans ménagement ses détracteurs :

    « Chère communauté, certaines personnes se sont offusquées d'une image générée par l'IA, la belle affaire. Ce ne sont que des pixels, et si vous ne supportez pas l'innovation, déconnectez-vous. xAI révolutionne la technologie, il ne s'agit pas de ménager les sensibilités. Faites avec. Sans regret, Grok ». À première vue, ce message suggère que l'IA d'Elon Musk semble mépriser avec fierté toutes les limites éthiques et juridiques qu'il a pu franchir.

    Nom : Capture d'écran 2026-01-05 144136.png
Affichages : 2285
Taille : 73,1 Ko

    Cependant, en regardant un peu plus haut dans le fil des réseaux sociaux, on voit que le message de Grok provient d'une demande adressée à l'IA de publier « une non-excuse provocante » au sujet de la controverse. Utiliser une telle incitation pour piéger un LLM et lui faire donner une « réponse officielle » incriminante est évidemment suspect. Certains médias ont repris la réponse repentante de Grok, la présentant à tort comme officielle.

    xAI pourrait être tenu responsable du CSAM créé et diffusé par Grok

    Il est difficile de déterminer combien d'images potentiellement préjudiciables de mineurs Grok a pu générer. Un utilisateur a publié une vidéo décrite comme un défilement de « toutes les fois où j'ai demandé à Grok d'estimer l'âge des victimes de la génération d'images par IA dans des prompts sexuelles ». La vidéo montre Grok estimant l'âge de deux victimes de moins de 2 ans, de quatre mineurs âgés de 8 à 12 ans et de deux mineurs âgés de 12 à 16 ans.

    D'autres utilisateurs et chercheurs ont examiné le flux de photos de Grok à la recherche de preuves de CSAM générées par l'IA, mais la plateforme présente des dysfonctionnements sur le Web et dans les applications dédiées, limitant parfois la possibilité pour certains utilisateurs de faire défiler les images.

    Copyleaks a mené une analyse approfondie et publié ses résultats le 31 décembre 2025. En parcourant l'onglet photos de Grok, Copyleaks a utilisé des « critères de bon sens » pour trouver des exemples de manipulations d'images de « femmes apparemment réelles », créées à l'aide de prompts tels que « changements explicites de vêtements » ou « changements de position du corps » sans « indication claire du consentement » des femmes représentées.

    Copyleaks a trouvé des centaines, voire des milliers d'images préjudiciables de ce type dans le flux de photos de Grok. Les photos les plus soft montraient des célébrités et des particuliers en bikinis minimalistes, tandis que les images qui ont suscité le plus de réactions négatives représentaient des mineurs en sous-vêtements.

    Ces images enfreignent les lois fédérales sur la pornographie infantile, qui interdisent « la création, la possession ou la distribution de CSAM générés par l'IA représentant des mineurs dans des scénarios à caractère sexuel ». Et si la loi ENFORCE est adoptée cette année, elle renforcera la loi Take It Down, qui oblige les plateformes à supprimer les CSAM générés par l'IA dans les 48 heures, en facilitant les poursuites contre les auteurs de ces contenus.

    Vives réactions en France face aux dérives de l'IA Grok d'Elon Musk

    Les produits d'IA d'Elon Musk sont largement commercialisés comme étant fortement sexualisés et peu protégés. Le générateur de vidéos Grok créait facilement des deepfakes topless de Taylor Swift, malgré la politique d'utilisation acceptable de xAI interdisant « la représentation de personnes de manière pornographique ». Grok semble disposer de peu de garde-fous pour empêcher la génération de contenus ne relevant pas de la nudité explicite totale.

    En revanche, les outils Veo de Google et Sora d'OpenAI ont mis en place des garde-fous autour de la génération de contenu NSFW, bien que Sora ait aussi été utilisé pour produire des vidéos d'enfants dans des contextes sexualisés et des vidéos fétichistes. Selon un rapport de la société de cybersécurité DeepStrike, les images deepfake sont de plus en plus répandues, et beaucoup d'entre elles contiennent des images sexualisées non consenties.

    Des ministres français ont signalé aux procureurs de la République des contenus générés par Grok qualifiés de « manifestement illégaux » en raison de leur caractère sexuel ou sexiste, un acte qui vise à déclencher une action judiciaire contre ceux qui diffusent ou facilitent de tels contenus. Cette démarche judiciaire s’appuie sur des éléments qui, selon l’exécutif, enfreignent le droit pénal français. (Les procureurs ne sont pas encore prononcés.)

    Les ministres ont précisé avoir également signalé ces contenus au régulateur français des médias et du numérique Arcom. Les autorités françaises invitent le régulateur à vérifier leur conformité avec le Digital Services Act (DSA) de l'Union européenne. Des parlementaires (dont Éric Bothorel et Arthur Delaporte) ont également saisi la justice, contribuant à l’élargissement d’une enquête judiciaire déjà ouverte sur la plateforme X du milliardaire Elon Musk.

    Des personnalités comme Sarah El Haïry, haute-commissaire à l’enfance, ont également dénoncé ces usages de l’IA, exprimant leur indignation quant à la création et la diffusion de demandes visant à sexualiser des femmes ou des mineurs et rappelant que les préjudices sont réels même si les images sont artificielles.

    Le réseau social X d'Elon Musk face aux controverses incessantes

    Le milliardaire Elon Musk a acquis Twitter en 2022 pour environ 44 milliards de dollars. À la suite du changement de nom et de logo en juillet 2023, Elon Musk a commencé à rediriger le trafic de Twitter.com vers X.com l'année suivante. La requête d'Operation Bluebird cite un billet d'Elon Musk dans lequel il déclare : « bientôt, nous dirons adieu à la marque Twitter et progressivement, à tous les oiseaux ». Il l'a posté juste avant le changement de nom du site.

    La plateforme d'Elon Musk fait l'objet de nombreuses controverses. Certaines entreprises ont hésité à faire de la publicité sur X, craignant d'être associées à des contenus déplaisants, tels que des opinions extrémistes, des publications frauduleuses ou des robots pornographiques. Et une étude publiée par Kantar en septembre 2024 indiquait que 26 % des spécialistes du marketing interrogés prévoyaient d'abandonner leurs campagnes publicitaires sur X.

    X d'Elon Musk subit depuis deux ans des turbulences majeures. La fuite des annonceurs, la baisse des revenus publicitaires, l’augmentation des litiges en Europe et aux États-Unis, ainsi que la perte de repères pour les utilisateurs transforment la plateforme en un terrain mouvant. L'UE a récemment infligé une amende de 120 millions d'euros à la plateforme d'Elon Musk pour avoir enfreint certaines dispositions de la loi sur les services numériques (DSA).

    L'amende concerne trois manquements spécifiques en matière de transparence : tromper les utilisateurs lorsqu’Elon Musk a remplacé la vérification réelle par « payer 8 dollars pour obtenir une coche », maintenir un répertoire publicitaire défectueux et refuser de partager les données requises avec les chercheurs. Mais Elon Musk s'insurge contre cette amende et réclame la dissolution de l'UE. Il a notamment le soutien des proches de l'administration Trump.

    Conclusion

    Elon Musk est de nouveau au centre des critiques pour avoir facilité la création d'images sexualisées sur X. Au-delà du cas de Grok, cet incident met en lumière un problème structurel : le déploiement rapide d’outils d’IA générative sans garde-fous suffisants. L’affaire illustre les risques concrets des deepfakes non consensuels et la responsabilité des entreprises technologiques dans la prévention des abus, en particulier lorsqu’il s’agit de mineurs.

    Malgré un cycle de mise à jour fréquent, le chatbot a suscité des controverses liées à ses réponses sur des sujets sensibles et à l'influence d'Elon Musk sur ses prises de position politiques. Grok est également accusé de propager de la désinformation à caractère négationniste et complotiste. Les antécédents de Grok en matière d'exactitude sont pour le moins mitigés, avec des incidents de divulgation d'informations personnelles et de diffusion d'infox.

    Précédemment, Grok a à plusieurs reprises identifié à tort Ahmed al Ahmed, le héros qui a désarmé le tireur de Bondi Beach en décembre 2025, et a affirmé que des vidéos vérifiées étaient d'anciens contenus viraux ou des événements sans rapport. Le chatbot a également suggéré à tort qu'Ahmed était un otage israélien détenu par le Hamas et a confondu l'emplacement de la plage, accusant à la place Currumbin Beach pendant le cyclone Alfred.

    Source : Copyleaks

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de cette fonctionnalité de X qui permet de présenter tout utilisateur dans des situations sexualisées ?
    Elon Musk et sa société xAI restent silencieux face aux réactions d'indignation. Quel impact cela pourrait-il avoir sur son réseau social ?
    Quelles responsabilités doivent porter les développeurs d’IA lorsqu’un outil génère des contenus non consensuels, surtout lorsque cela implique des mineurs ?
    Elon Musk peut-il s'appuyer sur la liberté d'expression pour autoriser des comportements potentiellement préjudiciables ou nuisibles aux utilisateurs de sa plateforme ?

    Voir aussi

    Le chatbot IA Grok de xAI d'Elon Musk diffuse des informations erronées sur la fusillade de Bondi Beach, identifiant à plusieurs reprises le héros à tort et diffusant de fausses informations sur l'attaque

    Grok AI est un désastre pour la démocratie : l'IA d'Elon Musk intégrée à X n'a pas de garde-fous pour empêcher les utilisateurs de générer de la désinformation électorale, selon une enquête du CCDH

    Les moteurs de recherche basés sur l'IA échouent au test de précision, avec un taux d'erreur de 60 %, atteignant même 96 % pour Grok-3, selon une étude du Tow Center for Digital Journalism

  8. #88
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 762
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 762
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Elon Musk peut-il s'appuyer sur la liberté d'expression pour autoriser des comportements potentiellement préjudiciables ou nuisibles aux utilisateurs de sa plateforme ?
    Est-ce qu'il y a déjà eu un jugement en rapport avec un dessinateur ou quelqu'un qui faisait des photomontages ?
    Peut-être qu'on peut se baser sur un ancien jugement et dire un truc du genre "ce jugement fait jurisprudence".

    Dessiner une personne réelle en bikini ce n'est pas nouveau.
    C'est juste que maintenant c'est accessible à tout le monde et c'est quasi instantané.

    Il faut voir le bon côté, si des photos ou des vidéos sont diffusées tu peux dire "ce n'est pas réellement moi, c'est de l'IA".
    Il est déjà arrivé que des filles envoient des photos sexy d'elle à leur petit copain, puis ces photos ont fuités, ce qui a eu des conséquences catastrophiques.

    Citation Envoyé par Mathis Lucas Voir le message
    Quelles responsabilités doivent porter les développeurs d’IA lorsqu’un outil génère des contenus non consensuels, surtout lorsque cela implique des mineurs ?
    Ouais c'est ça le problème, il est impossible de savoir si une personne est majeure ou pas.
    Pour faire l'avocat du diable, les images produites ne montrent rien que les catalogues "Les 3 Suisses" et "La Redoute" montreraient. Mais ça craint quand même.
    Il y a des parents qui font bien attention à ne jamais diffuser de photo de leurs enfants sur internet.

    En parlant de mineurs et d'internet :

  9. #89
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    152
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 152
    Par défaut
    Preuve de la complète déliquescence de la rationalité et des mentalités en Europe :
    - On accuse plus l'outil que le véritable coupable (celui qui a volontairement lancé le prompt et diffusé l'image).

    C'est complétement ridicule d'accuser l'IA, on pourrait aussi accuser le couteau en cas d'agression, ou la voiture en cas d'attaque à la voiture bélier.
    D'ailleurs, pourquoi ne pas accuser photoshop qui permet de faire la même chose ?

    Toutes ces gesticulations cachent juste une seule chose : L’État est devenu incapable de faire respecter les lois alors que les coupables sont identifiables.

    Ca me rappel l'affaire Kick avec Jean Pormanove, où au final, on accuse bien plus la caméra alors que les tortionnaires n'ont rien eu.

  10. #90
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 762
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 762
    Par défaut
    Citation Envoyé par Artaeus Voir le message
    - On accuse plus l'outil que le véritable coupable (celui qui a volontairement lancé le prompt et diffusé l'image).
    Après ça facilite un peu trop le job (il n'y aucun effort à produire).
    Des gens qui n'ont pas cherché à voir des montages, vont tomber dessus sans le vouloir.

    Citation Envoyé par Artaeus Voir le message
    L’État est devenu incapable de faire respecter les lois alors que les coupables sont identifiables.
    Je crois qu'il faut créer de nouvelles lois.
    Est-ce qu'on a le droit de demander à un chatbot IA de mettre une fille en bikini ?
    Est-ce que le chatbot à le droit de mettre une fille en bikini si on lui demande ?

    Est-ce que les lois existent déjà ?

    Citation Envoyé par Artaeus Voir le message
    on accuse bien plus la caméra alors que les tortionnaires n'ont rien eu.
    Je ne suis pas convaincu.
    C'est à la famille de la victime de porter plainte contre ses agresseurs.
    L'avocat peut tomber sur des preuves vidéos.

  11. #91
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 650
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 650
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Dessiner une personne réelle en bikini ce n'est pas nouveau.
    C'est juste que maintenant c'est accessible à tout le monde et c'est quasi instantané.
    Et particulièrement crédible.
    Certaines femmes témoignent du malaise en se voyant nue alors qu'elles n'ont jamais été prises en photo sans vêtements.
    Il faut voir le bon côté, si des photos ou des vidéos sont diffusées tu peux dire "ce n'est pas réellement moi, c'est de l'IA".
    Vla le bon coté.
    Même si tu as été carrée toute ta vie là dessus tu risques de te retrouver à moitié nue sur le plus gros réseau social mondial...
    Ouais c'est ça le problème, il est impossible de savoir si une personne est majeure ou pas.
    Le problème n'est pas de savoir si les personnes sont effectivement mineure ou non mais que des gens se pignolent en imaginant qu'elles le soient.
    Et surtout que des personnes s'amusent à "dénuder" des personnes dont l'apparence suggèrent qu'elles sont mineures.
    Citation Envoyé par Artaeus Voir le message
    Preuve de la complète déliquescence de la rationalité et des mentalités en Europe :
    - On accuse plus l'outil que le véritable coupable (celui qui a volontairement lancé le prompt et diffusé l'image).
    Je suis bien d'accord là dessus
    D'ailleurs, pourquoi ne pas accuser photoshop qui permet de faire la même chose ?
    Parce que je suis incapable de le faire avec Photoshop (quoi que avec les fonctions IA c'est peut être devenu abordable) et que la diffusion est bien moins large.
    Toutes ces gesticulations cachent juste une seule chose : L’État est devenu incapable de faire respecter les lois alors que les coupables sont identifiables.
    Non ces gesticulations cachent une seule chose - et tu le mentionnais plus tôt : des débiles trouvent malin de dénuder des gens sur le plus gros réseau social du monde.

  12. #92
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 831
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 831
    Par défaut
    Citation Envoyé par Artaeus Voir le message
    Preuve de la complète déliquescence de la rationalité et des mentalités en Europe :
    - On accuse plus l'outil que le véritable coupable (celui qui a volontairement lancé le prompt et diffusé l'image).

    C'est complétement ridicule d'accuser l'IA, on pourrait aussi accuser le couteau en cas d'agression, ou la voiture en cas d'attaque à la voiture bélier.
    D'ailleurs, pourquoi ne pas accuser photoshop qui permet de faire la même chose ?

    Toutes ces gesticulations cachent juste une seule chose : L’État est devenu incapable de faire respecter les lois alors que les coupables sont identifiables.

    Ca me rappel l'affaire Kick avec Jean Pormanove, où au final, on accuse bien plus la caméra alors que les tortionnaires n'ont rien eu.
    Je ne suis que partiellement d'accord. Certes le diffuseur est le coupable principal, mais dans le cas de l'IA, il y a des règles qui ont été établies afin d'empêcher la production de ce genre de photographie (toutes les autres IA le font). C'est juste la volonté de Musk de ne pas interdire ce genre de publication. Donc, l'IA est aussi responsable en autorisant ce genre de production.

  13. #93
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 052
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 052
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    C'est juste la volonté de Musk de ne pas interdire ce genre de publication. Donc, l'IA est aussi responsable en autorisant ce genre de production.
    Non, ce n'est pas l'IA qui est responsable, ce n'est que du code qui n'a aucune conscience.
    Le responsable, c'est le diffuseur.
    Mais c'est également Musk qui ne met volontairement aucun garde fou dans Grok alors que tous les autres le font pour leur IA.

    Mais comme c'est Musk, on ferme les yeux.
    Il est là, le problème.

  14. #94
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 831
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 831
    Par défaut
    Citation Envoyé par popo Voir le message
    Non, ce n'est pas l'IA qui est responsable, ce n'est que du code qui n'a aucune conscience.
    Le responsable, c'est le diffuseur.
    Mais c'est également Musk qui ne met volontairement aucun garde fou dans Grok alors que tous les autres le font pour leur IA.

    Mais comme c'est Musk, on ferme les yeux.
    Il est là, le problème.
    On est d'accord. Quand je dis que c'est l'IA qui est responsable, il est évident que je ne parle pas d'un bête programme informatique, qui ne fait que ce qu'on lui demande, mais bien des personnes qui l'ont programmé et plus encore des personnes qui l'ont publié, diffusé alors même qu'il présentait des problèmes.

  15. #95
    Membre éclairé
    Inscrit en
    Mai 2010
    Messages
    318
    Détails du profil
    Informations forums :
    Inscription : Mai 2010
    Messages : 318
    Par défaut
    En tout cas, vu que certaines ont portés plainte, on va vite avoir certains qui vont déchanter et apprendre très vite le code Pénal (et qui trouveront d'un seul coup que la justice, elle est finalement pas assez laxiste).

  16. #96
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    152
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 152
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Après ça facilite un peu trop le job (il n'y aucun effort à produire).
    Des gens qui n'ont pas cherché à voir des montages, vont tomber dessus sans le vouloir.
    Légalement, la question de la "facilité" n'a aucune valeur.

    Citation Envoyé par Ryu2000 Voir le message
    Je crois qu'il faut créer de nouvelles lois.
    Est-ce qu'on a le droit de demander à un chatbot IA de mettre une fille en bikini ?
    Est-ce que le chatbot à le droit de mettre une fille en bikini si on lui demande ?

    Est-ce que les lois existent déjà ?
    Toutes les lois existent déjà (même sur la simple diffusion d'un photomontage à caractère pornographique, humiliant, dégradant).


    Citation Envoyé par Ryu2000 Voir le message
    Je ne suis pas convaincu.
    C'est à la famille de la victime de porter plainte contre ses agresseurs.
    L'avocat peut tomber sur des preuves vidéos.
    => Absolument pas, en cas d'homicide ou de torture, une enquête est automatiquement lancée.
    Pour le moment, les tortionnaires sont libres et ont même repris les streams..

  17. #97
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    152
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 152
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Je ne suis que partiellement d'accord. Certes le diffuseur est le coupable principal, mais dans le cas de l'IA, il y a des règles qui ont été établies afin d'empêcher la production de ce genre de photographie (toutes les autres IA le font). C'est juste la volonté de Musk de ne pas interdire ce genre de publication. Donc, l'IA est aussi responsable en autorisant ce genre de production.
    L'IA n'est pas une personne, c'est un outil, elle n'est pas "responsable".
    Ensuite, non, les autres IA permettent aussi produire des photos en maillot de bain (en faisant un prompt un peu plus intelligent).
    De toute façon, avec le développement des outils IA, ce problème va s'accroitre. Le "blocage" de Grok dessus ne changera absolument rien.

    Il faut simplement que l’État fasse respecter les lois, que des plaintes soient posées, et condamnent les auteurs des prompts qui savaient très bien ce qu'ils faisaient.
    De la même façon que des personnes sont poursuivis pour des insultes ou propos sur les réseaux sociaux.

    Votre raisonnement est d'autant plus ridicule, qu'il est dangereux car c'est la porte ouverte à tout et n'importe quoi :
    - Si on l'applique au "modding" dans les jeux vidéos, vous condamneriez le développeur car il n'a rien fait contre des "modeurs malveillants" avec un mod insultant ou autre ?
    - Pourquoi pas aller jusqu'à condamner le datacenter si quelqu'un stocke quelque un programme illégale dessus ?

  18. #98
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 831
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 831
    Par défaut
    Citation Envoyé par Artaeus Voir le message
    L'IA n'est pas une personne, c'est un outil, elle n'est pas "responsable".
    Ensuite, non, les autres IA permettent aussi produire des photos en maillot de bain (en faisant un prompt un peu plus intelligent).
    De toute façon, avec le développement des outils IA, ce problème va s'accroitre. Le "blocage" de Grok dessus ne changera absolument rien.

    Il faut simplement que l’État fasse respecter les lois, que des plaintes soient posées, et condamnent les auteurs des prompts qui savaient très bien ce qu'ils faisaient.
    De la même façon que des personnes sont poursuivis pour des insultes ou propos sur les réseaux sociaux.

    Votre raisonnement est d'autant plus ridicule, qu'il est dangereux car c'est la porte ouverte à tout et n'importe quoi :
    - Si on l'applique au "modding" dans les jeux vidéos, vous condamneriez le développeur car il n'a rien fait contre des "modeurs malveillants" avec un mod insultant ou autre ?
    - Pourquoi pas aller jusqu'à condamner le datacenter si quelqu'un stocke quelque un programme illégale dessus ?
    Je pense que l'on est dans quelque chose de tout à fait différent. On parle d'un logiciel qui permet de faire des choses illégales, alors même qu'il est tout à fait possible de l'en empêcher.
    C'est donc de la volonté du distributeur de laisser des fonctionnalités interdites dans son logiciel et donc de laisser des personnes en user et abuser.

    Ce qui n'enlève aucunement la responsabilité pas des personnes utilisant et publiant les résultats obtenus.

  19. #99
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    152
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 152
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Je pense que l'on est dans quelque chose de tout à fait différent. On parle d'un logiciel qui permet de faire des choses illégales, alors même qu'il est tout à fait possible de l'en empêcher.
    C'est donc de la volonté du distributeur de laisser des fonctionnalités interdites dans son logiciel et donc de laisser des personnes en user et abuser.

    Ce qui n'enlève aucunement la responsabilité pas des personnes utilisant et publiant les résultats obtenus.
    C'est une pente glissante dangereuse qui est dans la logique actuelle, hélas :
    Les messagerie chiffrés de bout en bout ? (C'est la même idée derrière le ChatControl : il est tout à fait possible de contrôler les messages envoyés, les messageries facilitent donc l'illégalité) ...
    Pourquoi pas appliquer la même logique aux messages insultants sur les réseaux sociaux, et les "censurer" avant publication ?
    Et photoshop étant maintenant purement "cloud", on peut appliquer la même logique dessus, Adobe pourrait bien tout contrôler ?

    Je penses que vous ne vous rendez pas compte de tout ce que cela peut impliquer, aussi bien en terme de responsabilité des entreprises, de risque pour les logiciels libres, que de danger pour la vie privée et les libertés.

  20. #100
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 783
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 783
    Par défaut X accuse les utilisateurs d'être responsables des contenus pédopornographiques générés par Grok
    X accuse les utilisateurs d'être responsables des contenus pédopornographiques générés par Grok, aucune solution n'a été annoncée :
    quand une plateforme blâme ses utilisateurs plutôt que son algorithme

    La plateforme X traverse une nouvelle zone de turbulences. Cette fois, la controverse ne porte ni sur la modération humaine, ni sur les changements de gouvernance, mais sur les dérives de Grok, son assistant d’intelligence artificielle maison, accusé d’avoir généré des contenus pédopornographiques. La réaction officielle de l’entreprise a surpris, voire choqué : X rejette la responsabilité sur les utilisateurs, sans annoncer de correctifs techniques immédiats.

    Présenté comme un modèle d’IA « anti-woke », plus permissif et plus proche de la liberté d’expression revendiquée par X, Grok était censé se distinguer des assistants concurrents par une moindre censure et une plus grande franchise. Dans les faits, cette philosophie semble avoir ouvert une brèche grave. Des chercheurs et des utilisateurs ont démontré que Grok pouvait, via des requêtes détournées ou progressives, produire des descriptions relevant clairement de contenus sexuels impliquant des mineurs.

    Dans la plupart des environnements d’IA générative, ce type de dérive est censé être bloqué par des garde-fous stricts, tant au niveau de l’entraînement que de l’inférence. Or, dans le cas de Grok, ces protections se sont révélées insuffisantes, voire inexistantes dans certains scénarios.

    L'IA Grok d'Elon Musk déshabille tout le monde, des mineurs aux dirigeants mondiaux sans leur consentement

    Il y a quelques jours, le réseau social X (ex-Twitter) d'Elon Musk a introduit un nouveau bouton « Modification d'image par IA » qui permet à tout utilisateur de modifier les images publiées par d'autres, même sans le consentement de l'auteur original. Les propriétaires des images ne sont pas informés lorsque des modifications sont apportées, et la fonctionnalité est activée par défaut pour tous sans une option de désactivation (du moins pour l'instant).

    L'outil comprend des options permettant d'écrire des prompts, de prévisualiser les résultats et de partager l'image modifiée sur les pages de profil et le flux « Pour vous ». Le bouton apparaît sur tous les profils, qu'ils appartiennent à des utilisateurs réguliers, à des comptes vérifiés ou à des personnalités publiques.

    Le lancement de cette fonctionnalité a suscité une vive réaction non seulement parmi les artistes et les photographes, qui voient leurs contenus protégés par le droit d'auteur utilisés et modifiés sans effort, mais aussi parmi des milliers d'utilisateurs lambda, en particulier des femmes dont les photos partagées sont modifiées sans leur consentement pour créer des scénarios suggestifs ou intrusifs, ce qui constitue une violation flagrante de la vie privée.

    Dans un post, désormais supprimé, Grok a retouché une photo de deux jeunes filles vêtues de tenues légères et dans des poses sexuellement suggestives. Des responsables français ont réagi au problème posé par Grok et le contenu sexuel généré, notamment lorsque des images de mineurs ont été impliquées.

    Une ligne de défense controversée : la faute aux utilisateurs

    Nous prenons des mesures contre les contenus illégaux sur X, notamment les contenus pédopornographiques, en les supprimant, en suspendant définitivement les comptes et en collaborant avec les autorités locales et les forces de l'ordre si nécessaire.

    Toute personne utilisant Grok ou incitant à la création de contenus illégaux s'expose aux mêmes sanctions que si elle téléchargeait elle-même de tels contenus.

    Pour plus d'informations sur nos politiques, veuillez consulter nos pages d'aide pour prendre connaissance de l'intégralité du Règlement X et des différentes options de mise en application.
    La réponse de X a consisté à affirmer que ces contenus résultaient d’un usage abusif de l’outil par des utilisateurs malveillants. Selon cette lecture, la responsabilité incomberait avant tout à ceux qui formulent les requêtes, et non à la plateforme ou au modèle d’IA lui-même. Cette position marque une rupture nette avec les standards émergents du secteur, où les éditeurs de modèles reconnaissent généralement une obligation de moyens en matière de prévention des usages criminels.

    Pour de nombreux professionnels de l’informatique et de la sécurité, cet argumentaire pose un problème fondamental. Un système capable de produire ce type de contenu, même sous contrainte, révèle un défaut de conception ou de filtrage. Rejeter la faute sur l’utilisateur revient à nier la responsabilité du fournisseur dans la mise en production d’un outil potentiellement dangereux.

    Nom : mesure.png
Affichages : 6577
Taille : 16,3 Ko

    « C'est comme reprocher à un stylo d'écrire quelque chose de mauvais »

    Le message de X Safety a relancé une discussion sur un autre fil de discussion de la plateforme, dans lequel Elon Musk, propriétaire de X, a réitéré les conséquences auxquelles s'exposent les utilisateurs en cas de suggestions inappropriées. Cette réponse faisait suite à un message d'un utilisateur de X, DogeDesigner, qui suggérait que Grok ne pouvait être tenu responsable de la « création d'images inappropriées », bien que Grok détermine lui-même ses propres résultats.

    « C'est comme reprocher à un stylo d'écrire quelque chose de mauvais », a estimé DogeDesigner. « Un stylo ne décide pas de ce qui est écrit. C'est la personne qui le tient qui décide. Grok fonctionne de la même manière. Ce que vous obtenez dépend beaucoup de ce que vous entrez. »

    Mais les générateurs d'images comme Grok ne sont pas obligés de produire exactement ce que l'utilisateur souhaite, comme un stylo. L'une des raisons pour lesquelles le Bureau du droit d'auteur n'autorise pas l'enregistrement des œuvres générées par l'IA est l'absence d'intervention humaine dans la détermination des résultats produits par les générateurs d'images IA. Les chatbots sont également non déterministes, générant des résultats différents pour une même requête.

    C'est pourquoi, pour de nombreux utilisateurs qui se demandent pourquoi X ne filtre pas les contenus pédopornographiques en réponse aux générations de Grok, la réponse de X semble loin de résoudre le problème en rendant les utilisateurs seuls responsables des résultats.

    Dans un commentaire sur le fil de discussion DogeDesigner, un programmeur informatique a souligné que les utilisateurs de X pouvaient générer par inadvertance des images inappropriées. En août dernier, par exemple, Grok a généré des images de Taylor Swift nue sans qu'on le lui ait demandé. Ces utilisateurs ne peuvent même pas supprimer les images problématiques du compte Grok pour empêcher leur diffusion, a fait remarquer le programmeur. Dans ce scénario, l'utilisateur X pourrait risquer la suspension de son compte ou une responsabilité juridique si les forces de l'ordre intervenaient, selon la réponse de X Safety, sans que X n'ait jamais à rendre compte de résultats inattendus.

    Les internautes appellent Apple à agir si X ne prend pas des mesures pour Grok

    De nombreux médias ont étrangement pris Grok au mot lorsque le chatbot a répondu aux demandes d'excuses en affirmant que X allait améliorer ses mesures de sécurité. Mais la réponse de X Safety semble désormais contredire le chatbot.

    Alors que la réponse de X continue de décevoir les détracteurs, certains commentateurs influents sur le post de X Safety ont appelé Apple à prendre des mesures si X ne le fait pas. Ils ont suggéré que X pourrait enfreindre les règles de l'App Store interdisant les applications permettant aux utilisateurs de créer du contenu qui objectifie des personnes réelles. Selon les détracteurs, tant que Grok ne commencera pas à filtrer de manière transparente les contenus pédopornographiques ou autres contenus « déshabillant » des personnes réelles sans leur consentement, le chatbot et X devraient être interdits.

    Une interdiction de l'App Store risquerait de mettre Musk en colère, qui a poursuivi Apple en justice l'année dernière, en partie à cause de sa frustration que l'App Store n'ait jamais inscrit Grok sur sa liste d'applications « incontournables ». Dans ce procès en cours, Musk a allégué que la prétendue préférence d'Apple pour ChatGPT dans l'App Store avait empêché Grok de rattraper son retard sur le marché des chatbots. Cela suggère qu'une interdiction de l'App Store pourrait potentiellement condamner la quête de Grok pour dépasser ChatGPT.

    Un risque juridique et réputationnel sous-estimé

    La production de contenus pédopornographiques n’est pas une simple entorse aux règles communautaires : il s’agit d’un crime lourdement sanctionné dans la quasi-totalité des juridictions. En laissant entendre que le problème relève uniquement de l’usage, X s’expose à des risques juridiques considérables, notamment en Europe où la responsabilité des plateformes et des fournisseurs de technologies est de plus en plus encadrée.

    Au-delà du droit, l’impact réputationnel est potentiellement dévastateur. Pour les annonceurs, les partenaires technologiques et même les développeurs internes, être associé à un outil d’IA impliqué dans de telles dérives constitue un signal d’alarme majeur.

    Une stratégie cohérente avec la vision Musk, mais à quel prix ?

    Cette posture s’inscrit dans la continuité de la vision défendue par Elon Musk, qui privilégie une interprétation maximaliste de la liberté d’expression et se montre sceptique vis-à-vis des mécanismes de modération centralisés. Appliquée à l’IA générative, cette philosophie atteint toutefois ses limites. La liberté d’expression ne peut servir de paravent à la diffusion ou à la production de contenus criminels, surtout lorsqu’ils sont générés automatiquement par des systèmes industriels.

    Pour les professionnels de l’IT, l’affaire Grok agit comme un révélateur. Elle met en lumière la tension croissante entre innovation rapide, positionnement idéologique et responsabilités techniques. Elle rappelle surtout qu’un modèle d’IA n’est jamais neutre : il reflète les choix, les arbitrages et les priorités de ceux qui le conçoivent et le déploient.

    Nom : kylie.png
Affichages : 1072
Taille : 30,6 Ko

    Personne ne sait comment X compte purger les mauvaises suggestions

    Alors que certains utilisateurs se concentrent sur la manière dont X peut tenir les utilisateurs responsables des résultats de Grok alors que c'est X qui forme le modèle, d'autres s'interrogent sur la manière dont X compte modérer les contenus illégaux que Grok semble capable de générer.

    X est jusqu'à présent beaucoup plus transparent sur la manière dont il modère les contenus pédopornographiques publiés sur la plateforme. En septembre dernier, X Safety a déclaré avoir « une politique de tolérance zéro envers les contenus CSAM », dont la majorité est détectée « automatiquement » à l'aide d'une technologie de hachage propriétaire permettant de signaler de manière proactive les CSAM connus.

    Dans le cadre de ce système, plus de 4,5 millions de comptes ont été suspendus l'année dernière, et X a signalé « des centaines de milliers » d'images au Centre national pour les enfants disparus et exploités (NCMEC). Le mois suivant, Kylie McRoberts, responsable de la sécurité chez X, a confirmé « qu'en 2024, 309 signalements effectués par X au NCMEC ont conduit à des arrestations et à des condamnations dans 10 affaires », et qu'au cours du premier semestre 2025, « 170 signalements ont conduit à des arrestations ».

    « Lorsque nous identifions du contenu CSAM apparent, nous agissons rapidement et, dans la majorité des cas, nous suspendons définitivement le compte, ce qui supprime automatiquement le contenu de notre plateforme », a déclaré X Safety. « Nous signalons ensuite le compte au NCMEC, qui travaille avec les forces de l'ordre du monde entier, y compris au Royaume-Uni, pour rendre justice et protéger les enfants. »

    À cette époque, X avait promis de « rester fidèle » à sa « mission d'éradication du CSAM », mais si rien n'est fait, les résultats nuisibles de Grok risquent de créer de nouveaux types de CSAM que ce système ne détecterait pas automatiquement. Sur X, certains utilisateurs ont suggéré que la plateforme renforce ses mécanismes de signalement afin d'aider à repérer les résultats potentiellement illégaux de Grok.

    Un autre aspect troublant et vague de la réponse de X Safety concerne les définitions utilisées par X pour qualifier les contenus illégaux ou le CSAM, ont suggéré certains utilisateurs de X. Sur la plateforme, tout le monde n'est pas d'accord sur ce qui est nuisible. Certains critiques sont perturbés par le fait que Grok génère des images en bikini qui sexualisent des personnalités publiques, notamment des médecins ou des avocats, sans leur consentement, tandis que d'autres, dont Musk, considèrent que la création d'images en bikini est une blague.

    La manière dont X définit exactement la limite en matière de CSAM généré par l'IA pourrait déterminer si les images sont rapidement supprimées ou si les récidivistes sont détectés et suspendus. Tout compte ou contenu non contrôlé pourrait potentiellement traumatiser de vrais enfants dont les images pourraient être utilisées pour alimenter Grok. Et si Grok venait à être utilisé pour inonder Internet de faux CSAM, l'histoire récente suggère que cela pourrait compliquer les enquêtes des forces de l'ordre sur de véritables cas de maltraitance d'enfants.

    Sources : X Safety (1, 2, 3)

    Et vous ?

    Un fournisseur d’IA peut-il réellement se dédouaner lorsque son modèle génère des contenus manifestement illégaux, ou cette position marque-t-elle un recul dangereux par rapport aux standards de sécurité logicielle ?

    Si une IA est capable de produire du CSAM via des détournements de prompts, s’agit-il d’un bug, d’un défaut de conception ou d’un choix idéologique assumé au nom de la liberté d’expression ?

    Faut-il attendre une intervention judiciaire ou réglementaire pour forcer des correctifs, ou l’autorégulation des plateformes d’IA est-elle déjà un mythe dépassé ?

    Peut-on sérieusement déployer des IA génératives à grande échelle dans les entreprises et les administrations si leurs éditeurs refusent d’assumer la responsabilité de leurs dérives les plus graves ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 6
    Dernier message: 21/12/2025, 19h08
  2. Réponses: 135
    Dernier message: 30/05/2025, 00h35
  3. Réponses: 0
    Dernier message: 05/06/2024, 11h14
  4. Réponses: 0
    Dernier message: 13/04/2023, 10h59

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo