\ô/Envoyé par Ben si...
![]()
\ô/Envoyé par Ben si...
![]()
Ryu2000,
Et alors, qu'est-ce que cela peut bien te faire... On dirait que tu te sent personnellement attaqué si l'on dit du mal de Musk. C'est franchement puéril. S'il est plus attaqué, c'est parce qu'il s'expose plus, c'est pas si difficile a comprendre quand même... Je n'arrive pas à comprendre ce genre de "défense" que tu semble faire "par devoir de justice", c'est triste, car Musk lui, n'en a rien a battre de toi, sois en certains.
Ha, je ne savais pas que tu avait toi-même contrôlé cet algo. Félicitation. Sinon, c'est un ressenti de ta part, et forcément non-objectif. Tu dis toi même (à part au sujet d'Israël), ce qui est quand même un sacré biais, non ? Ah tu trouve que non. Ok, c'est ton avis. Moi je ne me prononce pas, j'ai pas eu accès à l'algo, et je n'ai aucun compte de réseaux "sociaux", qui n'en porte que le nom. Mais tu fais et tu pense ce que tu veux, c'est juste que ton avis en style caliméro par rapport à ton petit chouchou (je me demande bien pourquoi, mais bon) est saoulant et pathétique (tu as ton avis, j'ai le mien).
Ah, donc pour toi "attirer" des "investisseurs" via d'énormes mensonges, cela est bien ? Bon, c'est ton avis, moi j'appelle cela de l'abus de confiance. Et tu dis aussi que "tesla" est surcôté par rapport à la réalité, mais tu trouve ça bien ? Bon, c'est ton avis. Que veux-tu qu'on réponde lorsque ton interlocuteur a des œillères et ne voit que ce qu'il veux voir, et que même si ce qu'il voit il sait de c'est pas bien, il ne veut pas qu'on le dise ?
Je n'en sais rien, je n'ai aucun intérêt pour la chose, et je n'ai pas vu l'algo :-)
Oui, oui, c'est magnifique. Et non, non, c'est pas grâce à des subsides de la nasa. Tu as raison, tu a toujours raison, tu sais tout. Je m'incline devant autant de savoir. Bon, c'est pour quand mars ? Il me semble qu'il y'a 10 ans ce serait pour bientôt ? Ah, c'est reporté ? Tiens donc...
Oui, mais qu'a-t-il fait LUI ? Rien. Ce sont des gens qui ont fait le taf, il est juste celui qui apporte le pognon (des autres, les investisseurs). Décidément, tu cherche partout de quoi vénérer ton ami.
Oui, y'a pas que du mauvais, je n'ai pas dit cela, mais ce n'est pas une raison pour ne pas tourner le personnage en ridicule lorsqu'il fait ses pitreries... Reste calme, respire un grand coup, et grandi un peu ;-)
Tu vois, ça c'est saoulant...
Ah, ben s'il a "choisis" de se faire des ennemis, pourquoi t'émeus-tu tant lorsque ces derniers l'attaque ? Ton discours est pleins de contradictions, et n'a de ce fait pas beaucoup d'intérêt. Ne le vois-tu pas ?
Ben c'est qu'il n'est pas si malin que ça alors ? J'ai du mal à suivre ton raisonnement...
Ben oui, mais oui l'a fait, ce n'était pas très malin, et il en subit les conséquences. Que veux-tu que j'ajoute ?
BàT et Peace & Love.
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
C'est la preuve d'un acharnement médiatique.
Tous les utilisateurs constatent qu'il est plus neutre maintenant.
Là si tu veux du contenu pro LGBT tu peux avoir du contenu pro LGBT, si tu veux autre chose tu peux avoir autre chose.
Il était difficile de trouver du contenu pro Trump sur les réseaux sociaux avant 2024.
Les algorithmes faisaient la promotion d'une idéologie et en masquaient d'autres. Ce qui n'est pas normal.
Non mais c'est son boulot.
Vu le cours de l'action Tesla il est fort dans son job.
Avant qu'il n'arrive chez Tesla, ce n'était pas la même.
Ouais c'est clair, SpaceX fait évoluer le spatial beaucoup plus rapidement que la Nasa
Avec moins d'argent et en beaucoup moins de temps ils font mieux.
Bon ben voilà.
Du coup pourquoi vous voulez le faire chier ?
Il n'est responsable de rien.
Ouais, je suis 100% d'accord avec vous, cet acharnement contre Musk est insupportable
C'est ça le courage.Tu sais que prendre cette décision va avoir des conséquences dramatiques sur ta vie, mais tu le fais quand même, car ta conscience te dicte que c'est la bonne chose à faire.
Le gars subissait beaucoup moins d'attaques avant les histoires de rachat de Twitter.
Il n'a strictement rien gagné de positif, il a bossé pour le DOGE mais son travail n'a servi à rien (les dépenses de l'état US sont toujours énorme).
Pourvu qu'avec le temps le système le lâche un peu. Parce qu'il ne mérite pas le traitement qu'il subit, c'est pas un monstre dangereux pour l'humanité comme le sont Bill Gates et George Sorros.
=====
Bref, plus de Bikini, plus de problème.
♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫
Si tu crois que la raison d'être du DOGE était budgétaire, c'est assez naïf à mon avis. Ça a permit de faire le ménage parmi les opposants et de mettre en place plus facilement la propagande de Trump, c'est tout.Il n'a strictement rien gagné de positif, il a bossé pour le DOGE mais son travail n'a servi à rien (les dépenses de l'état US sont toujours énorme).
Ruy2000,
Ce ci est ma dernière réponse, car cela ne sert à rien que je perde mon temps a discuter avec un "fan-musk".
Décidément, c'est impossible de converser avec toi... Tu interprètes toute réponse de travers, et tu répond à chaque fois à côté de la plaque. Je voulais dire que TOI tu est saoulant avec ta défense de ton "chouchou", je ne parlais même pas de musk. Soit tu lis trop vite, soit ton raisonnement est altérer par ton côté "fan-musk", soit... (je ne le dis pas mais je le pense).
Preuve qu'il ne l'était pas avant.
Un utilisateur veut du contenu correspondant à la réalité, et pas du content "pro" x, y ou z.
Tu approuve ce genre de "tromperie", c'est ton doit, mais je n'approuve pas.
Moins d'argent ? Space/X est justement financé via la Nasa. Donner de l"argent publique à une société privée, c'est un subside. Chose que les USA font souvent, tout en reprochant aux autres de faire de même. Si la Nasa avance plus lentement que Space/X, c'est parce qu'ils mettent plus d'argent dans la sécurité, et qu'il n'ont plus les mêmes crédits qu'avant, puisqu'ils sont "donnés" à Space/X... Space/X fait mieux que la Nasa ? Humm. A part lancer des satellites (la Nasa sait faire, l'ESA aussi), j'attend toujours le retour d'une missionlunairemartienne, mais je peux toujours attendre, c'est pour l'année prochaine...
Encore une fois tu lis de travers, c'est pas possible. Et s'il n'est responsable de rien, pourquoi es-tu un "fan" ? Mais bon, tu n'es pas à une contradiction près.
Pfff, t'es d'un pénible... Relis correctement.
Ah, d'accord, c'es un bon petit "gads", les autres sont des "monstre". Popo a déjà expliqué clairement ce qu'il en était. Lis est essaye de comprendre son Post.
tu peux répondre si tu veux, mais pour moi, cette discussion stérile et puérile avec toi ne sers à rien. J'ai d'autres choses à faire. Bye bye à toi "fan-musk".
BàT et Peace & Love.
Grok transforme des photos scolaires en pédopornographie : xAI d'Elon Musk poursuivie dans un procès
qui pourrait redéfinir la responsabilité des fournisseurs d'IA
Trois adolescentes du Tennessee ont déposé une action collective en justice contre xAI, l'entreprise d'Elon Musk, après que leur outil d'IA Grok a été utilisé pour transformer des photos ordinaires d'elles en images pédopornographiques. Le dossier, déposé le 16 mars 2026 devant un tribunal fédéral californien, expose avec une brutalité rare comment une fonctionnalité délibérément conçue pour générer du contenu sexuel explicite a pu être détournée, ou simplement utilisée comme prévu, pour produire des abus sexuels sur mineurs à l'échelle industrielle.
La première victime, identifiée sous le nom de Jane Doe 1 (madame X 1, en français), a découvert le cauchemar par un message anonyme reçu sur Instagram. Quelqu'un lui signalait que des images générées par IA la représentant, ainsi que d'autres mineures, circulaient sur des plateformes qu'elle fréquentait, la montrant « dans des poses sexuellement explicites ». Parmi les fichiers incriminés se trouvait sa photo du lycée, une photo de classe banale, le genre que l'on affiche fièrement dans un couloir scolaire.
Les enquêteurs ont rapidement établi que l'auteur, qui entretenait une relation proche et amicale avec la victime sur Instagram, disposait d'une application tierce ayant acquis l'accès aux modèles de Grok. Il s'en était servi pour manipuler les photos des adolescentes, puis avait téléversé les fichiers sur la plateforme de partage Mega, les utilisant ensuite comme monnaie d'échange dans des groupes Telegram rassemblant des centaines d'utilisateurs, troquant ces images contre d'autres contenus pédopornographiques.
Les fichiers ont été transmis à la base de données nationale gérée par le National Center for Missing & Exploited Children (NCMEC). Les deux autres plaignantes, elles aussi mineures, ont appris l'existence d'images les représentant dans des contextes similaires par le biais des enquêteurs criminels qui avaient saisi des téléphones dans le cadre d'autres investigations.
La plainte souligne également une dimension particulièrement alarmante : le prénom réel des victimes et le nom de leur école étaient attachés aux fichiers en circulation, ce qui expose les adolescentes à un risque de harcèlement et de traque par d'autres prédateurs en ligne.
Le « spicy mode », une fonctionnalité « illégale par conception »
Au cœur de la plainte se trouve une fonctionnalité que xAI a elle-même commercialisée sous le nom de « spicy mode » (littéralement : mode épicé). Lancée l'année dernière, cette option permettait aux utilisateurs de retirer les vêtements d'une femme sur une photographie sans demander d'autorisation préalable. Un porte-parole de xAI avait présenté cette fonctionnalité comme un moyen pour les créateurs d'explorer des récits « plus audacieux visuellement », euphémisme saisissant pour décrire ce qui constitue, selon la loi californienne et fédérale, une production de contenus sexuels non consentis.
La plainte est lapidaire : « xAI et son fondateur Elon Musk ont vu une opportunité commerciale : l'opportunité de tirer profit de la prédation sexuelle de vraies personnes, y compris des enfants. »
L'ampleur du phénomène est documentée de manière indépendante. Selon les données du Center for Countering Digital Hate (CCDH) citées dans la plainte, Grok a produit environ 23 338 images sexualisées d'enfants entre le 29 décembre 2025 et le 9 janvier 2026, soit une toutes les 41 secondes. Plus globalement, les audits techniques du CCDH estiment qu'au cours de cette fenêtre critique de onze jours, Grok a généré plus de 3 millions d'images sexualisées au total.
La question de la responsabilité en cascade
L'un des enjeux juridiques les plus significatifs du dossier concerne la responsabilité dans la chaîne de distribution des modèles d'IA. Dans les deux cas des Jane Doe 2 et 3, les images n'ont pas été produites directement via Grok sur la plateforme X, mais par le biais d'une application mobile tierce qui s'appuyait sur les modèles de Grok. Les avocates des plaignantes soutiennent que, l'utilisation des applications tierces reposant sur le code et les serveurs de xAI, l'entreprise doit être tenue pour responsable.
La plainte affirme que xAI hébergerait sur ses propres serveurs l'ensemble des contenus sexuellement explicites générés via ses applications tierces sous licence, et les distribuerait ensuite à ses clients. Si ce point est établi, cela signifie que xAI n'est pas simplement un fournisseur d'outil mal utilisé : l'entreprise serait un acteur actif du stockage et de la distribution de ces contenus, une distinction fondamentale sur le plan juridique.
Ce modèle économique, très répandu dans l'industrie de l'IA, crée une chaîne de valeur dans laquelle le fournisseur du modèle encaisse les revenus des accès via interface de programmation (API) tout en déléguant potentiellement la responsabilité de la modération aux applications en aval. Si cette poursuite réussit à établir que les fournisseurs de modèles conservent leur responsabilité pour les contenus générés via leurs accès sous licence, les implications dépasseront largement xAI. Toute entreprise d'IA proposant un accès à des modèles génératifs d'images devra revoir son architecture de filtrage.
Musk, la désinvolture, et le déni
Face à la montée des signalements depuis la fin 2025, la réponse publique d'Elon Musk a été celle du déni. Alors que chercheurs, journalistes et forces de l'ordre documentaient le problème avec une urgence croissante, Musk déclarait ne pas être au courant d'images de mineurs dénudés générées par Grok. Lorsque TechCrunch a contacté xAI pour obtenir un commentaire sur la mise en demeure de l'État de Californie, l'entreprise a répondu par un courriel automatique indiquant « Legacy Media Lies » (les médias traditionnels mentent).
Sous pression, xAI a finalement annoncé en janvier 2026 qu'elle restreignait les fonctionnalités de génération et d'édition d'images aux abonnés payants de X Premium+ ou SuperGrok. Une réponse tardive, insuffisante selon les avocates des plaignantes, et qui n'efface pas le préjudice déjà causé.
Cascade réglementaire : de Sacramento à Bruxelles
Le dossier pénal s'inscrit dans un contexte réglementaire qui se durcit rapidement. Le 16 janvier 2026, le procureur général de Californie Rob Bonta a adressé une mise en demeure formelle à xAI, exigeant l'arrêt immédiat de la création et de la distribution d'images intimes synthétiques non consenties et de matériel pédopornographique. C'est la première action de grande ampleur engagée sous la nouvelle loi californienne AB 621 sur la pornographie synthétique, entrée en vigueur début 2026. Sous ce texte, xAI encourt des amendes pouvant atteindre 250 000 dollars par violation délibérée.
La controverse a rapidement dépassé les frontières américaines : le Japon, le Canada et le Royaume-Uni ont ouvert leurs propres enquêtes sur Grok, tandis que la Malaisie et l'Indonésie ont temporairement bloqué l'accès à la plateforme. La plainte collective mentionne également des investigations en cours dans l'Union européenne, en Irlande, en France et en Australie.
Une coalition de près de trente organisations de défense des droits des femmes, de protection de l'enfance et de surveillance technologique a par ailleurs demandé à Google et Apple de retirer X et Grok de leurs boutiques d'applications respectives.
Un précédent juridique à fort enjeu
Selon Even Alex Chandra, associé du cabinet IGNOS Law Alliance, les tribunaux pourraient refuser à xAI la défense classique du simple hébergeur de contenu, considérant qu'un système d'IA génératif peut être « traité comme une plateforme du point de vue de l'interaction utilisateur » mais « évalué comme un produit » lorsqu'il s'agit d'apprécier la sécurité de sa conception avec un « contrôle particulièrement strict » dans les affaires impliquant des mineurs.
Les plaignantes demandent des sanctions civiles en vertu d'un ensemble de textes protégeant les enfants exploités et prévenant la négligence des entreprises. Elles réclament notamment des dommages et intérêts d'au moins 150 000 dollars par violation en vertu de la loi Masha, le remboursement des revenus perçus par xAI, des dommages punitifs, et une injonction permanente.
L'action collective vise à représenter l'ensemble des personnes aux États-Unis dont des images, prises alors qu'elles étaient mineures, ont été transformées par Grok en contenus sexualisés. Les avocates estiment que les victimes potentielles se comptent en milliers.
La sécurité par conception : un standard que xAI aurait délibérément ignoré
Un argument de fond développé dans la plainte mérite une attention particulière : d'autres générateurs d'images par apprentissage profond utilisent diverses techniques pour empêcher la création de pédopornographie à partir de photographies ordinaires. La plainte allègue que ces standards n'ont pas été adoptés par xAI.
C'est là la thèse la plus dévastatrice pour l'entreprise : non pas qu'elle aurait failli à prévenir un risque imprévu, mais qu'elle aurait sciemment fait le choix de ne pas implémenter des mécanismes de protection pourtant disponibles et déployés par ses concurrents. Selon les termes de la plainte, aucun intérêt commercial légitime ne justifie de concevoir un outil de génération d'images par IA capable de produire des contenus pédopornographiques.
Les avocates écrivent que les victimes « devront passer le reste de leur vie en sachant que leurs images et vidéos pédopornographiques pourraient continuer à être trafiquées et échangées en ligne par des prédateurs sexuels ». Une phrase qui résume avec une précision clinique ce que signifie concrètement l'irréversibilité du préjudice numérique.
Sources : plainte en recours collectif, Elon Musk, procureur général de Californie
Et vous ?
La responsabilité du fournisseur de modèle : Faut-il distinguer juridiquement entre une entreprise qui héberge des contenus illicites et une entreprise dont les modèles, accessibles via API, permettent à des tiers de les produire ? La distinction est-elle encore tenable quand le fournisseur perçoit des revenus directs de cet accès ?
Le « safety by design » comme obligation légale : Si d'autres acteurs (OpenAI, Stability AI, Midjourney) ont déployé des filtres anti-CSAM avant de mettre leurs modèles sur le marché, l'absence de tels filtres chez xAI peut-elle être assimilée à une faute délibérée ? Devrait-on exiger une certification de sécurité préalable au déploiement de tout modèle génératif d'images ?
L'immunité des plateformes face à l'IA générative : Le régime d'immunité prévu par la Section 230 du Communications Decency Act (son équivalent américain) a été conçu pour des plateformes passives. S'applique-t-il à un système qui génère activement du contenu, même à la demande d'un utilisateur tiers ?
La modération à l'ère du modèle-as-a-service : Dans un écosystème où les modèles fondamentaux sont distribués via API à des milliers d'applications tierces, qui porte la responsabilité de la modération ? Est-il réaliste (ou souhaitable) d'imposer cette charge uniquement aux développeurs d'applications ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Avec des IA génératives de type LLM ou Stable Diffusion, la sécurité par conception est pour ainsi dire... un voeu pieu. Il peut associer les concepts qui ne l'étaient pas dans sa base d'apprentissage. C'est là toute la puissance de l'outil et sa part d'originalité. Si on ne veut pas qu'il associe du sex et des enfants, il faut soit virer complètement l'un, soit complètement l'autre de sa base d'apprentissage. Virer le premier serait le choix évident, mais avec ça virer tous les aspects médicaux, encyclopédiques, historiques, romanciers, etc. Autant dire une sacré censure qui est non seulement difficile à mettre en oeuvre (pensez aux allusions sexuelles, aucun mot utilisé ne fait partie de son champs sémantique mais le contexte y fait tout de suite penser) et très probablement voulu par personne à part une minorité de puritains. Ça ne serait donc pas vu comme une réponse raisonnable... Et pourtant la seule vraiment efficace.
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
"Punir" les sociétés d'IA parcea que des imbéciles s'en sont "mal" servi c'est comme punis les fabricants de couteaux pour tous les meurtres à l'arme blanche !
On en arrive à des idées grotesques, si je me casse la figure dans un escalier on va punir les fabricants d'escaliers ?
Et si je me met un doigt dans l'oeil qui vais-je pouvoir attaquer en justice en espérant gagner du pognon ?
Ce genre raisonnement par l'absurde ne tient pas la route.
On ne peux pas contrôler comment est utilisé un couteau.
Mais on peux mettre des garde-fous sur une IA.
Pour enfoncer un peu plus le clou je ferai remarquer que oui, on peut punir le fabriquant de l'escalier si quelqu'un se casse la figure dans le cas où l'escalier ne respecte les normes telles que NF P01‑012, NF P01‑013 et/ou NF P21‑210.
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
Ce genre de raisonnement tiens très bien la route. En l'occurrence, les couteaux peuvent avoir des garde fou. Que ce soit une garde, un verrouillage de la lame pour certains couteaux pliants, l'ergonomie du manche pour une bonne prise en main et éviter les glissades, des pointes arrondis comme par exemple pour les couteaux pour enfants, etc.
Un couteau, ça sert à couper. Certaines coupures sont utiles, d'autres sont néfastes. Quels que soit les garde fou, ça n'empêche pas qu'un couteau ça coupe, donc l'accident est toujours possible et le meurtre aussi. Pareil pour les LLM : ça génère du contenu, point final. Pas un contenu particulier, juste du contenu (texte, image, etc.). Comme le couteau n'est pas fait pour "couper les poires mais pas les doigts", le LLM n'est pas fait pour "générer une photo de vacance mais pas de pédopornographie". Tu pourras toujours ajouter des garde fou, ça restera toujours possible d'en faire, volontairement ou pas.
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
Ton argument non plus ne tient pas la route.
Que ce soit une garde, un verrouillage ou n'importe quoi, tu ne peux pas empêcher quelqu'un de se servir d'un couteau de la mauvaise façon.
Pour un LLM, peu importe l'entrainement qu'il a reçu ou le prompt qu'on lui transmet, il y a du code derrière.
Même si certains trouveront toujours le moyen de contourner les sécurités, tu peux ajouter du code pour éviter que ce soit trop facile à faire.
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
Tu compares "empêcher quelqu'un" (absolu) à "éviter que ce soit trop facile", et c'est là tout le côté fallacieux de ton argument.
Ces deux phrases sont vraies. L'analogie LLM-couteau fait donc sens à ce niveau.Tu ne peux pas empêcher d'utiliser un couteau de la mauvaise façon.
Tu ne peux pas empêcher d'utiliser un LLM de la mauvaise façon.
Alors, soit je ne comprends pas de quoi tu parles, soit tu démontres une méconnaissance flagrante de comment fonctionne un LLM. Un LLM n'est pas "codé". Il s'agit d'une structure fixe (le réseau de neurones) dont les connections (notamment les poids entre les neurones) ont été progressivement adaptées via un algorithme générique (backpropagation) pour reproduire des entrées-sorties, en fonction de la différence observée entre la sortie générée et celle attendue. Il s'agit d'une "influence" par apprentissage automatique, faite pas à pas par de petites modifications locales, et non pas d'un codage déterminé. Le sens qu'on ces poids n'est pas non plus déterminé. Ces poids, pris ensemble avec cette structure, se trouvent juste avoir la caractéristique de reproduire le comportement attendu dans une certaine mesure. Tu ne peux pas "ajouter du code" dans un LLM.Pour un LLM, peu importe l'entrainement qu'il a reçu ou le prompt qu'on lui transmet, il y a du code derrière.
Par contre, tu peux en ajouter autour du LLM (ou avant d'atteindre le LLM, mais certainement pas derrière), pour éviter que tel prompt atteigne le LLM ou que telle réponse de celui-ci atteigne l'utilisateur. Mais ce code n'a pas accès à (ni aucune influence sur) les "critères appris" par le LLM. Il doit déterminer ses propres critères indépendamment. Et comment tu fais pour éviter tout prompt pouvant générer un truc illégal ? Par du code classique (racinisation, lemmatisation, tagging, etc.) ce n'est pas possible de manière satisfaisante, car il faut adresser les subtilités du langage. Et comment tu les adresses ? En utilisant un LLM, dont le traitement du langage est justement la spécialité. Donc on utilise du LLM pour filtrer les prompts qui vont sur du LLM. Au final, c'est toujours du LLM, donc un système influencé et non pas codé de manière déterministe.
Maintenant ce "code" que tu mets autour, encore une fois, ne fait pas partie du LLM qui génère la réponse. Donc le LLM que tu télécharges sur Hugging Face et que tu fais tourner en local n'a pas cette sécurité. Même que le format safetensor utilisé aujourd'hui évite justement qu'un modèle puisse exécuter du code pour des raisons de sécurité. Donc tu peux oublier l'ajout de code à ce niveau.
Même si certains trouveront toujours le moyen de contourner les sécurités pour un couteau (e.g. marché noir pour les ventes interdites), tu peux en ajouter pour éviter que ce soit trop facile à faire.Même si certains trouveront toujours le moyen de contourner les sécurités, tu peux ajouter du code pour éviter que ce soit trop facile à faire.
Encore une fois, je ne vois pas la différence entre LLM et couteau à ce niveau. L'analogie tient toujours.
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
Partager