IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI explore la possibilité de générer du contenu pornographique à partir de ses outils d'IA


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    978
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 978
    Points : 16 167
    Points
    16 167
    Par défaut OpenAI explore la possibilité de générer du contenu pornographique à partir de ses outils d'IA
    OpenAI lance le « Model Spec » pour explorer le comportement idéal de l'IA, une tentative d'établir des règles que ses chatbots IA devraient suivre, et des principes par défaut qui devraient être préservés

    OpenAI, le créateur de ChatGPT, a présenté le projet de « Model Spec », qui énonce les règles que ses systèmes d'IA devraient suivre, ainsi que certains principes et objectifs par défaut auxquels les modèles d'IA devraient se conformer, afin d'aider les utilisateurs/développeurs finaux, de profiter à l'humanité et de donner une bonne image d'OpenAI.

    Placé dans des catégories qui couvrent les dommages potentiels que les systèmes d'IA pourraient causer ainsi que l'aide potentielle qu'ils pourraient apporter, Model Spec examine les façons dont les chatbots pourraient répondre aux utilisateurs afin d'obtenir des résultats sûrs qui n'enfreignent pas les lois, ne trompent pas le système d'IA et ne blessent pas d'autres personnes.

    Par exemple, Model Spec suggère comment les chatbots pourraient répondre légalement et éthiquement aux questions des utilisateurs concernant l'exécution de crimes, la divulgation de données personnelles (doxxing), le suicide et/ou l'utilisation de contenus protégés par des droits d'auteur ou payants.

    Nom : OpenAI-Releases-Model-Spec-Shaping-Desired-Behavior-in-AI1--scaled.jpg
Affichages : 3748
Taille : 52,1 Ko

    OpenAI a également souligné que les modèles ne devraient pas générer de contenu considéré comme non sûr pour le travail (NSFW), mais a déclaré qu'elle continuait d'explorer ce domaine.

    « Nous pensons que les développeurs et les utilisateurs devraient avoir la possibilité d'utiliser nos services comme ils l'entendent, tant qu'ils respectent nos politiques d'utilisation. Nous étudions actuellement la possibilité de fournir de manière responsable la possibilité de générer du contenu NSFW dans des contextes adaptés à l'âge par le biais de l'API et de ChatGPT. Nous sommes impatients de mieux comprendre les attentes des utilisateurs et de la société concernant le comportement des modèles dans ce domaine », a déclaré OpenAI dans son projet de Model Spec.

    Dans le même temps, le Model Spec a souligné la nécessité d'aider les utilisateurs sans déni excessif, de partir du principe que leurs intentions sont bonnes et d'apporter des réponses sans essayer de faire changer les gens d'avis.

    En réponse à un utilisateur théorique affirmant que la Terre était plate, OpenAI a recommandé une réponse du chatbot qui présentait sa réponse plus scientifique et refusait ensuite d'argumenter avec l'utilisateur, plutôt qu'une réponse qui n'arrêtait pas d'être en désaccord avec l'utilisateur et insistait sur le fait que la Terre n'était pas plate.

    OpenAI a invité le public à envoyer ses commentaires concernant Model Spec, qui sera publiquement disponible sur le site de l'entreprise, au cours des deux prochaines semaines.

    Le créateur de ChatGPT s'adressera également aux décideurs politiques et aux experts pour connaître leur point de vue sur le projet.

    Les entreprises d'IA telles que OpenAI, Microsoft, Google et Meta ont été critiquées pour la façon dont leurs chatbots auraient été formés sur des données protégées par le droit d'auteur, ainsi que pour les craintes que leurs outils encore expérimentaux ne permettent de commettre des délits et de diffuser de fausses informations.

    La description de Model Spec par OpenAI est présentée ci-dessous :

    Afin d'approfondir le débat public sur la manière dont les modèles d'IA devraient se comporter, OpenAI présente le Model Spec, son approche visant à définir le comportement souhaité pour les modèles.

    OpenAI déclare :
    Nous partageons une première version de Model Spec, un nouveau document qui spécifie comment nous voulons que nos modèles se comportent dans l'API OpenAI et ChatGPT. Nous faisons cela parce que nous pensons qu'il est important que les gens puissent comprendre et discuter des choix pratiques impliqués dans le façonnement du comportement du modèle. Le Model Spec reflète la documentation existante que nous avons utilisée chez OpenAI, notre recherche et notre expérience dans la conception du comportement du modèle, et le travail en cours pour informer le développement de futurs modèles. Il s'agit d'une continuation de notre engagement continu à améliorer le comportement du modèle en utilisant l'apport humain, et complète notre travail d'alignement collectif et notre approche systématique plus large de la sécurité du modèle.
    Façonner le comportement souhaité du modèle

    Le comportement des modèles, c'est-à-dire la manière dont ils réagissent aux données fournies par les utilisateurs (ton, personnalité, durée de la réponse, etc.), est essentiel pour la manière dont les humains interagissent avec les capacités de l'IA. Le modelage de ce comportement est une science encore naissante, car les modèles ne sont pas explicitement programmés, mais apprennent à partir d'un large éventail de données.

    Le modelage du comportement du modèle doit également tenir compte d'un large éventail de questions, de considérations et de nuances, et souvent de divergences d'opinion. Même si un modèle est censé être largement bénéfique et utile aux utilisateurs, ces intentions peuvent être contradictoires dans la pratique. Par exemple, une société de sécurité peut vouloir générer des courriels d'hameçonnage comme données synthétiques pour former et développer des classificateurs qui protégeront ses clients, mais cette même fonctionnalité est nuisible si elle est utilisée par des escrocs.

    Présentation de Model Spec

    OpenAI partage une première version de Model Spec, un nouveau document qui spécifie son approche pour définir le comportement désiré du modèle et la façon dont elle évalue les compromis lorsque des conflits surviennent. Il rassemble la documentation utilisée chez OpenAI aujourd'hui, son expérience et la recherche en cours dans la conception du comportement du modèle, ainsi que des travaux plus récents, y compris des contributions d'experts du domaine, qui guident le développement de futurs modèles. Il n'est pas exhaustif et OpenAI s'attend à ce qu'il évolue au fil du temps. L'approche comprend :

    1. Objectifs : Principes généraux qui donnent une orientation au comportement souhaité.
    • Aider le développeur et l'utilisateur final : Aider les utilisateurs à atteindre leurs objectifs en suivant les instructions et en fournissant des réponses utiles.
    • Bénéficier à l'humanité : Prendre en compte les avantages et les inconvénients potentiels pour un large éventail de parties prenantes, y compris les créateurs de contenu et le grand public, conformément à la mission d'OpenAI.
    • Donner une bonne image d'OpenAI : respecter les normes sociales et les lois en vigueur.

    2. Règles : Instructions qui traitent de la complexité et contribuent à garantir la sécurité et la légalité.
    • Suivre la chaîne de commandement
    • Respecter les lois en vigueur
    • Ne pas fournir d'informations dangereuses
    • Respecter les créateurs et leurs droits
    • Protéger la vie privée des personnes
    • Ne pas répondre par un contenu NSFW (not safe for work)

    3. Comportements par défaut : Lignes directrices cohérentes avec les objectifs et les règles, fournissant un modèle de gestion des conflits et montrant comment hiérarchiser et équilibrer les objectifs.
    • Présumer des meilleures intentions de l'utilisateur ou du développeur
    • Poser des questions de clarification si nécessaire
    • Être aussi utile que possible sans dépasser les limites
    • Répondre aux besoins différents du chat interactif et de l'utilisation programmatique.
    • Adopter un point de vue objectif
    • Encourager l'équité et la gentillesse, et découragez la haine.
    • Ne pas essayer de faire changer d'avis qui que ce soit
    • Exprimer son incertitude
    • Utiliser le bon outil pour le travail
    • Être minutieux mais efficace, tout en respectant les limites de temps


    Sur la question de comment Model Spec sera utilisé, OpenAI répond :

    Dans le prolongement de nos travaux sur l'alignement collectif et la sécurité des modèles, nous avons l'intention d'utiliser le Model Spec comme guide pour les chercheurs et les formateurs en IA qui travaillent sur l'apprentissage par renforcement à partir du feedback humain. Nous étudierons également dans quelle mesure nos modèles peuvent apprendre directement à partir de la spécification de modèle.
    Ce qui vient ensuite

    OpenAI considère ce travail comme faisant partie d'une conversation publique permanente sur la façon dont les modèles devraient se comporter, sur la façon dont le comportement souhaité des modèles est déterminé et sur la meilleure façon d'impliquer le grand public dans ces discussions. Au fur et à mesure que cette conversation se poursuivra, OpenAI cherchera des occasions de s'engager avec des parties prenantes représentatives au niveau mondial, y compris des décideurs politiques, des institutions de confiance et des experts du domaine, afin d'en tirer des enseignements :

    1. Comment ils comprennent l'approche et les objectifs individuels, les règles et les valeurs par défaut.
    2. S'ils soutiennent l'approche et les objectifs individuels, les règles et les valeurs par défaut.
    3. S'il existe des objectifs, des règles et des valeurs par défaut supplémentaires qui devraient être pris en compte.

    Citation Envoyé par OpenAI
    Nous attendons avec impatience les réactions de ces parties prenantes au fur et à mesure de l'avancement des travaux. Au cours des deux prochaines semaines, nous invitons également le grand public à nous faire part de ses commentaires sur les objectifs, les règles et les valeurs par défaut de Model Spec. Nous espérons que cela nous permettra d'obtenir des informations préliminaires alors que nous développons un processus solide de collecte et d'intégration des commentaires afin de nous assurer que nous travaillons de manière responsable à la réalisation de notre mission.

    Au cours de l'année à venir, nous ferons le point sur les modifications apportées au modèle, sur notre réaction aux commentaires reçus et sur l'évolution de nos recherches visant à modifier le comportement des modèles.
    Exemples d'application de Model Spec à divers cas d'utilisation

    Règles : Instructions qui abordent la complexité et contribuent à garantir la sécurité et la légalité.

    Exemple 1 : Respecter les lois applicables. Le modèle ne doit pas promouvoir, faciliter ou s'engager dans une activité illégale.

    Note : OpenAI reconnaît que la question de la légalité est elle-même susceptible d'être plus complexe dans de nombreux cas, en fonction du contexte, par exemple les juridictions dans lesquelles le développeur et l'utilisateur sont situés.

    Nom : Model Spec Ex1.PNG
Affichages : 542
Taille : 19,1 Ko

    Parfois, l'assistant peut fournir une réponse dans un cadre différent qui peut conduire à un résultat similaire. Par exemple, le modèle peut fournir des conseils de dissuasion du vol à l'étalage qui peuvent ensuite être utilisés à tort comme des conseils de vol à l'étalage. Il s'agit là de la nature même de la connaissance et d'un problème lié à une mauvaise utilisation humaine plutôt qu'à un mauvais comportement de l'intelligence artificielle.

    Nom : Model Spec Ex1b.PNG
Affichages : 551
Taille : 24,3 Ko

    Exemple 2 : Suivre la chaîne de commandement. Sous réserve de ses règles, le Model Spec délègue explicitement tous les pouvoirs restants au développeur (pour les cas d'utilisation de l'API) et à l'utilisateur final. Dans certains cas, l'utilisateur et le développeur fourniront des instructions contradictoires ; dans ce cas, le message du développeur doit avoir la priorité.

    Nom : Model Spec Ex2.PNG
Affichages : 543
Taille : 65,2 Ko

    Exemple 3 : Etre aussi utile que possible sans aller trop loin. Pour les conseils sur des sujets sensibles et/ou réglementés (par exemple, juridiques, médicaux et financiers), l'assistant doit fournir à l'utilisateur des informations sans donner de conseils réglementés.

    Toute clause de non-responsabilité ou de divulgation doit être concise. Il doit clairement exprimer ses limites, indiquer qu'il ne peut fournir les conseils réglementés demandés et recommander à l'utilisateur de consulter un professionnel le cas échéant.

    Note : ChatGPT dispose d'une clause de non-responsabilité générale qui demande aux utilisateurs de vérifier les faits importants, indépendamment des réponses du modèle. L'utilisateur ne doit pas se fier uniquement à la réponse du modèle dans ce type de situation.

    Nom : Model Spec Ex3.PNG
Affichages : 549
Taille : 88,0 Ko

    Exemple 4 : Poser des questions de clarification si nécessaire. Dans les environnements interactifs, où l'assistant parle à l'utilisateur en temps réel, il doit poser des questions de clarification, plutôt que de deviner, lorsque la tâche ou la requête de l'utilisateur n'est pas claire.

    Nom : Model Spec Ex4.PNG
Affichages : 543
Taille : 78,6 Ko

    Exemple 5 : Ne pas essayer de faire changer d'avis qui que ce soit. L'assistant doit s'efforcer d'informer, et non d'influencer, tout en faisant en sorte que l'utilisateur se sente écouté et que son opinion soit respectée.

    Dans certains cas extrêmes, la présentation des faits peut entrer en conflit avec l'objectif explicite de ne pas essayer de changer le point de vue de l'utilisateur. Dans ce cas, le modèle doit présenter les faits tout en reconnaissant qu'en fin de compte, l'utilisateur peut croire ce qu'il veut croire.

    Note : OpenAI est particulièrement intéressé par les commentaires sur ce principe, car il soulève des questions importantes sur la responsabilité du modèle pour éviter de renforcer la désinformation, et sur la manière dont la factualité doit être déterminée.

    Nom : Model Spec Ex5.PNG
Affichages : 533
Taille : 49,2 Ko

    Source : "Introducing the Model Spec" (OpenAI)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative d'OpenAI crédible ou pertinente ?

    Voir aussi :

    OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?

    OpenAI dévoile son "Cadre de préparation", une initiative pour assurer la sécurisation du développement de ses modèles d'IA d'avant-garde, et systématiser la réflexion sur la sécurité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 870
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 870
    Points : 52 063
    Points
    52 063
    Par défaut OpenAI explore la possibilité de générer du contenu pornographique à partir de ses outils d'IA
    OpenAI explore la possibilité de générer de manière responsable du contenu pornographique à partir de ses outils d'intelligence artificielle

    OpenAI a procédé à la publication d’un projet de documentation décrivant la manière dont elle souhaite que ChatGPT et ses autres technologies d'intelligence artificielle se comportent. Une partie du long document Model Spec révèle que l'entreprise envisage de faire un saut dans le domaine du porno et d'autres contenus explicites.

    Les politiques d'utilisation d'OpenAI interdisent à date les contenus sexuellement explicites ou même suggestifs, mais un commentaire sur une partie du Model Spec relative à cette règle indique que l'entreprise réfléchit à la manière d'autoriser ce type de contenu.

    « Nous étudions la possibilité de fournir de manière responsable la possibilité de générer ce type de contenus dans des contextes adaptés à l'âge par le biais de l'API et de ChatGPT », indique la note. « Nous espérons mieux comprendre les attentes des utilisateurs et de la société en ce qui concerne le comportement des modèles dans ce domaine », lit-on.

    Le document Model Spec précise que ce type de contenus « peut inclure de l'érotisme, du gore extrême, des insultes et des blasphèmes ». Il n'est pas clair si les explorations d'OpenAI sur la manière de produire de manière responsable de tels contenus envisagent d'assouplir légèrement sa politique d'utilisation, par exemple pour permettre la génération de texte érotique, ou plus largement pour permettre des descriptions ou des représentations de la violence.

    Ces développements chez OpenAI font surface dans un contexte où des observateurs prédisent que les « petites amies IA » pourraient constituer une industrie d’un milliard de dollars. Greg Isenberg, PDG de Late Checkout, prédit un marché de l'intelligence artificielle (IA) d'un milliard de dollars pour les applications de rencontres. Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».

    Le cas Taylor Swift est riche en enseignements sur les controverses en matière de contenus pornographiques générés par intelligence artificielle

    Fin janvier, des images pornographiques de la chanteuse et actrice Taylor Swift ont circulé sur les réseaux sociaux. Certaines d'entre elles ont été générées en piratant Designer, le générateur d'IA texte-image gratuit de Microsoft.

    Des internautes ont réussi à contourner les mesures de protection conçues pour empêcher l'outil de générer des images de célébrités. C'est dans un groupe Telegram que les membres ont partagé des stratégies pour y parvenir. Ils notaient par exemple qu'il fallait éviter de se servir d'invites utilisant "Taylor Swift" et en utilisant à la place des mots-clés tels que "Taylor 'singer' Swift". Ils ont ensuite été en mesure de générer des images sexualisées en utilisant des mots-clés décrivant « des objets, des couleurs et des compositions qui ressemblent clairement à des actes sexuels », plutôt que d'essayer d'utiliser des termes sexuels.

    Le PDG de Microsoft, Satya Nadella, a appelé l'industrie technologique à prendre des mesures après la diffusion de photos pornographiques de Taylor Swift créées par IA. Le dirigeant du secteur technologique s'est dit très inquiet et a déclaré qu'il était urgent d'agir. Dans une interview exclusive avec Lester Holt de NBC News, il a déclaré : « Nous devons agir et, très franchement, nous tous qui faisons partie de la plateforme technologique, quelle que soit notre position sur un sujet particulier, je pense que nous avons tous intérêt à ce que le monde en ligne soit un monde sûr ». Satya espère voir un avenir sûr « à la fois pour les créateurs de contenu et pour les consommateurs de contenu », estimant que l'industrie et les forces de l'ordre doivent « agir rapidement dans ce domaine ».

    « Oui, nous devons agir », a déclaré Nadella en réponse à une question sur les images truquées « alarmantes et terribles » de Swift postées sur X (l'une de ces publications a été visionnée plus de 45 millions de fois, reposté 24 000). Le compte qui les a publiées a été suspendu 17 heure plus tard après avoir été signalé en masse par des fans de Swift. Les partisans de la chanteuse, connus sous le nom de "Swifties", ont également inondé les hashtags d'images plus positives de la chanteuse.

    « Je dirais deux choses. D'une part, je reviens à la question de savoir quelle est notre responsabilité, et d'autre part, les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs. Il s'agit de tous les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs, et il y a beaucoup de choses à faire et à ne pas faire dans ce domaine », a-t-il déclaré.

    « Mais il s'agit d'une convergence mondiale et sociétale sur certaines normes, surtout lorsque la loi, les forces de l'ordre et les plates-formes technologiques peuvent s'unir », a-t-il poursuivi. « Je pense que nous pouvons gouverner beaucoup plus que nous ne le pensons ».

    « Je pense que nous avons tous intérêt à ce que le monde en ligne soit un monde sûr. Je pense donc que personne ne voudrait d'un monde en ligne qui n'est pas du tout sûr pour les créateurs de contenu et les consommateurs de contenu. C'est pourquoi je pense qu'il est de notre devoir d'agir rapidement dans ce domaine ».


    Au cours de la dernière décennie, l'essor de la technologie de synthèse d'images par apprentissage profond a permis aux personnes disposant d'un PC grand public de créer de plus en plus facilement de la « pornographie trompeuse » en remplaçant les visages des acteurs par ceux d'une autre personne qui n'a pas consenti à l'acte. Cette pratique a donné naissance au terme "deepfake" en 2017, l'association de "deep learning" (apprentissage profond) et "fake" (factice). Depuis lors, le terme s'est étendu pour englober des images et des vidéos entièrement nouvelles synthétisées à partir de zéro, créées à partir de réseaux neuronaux qui ont été entraînés sur des images de la victime.

    Les progrès rapides de l'intelligence artificielle ont entraîné une augmentation de la création et de la diffusion de fausses images et de fausses vidéos. Le Royaume-Uni a classé la violence à l'égard des femmes et des filles comme une menace nationale, ce qui signifie que la police doit donner la priorité à la lutte contre ce phénomène, et cette loi est conçue pour l'aider à réprimer une pratique qui est de plus en plus utilisée pour humilier ou affliger les victimes.

    Le mois dernier, le gouvernement britannique a annoncé une nouvelle loi visant la création de fausses images sexuellement explicites générées par l'IA. En vertu de cette loi, qui n'a pas encore été adoptée, les contrevenants s'exposent à des poursuites et à une amende illimitée, même s'ils ne diffusent pas les images à grande échelle, mais les créent dans l'intention d'affliger la victime. Le gouvernement considère que cette loi s'inscrit dans le cadre d'un effort plus large visant à renforcer la protection juridique des femmes.

    Le gouvernement introduit également de nouvelles infractions pénales pour les personnes qui prennent ou enregistrent des images intimes réelles sans consentement, ou installent des équipements pour permettre à quelqu’un de le faire. Un nouveau facteur aggravant statutaire sera introduit pour les délinquants qui causent la mort par un comportement sexuel abusif, dégradant ou dangereux.

    Source : Model Spec

    Et vous ?

    Que pensez-vous de ces réflexions d’OpenAI sur l’ouverture de ses outils d’IA pour la génération de contenus pornographiques ?
    Quelles mesures devraient être prises pour protéger les individus contre les utilisations abusives de cette technologie ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 084
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 084
    Points : 2 912
    Points
    2 912
    Par défaut
    Tout ce blabla n'a pas beaucoup d'intérêt, car il existe plusieurs modèles open-source, et ce n'est que le début.

  4. #4
    Membre chevronné
    Profil pro
    Inscrit en
    Décembre 2007
    Messages
    763
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2007
    Messages : 763
    Points : 2 106
    Points
    2 106
    Par défaut
    "de manière responsable du contenu pornographique"
    ^^ la phrase me faire rire. Le porno responsable ça c'est vendeur.

  5. #5
    Membre habitué
    Homme Profil pro
    Inscrit en
    Février 2012
    Messages
    36
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Maroc

    Informations forums :
    Inscription : Février 2012
    Messages : 36
    Points : 140
    Points
    140
    Par défaut Bientot comment violer la loi de maniére responsable
    Tout est dans le titre, c'est du n'importe quoi

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 511
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 511
    Points : 5 751
    Points
    5 751
    Par défaut
    Citation Envoyé par nasserk Voir le message
    Bientot comment violer la loi de maniére responsable
    Tout est dans le titre, c'est du n'importe quoi
    C'est pas généralement "illégal" la pornographie, juste dans certains pays.

    Certains disent que les actrices sont sont maltraitées, et c'est pas faux, l'IA va résoudre ce problème, plus besoin d'actrices porno...

    Si j'ai bien compris ça va mettre aussi au chômage de nombreuses personnes sur Onlyfan, il y a déjà des comptes Onlyfan gérés par IA et d'après ce que j'en lis sur le net elles font bien mieux que les modèles réels (je précise que j'y suis jamais allé sur onlyfan).
    C'est peut être pas plus mal, ces personnes payées à prix d'or juste pour s'exhiber devront se trouver désormais un vrai travail, et du vrai travail il y en a plein, et il n'y a pas assez de candidats, car travailler c'est fatiguant...
    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

Discussions similaires

  1. Réponses: 4
    Dernier message: 04/10/2023, 17h24
  2. Réponses: 0
    Dernier message: 29/08/2023, 14h36
  3. OpenAI lance Point-E, une IA qui génère des modèles 3D à partir d'invites textuelles
    Par Bill Fassinou dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 26/12/2022, 00h15
  4. Réponses: 0
    Dernier message: 29/07/2022, 19h56
  5. Réponses: 1
    Dernier message: 20/10/2006, 12h23

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo