IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le créateur de la plateforme vidéo Cameo dédiée aux célébrités poursuit OpenAI en justice


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 555
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 555
    Par défaut Le créateur de la plateforme vidéo Cameo dédiée aux célébrités poursuit OpenAI en justice
    OpenAI annonce Sora 2 et une nouvelle application sociale de vidéo et d'audio d'IA qui vous permet de créer des deepfakes de vos amis grâce à des « caméos », afin que l'AI Slop puisse ruiner le web rapidement

    La nouvelle génération du générateur vidéo d'OpenAI est arrivée. Sora 2, le dernier modèle de génération vidéo et audio de l'entreprise, présente des capacités vidéo photoréalistes améliorées, et une nouvelle application Sora est présentée comme une plateforme sociale permettant aux utilisateurs de partager, de remixer et de découvrir des vidéos générées par l'IA. S'appuyant sur la technologie précédente de génération d'images par l'IA, Sora 2 permet aux utilisateurs de créer des « caméos », ou des apparitions d'invités, d'eux-mêmes et d'autres personnes dans des vidéos. L'application Sora, alimentée par Sora 2, est désormais disponible au téléchargement sur les systèmes iOS, mais l'accès au service reste limité aux invitations.

    Depuis quelques mois, une nouvelle vague de contenus inonde les réseaux sociaux : les vidéos générées par intelligence artificielle, étranges, absurdes, parfois dérangeantes, mais irrésistiblement virales. Ce phénomène a été baptisé "AI slop", littéralement la « bouillie numérique produite par IA ». Le terme n’est pas anodin : il reflète une perception de contenu industriel, bâclé, produit à la chaîne, qui n’a pas de valeur artistique intrinsèque mais qui exploite les failles des algorithmes de recommandation pour générer du clic… et de l’argent.

    Pour les professionnels du numérique, ce raz-de-marée est révélateur : il illustre à la fois la puissance des outils IA grand public, la fragilité des plateformes face à la manipulation algorithmique, et la mutation du business model de la création en ligne. C'est dans ce contexte que la nouvelle génération du générateur vidéo d'OpenAI est arrivée. Sora 2, le dernier modèle de génération vidéo et audio de l'entreprise, présente des capacités vidéo photoréalistes améliorées, et une nouvelle application Sora est présentée comme une plateforme sociale permettant aux utilisateurs de partager, de remixer et de découvrir des vidéos générées par l'IA.

    Lancé en février 2024, Sora est un modèle texte-vidéo développé par OpenAI. Grâce à des modèles d'IA de pointe, cette IA peut générer des vidéos de haute qualité, fluides, cohérentes, réalistes et immersives, basées sur de courtes invites descriptives, ainsi que prolonger les vidéos existantes vers l'avant ou vers l'arrière dans le temps. Sora peut générer des vidéos avec une résolution allant jusqu'à 1920 x 1080 et jusqu'à 1080 x 1920.


    Présenté lors d'un livestream, Sora 2 est le dernier né d'une vague d'outils d'IA générative multimédia permettant aux utilisateurs de créer des images, des vidéos et des sons de plus en plus réalistes. S'appuyant sur la technologie précédente de génération d'images par l'IA, Sora 2 permet aux utilisateurs de créer des « caméos », ou des apparitions d'invités, d'eux-mêmes et d'autres personnes dans des vidéos. Cette fonction exige des utilisateurs qu'ils fassent un enregistrement vidéo et audio unique d'eux-mêmes pour vérifier leur identité.

    À l'instar de nombreuses plateformes de médias sociaux existantes, l'application Sora proposera un flux algorithmique affichant des vidéos adaptées aux intérêts des utilisateurs, en fonction des personnes avec lesquelles ils interagissent et des sujets qu'ils sont susceptibles d'aborder. Le flux comprendra un système de « classement orientable » permettant aux utilisateurs de personnaliser davantage ce qu'ils veulent voir, selon les détails publiés par OpenAI.

    Sora 2 s'appuie sur le modèle original de Sora publié en février 2024. Alors que la version initiale de Sora peinait parfois à représenter des mouvements réalistes, comme un ballon de basket rebondissant sur un panneau arrière, OpenAI a déclaré que Sora 2 « obéit mieux aux lois de la physique ». Les démonstrations présentées sur le site web d'OpenAI montrent des plans d'action photoréalistes de cascades telles que des culbutes de gymnastique et des figures de skateboard, bien qu'un clip d'un artiste martial se produisant dans un étang de carpes koï montre un bâton qui ne semble pas tenir sa forme.

    Nom : 1.jpg
Affichages : 17343
Taille : 74,6 Ko

    Sora 2 semble également capable de générer de la parole, ce que la version précédente de Sora était incapable de faire par elle-même. « Le modèle est loin d'être parfait et comporte de nombreuses erreurs, mais il valide le fait que l'augmentation de la taille des réseaux neuronaux sur les données vidéo nous rapprochera de la simulation de la réalité », a écrit OpenAI dans son communiqué. Gabriel Petersson, chercheur à l'OpenAI, a présenté les capacités de camouflage du modèle en publiant sur X une vidéo dans laquelle on le voit chevaucher un dragon, plonger d'un cargo et courir dans les bureaux d'OpenAI avec le PDG Sam Altman.

    L'application Sora, alimentée par Sora 2, est désormais disponible au téléchargement sur les systèmes iOS, mais l'accès au service reste limité aux invitations. Les utilisateurs peuvent demander l'accès par l'intermédiaire de l'application. OpenAI a indiqué qu'elle pourrait déployer lentement l'accès à travers les États-Unis et le Canada, en donnant dans un premier temps aux utilisateurs des « limites généreuses » pour la création de vidéos.

    Les systèmes d'IA tels que Sora 2 requièrent une puissance de calcul considérable, de sorte que les entreprises doivent souvent limiter l'accès des utilisateurs afin de garantir que les services restent accessibles à d'autres. « En toute transparence, notre seul projet actuel est de donner aux utilisateurs la possibilité de payer une certaine somme pour générer une vidéo supplémentaire si la demande est trop importante par rapport à la puissance de calcul disponible », a écrit OpenAI dans son annonce de lancement, en faisant référence à la puissance de calcul limitée.

    Nom : 2.jpg
Affichages : 1875
Taille : 111,3 Ko

    OpenAI a également reconnu les inquiétudes concernant les risques potentiels de l'application, en publiant un article de blog distinct sur la sécurité en même temps que l'annonce générale. Toutes les vidéos générées par Sora comprendront un filigrane, ainsi que des métadonnées standard, afin de préciser qu'elles ont été créées par l'IA, a écrit l'entreprise. Elle ajoute que les images des utilisateurs ne peuvent être transformées en caméos qu'avec leur consentement, qui peut être révoqué à tout moment. Les comptes d'adolescents sur Sora seront également soumis à des contrôles parentaux et à des limites de temps pour l'utilisation de l'application.

    « Lors de la création, les garde-fous cherchent à bloquer les contenus dangereux avant qu'ils ne soient produits - y compris les contenus sexuels, la propagande terroriste et la promotion de l'automutilation - en vérifiant à la fois les invites et les sorties à travers de multiples images vidéo et transcriptions audio », a écrit OpenAI dans son billet. Pour se prémunir contre les risques potentiels, OpenAI a indiqué qu'elle renforçait également son équipe de modérateurs humains chargés d'examiner le contenu en cas d'intimidation.

    OpenAI considère Sora 2 comme une étape importante vers des systèmes d'IA plus puissants. « Les modèles vidéo deviennent très bons, très rapidement », a déclaré OpenAI dans son communiqué de presse. « Les simulateurs de monde à usage général et les agents robotiques vont fondamentalement remodeler la société et accélérer l'arc du progrès humain. »

    En 2024, lorsque Sora est sorti, Sam Altman s'est efforcé de convaincre Hollywood que l’outil de génération vidéo avant-gardiste de la société n’entraînera pas la fin de la production cinématographique traditionnelle, mais plutôt son amélioration. OpenAI avait même lancé une offensive de charme à Hollywood, en organisant des réunions avec les principaux studios, notamment Paramount, Universal et Warner Bros Discovery, afin de présenter sa technologie de génération vidéo Sora et de dissiper les craintes que le modèle d'intelligence artificielle ne nuise à l'industrie cinématographique.


    Voici un extrait de l'annonce :

    Déploiement de Sora 2

    Sur le chemin des systèmes de simulation et d'intelligence artificielle polyvalents qui peuvent fonctionner dans le monde physique, nous pensons que les gens peuvent s'amuser avec les modèles que nous construisons en cours de route.

    L'équipe Sora a commencé à jouer avec cette fonctionnalité « téléchargez vous-même » il y a plusieurs mois, et nous nous sommes tous amusés comme des fous. Cela ressemblait à une évolution naturelle de la communication - des messages textuels aux emojis, en passant par les notes vocales.

    Aujourd'hui, nous lançons donc une nouvelle application sociale iOS appelée « Sora », alimentée par Sora 2. Dans l'application, vous pouvez créer, remixer les générations des autres, découvrir de nouvelles vidéos dans un flux Sora personnalisable, et vous introduire, vous ou vos amis, par le biais de caméos. Avec les caméos, vous pouvez vous glisser directement dans n'importe quelle scène de Sora avec une fidélité remarquable après un court enregistrement vidéo et audio unique dans l'application pour vérifier votre identité et capturer votre ressemblance.

    La semaine dernière, nous avons lancé l'application en interne pour l'ensemble de l'OpenAI. Nos collègues nous ont déjà dit qu'ils se faisaient de nouveaux amis au sein de l'entreprise grâce à cette fonctionnalité. Nous pensons qu'une application sociale construite autour de cette fonction « cameos » est la meilleure façon de découvrir la magie de Sora 2.
    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI a annoncé son intention d'intégrer son générateur de vidéos Sora directement dans ChatGPT afin de créer un centre de création unique pour les textes, les images et les vidéos

    Trolldi : « Will Smith mangeant des spaghettis » est désormais un benchmark pour l'IA. Lorsqu'un nouveau générateur de vidéos par IA est publié, quelqu'un l'utilise pour réaliser cette vidéo de l'acteur

    Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind

    Ashton Kutcher estime que l'IA permettra bientôt de créer un film entier après avoir testé Sora d'OpenAI. « Il va falloir mettre la barre beaucoup plus haut », déclare-t-il à l'intention d'Hollywood
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 555
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 555
    Par défaut Sora d'OpenAI crée des vidéos contenant du matériel protégé par des droits d'auteur
    La nouvelle version du générateur vidéo Sora d'OpenAI crée des vidéos contenant du matériel protégé par des droits d'auteur, à moins que les détenteurs de ces droits ne choisissent l'option de refus "opt out"

    La nouvelle version du générateur vidéo par IA d'OpenAI, Sora 2, peut créer des vidéos contenant du contenu protégé par des droits d'auteur, à moins que les détenteurs de ces droits ne choisissent l'option de refus "opt out". La start-up informera les agences artistiques et les studios de la procédure de refus et du produit. La nouvelle procédure exige que les studios de cinéma et autres détenteurs de propriété intellectuelle demandent explicitement à OpenAI de ne pas inclure leurs contenus protégés par le droit d'auteur dans les vidéos créées par Sora.

    La nouvelle génération du générateur vidéo d'OpenAI est arrivée. OpenAI est une organisation américaine spécialisée dans l'intelligence artificielle (IA) qui a pour objectif déclaré de développer une intelligence artificielle générale (AGI) « sûre et bénéfique », qu'elle définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique».

    Lancé en février 2024, Sora est un modèle texte-vidéo développé par OpenAI. Sora 2, le dernier modèle de génération vidéo et audio de l'entreprise, présente des capacités vidéo photoréalistes améliorées, et une nouvelle application Sora est présentée comme une plateforme sociale permettant aux utilisateurs de partager, de remixer et de découvrir des vidéos générées par l'IA. S'appuyant sur la technologie précédente de génération d'images par l'IA, Sora 2 permet aux utilisateurs de créer des « caméos », ou des apparitions d'invités, d'eux-mêmes et d'autres personnes dans des vidéos. Cette fonction exige des utilisateurs qu'ils fassent un enregistrement vidéo et audio unique d'eux-mêmes pour vérifier leur identité.

    Mais un nouveau rapport suggère que la nouvelle version de son générateur vidéo Sora peut créer des vidéos contenant du contenu protégé par des droits d'auteur, à moins que les détenteurs de ces droits ne choisissent l'option de refus "opt out". La start-up informera les agences artistiques et les studios de la procédure de refus et du produit. La nouvelle procédure exige que les studios de cinéma et autres détenteurs de propriété intellectuelle demandent explicitement à OpenAI de ne pas inclure leurs contenus protégés par le droit d'auteur dans les vidéos créées par Sora.

    Avec la sortie de Sora 2, OpenAI a annoncé une application autonome. L'application, soutenue par Microsoft, sera lancée dans les prochains jours et comprendra des fonctionnalités telles qu'un flux vidéo vertical avec navigation par glissement, similaire à TikTok, et la possibilité de générer des vidéos d'une durée maximale de 10 secondes. La nouvelle version de Sora ne permettra pas aux utilisateurs de télécharger des photos ou des vidéos à partir d'albums mobiles ou d'autres applications. Cependant, elle inclura une fonctionnalité de vérification d'identité qui permettra aux utilisateurs d'authentifier leurs informations de portrait et d'intégrer leur image dans les vidéos générées.


    La décision d'OpenAI de lancer Sora 2 intervient dans un contexte de tensions persistantes entre les entreprises spécialisées dans l'IA et Hollywood. La société attend actuellement les déclarations des procureurs généraux de Californie et du Delaware pour confirmer qu'ils ne s'opposeront pas à la transition d'OpenAI vers une structure d'entreprise traditionnelle à but lucratif. Cette transition est cruciale pour OpenAI, car elle a informé certains investisseurs que si la transition structurelle n'était pas achevée d'ici la fin de l'année, ceux-ci pourraient demander le retrait d'une partie de leurs investissements engagés.

    OpenAI a été critiqué par les professionnels de la création hollywoodiens, qui ont exigé que les entreprises d'IA obtiennent leur consentement et leur versent une compensation lorsqu'elles utilisent leurs œuvres pour former des modèles ou générer des résultats basés sur leur contenu créatif. Au printemps de cette année, OpenAI et Google ont conjointement fait pression sur l'administration Trump pour que l'utilisation de matériel protégé par le droit d'auteur pour former des modèles d'IA soit classée comme « usage loyal ». Cependant, cette initiative s'est heurtée à une forte opposition de la part des professionnels de la création hollywoodiens.

    La sortie de Sora 2 intervient à un moment politique critique pour OpenAI. La société a conclu des accords avec certaines sociétés cinématographiques et télévisuelles afin d'interdire à ses outils de générer, sur demande, des contenus mettant en scène des personnages protégés par le droit d'auteur. Cependant, la nouvelle version de Sora n'utilisera pas d'images non autorisées de personnalités publiques lors de la génération de visuels.

    OpenAI a mis en place des mécanismes de protection similaires à ceux de son outil de génération d'images, lancé en avril de cette année. Cet outil a rapidement donné lieu à une vague de mèmes imitant le style du célèbre studio d'animation japonais Studio Ghibli. Les concurrents d'OpenAI, tels que Google, se livrent également une concurrence acharnée pour attirer les utilisateurs en lançant sans cesse de nouveaux outils d'IA. Google a récemment intégré son générateur de vidéos Veo 3 à la célèbre plateforme YouTube, permettant ainsi aux utilisateurs d'incorporer la technologie vidéo IA dans la création de vidéos courtes

    La nouvelle version de Sora n'acceptera pas les demandes d'exclusion de droits d'auteur « générales ». À la place, OpenAI a envoyé un lien à certaines agences, leur permettant, ainsi qu'à leurs clients, de signaler les violations après leur découverte. Varun Shetty, vice-président des partenariats médias chez OpenAI, a déclaré : « Si quelqu'un ne souhaite pas participer à cet écosystème, nous sommes prêts à collaborer avec lui ».

    Dan Neely, PDG de Vermillio, une plateforme de licence et de protection de l'IA, a déclaré : « Pour de nombreux professionnels du secteur de l'IA, la décision d'OpenAI confirme des préoccupations de longue date et souligne une fois de plus la nécessité de mettre en place des mécanismes de protection ». La sortie de Sora 2 sera suivie de près par les investisseurs et les professionnels de la finance, car elle représente une étape importante dans l'expansion d'OpenAI dans le domaine des technologies d'intelligence artificielle multimodales. La capacité de l'entreprise à naviguer dans le paysage complexe des droits de propriété intellectuelle et à maintenir des relations positives avec les créateurs de contenu sera essentielle à son succès.

    Source : OpenAI

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur mais ces chercheurs ont essayé, démontrant que former des modèles d'IA puissants sans enfreindre la loi, c'est possible

    AI slop : les vidéos générées par IA envahissent les plateformes comme TikTok et YouTube, exploitant les failles des algorithmes de recommandation pour générer du clic et de l'argent

    Le nouveau générateur d'images d'OpenAI parvient à reproduire des styles comme celui de Pixar ou du Studio Ghibli, relançant le débat sur la protection des droits d'auteur à l'ère de l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 702
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 702
    Par défaut Sam Altman admet que le flux « Slop » de Sora 2 est un moyen de gagner de l'argent pour financer les GPU
    Sam Altman admet que le flux « Slop » de Sora 2 inspiré de TikTok est un moyen de gagner de l'argent pour financer les GPU,
    Deepfakes, violation des droits d'auteur, des problèmes fondamentaux émergent

    Sous couvert de révolutionner la création vidéo, OpenAI semble surtout chercher à stabiliser un modèle économique devenu explosif. Car OpenAI ne s’est pas contenté de créer un outil : elle a construit un écosystème. Un flux de vidéos, comparable à TikTok ou Reels, diffuse en continu des créations d’utilisateurs. Sauf que cette fois, la plupart des vidéos n’ont pas d’auteur humain. Le système les génère, les promeut, et apprend de nos réactions pour optimiser ce qui fera cliquer le plus.

    Sam Altman, patron d’OpenAI, a admis à demi-mot que le « slop feed » — ce flux infini de vidéos générées par IA dans Sora 2 — est aussi une manœuvre financière pour financer l’achat de GPU. Derrière la façade du progrès créatif se cache une réalité bien plus prosaïque : celle d’une industrie de l’IA en quête de ressources matérielles, prête à industrialiser la distraction pour survivre.


    La nouvelle application de vidéos courtes d'OpenAI, Sora, semble réunir tous les ingrédients d'un succès viral. Quelques heures seulement après le lancement de l'application mardi, des mèmes créés à l'aide de sa technologie de génération de vidéos par IA se propageaient déjà sur d'autres réseaux sociaux, notamment une vidéo du PDG d'OpenAI, Sam Altman, en train de rapper à l'intérieur d'une cuvette de toilettes.

    Le lancement de Sora, avec sa page « pour vous » inspirée de TikTok, a marqué un revirement pour Sam Altman, qui avait précédemment décrit les flux des réseaux sociaux comme « un exemple d'IA mal alignée », dont les algorithmes « sont incroyablement efficaces pour vous inciter à continuer à faire défiler ».

    Sora 2 est présenté comme un pas de géant dans la génération vidéo : quelques mots suffisent pour produire une scène photoréaliste, avec musique, éclairage, et jeu d’acteur synthétique. Une magie technologique — du moins en surface. Car OpenAI ne s’est pas contenté de créer un outil : elle a construit un écosystème. Un flux de vidéos, comparable à TikTok ou Reels, diffuse en continu des créations d’utilisateurs. Sauf que cette fois, la plupart des vidéos n’ont pas d’auteur humain. Le système les génère, les promeut, et apprend de nos réactions pour optimiser ce qui fera cliquer le plus.

    Si les vidéos sont impressionnantes par leur qualité d'image et leurs capacités, elles soulèvent toutefois la question suivante : « Quelqu'un en avait-il vraiment besoin ? » Meta a baptisé son produit « Vibes », tandis qu'OpenAI a lancé une version nouvelle génération de son créateur de vidéos, Sora 2, via une application vidéo de type TikTok pour iOS.

    « Sora 2 est impressionnant », déclare un utilisateur de X. « Ce qui est encore plus impressionnant, c'est le peu d'intérêt que je porte à tout ce qui est créé à l'aide de cet outil. »

    Le jargon des réseaux sociaux pour ce type de contenu généré par l'IA est « slop », qui signifie en gros générique, sans âme et optimisé pour la quantité, pas pour la qualité. Cependant, d'autres sont plus enthousiastes, y voyant une distraction amusante et un projet créatif. Il est clair que cela a fait son chemin, vu le nombre de vidéos que les utilisateurs publient sur les réseaux sociaux et les discussions que cela a suscitées.

    Nom : altman.png
Affichages : 75026
Taille : 277,0 Ko

    Sora 2, ou comment transformer chaque utilisateur en rouage de l’entraînement de l’IA

    Lorsque OpenAI a annoncé Sora 2, l’ambition affichée était forte : fournir un outil générateur vidéo (texte → vidéo + audio) plus réaliste, plus contrôlé, tout en le couplant à une application sociale dans la veine de TikTok. L’idée : démocratiser la création vidéo avec une simplicité comparable à celle des chatbots, et lever les barrières techniques pour les créateurs non spécialisés. Les utilisateurs peuvent désormais créer des clips à partir de simples invites textuelles, ajouter des transitions, du son, et publier le tout sur un flux partagé. OpenAI y voit la prochaine étape du « creative computing » : démocratiser la vidéo comme ChatGPT a démocratisé le texte.

    Mais derrière cette façade innovante se cache une tension : jusqu’où l’outil servira-t-il l’art et la communauté, et à quel point servira-t-il les intérêts financiers d’OpenAI ?

    Sur le blog de Sam Altman, on lit des intentions nobles : « optimiser pour la satisfaction utilisateur à long terme », permettre aux utilisateurs de diriger leur fil (« do you want to see videos that will make you more relaxed, or more energized? »), et faire preuve d’un certain souci du bien-être psychologique. Il reconnaît cependant une peur : celle d’un « cas dégénéré » où l’algorithme pousserait tous les utilisateurs dans un flot automatique, optimisé par renforcement (RL), de contenu « slop ». Autrement dit, une fabrique d’engagement.

    Or, derrière ces mises en garde, la réalité semble plus crue : Altman a admis que ce fil « slop » pourrait être une forme de « money grab », une façon de générer de l’engagement monétisable pour financer les GPU, ces composants très coûteux indispensables à l’infrastructure AI d’OpenAI. En clair, cette mécanique addictive sert aussi à générer les revenus nécessaires pour acheter et entretenir les GPU qui font tourner les modèles d’OpenAI.

    La boucle est ainsi bouclée : l’utilisateur produit, consomme, et par son attention, finance les infrastructures qui permettront à OpenAI de produire encore plus de contenu automatisé.

    Sam Altman : « Nous avons surtout besoin de capitaux pour développer une IA capable de faire de la science »

    En effet, une personne a reproché au PDG d'OpenAI, Sam Altman, d'avoir lancé un produit aussi futile après son interview sur CNBC il y a quelques jours, dans laquelle il affirmait que la mission de l'entreprise était d'atteindre une puissance de calcul suffisante pour guérir le cancer et parvenir à une « intelligence artificielle générale » (AGI).

    Altman a répondu en reconnaissant qu'il « comprenait » le point de vue des détracteurs, mais a fait valoir que l'entreprise avait besoin de générer des revenus pour couvrir les coûts des centres de données apparemment infinis nécessaires au fonctionnement de cette technologie.

    « Nous avons surtout besoin de capitaux pour développer une IA capable de faire de la science, et il est certain que nous concentrons la quasi-totalité de nos efforts de recherche sur l'AGI », explique Altman. « C'est également agréable de montrer aux gens de nouvelles technologies/produits sympas en cours de route, de les faire sourire et, espérons-le, de gagner un peu d'argent compte tenu de tous ces besoins en informatique » tout en précisant que « La réalité est nuancée lorsqu'il s'agit des trajectoires optimales pour une entreprise. »

    Ironiquement, Sora 2 nécessite à lui seul une puissance de calcul considérable, ce qui suggère qu'OpenAI doit utiliser cette puissance pour financer davantage son développement. Il est actuellement gratuit pour attirer les utilisateurs, mais cela devrait changer dans un avenir proche.

    « Sora 2 sera initialement disponible gratuitement, avec des limites généreuses au départ afin que les utilisateurs puissent explorer librement ses capacités, bien que celles-ci restent soumises à des contraintes informatiques », indique-t-il. Les utilisateurs sérieux devront payer un abonnement ChatGPT Pro de 200 dollars par mois pour bénéficier de toutes les fonctionnalités et de moins de limites.

    Nom : sam.png
Affichages : 23152
Taille : 20,5 Ko

    La logique GPU

    L’infrastructure matérielle pour faire tourner un modèle comme Sora 2 est extrêmement coûteuse. Les GPU — unités de calcul spécialisées — constituent le nerf de la guerre pour l’IA moderne. À chaque demande vidéo complexe, le système sollicite des ressources massives.

    Lors d’une phase de croissance agressive, un acteur comme OpenAI doit à la fois supporter des coûts d’électricité, de refroidissement, de maintenance, mais aussi d’acquisition ou de location de GPU. Si une app comme Sora génère un usage intensif, des revenus publicitaires et d’engagement sont indispensables pour que le modèle soit durable.

    C’est là que le fil « slop » entre en jeu : il fonctionne comme un levier pour maximiser le temps d’utilisation, multiplier les impressions publicitaires ou les valeurs d’engagement monétisables, et faire tourner une boucle économique qui nourrit l’investissement matériel.

    Mais cela crée une tension fondamentale : un modèle économique dépendant d’une consommation compulsive risque de pousser l’algorithme vers ce qu’il y a de plus banal, le plus répétitif, plutôt que vers ce qui est innovant, étonnant ou artistiquement pertinent.


    La violation des droits d'auteur : l'un des problèmes fondamentaux évidents

    Les problèmes fondamentaux posés par les vidéos générées par l'IA, d'un réalisme troublant, sont évidents et se sont matérialisés presque instantanément après le lancement de Sora 2 en début de semaine dernière.

    Prenons l'exemple de la violation des droits d'auteur. L'une des premières vidéos Sora 2 était une reproduction parfaite de Rick et Morty rendant visite à Bob l'éponge. Il semble qu'OpenAI a configuré Sora 2 pour autoriser par défaut les contenus protégés par le droit d'auteur, laissant aux détenteurs de propriété intellectuelle la responsabilité de demander proactivement à OpenAI de retirer leurs contenus. Ce qu'ils feront probablement, mais pas avant qu'OpenAI ait récolté le buzz sur les réseaux sociaux de tous ces clones de Rick et Morty, comme il l'a fait lors de la brève mode consistant à « Studio Ghiblifier » vos photos.

    Deepfakes, contrôle de l’identité et viralité manipulée

    Ensuite, il y a les deepfakes. Une autre dimension du débat concerne les capacités de Sora 2 à générer des vidéos très réalistes, sans watermark visible. Rapidement après le lancement, des vidéos de faux policiers, d’événements historiques inventés, et même une vidéo montrant un « Sam Altman » en train de voler des GPU dans un magasin ont émergé. Cette vidéo « coupable fictive » est particulièrement symbolique. Elle joue sur une ironie : en scène, le double Altman clame « I really need this for Sora inference », comme s’il justifiait le vol par l’impératif technologique. Le message implicite : même le patron d’OpenAI serait lui-même en quête effrénée de GPU pour faire tourner ses modèles.

    L'une des fonctionnalités phares de Sora 2 est que vous pouvez télécharger votre image dans l'application, puis l'insérer dans n'importe quelle vidéo générée par l'IA de votre choix, ou permettre à vos amis de le faire, ou encore, si votre alignement personnel est chaotique neutre, permettre à n'importe quel utilisateur de Sora de l'exploiter. Eh bien, comme l'a rapporté le Washington Post, il a fallu environ cinq secondes avant que des clips commencent à être générés à partir de fausses images de caméras corporelles de policiers, de personnes réelles habillées en généraux nazis, d'images très réalistes mais fausses d'événements historiques, et oui, du PDG d'OpenAI, Sam Altman, en train de voler à l'étalage.

    Cela signifie qu'au moment même où le président des États-Unis publie des vidéos deepfake apparemment générées par l'IA montrant le chef de la minorité démocrate à la Chambre des représentants coiffé d'un sombrero et arborant une moustache, OpenAI vient de fournir aux Américains — du moins à ceux qui disposent d'un code d'accès Sora 2 — une vidéo falsifiée parfaitement réaliste d'un simple clic. Et a créé un réseau social similaire à TikTok sur lequel elle peut être partagée. Même s'il est positif qu'OpenAI ait inclus des règles interdisant l'usurpation d'identité, les escroqueries et les fraudes, ainsi que des garde-fous pour bloquer la nudité et la violence graphique, cela revient un peu à dire qu'une arme automatique équipée d'une sécurité est totalement inoffensive.

    OpenAI a tenté d’imposer certaines limites : la fonction « cameo » permet aux utilisateurs de contrôler qui peut utiliser leur image, et il existe des mécanismes de signalement pour les abus. Mais à ce stade, les garde-fous semblent en partie symboliques, surtout vu la rapidité avec laquelle les deepfakes circulent et l’absence de filigrane visible (watermark) dans les vidéos générées.

    La viralité de ces contenus pose un problème de confiance : dans un paysage saturé de vidéos « slop », comment reconnaître ce qui est sincère, ce qui est manipulé, ou ce qui est pure fabrication ?

    La réaction dans la communauté tech est mitigée mais souvent critique

    Beaucoup déplorent que le discours visionnaire sur l’IA serve aujourd’hui de couverture pour des tactiques de monétisation agressive. L’idée qu’un outil de création, présenté comme libérateur, puisse être en partie conçu comme un piège attentionnel ne passe pas.

    D’autres soulignent que tous les géants tech font usage de logiques similaires : les médias, les réseaux, les plateformes vidéo basent leur modèle sur l’attention. L’innovation ici n’est pas dans le concept, mais dans la technologie : Sora 2 pousse les capacités de génération vidéo dans une dimension jusqu’alors inaccessible à l’utilisateur lambda. Le risque est que la nouveauté technique masque la nature utilitariste du modèle.

    On peut aussi voir une forme de pari : si Sora 2 parvient à créer une masse critique d’utilisateurs et de créateurs, le coût des GPU deviendra un coût d’entrée implicite, caché derrière le “slop”, mais difficile à fuir.

    Sources : Sam Altman, blog Sam Altman

    Et vous ?

    Est-ce que Sora 2 transforme les utilisateurs en travailleurs invisibles du cloud ? Sont-ils encore des créateurs ou déjà des sources de revenus pour les modèles d’IA ?

    Peut-on justifier l’addiction algorithmique au nom du progrès technologique ? Faut-il voir dans le “slop feed” une innovation cynique ou une simple adaptation à la réalité du marché ?

    OpenAI peut-elle encore prétendre servir “le bien commun” si elle transforme la distraction en modèle de financement ? L’aveu de Sam Altman signe-t-il la fin de l’idéalisme originel d’OpenAI ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 907
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 907
    Par défaut Sora 2 d'OpenAI doit cesser de permettre les violations du droit d'auteur, selon la Motion Picture Association
    Le modèle Sora 2 d'OpenAI doit cesser de permettre les violations du droit d'auteur, selon la Motion Picture Association, car il est utilisé pour créer du contenu qui enfreint les droits d'auteur des médias

    La Motion Picture Association (MPA) a exhorté OpenAI à mettre en place des mesures de protection plus strictes contre son dernier modèle de génération vidéo, Sora 2, avertissant que le système d'intelligence artificielle (IA) est utilisé pour produire des contenus qui enfreignent les droit d'auteur. Le groupe, qui représente les principaux studios hollywoodiens, soutient qu'OpenAI doit veiller à ce que les capacités de Sora 2 ne facilitent pas la violation du droit d'auteur, alors que les outils d'IA de génération vidéo connaissent une adoption rapide.

    Ce développement fait suite au lancement par OpenAI de Sora 2, son nouveau modèle de génération vidéo et audio doté de capacités photoréalistes accrues, ainsi que de Sora, une nouvelle application sociale d'IA permettant de créer des deepfakes d'autres personnes grâce à des « caméos ».

    Cependant, le fonctionnement de Sora suscite des inquiétudes. La nouvelle version du générateur vidéo d'OpenAI peut en effet créer des vidéos contenant du matériel protégé par le droit d'auteur, à moins que les détenteurs de ces droits n'activent une option de refus « opt out ». Cette nouvelle procédure exige notamment que les studios de cinéma et autres détenteurs de droits de propriété intellectuelle demandent explicitement à OpenAI de ne pas inclure leurs contenus protégés dans les vidéos créées par Sora.

    Le lundi 6 octobre 2025, la Motion Picture Association (MPA) a exhorté OpenAI à « prendre des mesures immédiates et décisives » contre son nouveau modèle de création vidéo Sora 2, qui est utilisé pour produire du contenu qui, selon l'Association, enfreint les droits d'auteur.


    Suite au lancement de l'application Sora la semaine dernière, les utilisateurs ont envahi la plateforme avec des clips générés par l'IA mettant en scène des personnages de séries et de marques populaires.

    « Depuis la sortie de Sora 2, les vidéos qui enfreignent les droits d'auteur des films, séries et personnages de nos membres se sont multipliées sur le service d'OpenAI et sur les réseaux sociaux », a déclaré Charles Rivkin, PDG de la MPA, dans un communiqué.

    Sam Altman, PDG d'OpenAI, a précisé dans un article de blog que la société donnerait aux détenteurs de droits « un contrôle plus précis » sur l'utilisation de leurs personnages.

    Mais Charles Rivkin a déclaré qu'OpenAI « doit reconnaître qu'il lui incombe, et non aux titulaires des droits, d'empêcher toute violation du service Sora 2 » et que « le droit d'auteur bien établi protège les droits des créateurs et s'applique ici ».

    Des inquiétudes ont immédiatement surgi après la création, la semaine dernière, de vidéos Sora mettant en scène James Bond jouant au poker avec Sam Altman ou encore des images filmées par une caméra corporelle montrant le personnage de dessin animé Mario échappant à la police.

    Bien qu'OpenAI disposait auparavant d'un système de refus "opt-out", qui imposait aux studios de demander que leurs personnages n'apparaissent pas sur Sora, le billet de blog publié par Altman indique que la plateforme passe désormais à un modèle d'inscription, suggérant que Sora n'autorisera pas l'utilisation de personnages protégés par des droits d'auteur sans autorisation.

    Cependant, Sam Altman a souligné que la société pourrait ne pas être en mesure d'empêcher toute utilisation abusive de la propriété intellectuelle. « Il peut y avoir quelques cas marginaux où des générations qui ne devraient pas passer passeront, et il faudra plusieurs itérations pour que notre pile fonctionne correctement », a écrit Sam Altman.

    Les questions de droits d'auteur sont devenues un enjeu majeur pendant le boom de l'IA générative.

    Disney et Universal ont poursuivi en justice le créateur d'images IA Midjourney en juin 2025, alléguant que la société avait utilisé et distribué des personnages générés par IA issus de leurs films et ignoré leurs demandes de cessation. Disney a également envoyé une lettre de mise en demeure à la start-up d'IA Character AI en septembre, avertissant la société de cesser d'utiliser ses personnages protégés par le droit d'auteur sans autorisation.

    Alors que la MPA appelle à une meilleure régulation de Sora 2, un ancien employé d'OpenAI a récemment exprimé ses préoccupations concernant les pratiques commerciales de la société. Suchir Balaji, ex-chercheur d’OpenAI, affirme que l'entreprise enfreint la loi sur le droit d'auteur et détruit l'internet. Dans un essai publié sur son site personnel, il a tenté de démontrer combien d'informations protégées par des droits d'auteur de la base de données de formation de ChatGPT se retrouvent finalement dans les sorties du modèle et ne respectent pas le standard « d'utilisation équitable ».

    L'article de blog publié par Sam Altman est présenté ci-dessous :

    Citation Envoyé par Sam Altman

    Nous avons rapidement appris comment les gens utilisent Sora et avons pris en compte les commentaires des utilisateurs, des détenteurs de droits et d'autres groupes intéressés. Nous avons bien sûr passé beaucoup de temps à discuter de cela avant le lancement, mais maintenant que notre produit est disponible, nous pouvons aller au-delà de la théorie.

    Nous allons bientôt apporter deux modifications (et beaucoup d'autres suivront).

    Tout d'abord, nous donnerons aux titulaires de droits un contrôle plus précis sur la génération des personnages, similaire au modèle d'adhésion volontaire pour les ressemblances, mais avec des contrôles supplémentaires.

    Nous recevons de nombreux commentaires de titulaires de droits qui sont très enthousiastes à l'idée de ce nouveau type de « fan fiction interactive » et pensent que ce nouveau type d'engagement leur apportera beaucoup de valeur, mais qui souhaitent pouvoir spécifier comment leurs personnages peuvent être utilisés (y compris ne pas les utiliser du tout). Nous partons du principe que différentes personnes adopteront des approches très différentes et trouveront celles qui leur conviennent le mieux. Mais nous voulons appliquer la même norme à tout le monde et laisser les détenteurs de droits décider de la marche à suivre (notre objectif étant bien sûr de rendre cette approche si attrayante que beaucoup de gens voudront l'adopter). Il peut y avoir quelques cas limites où des générations qui ne devraient pas passer passeront, et il faudra plusieurs itérations pour que notre pile fonctionne correctement.

    Nous tenons tout particulièrement à saluer la remarquable production créative du Japon. Nous sommes impressionnés par la profondeur du lien qui unit les utilisateurs et le contenu japonais !

    Deuxièmement, nous allons devoir trouver un moyen de générer des revenus pour la création de vidéos. Les utilisateurs créent beaucoup plus de vidéos que prévu, et bon nombre d'entre elles sont destinées à un public très restreint. Nous allons essayer de partager une partie de ces revenus avec les détenteurs de droits qui souhaitent que leurs personnages soient créés par les utilisateurs. Le modèle exact nécessitera quelques essais et erreurs, mais nous prévoyons de nous lancer très prochainement. Nous espérons que ce nouveau type d'engagement aura encore plus de valeur que le partage des revenus, mais bien sûr, nous voulons que les deux soient bénéfiques.

    Attendez-vous à un rythme de changement très élevé de notre part ; cela me rappelle les débuts de ChatGPT. Nous prendrons de bonnes décisions et commettrons quelques erreurs, mais nous tiendrons compte des commentaires et nous efforcerons de corriger très rapidement ces erreurs. Nous prévoyons de tester différentes approches dans Sora, puis de les appliquer de manière cohérente à l'ensemble de nos produits.
    Source : Sam Altman, PDG d'OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les revendications de la Motion Picture Association crédibles ou pertinentes ?

    Voir aussi :

    Sam Altman admet que le flux « Slop » de Sora 2 inspiré de TikTok est un moyen de gagner de l'argent pour financer les GPU. Deepfakes, violation des droits d'auteur, des problèmes fondamentaux émergent

    OpenAI a annoncé son intention d'intégrer son générateur de vidéos Sora directement dans ChatGPT, afin de créer un centre de création unique pour les textes, les images et les vidéos
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 605
    Par défaut Les outils de suppression du filigrane Sora 2 inondent le Web et nuisent à la crédibilité du contenu en ligne
    Les logiciels de suppression du filigrane Sora 2 inondent le Web et rendent plus difficile la distinction entre contenus synthétiques et contenus authentiques
    un enjeu majeur pour la lutte contre les infox

    Le générateur de vidéo Sora 2 d'OpenAI attire un grand nombre d'utilisateurs depuis son lancement. Mais cette version du logiciel fait face à de nombreux défis. Sora 2 produit des vidéos contenant du matériel protégé par des droits d'auteur et il semble facile de contourner ses fonctionnalités de sécurité rudimentaires. Il intègre un système de filigrane visuel, conçu pour identifier les vidéos produites par l’IA et limiter la diffusion de contenus trompeurs. Mais peu de temps après sa sortie, plusieurs outils et scripts ont commencé à circuler sur Internet, promettant d’effacer le filigrane inséré dans les vidéos générées. Ce qui ouvre la voie à toute forme d'abus.

    Lancé en février 2024, Sora est un modèle texte-vidéo développé par OpenAI. Sora 2, le dernier modèle de génération de vidéo et audio d'OpenAI, a été publié fin septembre 2025. La nouvelle mouture du logiciel est capable de générer des vidéos hyperréalistes. OpenAI a aussi publié une nouvelle application Sora, présentée comme une plateforme sociale permettant aux utilisateurs de partager, de remixer et de découvrir des vidéos générées par l'IA.

    Sora 2 permet aux utilisateurs de créer ce qu'OpenAI appelle des « caméos », ou des apparitions d'invités, d'eux-mêmes et d'autres personnes dans des vidéos. Cette fonctionnalité exige des utilisateurs qu'ils fassent un enregistrement vidéo et audio unique d'eux-mêmes pour vérifier leur identité.


    Sora 2 appose un filigrane visuel sur chaque vidéo qu'il génère. Il est destiné à aider les gens à faire la distinction entre le contenu réel généré par des humains et les images générées par l'IA. Cependant, il apparaît que « le petit logo en forme de nuage aux yeux de dessin animé » est facile à supprimer et il existe une demi-douzaine de sites Web qui permettent à n'importe qui de le faire en quelques minutes. Ces programmes se multiplient rapidement.

    Une simple recherche du terme « sora watermark » (filigrane Sora) sur n'importe quel réseau social renvoie vers des sites où les utilisateurs peuvent télécharger une vidéo Sora 2 et supprimer le filigrane. 404 Media a testé trois de ces logiciels, qui ont tous supprimé le filigrane de la vidéo en quelques secondes. Ce marquage devait garantir une forme de traçabilité et de transparence dans l’usage de la technologie, mais son efficacité est remise en cause.

    Les experts ont toujours été sceptiques quant à l'efficacité des filigranes

    Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, dans le cas de l'IA, ils ne sont pas enthousiastes sur le sujet.

    Un grand nombre de spécialistes ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation, ainsi que d'autres formes d'abus des logiciels d'IA. Selon eux, il y aura toujours un moyen de corrompre les filigranes, peu importe leur robustesse.

    « Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. D'après lui, filigraner les contenus générés par l'IA pourrait s'avérer beaucoup plus difficile qu'on le croit.

    « Un filigrane (étiquette visuelle) ne suffit pas à empêcher les utilisateurs malveillants persistants de tenter de tromper les gens avec du contenu généré par l'IA à partir de Sora », a déclaré Rachel Tobac, PDG de SocialProof Security. Selon les experts, OpenAI utiliserait des stratégies telles que les filigranes, les identifiants de contenu et les garde-fous sémantiques pour gérer les utilisations malveillantes de ses outils. Mais cela n'a pas d'importance. Les experts affirment que ce n'est qu'une question de temps avant que quelqu'un d'autre ne lance un modèle sans ces mesures de protection.

    Le projet open source C2PA est également confronté à des défis

    Certains fournisseurs de logiciels d'IA s'appuient sur les métadonnées de la « Coalition for Content Provenance and Authenticity » (C2PA) pour identifier les images générées par l'IA. Cependant, cette méthode peut être également contournée. La C2PA est une initiative qui se concentre sur l'authentification des contenus par le biais d'un protocole appelé Content Credentials, bien que le groupe affirme que sa technologie peut être couplée au filigrane.

    Il s'agit d'un protocole open source qui s'appuie sur la cryptographie pour encoder des détails sur l'origine d'un élément de contenu. Cela signifie, par exemple, qu'une image est marquée par des informations provenant de l'appareil dont elle est issue, par tout outil d'édition (comme Photoshop) et, enfin, par la plateforme de médias sociaux sur laquelle elle est téléversée. Au fil du temps, ces informations créent une sorte d'historique, qui est enregistré.

    Rachel Tobac a déclaré avoir vu des outils qui démantèlent les métadonnées générées par l'IA en modifiant la teinte et la luminosité du contenu : « malheureusement, nous constatons que ces outils de suppression des filigranes et des métadonnées contournent facilement cette norme. « Cette norme restera efficace pour les générateurs d'IA moins persistants, mais elle n'empêchera pas les acteurs malveillants déterminés de tromper les gens ».

    Quelles perspectives pour les fournisseurs de logiciels d'IA ?

    Malgré leur échec apparent, les experts affirment que la facilité avec laquelle les gens peuvent supprimer les filigranes intégrés aux contenus générés par l'IA n'est pas une raison pour cesser d'utiliser les filigranes. Rachel Tobac note : « l'utilisation d'un filigrane est le minimum requis pour une organisation qui tente de minimiser les dommages causés par ses outils vidéo et audio basés sur l'IA ». Toutefois, les entreprises doivent aller plus loin.

    Le PDG de SocialProof Security ajoute : « nous aurons besoin d'un partenariat élargi entre les entreprises d'IA et les réseaux sociaux afin de mettre en place un système de détection des escroqueries et des contenus préjudiciables, ainsi qu'un système d'étiquetage de l'IA, non seulement du côté de la génération par l'IA, mais aussi du côté du téléchargement sur les plateformes de réseaux sociaux. Les réseaux sociaux devront également constituer de grandes équipes pour gérer l'afflux probable de contenus vidéo et audio générés par l'IA afin de détecter et de limiter la portée des contenus frauduleux et préjudiciables ».

    Sora 2 crée des vidéos intégrant du matériel protégé par droit d'auteur

    Peu après la sortie de Sora 2, un grand nombre de vidéos contenant des contenus protégés par des droits d'auteur, tels que Pokémon et Mario, ont été générées sur Internet. Cela a révolté de nombreux créateurs dont le matériel a été utilisé par Sora 2. Avant l'annonce de Sora 2, le Wall Street Journal avait rapporté qu'OpenAI prévoyait une option de désactivation permettant aux détenteurs de droits d'auteur d'exclure leurs contenus de l'utilisation.

    OpenAI aurait commencé à informer les agences artistiques et les studios de cinéma de la procédure de désinscription. En vertu de la nouvelle politique, les studios de cinéma et autres détenteurs de droits d'auteur doivent se désinscrire de manière proactive pour empêcher Sora 2 d'utiliser leurs contenus protégés. Cependant, les personnes publiques, telles que les célébrités, ne seront pas représentées dans les vidéos sans leur consentement.

    OpenAI a été critiqué par les professionnels de la création de Hollywood, qui ont exigé que les entreprises d'IA obtiennent leur consentement et leur versent une compensation lorsqu'elles utilisent leurs œuvres pour former des modèles ou générer des résultats basés sur leur contenu créatif. Au printemps 2025, OpenAI et Google ont conjointement fait pression sur l'administration Trump pour que l'utilisation de matériel protégé par le droit d'auteur pour former des modèles d'IA soit classée comme « usage loyal ». Cependant, cette initiative s'est heurtée à une forte opposition de la part des professionnels de la création hollywoodiens.

    Le contenu AI Slop sature le Web ouvert et accélère son effondrement

    Les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots d'IA générative répondent directement, en s’appuyant sur les contenus existants, sans forcément rediriger vers les créateurs. Résultat : les éditeurs enregistrent une baisse alarmante de leur trafic, donc des revenus.

    Les éditeurs luttent pour se faire payer par les entreprises d'IA pour l'accès à leurs contenus. De plus, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA. De plus en plus de textes, images et vidéos sur le Web sont produits automatiquement par l'IA. Cela inonde le Web de contenus artificiels, souvent sans valeur ajoutée ni vérification, ce qui rend plus difficile la recherche d’informations fiables et authentiques.

    Tout ceci crée une boucle de rétroaction nocive. L'IA générative est entraînée sur des contenus de haute qualité produits par les humains. Si le Web est de plus en plus pollué par les données synthétiques sans originalité produites par l'IA, les nouveaux modèles d'IA risquent d’apprendre sur les productions des anciens modèles, ce qui dégrade la qualité globale des futures générations de modèles (un phénomène qu’on appelle parfois “AI model collapse”).

    Conclusion

    Le Web a été confronté à diverses menaces au fil des ans. Dans une interview en 2022, l'inventeur du World Wide Web, Sir Tim Berners-Lee, a déclaré que sa création a été abusée pendant trop longtemps. D'après lui, le Web s'est éloigné de son objectif initial. Avant cela, en 2017, il déclarait que le Web tel que nous le connaissons est menacé par plusieurs dangers, notamment la perte de contrôle de nos données personnelles et la propagation des infox.

    La mort du Web a déjà été prédite - par les réseaux sociaux, puis par les applications - et n'a pas eu lieu. Mais c'est peut-être l'IA qui représente la plus grande menace à ce jour. Si le Web doit perdurer sous une forme proche de celle qu'il a aujourd'hui, les sites devront trouver de nouveaux moyens de se rémunérer.

    L’affaire Sora 2 illustre à quel point la sécurité et la transparence dans les outils d’IA générative restent fragiles. Même lorsqu’une entreprise comme OpenAI met en place un filigrane visible pour signaler l’origine d’un contenu, des utilisateurs trouvent rapidement des moyens de le supprimer. Cela met en évidence un bras de fer permanent entre les créateurs de technologies cherchant à garantir la traçabilité et ceux qui cherchent à contourner les règles.

    Au-delà de l’aspect technique, cet épisode souligne un enjeu plus profond : la crédibilité du contenu en ligne. Cette situation alimente une crise de confiance dans les interactions en ligne. Les réseaux sociaux semblent désormais artificiels et manipulés, ce qui fragilise leur rôle d’espace de communication authentique.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que les filigranes sont une méthode fiable pour étiqueter le contenu généré par l'IA ?
    Comment les entreprises peuvent-elles améliorer l'efficacité des filigranes intégrés aux contenus générés par l'IA ?
    Que pensez-vous des outils tels que Sora 2 et Veo 3 qui inondent le Web du contenu « AI Slop » ? Quels seraient les impacts à long terme ?

    Voir aussi

    La nouvelle version du générateur vidéo Sora d'OpenAI crée des vidéos contenant du matériel protégé par des droits d'auteur, à moins que les détenteurs de ces droits ne choisissent l'option de refus "opt out"

    Sam Altman affirme que les bots tels que ChatGPT d'OpenAI donnent aux réseaux sociaux un caractère « factice », ce qui alimente une crise de confiance dans les interactions en ligne

    L'IA est en train de tuer le Web. Elle ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des machines sans originalité

  6. #6
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    335
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 335
    Par défaut OpenAI sévit contre les deepfakes produits par Sora 2 après la pression d'acteurs et de la SAG-AFTRA
    OpenAI sévit contre les deepfakes de Sora 2 après avoir subi des pressions de la part d'acteurs et de la SAG-AFTRA, qui ont exprimé leur inquiétude après l'apparition de clips non autorisés générés par l'IA.

    OpenAI a récemment annoncé qu'il allait sévir contre les deepfakes réalisés avec Sora 2, suite aux inquiétudes exprimées par l'acteur Bryan Cranston et le syndicat SAG-AFTRA. L'acteur de « Breaking Bad » et « Malcolm » a fait part de ses inquiétudes après la publication sur l'application de clips non autorisés générés par l'IA utilisant sa voix et son image. Martin Luther King Jr. et Robin Williams ont également été utilisés dans des vidéos deepfake.

    Plutôt ce mois d'octobre, la Motion Picture Association (MPA) a exhorté OpenAI à mettre en place des mesures de protection plus strictes contre son dernier modèle de génération vidéo, Sora 2, avertissant que le système d'intelligence artificielle (IA) est utilisé pour produire des contenus qui enfreignent les droit d'auteur. Le groupe, qui représente les principaux studios hollywoodiens, soutient qu'OpenAI doit veiller à ce que les capacités de Sora 2 ne facilitent pas la violation du droit d'auteur, alors que les outils d'IA de génération vidéo connaissent une adoption rapide.

    Dans ce contexte, OpenAI a récemment annoncé dans un communiqué conjoint qu'il allait collaborer avec Bryan Cranston, SAG-AFTRA et d'autres syndicats d'acteurs afin de lutter contre les deepfakes sur son application de création vidéo par intelligence artificielle Sora.

    L'acteur de « Breaking Bad » et « Malcolm in the Middle » a exprimé son inquiétude après que des clips non autorisés générés par l'IA utilisant sa voix et son image soient apparus sur l'application à la suite du lancement de Sora 2 fin septembre, a déclaré la Screen Actors Guild-American Federation of Television and Radio Artists dans un message publié sur X. « Je suis reconnaissant à OpenAI pour sa politique et pour avoir amélioré ses garde-fous, et j'espère qu'eux-mêmes et toutes les entreprises impliquées dans ce travail respecteront notre droit personnel et professionnel de gérer la reproduction de notre voix et de notre image », a déclaré Bryan Cranston dans un communiqué.

    Outre la SAG-AFTRA, OpenAI a déclaré qu'elle collaborerait avec l'agence United Talent Agency, qui représente Cranston, l'Association of Talent Agents et la Creative Artists Agency afin de renforcer les mesures de protection contre les générations d'IA non approuvées. La CAA et l'UTA avaient précédemment critiqué OpenAI pour son utilisation de contenus protégés par le droit d'auteur, qualifiant Sora de risque pour leurs clients et leur propriété intellectuelle.


    OpenAI a dû bloquer les vidéos de Martin Luther King Jr. sur Sora à la demande de la succession de King après que des utilisateurs aient créé des « représentations irrespectueuses » du leader des droits civiques. Zelda Williams, la fille du défunt comédien Robin Williams, a demandé aux gens de cesser de lui envoyer des vidéos générées par l'IA de son père peu après la sortie de Sora 2.

    L'approche d'OpenAI en matière de restrictions de droits d'auteur et d'autres questions liées à l'image a évolué depuis le lancement de Sora 2 le 30 septembre. Le 3 octobre, le PDG Sam Altman a mis à jour la politique de désactivation de Sora, qui autorisait auparavant l'utilisation de la propriété intellectuelle à moins que les studios ne demandent expressément que leur matériel ne soit pas utilisé, afin de permettre aux détenteurs de droits « un contrôle plus précis sur la génération des personnages ».

    Lors de son lancement, Sora exigeait un consentement explicite pour l'utilisation de la voix et de l'image d'une personne, mais OpenAI a déclaré qu'il s'engageait désormais à « répondre rapidement à toute plainte qu'il pourrait recevoir ». La société a réitéré son soutien à la loi NO FAKES, un projet de loi fédéral adopté dans le but de protéger contre les répliques non autorisées générées par l'IA de la voix ou de l'image d'une personne. « OpenAI s'engage fermement à protéger les artistes contre l'utilisation abusive de leur voix et de leur image », a déclaré Altman dans un communiqué. « Nous avons été parmi les premiers à soutenir la loi NO FAKES Act lorsqu'elle a été présentée l'année dernière, et nous défendrons toujours les droits des artistes. »

    Depuis son lancement, le générateur de vidéo Sora 2 d'OpenAI a attiré un grand nombre d'utilisateurs. Mais cette version du logiciel fait face à de nombreux défis. Sora 2 produit des vidéos contenant du matériel protégé par des droits d'auteur et il semble facile de contourner ses fonctionnalités de sécurité rudimentaires. Il intègre un système de filigrane visuel, conçu pour identifier les vidéos produites par l’IA et limiter la diffusion de contenus trompeurs. Mais peu de temps après sa sortie, plusieurs outils et scripts ont commencé à circuler sur Internet, promettant d’effacer le filigrane inséré dans les vidéos générées. Ce qui a ouvert la voie à toute forme d'abus.


    Voici le communiqué conjoint :

    SAG-AFTRA, OpenAI et Bryan Cranston collaborent pour garantir la protection de la voix et de l'image dans Sora 2

    SAG-AFTRA, OpenAI, Bryan Cranston, United Talent Agency, Creative Artists Agency et Association of Talent Agents ont publié conjointement la déclaration suivante concernant leur collaboration fructueuse visant à garantir la protection des voix et des images dans Sora 2.

    La voix et l'image de l'acteur Bryan Cranston ont pu être générées dans certaines sorties sans consentement ni compensation lorsque Sora 2 d'OpenAI a été lancé initialement dans une version accessible uniquement sur invitation il y a deux semaines. Bien que la politique d'OpenAI ait toujours été d'exiger le consentement préalable pour l'utilisation de la voix et de l'image, OpenAI a exprimé ses regrets pour ces générations involontaires. OpenAI a renforcé les mesures de protection concernant la reproduction de la voix et de l'image lorsque les personnes concernées n'ont pas donné leur consentement.

    Cranston, qui a porté cette question à l'attention de SAG-AFTRA, a déclaré : « J'étais profondément préoccupé non seulement pour moi-même, mais aussi pour tous les artistes dont le travail et l'identité peuvent être utilisés à mauvais escient de cette manière. Je suis reconnaissant à OpenAI pour sa politique et pour avoir renforcé ses mesures de protection, et j'espère qu'OpenAI et toutes les entreprises impliquées dans ce travail respecteront notre droit personnel et professionnel de gérer la reproduction de notre voix et de notre image. »

    OpenAI a mis en place une politique d'adhésion volontaire pour l'utilisation de la voix ou de l'image d'une personne dans Sora 2. Tous les artistes, interprètes et individus auront le droit de déterminer comment et s'ils peuvent être simulés. Cette politique reflète l'engagement de l'entreprise en faveur des droits des artistes, de la transparence et du déploiement éthique de la technologie générative. Elle s'est également engagée à répondre rapidement à toute plainte qu'elle pourrait recevoir.

    La loi NO FAKES

    Ce nouveau cadre s'aligne sur les principes énoncés dans la loi NO FAKES, une législation fédérale en cours d'élaboration visant à protéger les artistes et le public contre la reproduction numérique non autorisée. OpenAI, SAG-AFTRA, Bryan Cranston et ses représentants à la United Talent Agency, l'Association of Talent Agents et la Creative Artists Agency partagent une position forte et unifiée en faveur de la loi NO FAKES et soutiennent son objectif d'établir une norme nationale garantissant que la voix et l'image des artistes ne puissent être utilisées sans leur autorisation. Ensemble, nous pensons que le consentement et la rémunération sont les fondements d'un écosystème créatif durable et éthique pour le divertissement et la technologie.

    Sean Astin, président de SAG-AFTRA, a déclaré : « Bryan Cranston fait partie des innombrables artistes dont la voix et l'image risquent d'être massivement détournées par la technologie de reproduction. Bryan a pris la bonne décision en communiquant avec son syndicat et ses représentants professionnels afin que cette question soit traitée. Cette affaire particulière a connu une issue positive. Je suis heureux qu'OpenAI se soit engagé à utiliser un protocole d'adhésion volontaire, dans le cadre duquel tous les artistes ont la possibilité de choisir s'ils souhaitent participer à l'exploitation de leur voix et de leur image à l'aide de l'IA. Cette politique doit être durable et je remercie toutes les parties prenantes, y compris OpenAI, d'avoir travaillé ensemble pour que les protections appropriées soient inscrites dans la loi. En termes simples, les protocoles opt-in sont la seule façon de faire des affaires et la loi NO FAKES nous rendra plus sûrs. »

    « OpenAI s'engage fermement à protéger les artistes contre l'utilisation abusive de leur voix et de leur image. Nous avons été l'un des premiers à soutenir la loi NO FAKES lorsqu'elle a été présentée l'année dernière, et nous défendrons toujours les droits des artistes », a déclaré Sam Altman, PDG d'OpenAI.

    À propos de SAG-AFTRA

    SAG-AFTRA représente environ 160 000 acteurs, annonceurs, journalistes de télévision, danseurs, DJ, rédacteurs et éditeurs de journaux télévisés, animateurs de programmes, marionnettistes, artistes de studio, chanteurs, cascadeurs, doubleurs et autres professionnels du divertissement et des médias. Les membres de SAG-AFTRA sont les visages et les voix qui divertissent et informent l'Amérique et le monde entier. Fière affiliée de l'AFL-CIO, SAG-AFTRA dispose de bureaux nationaux à Los Angeles et à New York, ainsi que de bureaux locaux dans tout le pays, qui représentent les membres travaillant ensemble pour garantir la meilleure protection possible aux artistes du divertissement et des médias au XXIe siècle et au-delà.
    Source : Communiqué conjoint

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Sam Altman admet que le flux « Slop » de Sora 2 inspiré de TikTok est un moyen de gagner de l'argent pour financer les GPU. Deepfakes, violation des droits d'auteur, des problèmes fondamentaux émergent

    La fille de Robin Williams supplie les fans d'arrêter de lui envoyer des vidéos générées par IA de son défunt père : « C'est stupide, c'est une perte de temps et d'énergie »

    AI slop : les vidéos générées par IA envahissent les plateformes comme TikTok et YouTube, exploitant les failles des algorithmes de recommandation pour générer du clic et de l'argent
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 907
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 907
    Par défaut Le créateur de la plateforme vidéo Cameo dédiée aux célébrités poursuit OpenAI en justice
    Le créateur de la plateforme vidéo Cameo dédiée aux célébrités poursuit OpenAI en justice, arguant que la nouvelle fonctionnalité "Cameo" de l'application Sora d'OpenAI viole ses droits de marque déposée

    Cameo, la plateforme vidéo dédiée aux célébrités, a intenté une action en justice contre OpenAI, affirmant que la nouvelle fonctionnalité « Cameo » de l'application de génération vidéo Sora d'OpenAI enfreignait sa marque déposée. Selon l'action en justice, cette fonctionnalité, qui permet aux utilisateurs de Sora de créer des vidéos à l'aide de l'intelligence artificielle (IA) avec des répliques numériques de célébrités, provoquerait une confusion entre les marques et diluerait la marque déposée de Cameo.

    Pour rappel, OpenAI a annoncé fin septembre 2025 la sortie de Sora 2 et d'une nouvelle application Sora, présentée comme une plateforme sociale permettant de partager, de remixer et de découvrir des vidéos générées par l'intelligence artificielle (IA). S'appuyant sur la technologie précédente de génération d'images par IA, Sora 2 permet aux utilisateurs de créer des « caméos », ou des apparitions d'invités, d'eux-mêmes ou d'autres personnes, dans des vidéos.

    Le mardi 28 octobre 2025, le créateur de la plateforme vidéo Cameo, qui met en scène des célébrités, a poursuivi OpenAI devant un tribunal fédéral californien, arguant que la nouvelle fonctionnalité « Cameo » de l'application de génération vidéo Sora d'OpenAI violait ses droits de marque. Cameo a déclaré dans sa plainte que la fonctionnalité Cameo d'OpenAI, qui permet aux utilisateurs de créer et de partager leurs sosies virtuels sur Sora, était susceptible de semer la confusion chez les consommateurs et de diluer sa marque.


    Un porte-parole d'OpenAI a déclaré que la société examinait la plainte, mais « n'était pas d'accord avec le fait que quiconque puisse revendiquer la propriété exclusive du mot "cameo" ».

    Le PDG de Cameo, Steven Galanis, a déclaré dans un communiqué que la société avait tenté de résoudre le litige « à l'amiable », mais qu'OpenAI avait refusé de cesser d'utiliser le nom Cameo.

    Fondée en 2017, Cameo permet aux utilisateurs d'engager des célébrités pour qu'elles apparaissent dans de courtes vidéos personnalisées. Sora, l'outil du géant de l'IA OpenAI, lancée le 30 septembre sous forme d'application autonome, permet aux utilisateurs de créer et de partager des vidéos générées par l'IA.

    OpenAI a nommé « Cameos » les répliques numériques des utilisateurs de Sora sur l'application. Cameo a déclaré qu'OpenAI avait choisi ce nom « au mépris flagrant de la confusion évidente que cela créerait ». Cameo a également déclaré que Sora permettait aux utilisateurs de créer des vidéos avec des « caméos » de célébrités, notamment l'entrepreneur Mark Cuban et le boxeur et influenceur Jake Paul, plaçant ainsi le géant de l'IA en concurrence directe avec la plateforme Cameo.

    « Les utilisateurs qui recherchent une vidéo personnalisée d'une célébrité ont désormais le choix : utiliser le service CAMEO du plaignant pour réserver un talent et recevoir une vidéo authentique et personnalisée préparée par cette célébrité, ou utiliser le service « Cameo » de Sora pour créer une vidéo extrêmement réaliste générée par l'IA et mettant en scène une célébrité », indique la plainte.

    Cameo a demandé une indemnisation financière d'un montant non précisé et une ordonnance du tribunal interdisant à OpenAI d'utiliser le nom « Cameo ».

    Alors que Cameo accuse OpenAI d’avoir violé sa marque déposée avec la fonctionnalité « Cameo » de Sora, l’entreprise de Sam Altman poursuit son expansion technologique à un rythme soutenu pour répondre aux besoins énergétiques de Sora 2 et de ChatGPT. L’entreprise a en effet récemment signé un contrat de 10 gigawatts avec Broadcom pour concevoir des puces et des systèmes d’IA sur mesure, une capacité équivalente à la consommation électrique d’une grande ville, illustrant ainsi l’empreinte énergétique colossale de l’IA.

    Cette course à la puissance n’est toutefois pas sans conséquence. Depuis le lancement de l'outil de génération vidéo d'OpenAI, des logiciels de suppression du filigrane Sora 2 inondent le Web, rendant plus difficile la distinction entre contenus synthétiques et contenus authentiques. Ce phénomène fragilise la lutte contre les contenus trompeurs et accentue les risques de désinformation, suscitant des débats sur la responsabilité des acteurs de l’IA générative.

    Source : Steven Galanis, PDG de Cameo

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de la plateforme vidéo Caméo crédible ou pertinente ?

    Voir aussi :

    La nouvelle version du générateur vidéo Sora d'OpenAI crée des vidéos contenant du matériel protégé par des droits d'auteur, à moins que les détenteurs de ces droits ne choisissent l'option de refus "opt out"

    Le modèle Sora 2 d'OpenAI doit cesser de permettre les violations du droit d'auteur, selon la Motion Picture Association, car il est utilisé pour créer du contenu qui enfreint les droits d'auteur des médias

    L'IA permet de créer des répliques numériques de personnes célèbres et la loi est impuissante face à la montée en puissance du phénomène, certains experts sont impressionnés par leurs doubles
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 2
    Dernier message: 11/08/2023, 13h12
  2. YouTube : la plateforme fait la chasse aux gros mots, des vidéos démonétisées
    Par Bill Fassinou dans le forum Général Conception Web
    Réponses: 16
    Dernier message: 08/03/2023, 22h09
  3. Réponses: 89
    Dernier message: 05/07/2009, 00h59
  4. [JVM][Mémoire] Une erreur apparait suivant la plateforme
    Par Katyucha dans le forum Général Java
    Réponses: 9
    Dernier message: 17/11/2004, 22h00
  5. MaxDB sir plateforme Windows 2003 server
    Par oldybutgoldy dans le forum Autres SGBD
    Réponses: 3
    Dernier message: 04/06/2004, 12h32

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo