IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Meta étiquette des photos réelles avec l’indication « créé par l’IA », d’après des plaintes de photographes


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 299
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 299
    Points : 21 385
    Points
    21 385
    Par défaut Meta étiquette des photos réelles avec l’indication « créé par l’IA », d’après des plaintes de photographes
    OpenAI lance DALL-E 3 ChatGPT, la dernière version de son outil pour la génération d'images à partir de textes, afin d'aider les créateurs et les autres utilisateurs

    OpenAI a lancé DALL-E 3, la dernière version de son outil de conversion de texte en image, qui est conçu pour fonctionner avec le populaire chatbot d'IA ChatGPT afin de répondre aux demandes des utilisateurs. DALL-E 3 sera disponible via l'API pour les clients ChatGPT Plus et Enterprise à partir d'octobre, permettant aux utilisateurs de demander et de modifier des photos par le biais des discussions ChatGPT.

    OpenAI souligne la capacité de DALL-E 3 à convertir des demandes complexes en images très détaillées et exactes. L'entreprise a également souligné l'importance de mettre en place des contrôles supplémentaires pour limiter la création de contenus violents, pornographiques ou haineux. Le programme comprend des filtres qui refusent les demandes de photos de personnalités publiques nommément citées ou celles qui imitent le style d'un artiste vivant.


    Afin d'accroître la transparence et le contrôle des utilisateurs, OpenAI a donné aux créateurs la possibilité de refuser que leur travail soit utilisé pour former les futurs systèmes de conversion de texte en image. Toutefois, l'évolution des graphiques générés par l'IA a soulevé un certain nombre de problèmes. En août, un tribunal de Washington DC a conclu que les œuvres d'art générées par l'IA sans intervention humaine ne pouvaient être protégées par le droit d'auteur en vertu de la législation américaine.

    Entre-temps, OpenAI est également confrontée à des problèmes juridiques. Une association américaine d'auteurs a récemment poursuivi OpenAI au nom d'auteurs célèbres tels que John Grisham et George R.R. Martin, affirmant qu'OpenAI avait illégalement utilisé leur travail pour former son chatbot ChatGPT.


    L'action collective proposée par l'Authors Guild, qui a été déposée mardi 19 septembre en fin de journée, s'ajoute à un certain nombre d'autres actions intentées par des auteurs, des propriétaires de logiciels libres et des artistes visuels contre des entreprises spécialisées dans l'IA générative. Des actions en justice similaires concernant les données utilisées pour former les systèmes d'IA de Meta Platforms et de Stability AI sont en cours, en plus de celles intentées contre OpenAI, soutenue par Microsoft.

    La rivalité d'OpenAI dans le domaine des outils d'IA texte-image s'intensifie, avec des entreprises telles que Tongyi Wanxiang d'Alibaba, Midjourney et Stability AI qui perfectionnent leurs modèles de génération d'images.

    Source : OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?

    Avez-vous eu l'occasion de tester cette nouvelle version de DALL-E ? Quelles sont les fonctionnalités que vous trouvez intéressantes ?

    Comment évaluez-vous le générateur d'images DALL-E d'OpenAI par rapport à la concurrence (Stable Diffusion, Midjourney, etc.) ?

    Voir aussi

    Dall-E 2 permet de générer des images à partir de quelques mots, mais le produit est-il votre ? Votre illustration numérique générée par l'IA pourrait ne pas être protégée par le droit d'auteur

    Le générateur d'images de l'IA DALL-E d'OpenAI peut désormais modifier des photos, les chercheurs peuvent s'inscrire pour le tester

    Dall-E 2 : le générateur d'images IA développé par OpenAI permet désormais d'éditer des visages humains, la fonctionnalité était auparavant interdite par crainte d'une mauvaise utilisation

    Dall-E : le générateur d'images IA développé par OpenAI est maintenant ouvert à tous, en supprimant la liste d'attente, OpenAI donne la possibilité à tout le monde pour s'inscrire et l'utiliser

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    971
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 971
    Points : 17 243
    Points
    17 243
    Par défaut DALL-E 3, la dernière IA de génération d'images d'OpenAI, pourrait bouleverser le marché des bandes dessinées
    DALL-E 3, le dernier modèle de génération d'images d'OpenAI, menace de bouleverser le marché de la bande dessinée
    les créateurs dénoncent le vol de leurs œuvres visuelles pour entraîner l'IA

    L'essor des générateurs d'images pourrait bouleverser profondément l'industrie des bandes dessinées. OpenAI a récemment publié DALL-E 3, une mise à jour majeure de son outil d'IA de génération d'image avec des capacités impressionnantes en matière de création et d'assemblage de bande dessinée. Les internautes ont tout de suite inondé la toile de bandes dessinées "pseudo-originales" générées par DALL-E 3, mais cela a suscité la crainte et la colère des professionnels du domaine pour diverses raisons. Les créateurs de bandes dessinées affirment que DALL-E 3 vole et plagie leurs idées et d'autres mettent en garde contre les risques de ces outils d'IA pour l'industrie des bandes dessinées.

    Depuis ses origines dans les années 1800, la bande dessinée est une affaire d'artisanat. Un artiste crayonnait ses pages après avoir reçu le scénario d'un scénariste et qui transmettait ensuite son précieux travail à un lettreur qui écrivait les textes dans les phylactères. Les pages étaient ensuite transmises à l'encreur et ainsi de suite jusqu'à la version définitive de l'œuvre qui sera mise en vente auprès des consommateurs. Bien que cette pratique ait quelque peu évolué au fil des ans, le processus est resté généralement le même. Mais avec l'essor des outils d'IA comme DALL-E, le marché des bandes dessinées pour être confronté à de profonds changements.

    DALL-E est un modèle d'IA de génération d'œuvres d'art développé par OpenAI et distribué à partir de janvier 2021. (Le nom "DALL-E" est un mot-valise évoquant à la fois le robot de Pixar WALL-E et le peintre Salvador Dalí). Il génère des contenus visuels à partir de textes descriptifs appelés "invites" (ou "prompt" en anglais). DALL-E 3 est la troisième version majeure de cet outil d'IA et OpenAI a déclaré qu'elle rend le générateur d'images meilleur que jamais. Cette version apporte de nombreuses améliorations, notamment une meilleure compréhension du contexte, une intégration transparente avec le chatbot ChatGPT et de nouvelles mesures de sécurité.

    Cette version a également permis à DALL-E de faire un bond en avant en matière de capacité à générer des images de type bande dessinée. En d'autres termes, DALL-E 3 permet de créer des bandes dessinées en toute simplicité et peu d'efforts. Selon les témoignages sur les réseaux sociaux, l'outil d'IA d'OpenAI permet de générer plusieurs panneaux, voir un scénario complet, d'une bande dessinée en moins de 5 minutes. Cette prouesse a suscité des sueurs froides chez les créateurs de bandes dessinées, qui craignent de voir la valeur de leur travail chuté sur le marché et de se faire progressivement remplacer par les outils d'IA de génération d'images.

    En outre, cette mise à jour a également suscité des critiques acerbes de la part de la communauté et des créateurs de bandes dessinées. Ces derniers se sont indignés contre le fait que DALL-E 3 puisse copier et réutiliser leurs travaux, notamment leurs scénarios et leurs œuvres visuelles. Par exemple, un internaute a partagé en ligne une courte "bande dessinée" de quatre panneaux créée à l'aide de DALL-E 3. On peut distinguer clairement les personnages comme Batman, le Joker et Robin qui sont protégés par le droit d'auteur. Son message a suscité un tollé sur les médias sociaux, certains critiquant l'idée de célébrer une "bande dessinée créée par l'IA".

    Le dessinateur Javier Rodriguez a fait remarquer qu'il ne s'agissait pas d'un simple copier-coller d'autres bandes dessinées dans une bande dessinée. Il a dénoncé cet usage de l'IA générative en le qualifiant de vol. Il a déclaré : « il y a quelque temps, on pouvait faire la même chose avec une photocopieuse et des ciseaux. Voler l'art d'autrui semble aujourd'hui plus facile et lucratif pour ceux qui sont à l'origine des modèles génératifs », a-t-il déclaré. De son côté, le dessinateur de bande dessinée Ramon Villalobos n'a pas été tendre avec l'internaute. Villalobos s'est moqué des résultats et a fait remarquer que le scénario de DALL-E 3 n'était pas cohérent.

    « C'est du grand n'importe quoi. La Batmobile change de design entre les "panneaux" 1 et 2, le Joker est clairement copié et le style n'est pas cohérent d'un bout à l'autre. Il n'est pas surprenant que les amateurs d'art pensent qu'il s'agit d'une grande réussite, car ce sont de parfaits imbéciles », a déclaré Villalobos. Le dessinateur de bandes dessinées Daniel Kibblesmith s'est aussi moqué des résultats : « bon sang. Ça ressemble exactement à un ordinateur produisant une impression de merde de bande dessinée sur Batman, vous avez réussi ». L'auteure de bandes dessinées Sarah Horrocks a dénoncé l'utilisation du travail de l'artiste Brian Bolland.

    « C'est littéralement le Joker de Brian Bolland. L'impudeur de cette "technologie" est épouvantable. Je suppose qu'il n'y a pas de mal à voler. Il suffit d'appeler ça de l'IA », a-t-elle déclaré. Un autre auteur de bandes dessinées souligné que même l'indignation peut être monétairement bénéfique sur les médias sociaux de nos jours. Justine Bateman, l'ancienne actrice qui est devenue une fervente opposante à l'utilisation de l'IA dans les arts, a expliqué que DC Comics devait agir rapidement pour protéger légalement ce type d'utilisation à l'avenir. Selon elle, l'inaction de DC Comics autorise de fait l'utilisation de ces créations pour entraîner les modèles d'IA.

    « @wbd @DCOfficial, plus vous attendez pour envoyer des équipes juridiques à @OpenAI et d'autres entreprises d'IA afin d'exiger que les ensembles de formations de l'IA générative contenant votre travail protégé par le droit d'auteur soient supprimés, plus vous rendez votre bibliothèque entière équitable. Peu de gens achèteront un studio dont les bibliothèques de droits d'auteur ne sont pas défendables », a-t-elle écrit. À l'heure actuelle, les dessins d'IA sont impossibles à posséder, et les studios qui utilisent des outils d'IA pour créer des contenus visuels risquent de s'attirer des ennuis juridiques, tout comme s'ils faisaient appel des artistes fantômes.

    La Writers Guild of America (WGA), un groupe syndical qui défend les intérêts des scénaristes aux États-Unis, a réussi récemment à obtenir l'assurance selon laquelle les studios n'utiliseraient pas l'IA pour remplacer les scénaristes. Mais certaines sources rapportent que les créateurs de bandes dessinées aux États-Unis ne sont pas légalement autorisés à se syndiquer comme l'a fait à l'origine la WGA. Pour le moment, la grogne monte dans la communauté des créateurs de bandes dessinées et les artistes dénoncent un plagiat et un vol de leurs œuvres. Bien qu'ils aient été pour la plupart écartés par les critiques, certains ont applaudi le "travail" de DALL-E 3.

    Selon ces derniers, l'IA générative a le potentiel de révolutionner complètement l'industrie de la bande dessinée. « Elle créera toutes sortes de nouvelles opportunités pour les artistes et les lecteurs. Grâce à l'IA, les bandes dessinées seront créées beaucoup plus rapidement qu'auparavant, avec des personnages et des scénarios plus diversifiés que nous ne l'aurions jamais imaginé. Je veux continuer à créer sans travailler 12 heures par jour. Je suis vieux. Rester éveillé jusqu'à 3 heures du matin ne suffira plus », peut-on lire dans les commentaires. DALL-E 3 a suscité un débat intense sur la toile, notamment dans les cercles des créateurs de bandes dessinées.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des améliorations introduites par DALL-E 3 ?
    Quels impacts ces outils d'IA pourraient-ils avoir sur l'industrie des bandes dessinées ?
    Que pensez-vous des préoccupations exprimées par les artistes et les auteurs de bandes dessinées ?
    Les outils d'IA tels que DALL-E 3 peuvent-ils améliorer le travail des créateurs de bandes dessinées ?

    Voir aussi

    Stable Diffusion de Stability AI serait le modèle d'IA le plus important de tous les temps, contrairement à GPT-3 et DALL-E 2, il apporte des applications du monde réel ouvertes pour les utilisateur

    Meta lance Meta AI et 28 IA ayant des « personnalités » incarnées par des célébrités telles que Snoop Dogg, Kendall Jenner et Paris Hilton afin d'accroître l'interaction des jeunes avec l'IA

    OpenAI lance DALL-E 3 ChatGPT, la dernière version de son outil pour la génération d'images à partir de textes, afin d'aider les créateurs et les autres utilisateurs

  3. #3
    Membre expérimenté
    Homme Profil pro
    bricoleur par les mots
    Inscrit en
    Avril 2015
    Messages
    731
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 79
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : bricoleur par les mots
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 731
    Points : 1 638
    Points
    1 638
    Par défaut
    Quel est votre avis sur le sujet ?
    on est dans la continuité d'un monde de surconsommation grâce ou a cause de l'automatisation sa en devient absurde.

    dans ma jeunesse j’étais lecteur de la revue strange tout était fais de façon semi artisanale et chaque dessinateurs avais son style bien a lui puis il y a eu un tournant dans les années 90 ou l’on sentait un changement dans la façon de concevoir une bd le début de la bd a la chaîne avec un coté linéaire dans le style j'ai pas aimé et du coup j'ai décroché et je pense que j'étais pas le seul vu que c’était l’époque ou pour Marvel ça allais plus. De nos jour la mode c'est le manga on ne peut nier que certaines séries sont de bonne qualité merci le scénariste quand au dessin c'est du manga pratiquement le même style pour tous un style codifié afin de facilité sa mise en oeuvre et quand je vois le nombre de manga c'est a en devenir fous et maintenant qu'il y a L’IA ça vas en devenir absurde 3 4 bonnes séries et le reste.... de la pollution visuel que empêche de voir les bonnes productions.

    a suivre les scenarios a base d'IA bien lineaire

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 017
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 017
    Points : 6 313
    Points
    6 313
    Par défaut
    Soyez heureux bon peuple... L'IA va être un excellent outil pour tout niveler vers le bas et le médiocre!

    Il ne faudra pas oublier de développer aussi l'IA qui va acheter et lire les BD fabriquées à la chaîne

  5. #5
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 975
    Points : 38 421
    Points
    38 421
    Par défaut Microsoft annonce la disponibilité de DALL-E 3 pour tous utilisateurs de Bing Chat et de Bing Image Creator
    Microsoft annonce la disponibilité de DALL-E 3 pour tous les utilisateurs de Bing Chat et de Bing Image Creator,
    des filigranes permettent d'identifier les images comme étant générées par l'IA

    Microsoft a amélioré son créateur d’images dans Bing Chat avec le nouveau modèle DALL-E 3 d’OpenAI, qui peut produire des images plus originales et plus réalistes à partir de textes. DALL-E 3 est intégré à Bing Chat et ChatGPT, ce qui permet aux utilisateurs de créer et d’affiner leurs images en conversant avec un chatbot. DALL-E 3 dispose également de nouveaux outils de sécurité pour éviter de créer des images inappropriées ou protégées par le droit d’auteur. Microsoft ajoute aussi des filigranes et un système de modération du contenu dans Bing Image Creator. L'entreprise envisage d’utiliser DALL-E 3 dans d’autres applications, comme Paint Cocreator, qui permettra de créer des images par IA dans Windows.

    DALL-E 3 est une percée dans la génération de texte à partir d'images, grâce à un réseau neuronal profond capable de produire des images à partir d'invites en langage naturel. Il s'appuie sur le succès des modèles précédents, tels que :

    • Pertinence et suivi des messages : DALL-E 3 suit l'invite de l'utilisateur avec encore plus de précision et de fiabilité que les modèles précédents. Pour obtenir les meilleurs résultats, Microsoft recommande de fournir un niveau de détail plus élevé dans l'invite - plus il y a d'informations, plus l'image finale sera raffinée ;
    • Cohérence : DALL-E 3 génère des images encore plus photoréalistes que les autres modèles pour un ensemble varié d'invites. Les images sont non seulement visuellement attrayantes, mais aussi logiquement cohérentes avec l'invite ;
    • Esthétique : DALL-E 3 génère des images non seulement réalistes, mais aussi créatives et artistiques. Les images peuvent être stylisées de manière unique, avec un style qui répond à la créativité de l’utilisateur.

    Demandez à Bing Chat de « créer une image d'un enfant mystifié découvrant un oiseau inhabituel qui n'existe pas, prise de vue au-dessus de l'épaule, midi, détaillée ».

    Nom : bing createB.png
Affichages : 2488
Taille : 250,2 Ko

    DALL-E 3 est la dernière version du modèle d’OpenAI qui transforme le texte en image. Il s’appuie sur ChatGPT, un chatbot d’IA très apprécié, pour répondre aux demandes des utilisateurs en images. OpenAI souligne la qualité de DALL-E 3 qui produit des images fidèles et détaillées même avec des demandes compliquées. L’entreprise rappelle aussi l’importance de surveiller la production de contenus indésirables ou illégaux. DALL-E 3 dispose donc de filtres qui refusent les demandes d’images de personnalités ou d’artistes vivants.

    OpenAI dit qu’il saisit mieux les demandes qu’avant et qu’il peut produire des images plus originales et plus réalistes. Il est aussi fait pour être plus simple à utiliser ; DALL-E 3 fonctionne avec Bing Chat et ChatGPT au lieu de former un produit séparé, ce qui permet de créer et d’ajuster une image en discutant avec un chatbot. Dans Bing Image Creator, Microsoft met aussi des marques d’eau dans chaque image pour les signaler comme étant générées par l’IA et a développé son propre système de contrôle du contenu.

    La génération d'une image avec la plateforme consomme tellement d'énergie que les responsables de l'entreprise craignaient que ses serveurs ne s'effondrent si trop de personnes essayaient de l'utiliser en même temps. DALL-E 3 permet de créer des bandes dessinées en toute simplicité et peu d'efforts.

    DALL-E 3 crée des bandes dessinées en un clin d’œil et fait trembler les auteurs

    Selon les témoignages sur les réseaux sociaux, l'outil d'IA d'OpenAI permet de générer plusieurs panneaux, voir un scénario complet, d'une bande dessinée en moins de 5 minutes. Cette prouesse a suscité des sueurs froides chez les créateurs de bandes dessinées, qui craignent de voir la valeur de leur travail chuté sur le marché et de se faire progressivement remplacer par les outils d'IA de génération d'images.

    En outre, cette version a également suscité des critiques acerbes de la part de la communauté et des créateurs de bandes dessinées. Ces derniers se sont indignés contre le fait que DALL-E 3 puisse copier et réutiliser leurs travaux, notamment leurs scénarios et leurs œuvres visuelles. Par exemple, un internaute a partagé en ligne une courte « bande dessinée » de quatre panneaux créée à l'aide de DALL-E 3. On peut distinguer clairement les personnages comme Batman, le Joker et Robin qui sont protégés par le droit d'auteur. Son message a suscité un tollé sur les médias sociaux, certains critiquant l'idée de célébrer une « bande dessinée créée par l'IA ».

    Microsoft prévoit d'utiliser la technologie DALL-E dans d'autres domaines que Bing. La société travaille par exemple sur un outil de création d'images par IA dans l'application Paint, appelé Paint Cocreator, qui intégrera le modèle DALL-E directement dans Windows. En théorie, tout le monde peut utiliser DALL-E 3 via Bing, mais quelques fois, le système s'est avéré « incapable de traiter de nouvelles demandes » et a refusé de créer mon image. Les serveurs sont apparemment surchargés depuis un certain temps : Mikhail Parakhin, de Microsoft, a déclaré : « Nous nous attendions à un fort intérêt, mais nous ne nous attendions pas à un tel engouement ».

    Depuis le lancement de Bing Image Creator, plus d'un milliard d'images ont été générées, contribuant à inspirer la créativité des internautes. Bing Image Creator a créé des histoires illustrées, des vignettes pour le contenu des médias sociaux, des arrière-plans de PC, des inspirations de design, et bien d'autres choses encore.

    Source : Microsoft

    Et vous ?

    Que pensez-vous des outils de génération d'images alimentés par l'IA ?
    Quels impacts ces outils d'IA pourraient-ils avoir sur l'industrie des bandes dessinées ?
    Que pensez-vous de DALL-E 3 et de son intégration dans Bing Chat et de Bing Image Creator ?
    Les outils d'IA tels que DALL-E 3 peuvent-ils améliorer le travail des créateurs de bandes dessinées ?

    Voir aussi :

    OpenAI lance DALL-E 3 ChatGPT, la dernière version de son outil pour la génération d'images à partir de textes, afin d'aider les créateurs et les autres utilisateurs

    Dall-E 2 : le générateur d'images IA développé par OpenAI est disponible en bêta, il peut produire une large gamme d'images à partir de quelques mots

    Stable Diffusion de Stability AI serait le modèle d'IA le plus important de tous les temps, contrairement à GPT-3 et DALL-E 2, il apporte des applications du monde réel ouvertes pour les utilisateurs

  6. #6
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 975
    Points : 38 421
    Points
    38 421
    Par défaut Les chercheurs affirment que les filigranes actuels de l'IA sont faciles à supprimer
    Les chercheurs affirment que les filigranes actuels de l'IA sont faciles à supprimer
    Microsoft a ajouté des filigranes dans Bing Image Creator et Google a conçu SynthID

    Des chercheurs de l’université du Maryland ont examiné la fiabilité des filigranes actuels de l’IA et ont constaté qu’il est facile pour les mauvais acteurs d’ajouter ou de supprimer des filigranes. Les filigranes sont des logos ou des motifs visibles qui peuvent apparaître sur n’importe quel objet, y compris les images générées par l’IA, pour décourager la contrefaçon. Bien que les filigranes soient invisibles à l’œil nu, ils peuvent aider à lutter contre l’utilisation abusive de contenus générés par l’intelligence artificielle et peuvent même être intégrés dans des programmes d’apprentissage automatique mis au point par des géants de la technologie tels que Google. Les chercheurs ont pu facilement échapper aux méthodes actuelles de filigrane pendant les tests et ont trouvé qu’il était encore plus facile d’ajouter de faux emblèmes.

    Les filigranes sont des dessins qui peuvent être apposés sur des images pour les identifier. Depuis les empreintes physiques sur le papier jusqu'au texte translucide et aux symboles que l'on voit aujourd'hui sur les photos numériques, ils ont évolué tout au long de l'histoire. Les filigranes traditionnels ne suffisent pas à identifier les images générées par l'IA, car ils sont souvent appliqués comme un timbre sur une image et peuvent facilement être supprimés. Par exemple, les filigranes discrets qui se trouvent dans le coin d'une image peuvent être supprimés à l'aide de techniques d'édition de base.

    Nom : Filigranes.jpg
Affichages : 3018
Taille : 5,2 Ko

    L'art génératif crée un terrain propice à la création de fausses images et d'autres informations erronées. Dans le contexte de l'intelligence artificielle, le filigrane peut permettre à un ordinateur de détecter si un texte ou une image est généré par une intelligence artificielle. Même s'ils sont invisibles à l'œil nu, les filigranes permettent de lutter contre l'utilisation abusive de contenus générés par l'intelligence artificielle et peuvent même être intégrés dans des programmes d'apprentissage automatique mis au point par des géants de la technologie tels que Google. D'autres acteurs majeurs dans ce domaine, de l'OpenAI à Meta et Amazon, se sont engagés à développer une technologie de filigrane pour lutter contre la désinformation.

    Microsoft a amélioré son créateur d’images dans Bing Chat avec le nouveau modèle DALL-E 3 d’OpenAI, qui peut produire des images plus originales et plus réalistes à partir de textes. DALL-E 3 est intégré à Bing Chat et ChatGPT, ce qui permet aux utilisateurs de créer et d’affiner leurs images en conversant avec un chatbot. DALL-E 3 dispose également de nouveaux outils de sécurité pour éviter de créer des images inappropriées ou protégées par le droit d’auteur. Microsoft ajoute aussi des filigranes et un système de modération du contenu dans Bing Image Creator.

    Il est difficile de trouver le bon équilibre entre l'imperceptibilité et la résistance aux manipulations d'images. Les filigranes très visibles, souvent ajoutés sous forme de couche avec un nom ou un logo en haut d'une image, posent également des problèmes esthétiques à des fins créatives ou commerciales. De même, certains filigranes imperceptibles développés précédemment peuvent être perdus par de simples techniques d'édition telles que le redimensionnement.

    C'est pourquoi des chercheurs en informatique de l'université du Maryland (UMD) ont décidé d'examiner et de comprendre à quel point il est facile pour de mauvais acteurs d'ajouter ou de supprimer des filigranes. Soheil Feizi, professeur à l'UMD, a déclaré à Wired que les résultats obtenus par son équipe confirment son scepticisme quant à l'absence d'applications de filigrane fiables à l'heure actuelle. Les chercheurs ont pu facilement échapper aux méthodes actuelles de filigrane pendant les tests et ont trouvé qu'il était encore plus facile d'ajouter de faux emblèmes à des images qui n'avaient pas été générées par l'IA. Mais au-delà de la facilité avec laquelle il est possible de contourner les filigranes, une équipe de l'UMD a notamment mis au point un filigrane qu'il est pratiquement impossible de retirer d'un contenu sans compromettre complètement la propriété intellectuelle. Cette application permet de détecter le vol de produits.

    Un nouveau type de filigrane pour les images d'IA

    SynthID est un outil permettant de filigraner et d'identifier les images générées par l'IA. Cette technologie incorpore un filigrane numérique directement dans les pixels d'une image, ce qui le rend imperceptible à l'œil humain, mais détectable pour l'identification. Elle a été développée par Google DeepMind et affinée en partenariat avec Google Research. SynthID pourrait également évoluer avec d'autres modèles d'IA et d'autres modalités que l'imagerie, comme l'audio, la vidéo et le texte.

    Google a conçu SynthID de manière à ce qu'il ne compromette pas la qualité de l'image et permette au filigrane de rester détectable, même après des modifications telles que l'ajout de filtres, la modification des couleurs et l'enregistrement avec différents schémas de compression avec perte - le plus souvent utilisés pour les JPEG.
    SynthID utilise deux modèles d'apprentissage profond - pour le filigrane et l'identification - qui ont été entraînés ensemble sur un ensemble varié d'images. Le modèle combiné est optimisé en fonction d'une série d'objectifs, notamment l'identification correcte du contenu filigrané et l'amélioration de l'imperceptibilité en alignant visuellement le filigrane sur le contenu original.

    SynthID permet aux clients de Vertex AI de créer des images générées par l'IA de manière responsable et de les identifier en toute confiance. Bien que cette technologie ne soit pas parfaite, nos tests internes montrent qu'elle est efficace contre de nombreuses manipulations d'images courantes.
    L'approche combinée de SynthID :

    • Filigrane : SynthID peut ajouter un filigrane imperceptible aux images synthétiques produites par Imagen ;
    • Identification : En scannant une image à la recherche de son filigrane numérique, SynthID peut évaluer la probabilité qu'une image ait été créée par Imagen.

    Nom : filig.jpg
Affichages : 1615
Taille : 22,3 Ko

    L'outil pourrait permettre aux enseignants de repérer le plagiat

    Des motifs cachés, dissimulés à dessein dans les textes générés par l'IA, pourraient aider à les identifier en tant que tels, nous permettant ainsi de savoir si les mots que nous lisons ont été écrits par un humain ou non. Ces filigranes sont invisibles à l'œil nu, mais permettent aux ordinateurs de détecter que le texte provient probablement d'un système d'IA. S'ils sont intégrés dans de grands modèles de langage, ils pourraient contribuer à prévenir certains des problèmes que ces modèles ont déjà causés.

    Par exemple, depuis que le chatbot ChatGPT d'OpenAI a été lancé, des étudiants ont déjà commencé à tricher en l'utilisant pour rédiger des dissertations à leur place. Le site d'information CNET a utilisé ChatGPT pour rédiger des articles, avant de devoir apporter des corrections à la suite d'accusations de plagiat. L'intégration de l'approche du filigrane dans ces systèmes avant leur diffusion pourrait contribuer à résoudre ces problèmes.

    Un professeur de l’université de Lyon a découvert que la moitié de ses élèves de Master ont fait rédiger leurs copies par l’intelligence artificielle ChatGPT. Les copies étaient beaucoup trop ressemblantes, avec des similitudes dans la rédaction, les réponses et les anecdotes utilisées. « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté.

    Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    Le professeur Arvind Narayanan de l’université de Princeton estime qu’il n’y a pas lieu de paniquer face aux outils d’IA. Cependant, il est évident que les enseignants ont du mal à utiliser des outils d’IA tels que ChatGPT, qui dans de nombreux cas pourraient résoudre les devoirs à la place des apprenants. Certains professeurs d’université mettent en place différentes stratégies pour rendre les devoirs plus difficiles à la tricherie avec ChatGPT, comme utiliser le support papier au lieu du support numérique, ou changer la manière de poser les questions pour demander aux étudiants de justifier leur travail.

    Des motifs cachés, dissimulés dans les textes générés par l'IA, pourraient aider à identification

    Dans des études, ces filigranes ont déjà été utilisés pour identifier avec une quasi-certitude des textes générés par l'IA. Des chercheurs de l'université du Maryland, par exemple, ont été en mesure de repérer le texte créé par le modèle de langage open-source de Meta, OPT-6.7B, à l'aide d'un algorithme de détection qu'ils ont construit. Ces travaux sont décrits dans un article qui n'a pas encore fait l'objet d'une évaluation par les pairs, et le code sera disponible gratuitement aux alentours du 15 février.

    Les modèles linguistiques d'IA fonctionnent en prédisant et en générant un mot à la fois. Après chaque mot, l'algorithme de filigrane divise de manière aléatoire le vocabulaire du modèle de langage en mots figurant sur une "liste verte" et une "liste rouge", puis invite le modèle à choisir des mots figurant sur la liste verte.
    Plus il y a de mots sur la liste verte dans un passage, plus il est probable que le texte ait été généré par une machine.

    Un texte écrit par une personne a tendance à contenir un mélange de mots plus aléatoire. Par exemple, « pour le mot "beau", l'algorithme de filigrane pourrait classer le mot "fleur" en vert et le mot "orchidée" en rouge. Le modèle d'IA doté de l'algorithme de filigrane serait plus susceptible d'utiliser le mot "fleur" que le mot "orchidée" », explique Tom Goldstein, professeur adjoint à l'université du Maryland, qui a participé à la recherche.

    ChatGPT fait partie des grands modèles de langage qui génèrent des textes si fluides qu'on pourrait les confondre avec des écrits humains. Ces modèles d'IA énoncent des faits avec assurance, mais sont connus pour leurs faussetés et leurs préjugés. Pour un œil non averti, il peut être presque impossible de distinguer un passage écrit par un modèle d'IA d'un passage écrit par un humain. La vitesse époustouflante du développement de l'IA signifie que de nouveaux modèles plus puissants rendent rapidement moins efficaces les outils dont nous disposons pour détecter les textes synthétiques. C'est une course permanente entre les développeurs d'IA pour créer de nouveaux outils de sécurité capables de rivaliser avec la dernière génération de modèles d'IA.

    Bien que le filigrane des contenus générés par l'IA doive être amélioré avant de pouvoir passer avec succès des tests simulés similaires à ceux présentés dans les travaux de recherche, il est facile d'envisager un scénario où le filigrane numérique devient une course concurrentielle contre les pirates informatiques. En attendant qu'une nouvelle norme soit élaborée, nous ne pouvons qu'espérer le meilleur en ce qui concerne les nouveaux outils tels que SynthID de Google, un outil d'identification pour l'art génératif, qui continuera à être testé par les développeurs jusqu'à ce qu'il atteigne le grand public.

    Mais le moment ne pourrait être mieux choisi pour l'innovation des leaders d'opinion. L'élection présidentielle de 2024 aux États-Unis étant sur le point d'occuper le devant de la scène, le contenu généré par l'IA pourrait jouer un rôle considérable dans l'évolution de l'opinion politique, avec des éléments tels que les "deep fake ads" (fausses publicités profondes). L'administration Biden a même pris note de la question, citant qu'il existe des préoccupations raisonnables quant à la manière dont l'intelligence artificielle peut être utilisée à des fins perturbatrices, en particulier dans le domaine de la désinformation.

    Source : Computer science researchers at the University of Maryland

    Et vous ?

    Les filigranes actuels de l’IA sont-ils suffisamment fiables pour empêcher la contrefaçon ?

    Comment les filigranes peuvent-ils être améliorés pour être plus efficaces ?

    Comment les filigranes peuvent-ils être utilisés pour protéger la propriété intellectuelle et la vie privée des utilisateurs ?

    Voir aussi :

    Un professeur d'informatique de Princeton déclare qu'il n'y a pas à paniquer face à un générateur de foutaises comme ChatGPT, qu'il considère comme de « la poudre de perlimpinpin » en matière d'IA

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

    Microsoft annonce la disponibilité de DALL-E 3 pour tous les utilisateurs de Bing Chat et de Bing Image Creator, des filigranes permettent d'identifier les images comme étant générées par l'IA

  7. #7
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 975
    Points : 38 421
    Points
    38 421
    Par défaut DALL-E 3 est maintenant disponible dans ChatGPT Plus et Enterprise
    DALL-E 3 est maintenant disponible dans ChatGPT Plus et Enterprise
    permettant aux abonnés payants de ChatGPT d’utiliser le générateur d’images

    OpenAI a annoncé que son dernier générateur de texte à l’image, DALL-E 3, est maintenant disponible dans ChatGPT Plus et Enterprise. Les clients payants de ChatGPT peuvent désormais accéder au générateur d’images DALL-E 3 dans l’application ChatGPT. OpenAI a préparé une pile d’atténuation de la sécurité pour le modèle, ce qui le rend prêt pour une version élargie. DALL-E 3 a été ajouté à Bing Chat et à Bing Image Generator, faisant de la plateforme de Microsoft la première à offrir un accès public plus large au modèle, avant même ChatGPT. Les générateurs texte-image tels que Midjourney, Stable Diffusion et les anciennes itérations de DALL-E ont tous eu leur part de controverse. OpenAI promet d’avoir pris des mesures beaucoup plus importantes cette fois-ci et fournit un site web qui montre les recherches effectuées dans DALL-E 3.

    « ChatGPT peut désormais créer des images uniques à partir d'une simple conversation. Cette nouvelle fonctionnalité est disponible dès aujourd'hui pour les utilisateurs Plus et Enterprise. Décrivez votre vision et ChatGPT lui donnera vie en vous fournissant une sélection de visuels que vous pourrez affiner et modifier. Vous pouvez demander des révisions directement dans le chat. Cette fonction est assurée par notre modèle d'image le plus performant, DALL-E », a annoncé OpenAI sur son site officiel.

    Nom : DallE3B.png
Affichages : 5699
Taille : 432,8 Ko

    OpenAI est une entreprise spécialisée dans le raisonnement artificiel, à « but lucratif plafonné », dont le siège social est à San Francisco. Avant mars 2019, elle est reconnue association à but non lucratif. L’organisation est aujourd’hui largement reconnue comme l’une des plus importantes dans le domaine de l’IA. Ses employés publient régulièrement leurs travaux de recherche sous forme de publications scientifiques, de logiciels open source et de données, dans un souci de transparence et d’accessibilité pour les utilisateurs. L’outil ChatGPT, un moteur de recherche intelligent capable de répondre à n’importe quelle recherche, est le dernier succès de l’organisation.

    ChatGPT, un modèle de langage basé sur la transformation de GPT (Generative Pretrained Transformer), est l’une des innovations les plus populaires créées par OpenAI. En seulement deux mois, il a recensé près de 100 millions d’utilisateurs. Le site a été entraîné sur des milliards de phrases en anglais et est désormais capable de générer du texte de manière autonome. Conçu pour imiter la conversation humaine, ChatGPT produit des réponses cohérentes et pertinentes aux questions posées. Bien qu’il ait été exclusivement anglophone dans un premier temps, l’outil est aujourd’hui capable de répondre dans plusieurs dizaines de langues, même si sa compréhension reste parfois limitée.

    Nous avons lancé ChatGPT en tant que preview de recherche afin d'en apprendre davantage sur les forces et les faiblesses du système et de recueillir les commentaires des utilisateurs pour nous aider à améliorer ses limites. Depuis, des millions de personnes nous ont fait part de leurs commentaires, nous avons fait plusieurs mises à jour importantes et nous avons vu les utilisateurs trouver de la valeur à travers une gamme de cas d'utilisation professionnelle, y compris la rédaction et l'édition de contenu, le brainstorming d'idées, l'aide à la programmation, et l'apprentissage de nouveaux sujets.

    ChatGPT Plus est le nom du niveau optionnel et payant que OpenAI a lancé pour offrir des fonctionnalités plus avancées. Même avant d’intégrer DALL-E 3 à ChatGPT Plus, ce niveau avait déjà cinq bénéfices majeurs par rapport au niveau gratuit, qui sont :

    • un accès constant à ChatGPT : en tant qu'utilisateur payant, vous pourrez accéder au chatbot même pendant les périodes de forte demande ;
    • accès au GPT-4 : OpenAI a récemment annoncé un nouveau modèle de langage plus performant appelé GPT-4. Il s'agit d'une fonctionnalité optionnelle qui n'est disponible que si votre compte dispose d'un abonnement ChatGPT Plus ;
    • accès à la version bêta des plugins : avec les plugins ChatGPT, vous pouvez améliorer la capacité du chatbot à effectuer diverses tâches, comme trouver des billets d'avion en temps réel ou effectuer des calculs mathématiques ;
    • Mode turbo : ChatGPT Plus vous permet d'utiliser un modèle linguistique optimisé pour la vitesse, appelé Turbo. On ne sait pas si le passage du mode normal au mode turbo affecte la qualité des réponses, mais cette fonctionnalité est actuellement en alpha (accès anticipé). Cela dit, vous pouvez facilement passer de l'un à l'autre si vous êtes un abonné actif ;
    • accès prioritaire aux nouvelles fonctionnalités : ChatGPT a reçu près d'une douzaine de mises à jour depuis sa sortie, ce qui signifie qu'il s'améliore constamment. Avec l'abonnement, vous pourrez tester les nouvelles fonctionnalités et les améliorations avant la sortie générale. Par exemple, Code Interpreter est une nouvelle fonctionnalité expérimentale qui permet au chatbot de lire et d'interagir avec les fichiers que vous téléchargez ;
    • des limites plus élevées : OpenAI n'a pas révélé publiquement qu'il s'agissait d'une fonctionnalité, mais de nombreux abonnés ont signalé des limites horaires plus élevées.

    ChatGPT Plus : une analyse des fonctionnalités

    ChatGPT et ChatGPT Plus sont basés sur une architecture de transformateur, un type de réseau neuronal conçu pour le traitement du langage naturel. Il est connu que l'architecture de transformateur peut traiter des données séquentielles telles que du texte plus rapidement et plus efficacement que les réseaux neuronaux de reconstruction conventionnels en traitant les données séquentielles en parallèle.

    Toutefois, l'architecture de ChatGPT et de ChatGPT Plus présente quelques différences. ChatGPT utilise un modèle de transformateur à 12 couches avec 117 millions de paramètres, tandis que ChatGPT Plus utilise un grand modèle de transformateur à 24 couches avec 1,5 milliard de paramètres. En d'autres termes, si ChatGPT Plus a une grande capacité à apprendre des modèles linguistiques complexes, il nécessite également plus de ressources informatiques pour l'apprentissage et l'exécution.

    OpenAI, le concepteur de ChatGPT, a créé DALL-E, un outil d’IA qui génère des images à partir d’un texte. On peut utiliser gratuitement cet outil sur diverses plateformes, et il existe plusieurs versions. La plus récente et la plus performante est DALL-E 3. OpenAI a développé DALL-E 3, la version la plus récente et la plus avancée de son outil de création d’images à partir d’un texte. Ce système est plus nuancé et plus détaillé que les précédents. Il produit des visuels de meilleure qualité que la version 2. Il respecte mieux tous les mots de vos prompts, sans en négliger aucun dans sa traduction visuelle. DALL-E 3 sait aussi mieux gérer les requêtes qui impliquent du texte, un aspect difficile pour les IA qui font des images.

    Les questions éthiques et sociales posées par DALL-E 3

    Microsoft a amélioré son créateur d’images dans Bing Chat avec le nouveau modèle DALL-E 3 d’OpenAI, qui peut produire des images plus originales et plus réalistes à partir de textes. DALL-E 3 est intégré à Bing Chat et ChatGPT, ce qui permet aux utilisateurs de créer et d’affiner leurs images en conversant avec un chatbot. DALL-E 3 dispose également de nouveaux outils de sécurité pour éviter de créer des images inappropriées ou protégées par le droit d’auteur. Microsoft ajoute aussi des filigranes et un système de modération du contenu dans Bing Image Creator. L'entreprise envisage d’utiliser DALL-E 3 dans d’autres applications, comme Paint Cocreator, qui permettra de créer des images par IA dans Windows.

    DALL-E 3 pose aussi des questions éthiques et sociales sur l’utilisation et le contrôle de ces images. Il faut être vigilant sur les risques de manipulation, de plagiat, de violation de la vie privée ou de discrimination que ces images peuvent entraîner. Il faut aussi respecter les droits d’auteur et le consentement des personnes représentées.

    Certains utilisateurs ont créé des images choquantes avec les générateurs texte-image, comme le World Trade Center attaqué par Bob l’éponge et ses amis. Microsoft a essayé de bloquer ces images, mais sans succès. Les générateurs texte-image, comme Midjourney, Stable Diffusion ou les versions antérieures de DALL-E, ont aussi posé des problèmes éthiques et juridiques. Ils ont fait des images qui violaient le droit d’auteur, le consentement, la diversité et la vérité.

    OpenAI dit avoir pris des précautions plus sérieuses avec DALL-E 3, sa dernière création. Il y a un site web qui présente les recherches sur DALL-E 3. OpenAI assure qu’elle va réduire les chances que DALL-E 3 fasse des images qui copient des artistes vivants ou qui montrent des personnalités publiques. Elle va aussi améliorer la représentation des différentes populations dans les images. OpenAI a aussi un outil interne qui peut savoir avec 99 % de certitude si une image vient de DALL-E 3.

    Citation Envoyé par OpenAI
    DALL-E 3 est un système d'intelligence artificielle qui prend un texte en entrée et génère une nouvelle image en sortie. DALL-E 3 s'appuie sur DALL-E 2 en améliorant la fidélité des légendes et la qualité des images. Dans cette cartographie du système, nous partageons le travail effectué pour préparer DALL-E 3 au déploiement, y compris notre travail sur l'équipe d'experts externes, les évaluations des risques clés et les mesures d'atténuation visant à réduire les risques posés par le modèle et à réduire les comportements indésirables.
    ChatGPT Plus : est-ce que ça vaut le coût ?

    ChatGPT Plus a également des inconvénients, notamment un coût mensuel de 20 dollars. En revanche, Bing Chat est gratuit et peut accéder à des informations en temps réel sur Internet. Bien que Bing Chat soit essentiellement un moteur de recherche alimenté par l’IA, il est plus polyvalent que ChatGPT car il peut accéder aux informations directement depuis Internet. De plus, Bing Chat utilise la technologie GPT-4, qui est également utilisée par ChatGPT Plus. Cependant, Microsoft est prudent dans la manière dont il répond à certaines invites et peut refuser de répondre à des sujets controversés.

    ChatGPT Plus a également des inconvénients, notamment une limite d’interaction de 50 messages toutes les trois heures. Bien que GPT-4 puisse traiter plus de 25 000 mots en une seule fois grâce à son API, la limite d’interaction de GPT-4 freine les utilisateurs : vous ne pouvez envoyer que 50 messages toutes les trois heures. Cette limite stricte est contraignante, mais pas autant qu’auparavant (25 messages toutes les trois heures). À l’origine, cette limite était d’environ 100 messages, mais OpenAI l’a réduite pour prendre son temps avec la mise à l’échelle de GPT-4. Vous avez donc un accès limité au dernier modèle de langage GPT, même si vous achetez l’abonnement.

    L’accès aux nouvelles fonctionnalités peut ne pas entrer en ligne de compte dans votre décision puisqu’il n’est pas essentiel à l’utilisation que vous faites du chatbot. De même, la version gratuite fonctionne déjà assez rapidement et n’impose pas beaucoup de restrictions.

    Source : OpenAI

    Et vous ?

    Quelles sont les limites de l’IA utilisée par Bing Chat et ChatGPT Plus ?

    Que pensez-vous de l'ajout de DALL-E 3 à ChatGPT Plus ?

    Utilisez-vous ChatGPT ? Quels sont les cas d’utilisation pour lesquels ChatGPT Plus est plus adapté que Bing Chat et vice versa ?

    Quels sont selon vous, les avantages et les inconvénients de ChatGPT Plus et de Bing Chat en termes de coût, de fonctionnalités et de performances ?

    Voir aussi :

    Les chercheurs affirment que les filigranes actuels de l'IA sont faciles à supprimer, Microsoft a ajouté des filigranes dans Bing Image Creator et Google a conçu SynthID

    OpenAI lance DALL-E 3 ChatGPT, la dernière version de son outil pour la génération d'images à partir de textes, afin d'aider les créateurs et les autres utilisateurs

    Microsoft annonce la disponibilité de DALL-E 3 pour tous les utilisateurs de Bing Chat et de Bing Image Creator, des filigranes permettent d'identifier les images comme étant générées par l'IA

  8. #8
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 975
    Points : 38 421
    Points
    38 421
    Par défaut Les membres de ChatGPT Plus peuvent télécharger et analyser des fichiers dans la dernière version bêta
    Les membres de ChatGPT Plus peuvent télécharger et analyser des fichiers dans la dernière version bêta,
    les abonnés ont signalé que la MAJ inclut la prise en charge multimodale

    Les membres de ChatGPT Plus ont accès à de nouvelles fonctionnalités bêta, notamment la possibilité de télécharger et d’analyser des fichiers, ainsi que la prise en charge multimodale. Les utilisateurs n’ont plus besoin de sélectionner manuellement les modes tels que Parcourir avec Bing dans la liste déroulante de GPT-4 - l’application devinera ce qu’ils veulent en fonction du contexte. Les nouvelles fonctionnalités apportent une touche des fonctionnalités de bureau offertes par son plan ChatGPT Enterprise à l’abonnement individuel autonome au chatbot.

    En début d'année, OpenAI a annoncé ChatGPT Plus, un forfait mensuel de 20 $ qui vous donne un accès prioritaire au chatbot AI, même pendant les heures de pointe où les utilisateurs gratuits devraient attendre. La société affirme également que le plan vous donnera « des temps de réponse plus rapides » et « un accès prioritaire aux nouvelles fonctionnalités et améliorations ».

    « Bien que je ne dispose pas de la mise à jour multimodale sur mon propre plan Plus, j’ai pu tester la fonction d’analyse avancée des données, qui semble fonctionner comme prévu. Une fois que le fichier est envoyé à ChatGPT, il prend quelques instants pour l’assimiler avant d’être prêt à travailler avec lui, puis le chatbot peut faire des choses comme résumer des données, répondre à des questions ou générer des visualisations de données basées sur des messages-guides », l'utilisateur Luoki.

    En outre, Sonos a lancé deux nouveaux haut-parleurs simultanément. L’Era 300 est conçu pour l’audio spatial et diffuse le son dans plusieurs directions. L’Era 100 améliore le Sonos One avec un son stéréo et de meilleures basses. Toutes deux intègrent le Bluetooth et une entrée ligne USB-C pour pouvoir facilement lire de la musique à partir d’autres appareils ou brancher une platine.

    Citation Envoyé par OpenAI
    Nous lançons ChatGPT Enterprise, qui offre une sécurité et une confidentialité de niveau entreprise, un accès GPT-4 illimité à plus grande vitesse, des fenêtres contextuelles plus longues pour traiter des entrées plus longues, des capacités d'analyse de données avancées, des options de personnalisation, et bien plus encore. Nous pensons que l'IA peut aider et améliorer chaque aspect de nos vies professionnelles et rendre les équipes plus créatives et plus productives. Aujourd'hui marque une nouvelle étape vers un assistant IA pour le travail qui aide à accomplir n'importe quelle tâche, qui est personnalisé pour votre organisation et qui protège les données de votre entreprise.

    Nous avons constaté une demande sans précédent de ChatGPT au sein des organisations. Depuis le lancement de ChatGPT il y a tout juste neuf mois, nous avons vu des équipes l'adopter dans plus de 80 % des entreprises du Fortune 500. La statistique de 80 % fait référence au pourcentage d'entreprises Fortune 500 ayant des comptes ChatGPT enregistrés, tels que déterminés par les comptes associés aux domaines de messagerie de l'entreprise.

    Des chefs d'entreprise nous ont dit qu'ils aimeraient disposer d'un moyen simple et sûr de déployer leurs services. Nous avons constaté une demande sans précédent pour ChatGPT au sein des organisations, qui souhaitent un moyen simple et sûr de le déployer dans leur organisation. Les premiers utilisateurs de ChatGPT Enterprise - des leaders de l'industrie comme Block, Canva, Carlyle, The Estée Lauder Companies, PwC et Zapier - redéfinissent leur mode de fonctionnement et utilisent ChatGPT pour élaborer des communications plus claires, accélérer les tâches de codage, explorer rapidement les réponses à des questions commerciales complexes, aider au travail créatif, et bien plus encore.
    Les nouvelles fonctionnalités apportent une touche des fonctionnalités de bureau offertes par son plan ChatGPT Enterprise à l'abonnement individuel autonome au chatbot. Il semble que je ne dispose pas de la mise à jour multimodale sur mon propre plan Plus, mais j'ai pu tester la fonction d'analyse avancée des données, qui semble fonctionner comme prévu. Une fois que le fichier est envoyé à ChatGPT, il prend quelques instants pour l'assimiler avant d'être prêt à travailler avec lui, puis le chatbot peut faire des choses comme résumer des données, répondre à des questions ou générer des visualisations de données basées sur des messages-guides.

    ChatGPT, un modèle de langage basé sur la transformation de GPT (Generative Pretrained Transformer), est l’une des innovations les plus populaires créées par OpenAI. En seulement deux mois, il a recensé près de 100 millions d’utilisateurs. Le site a été entraîné sur des milliards de phrases en anglais et est désormais capable de générer du texte de manière autonome. Conçu pour imiter la conversation humaine, ChatGPT produit des réponses cohérentes et pertinentes aux questions posées. Bien qu’il ait été exclusivement anglophone dans un premier temps, l’outil est aujourd’hui capable de répondre dans plusieurs dizaines de langues, même si sa compréhension reste parfois limitée.

    OpenAI a annoncé le 21 octobre que son dernier générateur de texte à l’image, DALL-E 3, était maintenant disponible dans ChatGPT Plus et Enterprise. Les clients payants de ChatGPT peuvent dorénavant accéder au générateur d’images DALL-E 3 dans l’application ChatGPT. OpenAI a préparé une pile d’atténuation de la sécurité pour le modèle, ce qui le rend prêt pour une version élargie. OpenAI promet d’avoir pris des mesures beaucoup plus importantes cette fois-ci et fournit un site web qui montre les recherches effectuées dans DALL-E 3.

    « ChatGPT peut désormais créer des images uniques à partir d'une simple conversation. Cette nouvelle fonctionnalité est disponible dès aujourd'hui pour les utilisateurs Plus et Enterprise. Décrivez votre vision et ChatGPT lui donnera vie en vous fournissant une sélection de visuels que vous pourrez affiner et modifier. Vous pouvez demander des révisions directement dans le chat. Cette fonction est assurée par notre modèle d'image le plus performant, DALL-E », a annoncé OpenAI sur son site officiel.

    ChatGPT Plus a également des inconvénients

    ChatGPT Plus est le nom du niveau optionnel et payant que OpenAI a lancé pour offrir des fonctionnalités plus avancées. ChatGPT Plus a également des inconvénients, notamment son coût mensuel de 20 dollars. En revanche, Bing Chat est gratuit et peut accéder à des informations en temps réel sur Internet. Bien que Bing Chat soit essentiellement un moteur de recherche alimenté par l’IA, il est plus polyvalent que ChatGPT car il peut accéder aux informations directement depuis Internet. De plus, Bing Chat utilise la technologie GPT-4, qui est également utilisée par ChatGPT Plus. Cependant, Microsoft est prudent dans la manière dont il répond à certaines invites et peut refuser de répondre à des sujets controversés.

    ChatGPT Plus a aussi des inconvénients, notamment une limite d’interaction de 50 messages toutes les trois heures. Bien que GPT-4 puisse traiter plus de 25 000 mots en une seule fois grâce à son API, la limite d’interaction de GPT-4 freine les utilisateurs : vous ne pouvez envoyer que 50 messages toutes les trois heures. Cette limite stricte est contraignante, mais pas autant qu’auparavant (25 messages toutes les trois heures). À l’origine, cette limite était d’environ 100 messages, mais OpenAI l’a réduite pour prendre son temps avec la mise à l’échelle de GPT-4. Vous avez donc un accès limité au dernier modèle de langage GPT, même si vous achetez l’abonnement.

    ChatGPT et ChatGPT Plus sont basés sur une architecture de transformateur, un type de réseau neuronal conçu pour le traitement du langage naturel. Il est connu que l'architecture de transformateur peut traiter des données séquentielles telles que du texte plus rapidement et plus efficacement que les réseaux neuronaux de reconstruction conventionnels en traitant les données séquentielles en parallèle.

    Toutefois, l'architecture de ChatGPT et de ChatGPT Plus présente quelques différences. ChatGPT utilise un modèle de transformateur à 12 couches avec 117 millions de paramètres, tandis que ChatGPT Plus utilise un grand modèle de transformateur à 24 couches avec 1,5 milliard de paramètres. En d'autres termes, si ChatGPT Plus a une grande capacité à apprendre des modèles linguistiques complexes, il nécessite également plus de ressources informatiques pour l'apprentissage et l'exécution.

    Source : Alex Northstar's tweet

    Et vous ?

    Que pensez-vous de la possibilité d'analyser des fichiers qu'apporte la dernière version bêta de ChatGPT Plus ?

    Voir aussi :

    DALL-E 3 est maintenant disponible dans ChatGPT Plus et Enterprise, permettant aux abonnés payants de ChatGPT d'utiliser le générateur d'images

    OpenAI lance ChatGPT Plus, un plan d'abonnement ChatGPT pour 20 $ par mois, qui est proposé à ceux qui veulent des réponses plus rapides ainsi qu'un accès prioritaire aux nouvelles fonctionnalités

    Le Congrès américain s'équipe de 40 licences de ChatGPT Plus pour expérimenter l'IA générative, principalement pour la « synthèse et la création de contenu », ce qui soulève des questions éthiques

  9. #9
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    971
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 971
    Points : 17 243
    Points
    17 243
    Par défaut Les experts sont sceptiques quant à l'efficacité d'un filigrane visant à étiqueter le contenu généré par l'IA
    Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA
    pour empêcher la désinformation et la manipulation

    Certains groupes de personnes et des autorités gouvernementales pensent que l'ajout d'un filigrane aux contenus générés par les systèmes d'IA générative pourrait aider à lutter contre la fraude et la désinformation, notamment pendant les périodes d'élection. La fonctionnalité vise à étiqueter le contenu généré par l'IA afin de permettre aux utilisateurs de le distinguer facilement du contenu créé par l'homme. Mais les experts sont sceptiques quant à l'efficacité de cette initiative et affirment que sa mise en place pourrait s'avérer complexe pour des résultats mitigés. Selon eux, les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'IA.

    Une norme en matière de filigrane pour lutter contre la désinformation liée à l'IA

    L'année dernière, un utilisateur de Midjourney a généré des images montrant le président français Emmanuel Macron en train de ramasser des ordures dans les rues de Paris et se mêler aux forces de l'ordre pour encadrer des manifestants. Les images ont rapidement été recensées comme des deepfakes, mais elles ont suscité les réactions de plusieurs milliers d'internautes en raison de leur réalisme. En outre, une fausse image d'une explosion près du Pentagone est devenue virale sur X l'année dernière et a été rapidement suivie par des images semblant montrer des explosions près de la Maison Blanche. Ces images ont également été générées par un outil d'IA.


    Les experts l'ont rapidement signalé, mais pas avant que le marché boursier n'ait commencé à chuter. Il ne s'agit là que de quelques exemples des effets troublants que peuvent avoir les faux contenus dans le monde réel. L'essor de l'IA générative fait que les outils permettant de créer des deepfakes réalistes et de produire d'énormes quantités de textes convaincants sont désormais librement accessibles. Selon les analystes, le monde entre dans une nouvelle ère où il sera de plus en plus difficile de distinguer ce qui est réel de ce qui ne l'est pas. Ainsi, il est urgent de trouver un moyen efficace pouvant permettre aux internautes de distinguer le vrai du faux.

    Pour cela, certains proposent d'adopter une norme mondiale en matière de filigrane afin d'harmoniser la façon dont les contenus générés par l'IA sont étiquetés. En octobre dernier, le président américain Joe Biden a signé un décret qui met l'accent sur la mise en place d'un filigrane pour les outils d'IA générative. La vice-présidente Kamala Harris a déclaré que "l'administration encourageait les entreprises technologiques à développer de nouveaux outils pour aider les consommateurs à discerner si le contenu audio et visuel est généré par l'IA". Mais pour le moment, il n'y a pas beaucoup de clarté sur la manière dont tout cela se déroulera exactement.

    Le gouvernement chinois va plus loin en établissant un processus national standard de filigrane requis pour tout contenu visuel dérivé de l'IA. En revanche, aucun des deux pays n'a abordé la question des contenus textuels. La loi de l'Union européenne sur l'IA (EU Artificial Intelligence Act) ne prévoit aucune exigence en matière de filigrane. Selon certains analystes, les initiatives actuelles en matière de réglementation de l'IA souffrent de nombreuses lacunes que les autorités doivent corriger afin de protéger les élections. En outre, selon certains critiques, une norme mondiale en matière de filigrane ne pourra pas empêcher l'utilisation des modèles d'IA à mauvais escient.

    « Il existe de nombreux modèles libres développés selon le principe de l'open source que tout le monde peut utiliser ou entraîner sur ses propres systèmes. Et même s'il y avait un filigrane sur chacun d'entre eux, l'utilisateur pourra facilement le supprimer. En fait, pratiquement n'importe quel réglage, délibéré ou non, permettrait de s'en débarrasser. Et cela ne nécessite pas des mois de travail sur un superordinateur, mais quelques heures sur un GPU grand public », note un critique. Par exemple, Stable Diffusion possède une fonction de filigrane, mais comme il s'agit d'un logiciel libre, n'importe qui peut simplement supprimer cette partie du code.

    Certains experts pensent qu'un filigrane n'empêchera pas la manipulation par l'IA

    Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, un grand nombre d'entre eux ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation liées à l'IA. Selon eux, il y aura toujours un moyen de corrompre les filigranes, peu importe leur robustesse.


    En effet, lorsqu'il s'agit de la variété de contenu que l'IA peut générer, et des nombreux modèles qui existent déjà, les choses se compliquent. Pour l'instant, il n'existe aucune norme en matière de filigrane, ce qui signifie que chaque entreprise d'IA utilise une méthode différente. Dall-E, par exemple, utilise un filigrane visible (mais une recherche rapide sur Google permet de trouver des tutoriels sur la manière de le supprimer), tandis que d'autres services utilisent par défaut des métadonnées ou des filigranes au niveau du pixel qui ne sont pas visibles pour les utilisateurs. Si certaines de ces méthodes sont difficiles à annuler, d'autres peuvent l'être facilement.

    « Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. En outre, l'expert souligne également que les tentatives visant à filigraner les contenus textuels générés par l'IA pourraient s'avérer beaucoup plus difficiles que certains ne le croient. Par exemple, il existe plusieurs moyens de filigraner les textes générés par des chatbots d'IA tels que ChatGPT d'OpenAI.

    Cela est possible en manipulant la manière dont les mots sont distribués, en faisant en sorte qu'un mot ou un ensemble de mots apparaissent plus fréquemment. Ces méthodes seraient détectables par une machine, mais pas nécessairement par un utilisateur humain. Cela signifie que les filigranes doivent être interprétés par une machine, puis signalés à un spectateur ou à un lecteur. La situation est d'autant plus complexe que le contenu est mixte, comme les éléments audio, image, vidéo et texte qui peuvent apparaître dans une seule vidéo TikTok. Par exemple, quelqu'un peut mettre du vrai son sur une image ou une vidéo qui a été manipulée.

    Dans ce cas, les plateformes devront trouver un moyen d'indiquer qu'une partie, mais pas la totalité, du clip a été générée par l'IA. De plus, le simple fait d'étiqueter un contenu comme étant généré par l'IA n'aide pas beaucoup les utilisateurs à déterminer si un contenu est malveillant, trompeur ou destiné à divertir. « Parfois, les médias manipulés ne sont pas fondamentalement mauvais si vous faites des vidéos TikTok et qu'elles sont destinées à être amusantes et divertissantes », affirme Hany Farid, professeur à l'école d'information de l'université de Berkeley, qui a travaillé avec l'éditeur de logiciels Adobe sur son initiative d'authenticité des contenus.

    Les modèles d'IA auraient introduit une nouvelle forme de manipulation des médias

    La place grandissante de l'IA dans la conscience du public a permis une autre forme de manipulation des médias. Tout comme les utilisateurs peuvent supposer que le contenu généré par l'IA est réel, l'existence même du contenu synthétique peut semer le doute sur l'authenticité d'une vidéo, d'une image ou d'un texte. Cela permet à un acteur malveillant de prétendre qu'un contenu authentique est faux, ce que l'on appelle "le dividende du menteur". Selon Gregory, Witness a constaté que de plus en plus de deepfakes ne sont plus utilisés pour désinformer, mais plutôt pour tenter de faire passer des médias réels pour des contenus générés par l'IA.

    L'année dernière, un législateur de l'État du Tamil Nadu, en Inde, a prétendu qu'une fuite d'un enregistrement audio dans lequel il accusait son parti d'avoir volé plus de 3 milliards de dollars avait été générée par une IA, mais ce n'était pas le cas. En 2021, dans les semaines qui ont suivi le coup d'État militaire au Myanmar, la vidéo d'une femme faisant un exercice de danse tandis qu'un convoi militaire roulait derrière elle est devenue virale. De nombreux internautes ont prétendu que la vidéo avait été truquée, mais ce n'était pas le cas. Cette nouvelle forme de manipulation brouille davantage la frontière entre ce qui est réel et ce qui ne l'est pas.

    À l'heure actuelle, rien n'empêche un acteur malveillant d'apposer un filigrane sur un contenu réel pour le faire passer pour un faux. Selon le professeur Farid, l'un des meilleurs moyens de se prémunir contre la falsification ou la corruption des filigranes est d'utiliser des signatures cryptographiques. « Si vous êtes OpenAI, vous devez avoir une clé cryptographique. Le filigrane contiendra des informations qui ne peuvent être connues que de la personne qui détient la clé », explique le professeur. Il a ajouté que d'autres formes de filigranes peuvent se trouver au niveau du pixel ou même dans les données d'entraînement à partir desquelles l'IA apprend.

    « Nous entrons dans une ère où il est de plus en plus difficile de croire tout ce que nous lisons, voyons ou entendons en ligne. Et cela signifie non seulement que nous allons être trompés par des choses qui ne sont pas réelles, mais également que nous n'allons pas croire les choses réelles. Si la cassette d'Access Hollywood de Trump était publiée aujourd'hui, il aurait un déni plausible », explique le professeur Farid. Selon les bruits de couloir, la Maison Blanche envisagerait de mettre en œuvre son initiative avec l'aide du groupe à l'origine du protocole Internet open source connu sous le nom de "Coalition for Content Provenance and Authenticity" (C2PA).

    La C2PA se concentre sur l'authentification des contenus par le biais d'un protocole appelé Content Credentials, bien que le groupe affirme que sa technologie peut être couplée au filigrane. Il s'agit d'un protocole open source qui s'appuie sur la cryptographie pour encoder des détails sur l'origine d'un élément de contenu. Cela signifie, par exemple, qu'une image est marquée par des informations provenant de l'appareil dont elle est issue, par tout outil d'édition (comme Photoshop) et, enfin, par la plateforme de médias sociaux sur laquelle elle est téléversée. Au fil du temps, ces informations créent une sorte d'historique, qui est enregistré.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'introduction d'une norme mondiale en matière de filigrane pour l'IA générative ?
    Selon vous, cette solution pourra-t-elle empêcher l'utilisation de l'IA générative à mauvais escient ? Pourquoi ?
    Selon vous, comment peut-on faciliter la détection des contenus générés par l'IA ? Que proposez-vous ?

    Voir aussi

    Le modèle d'IA de génération d'images Midjourney suspend les essais gratuits après que les deepfakes sont devenus viraux, mais la société impute ce choix à la création excessive de comptes jetables

    2023, l'année de l'IA ? L'année a été marquée par l'émergence de l'IA générative, une explosion des investissements dans le domaine et l'accélération dans les législations

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    971
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 971
    Points : 17 243
    Points
    17 243
    Par défaut Les législateurs californiens veulent exiger que les contenus créés par l'IA soient marqués d'un filigrane
    Les législateurs californiens envisagent d'exiger que les photos et vidéos créées par l'IA soient marquées d'un filigrane
    mais les projets de loi proposés sont contestés par les entreprises d'IA

    Des législateurs californiens cherchent à forcer les entreprises d'IA à prendre des mesures pour faciliter la distinction des contenus générés par l'IA par rapport aux contenus générés par les humains. En effet, un certain nombre de projets de loi, élaborés par différents législateurs, visent à exiger l'apposition d'un filigrane sur les contenus créés par l'IA. Ils envisagent ainsi de mettre un terme aux abus de cette technologie émergente qui a affecté des secteurs allant des courses politiques au marché boursier. Les experts semblent toutefois divisés sur la question, puisque certains sont sceptiques quant à l'efficacité de cette solution.

    L'IA a désormais le potentiel de rendre les deepfakes plus sophistiqués que jamais, suscitant de nombreuses préoccupations. D'après les experts, cela représente une menace pour les élections, les marchés boursiers, la démocratie, la vie privée, et bien d'autres encore. Par exemple, aux États-Unis, l'on est préoccupé par les impacts que l'IA pourrait avoir sur les élections présidentielles de novembre 2024. De nombreux produits d'IA permettent aujourd'hui de générer des vidéos, des images et des contenus audios hyperréalistes pouvant convaincre facilement l'électorat et ainsi de faire pencher les votes dans un sens donné.

    En Californie, pour lutter contre les abus de cette technologie, certains législateurs envisageraient d'obliger les entreprises d'IA à mettre en place un système de filigrane pour leurs produits d'IA générative. L'initiative vise à permettre aux citoyens de reconnaître facilement les contenus qui ont été générés par l'IA et d'éviter ainsi les manipulations de masse observées par le passé. Selon Drew Liebert, directeur de l'Initiative californienne pour la technologie et la démocratie, au cours d'une année électorale cruciale et dans un monde en ligne rempli de désinformation, la capacité de distinguer le réel du faux est très cruciale.


    En mai de l'année dernière, une photo générée par l'IA devenue virale a eu des conséquences désastreuses sur la bourse aux États-Unis. La photo présentait faussement une attaque terroriste contre les États-Unis, notamment le Pentagone. « La célèbre photo diffusée sur Internet, qui prétendait que le Pentagone avait été attaqué, a provoqué une perte momentanée de 500 milliards de dollars sur le marché boursier. Cette perte n'aurait pas été aussi importante si les gens avaient pu déterminer instantanément que l'image n'était pas du tout réelle », a déclaré Liebert. Mais plusieurs idées semblent être en concurrence.

    La députée Akilah Weber (D) a été l'une des premières à se pencher sur la question, déclarant qu'elle souhaitait exiger une norme industrielle pour les contenus générés par l'IA. Cette référence pourrait faire référence à la norme C2PA, adoptée par des sociétés telles que Microsoft et Adobe. Pour faire court, la norme C2PA lie les informations de provenance, c'est-à-dire le processus de création et d'adaptation du contenu numérique, à un élément de média tout au long de son parcours d'édition. Le bureau de Weber a déclaré qu'il ne pouvait pas confirmer les détails du projet de loi, qui est encore en cours d'élaboration.

    De son côté, le sénateur Josh Becker (D) a élaboré un projet de loi qui obligerait les grands fournisseurs de produits d'IA à apposer un filigrane sur les images, les vidéos et les audios créés par leurs modèles d'IA. Sa proposition va plus loin que les filigranes en exigeant des entreprises qu'elles mettent en place une plateforme permettant à quiconque de vérifier si un contenu a été créé par leurs modèles d'IA. Selon Tom Kemp, un défenseur de la vie privée qui travaille avec Becker sur cette mesure, l'objectif de cette plateforme de vérification est de tenir compte du fait que les filigranes peuvent être falsifiés ou supprimés.

    La plateforme peut également vérifier si un texte écrit est généré par l'IA, car le texte est difficile à filigraner. En fin de compte, elle permettra de prouver que les travaux réalisés par des êtres humains sont bien des travaux réalisés par des êtres humains. « Des étudiants vont être accusés à tort d'avoir rendu des devoirs qu'ils ont faits », a déclaré Kemp, qui a ajouté qu'un ami de la famille avait connu un tel scénario. « Certaines entreprises affirment qu'elles peuvent de détecter un contenu généré par l'IA, mais elles n'en ont aucune certitude. Pour moi, pourquoi ne pas demander directement à ChatGPT ? », note-t-il.

    En outre, Liebert a indiqué que son organisation travaillait avec Buffy Wicks (D), membre de l'Assemblée, sur une proposition qui obligerait également les entreprises à intégrer des données de provenance pour les contenus générés par l'IA. Cette mesure s'inspirerait en partie de la future loi sur l'IA de l'Union européenne (UE), qui, tel qu'elle est rédigée, exigera l'étiquetage des "deepfakes" et la communication d'informations aux consommateurs. La loi de l'UE exige également la conception de systèmes permettant de détecter facilement les médias générés par l'IA dans un "format lisible par une machine".

    Par ailleurs, le député Evan Low (D) a promis de légiférer sur les filigranes d'IA. Le député Avelino Valencia (D) a déposé un projet de loi préliminaire (A.B. 1824) qui exigerait la divulgation des contenus générés par l'IA. Ces mesures législatives viseraient les produits d'IA populaires, tels que ChatGPT, qui appartient à OpenAI, basé à San Francisco. Toutefois, les mesures préliminaires ne s'attaquent pas au problème urgent dans lequel des individus malhonnêtes peuvent utiliser des modèles d'IA open source ou librement accessibles pour créer des deepfakes ou d'autres contenus sans aucune mesure de protection.

    « Je ne dis pas qu'il s'agit d'une panacée, mais je pense que nous y travaillons tous. Au niveau le plus élémentaire, nous devrions être en mesure de dire que quelque chose a été créé par l'IA », a déclaré Becker. Les législateurs n'ont pas finalisé la formulation des projets de loi, i, bien que certains d'entre eux et les groupes d'intérêt qui suivent le sujet aient partagé certains détails. Ils ont déclaré que les approches concurrentes devraient probablement être résolues plus tard dans le processus législatif. Mais ces projets de loi pourraient se heurter à une opposition farouche de la part des entreprises technologiques.

    L'un des principaux obstacles sera l'application de la loi, dont les détails sont encore en suspens. Selon Liebert, ce sera un défi, en particulier en ce qui concerne le droit fédéral. « L'UE n'a pas de premier amendement. Elle n'a donc pas à se préoccuper des contraintes de la liberté d'expression à cet égard. Nous avons le premier amendement et nous avons aussi des limitations en matière d'application de la loi, ce qui n'est pas le cas de l'UE », a déclaré Liebert. Les défenseurs des projets visant à intégrer des garde-fous dans les modèles d'IA espèrent que l'industrie technologique sera prête à accepter un compromis.

    Certaines entreprises ont adopté des normes de filigrane et se sont engagées volontairement auprès de la Maison Blanche. Les entreprises d'IA reconnaissent que la question de la vérification est importante, mais elles mettent en garde contre une réglementation excessive. « Il est essentiel d'accroître la sensibilisation et la confiance dans le contenu généré par l'IA, mais des mandats gouvernementaux trop restrictifs peuvent avoir des conséquences involontaires et compromettre l'objectif de transparence », a déclaré Dylan Hoffman, directeur exécutif de la Californie pour TechNet, qui a été rejoint par OpenAI et ScaleAI.

    Todd O'Boyle, directeur principal de la politique technologique de Chamber of Progress, une coalition de l'industrie technologique, a affirmé qu'à mesure que l'IA devient plus répandue dans la vie quotidienne, les législateurs devraient faire preuve de discernement dans la rédaction de leurs règles. « Un filigrane sur tout ce qui est touché par l'IA n'aurait pas de sens. Il est important de s'attaquer à des problèmes tels que la désinformation électorale, mais pour éviter de censurer des discours non liés, la législation devrait être très ciblée et faire peser la charge de la conformité sur les créateurs de contenu eux-mêmes », a-t-il déclaré.

    Enfin, il est important de souligner que certains groupes de personnes et autorités gouvernementales proposent d'élaborer une norme mondiale de filigrane pour étiqueter les contenus générés par l'IA. Mais les experts sont sceptiques quant à l'efficacité de cette initiative et affirment que la mise en place d'une norme mondiale de filigrane pourrait s'avérer complexe pour des résultats mitigés. Selon eux, les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'IA.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

    Google intègre des filigranes inaudibles appelés SynthID dans sa musique générée par l'IA, la protection contre les contrefaçons ne devrait pas compromettre la vie privée des utilisateurs

    Les chercheurs affirment que les filigranes actuels de l'IA sont faciles à supprimer, Microsoft a ajouté des filigranes dans Bing Image Creator et Google a conçu SynthID

  11. #11
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    971
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 971
    Points : 17 243
    Points
    17 243
    Par défaut Meta va commencer à étiqueter les images générées par les modèles d'IA des entreprises comme OpenAI et Google
    Meta va commencer à étiqueter les images générées par les modèles d'IA des entreprises comme OpenAI et Google
    et appelle à l'adoption de normes visant à étiqueter le matériel généré par l'IA

    Meta veut faciliter la distinction des contenus générés par l'IA des contenus créés par un humain. Le leader mondial des réseaux sociaux a annoncé qu'il commencera par filigraner les photos générées par l'IA et téléversées sur Facebook, Instagram et Threads au cours des prochains mois. En outre, il commencera également à sanctionner les utilisateurs qui ne révèlent pas si une vidéo réaliste ou un morceau de musique a été créé par l'IA. Meta a annoncé que l'initiative vise à prévenir les abus des modèles d'IA générative et préserver l'intégrité des élections et la démocratie. L'entreprise appelle l'industrie à suivre la même voie et à élaborer des normes en la matière.

    Meta a annoncé qu'il travaille sur un moyen de mieux détecter et identifier les images générées par l'IA sur ses plateformes de médias sociaux Facebook, Instagram et Threads. La technologie de détection de Meta informera les utilisateurs lorsqu'une image qu'ils voient dans leur fil d'actualité a été générée à l'aide de l'IA. La fonctionnalité concernait dans un premier les modèles d'IA de Meta, mais Nick Clegg, le président des affaires mondiales de Meta, a déclaré lors d'une récente interview qu'elle sera étendue aux images générées par les produits d'IA des concurrents tels qu'Adobe, Google, Midjourney, et bien d'autres.

    L'annonce donne un premier aperçu d'un système émergent de normes que les entreprises technologiques sont en train de mettre au point pour atténuer les dommages potentiels associés aux outils d'IA générative, qui peuvent produire un contenu faux, mais d'apparence réaliste en réponse à de simples invites. L'approche de Meta s'inspire d'un modèle établi au cours de la dernière décennie par certaines de ces mêmes entreprises pour coordonner le retrait de contenus "interdits" ou jugés illégaux sur les plateformes en ligne, notamment les contenus violents et explicites, le matériel d'abus sexuel d'enfants (CSAM), etc.


    Meta applique déjà un filigrane "Imaginé avec l'IA" aux images créées avec son propre générateur Imagine AI, et la société commencera à faire de même pour les photos générées par l'IA avec des produits de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Clegg a déclaré qu'il est convaincu que les entreprises peuvent à ce stade étiqueter de manière fiable les images générées par l'IA, mais il a ajouté que les outils permettant de marquer les contenus audio et vidéo étaient plus compliqués et encore en cours de développement. Il a déclaré que Meta et toute l'industrie sont très en retard dans ce domaine.

    « Même si la technologie n'est pas encore tout à fait au point, en particulier en ce qui concerne l'audio et la vidéo, nous espérons pouvoir créer une dynamique et inciter le reste de l'industrie à suivre », a déclaré Clegg. D'après lui, bien que Meta soit très vigilant quant à la manière dont ces médias peuvent être utilisés pour tromper, l'entreprise ne sera pas en mesure de tout détecter par ses propres moyens. Clegg a ajouté que Meta va commencer à exiger des utilisateurs qu'ils étiquettent leurs propres contenus audio et vidéo modifiés et appliquera des sanctions s'ils ne le font pas. Il n'a toutefois pas décrit les sanctions.

    Clegg a également souligné que même si Meta sera en mesure d'identifier les images générées par l'IA, il existe toujours des moyens de manipuler ou de supprimer ces marqueurs. Pour éviter cela, la division FAIR (Fundamental AI Research) de Meta travaille sur un moyen d'implanter un filigrane dans une image pendant qu'elle est générée, de manière à ce qu'il ne puisse pas être supprimé. Toutefois, de nombreux experts sont sceptiques quant à l'efficacité de cette initiative et affirment que la mise en place d'une norme mondiale de filigrane pourrait s'avérer complexe et couteuse, avec des résultats peu satisfaisants.

    Selon les critiques, les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'IA. « Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. La situation est encore plus complexe lorsque le contenu est mixte, c'est-à-dire qu'il est composé d'éléments audio, visuels et textuels.

    En ce qui concerne l'audio et la vidéo, Clegg note : « alors que les entreprises commencent à inclure des signaux dans leurs générateurs d'images, elles n'ont pas commencé à les inclure dans les outils d'IA qui génèrent de l'audio et de la vidéo à la même échelle, de sorte que nous ne pouvons pas encore détecter ces signaux et étiqueter ce contenu provenant d'autres entreprises ». Des contenus audio et vidéo générés par l'IA ont déjà été utilisés pour diffuser de la désinformation. En 2022, une fausse vidéo d'un faux président ukrainien, Volodymyr Zelenskyy, demandant à ses troupes de se rendre est devenue virale.

    Et en janvier, un enregistrement audio d'un faux président Biden disant aux électeurs de ne pas participer aux primaires présidentielles a été diffusé dans le New Hampshire. D'après les experts, les images générées par l'IA pourraient créer un tsunami de désinformation à l'approche des élections. Lorsque l'ancien président américain Donald Trump a été arrêté à New York en 2023, des images de ce qui semblait être sa fuite devant la police ont commencé à se répandre sur le Web. Des images montrant le président français Emmanuel Macron en train de ramasser des ordures dans les rues de Paris sont aussi devenues virales.

    Une image montrant une explosion du Pentagone a fait le tour d'Internet l'année dernière. L'image avait brièvement fait chuter les actions à New York, avant que les autorités ne déclarent qu'elle n'était pas réelle. Clegg a déclaré que Meta collabore avec différentes entités, dont le Partenariat sur l'IA (une organisation à but non lucratif composée d'universitaires, de professionnels de la société civile et d'organisations médiatiques dont l'objectif est de veiller à ce que l'IA ait des résultats positifs pour les personnes et la société) afin d'élaborer des normes pouvant être utilisées pour identifier les images d'IA sur l'ensemble du Web.

    « Pour ceux qui s'inquiètent de voir des contenus vidéo ou audio conçus pour tromper matériellement le public sur une question d'importance politique à l'approche des élections, nous serons très vigilants. Est-ce que je pense qu'il y a une possibilité que quelque chose se produise où, même si c'est rapidement détecté ou rapidement étiqueté, on nous accuse d'une manière ou d'une autre d'avoir failli à la tâche ? Oui, je pense que c'est possible, voire probable », a déclaré Clegg. Adobe a récemment lancé le système Content Credentials qui intègre des informations sur l'origine du contenu dans les métadonnées des images.

    Google a étendu son filigrane SynthID aux fichiers audio après l'avoir lancé en version bêta pour les images. Le déluge d'images explicites de Taylor Swift générées par l'IA, qui a circulé sur des sites de médias sociaux tels que X, illustre la facilité avec laquelle ce type de contenu peut se propager en un rien de temps sur de vastes pans d'Internet. La solution de Meta n'est qu'un outil parmi d'autres pour lutter contre la nouvelle génération d'infox. Mais le succès de l'outil suscite beaucoup de scepticisme. De son côté, Clegg croit au succès de l'initiative, mais invite l'ensemble de l'industrie à s'engager sur la même voie.

    Par ailleurs, Clegg a déclaré qu'il n'existait actuellement aucun mécanisme viable pour étiqueter le texte écrit généré par des outils d'IA comme ChatGPT. « Ce bateau a coulé », a-t-il noté. Un porte-parole de Meta a refusé de dire si l'entreprise appliquerait des étiquettes aux contenus générés par l'IA et partagés sur son service de messagerie chiffrée WhatsApp. Lundi, le conseil de surveillance indépendant de Meta a vivement critiqué la politique de l'entreprise en matière de deepfake (ou vidéos trompeuses), estimant qu'elle était trop restrictive et que le contenu devait être étiqueté plutôt que supprimé.

    Clegg a déclaré qu'il était globalement d'accord avec ces critiques. Le conseil avait raison de dire que "la politique actuelle de Meta n'est tout simplement pas adaptée à un environnement où il y aura beaucoup plus de contenu synthétique et de contenu hybride qu'auparavant". Il a cité le nouveau partenariat en matière d'étiquetage comme preuve que le Meta s'orientait déjà dans la direction proposée par le conseil d'administration.

    Source : Meta

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'initiative de Meta qui vise à étiqueter les photos générées par l'IA ?
    L'approche de Meta sera-t-elle un succès ? Sera-t-elle d'une quelconque aide aux utilisateurs ?
    Selon vous, pourquoi l'industrie a du mal à étiqueter les contenus textuels et visuels générés par l'IA ?

    Voir aussi

    Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

    Les législateurs californiens envisagent d'exiger que les photos et vidéos créées par l'IA soient marquées d'un filigrane, mais les projets de loi proposés sont contestés par les entreprises d'IA

    Google intègre des filigranes inaudibles appelés SynthID dans sa musique générée par l'IA, la protection contre les contrefaçons ne devrait pas compromettre la vie privée des utilisateurs

  12. #12
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 739
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 739
    Points : 121 332
    Points
    121 332
    Par défaut OpenAI ajoutera bientôt des filigranes aux images générées par DALL-E 3
    OpenAI ajoutera bientôt des filigranes aux images générées par DALL-E 3, l'adoption des normes C2PA est essentielle pour accroître la fiabilité des informations numériques, selon OpenAI.

    Le géant de la technologie OpenAI a confirmé qu'il s'apprêtait à ajouter des filigranes aux images générées par sa technologie DALL-E 3. Cette nouvelle intervient alors que de plus en plus d'entreprises technologiques soutiennent une longue série de normes issues de la C2PA.

    La société a indiqué que les filigranes apparaîtraient à côté des photos prises sur le site Web ChatGPT. Pendant ce temps, l'API du modèle se prépare à effectuer les changements en ce moment même. Cela signifie que tous les utilisateurs mobiles auront accès aux filigranes d'ici la mi-février. Ils comprendront des métadonnées invisibles ainsi qu'un symbole CR visible qui apparaîtra sur le côté gauche de chaque photo.

    Les utilisateurs peuvent même aller jusqu'à vérifier quels outils ont été utilisés pour mettre le contenu en ligne via les plateformes de l'entreprise en consultant divers sites web tels que Content Credentials Verify. Il est toutefois confirmé que seules les images sont concernées, et non les textes ou les vidéos, pour ce qui est de l'ajout de filigranes.

    Si vous vous demandez pourquoi il y a un filigrane, c'est pour s'assurer que l'impact sur la qualité de l'image est négligeable. Cela permettrait également d'agrandir les images pour quelques tâches en cours de route.


    La C2PA, qui regroupe des entreprises telles que Microsoft et Adobe, encourage l'utilisation de filigranes depuis plusieurs jours. Elles espèrent que cela aidera le spectateur à identifier le contenu généré par l'homme et celui qui a été créé à l'aide de la technologie de l'IA.

    Mais si vous pensez que le filigrane est le seul moyen de mettre fin à la désinformation, ce n'est pas le cas. Aujourd'hui, de nombreuses applications de pointe suppriment les métadonnées des contenus téléchargés en ligne.

    L'entreprise affirme que l'adoption de telles mesures et la reconnaissance de la nécessité de tels changements constituent une étape clé pour garantir que les informations numériques sont correctes et dignes de confiance.

    Qu'est-ce que la norme C2PA et que permet-elle ?

    La norme C2PA est une norme technique ouverte qui permet aux éditeurs, aux entreprises et à d'autres acteurs d'intégrer des métadonnées dans les médias afin de vérifier leur origine et les informations qui s'y rapportent. La norme C2PA n'est pas seulement destinée aux images générées par l'IA : elle est également adoptée par les fabricants d'appareils photo, les organismes de presse et d'autres acteurs pour certifier la source et l'historique (ou la provenance) du contenu des médias.

    Quelle est la mise en œuvre de C2PA par OpenAI ?

    Les images générées avec ChatGPT sur le web et l'API servant le modèle DALL-E 3, incluront désormais les métadonnées C2PA. Ce changement sera également appliqué à tous les utilisateurs mobiles d'ici le 12 février. Les utilisateurs peuvent utiliser des sites tels que Content Credentials Verify pour vérifier si une image a été générée par le modèle DALL-E 3 sous-jacent à l'aide des outils d'OpenAI. Cela devrait indiquer que l'image a été générée par notre API ou ChatGPT, à moins que les métadonnées n'aient été supprimées.

    Les métadonnées telles que C2PA ne sont pas une solution miracle pour résoudre les problèmes de provenance. Elles peuvent facilement être supprimées, accidentellement ou intentionnellement. Par exemple, la plupart des plateformes de médias sociaux suppriment aujourd'hui les métadonnées des images téléchargées, et des actions telles qu'une capture d'écran peuvent également les supprimer. Par conséquent, une image dépourvue de ces métadonnées peut ou non avoir été générée avec ChatGPT ou l'API.

    OpenAI pense que l'adoption de ces méthodes d'établissement de la provenance et l'encouragement des utilisateurs à reconnaître ces signaux sont essentiels pour accroître la fiabilité des informations numériques.

    Le texte ou la voix générés par ChatGPT ou l'API d'OpenAI contiennent-ils des métadonnées C2PA ?

    Actuellement, seules les images générées par ChatGPT ou l'API pour le modèle DALL-E 3 contiennent des métadonnées C2PA.

    Quel est l'impact de la C2PA sur la taille des fichiers ?

    Vous trouverez ci-dessous quelques exemples illustrant la manière dont la taille des images peut changer avec l'ajout de ces données :

    • 3,1 Mo → 3,2 Mo pour le PNG via l'API (augmentation de 3 %)
    • 287k → 302k pour WebP via API (5% d'augmentation)
    • 287k → 381k pour WebP via ChatGPT (32% d'augmentation)


    Cela devrait avoir un effet négligeable sur la latence et n'affectera pas la qualité de la génération d'images.

    Quelles métadonnées seront intégrées dans les images générées ?

    Vous pouvez voir des exemples ci-dessous :

    Images générées via l'API

    Les images produites via l'API contiendront une signature indiquant qu'elles ont été générées par le modèle DALL-E 3 sous-jacent.

    Nom : 1.png
Affichages : 5909
Taille : 654,7 Ko

    Images générées via ChatGPT

    Les images produites par ChatGPT contiendront un manifeste supplémentaire indiquant que le contenu a été créé à l'aide de ChatGPT. Cela crée une lignée à double origine, comme indiqué ci-dessous.

    Partie 1 (Deuxième manifeste de métadonnées signalant que l'image a fait surface dans ChatGPT)

    Nom : 3.png
Affichages : 1215
Taille : 856,3 Ko

    Partie 2 (manifeste initial de métadonnées signalant que l'image a été créée à l'aide de DALL-E 3)

    Nom : 2.png
Affichages : 1217
Taille : 752,5 Ko

    Source : OpenAI

    Et vous ?

    Pensez-vous que cette initiative est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    DALL-E 3 est maintenant disponible dans ChatGPT Plus et Enterprise, permettant aux abonnés payants de ChatGPT d'utiliser le générateur d'images

    Les législateurs californiens envisagent d'exiger que les photos et vidéos créées par l'IA soient marquées d'un filigrane, mais les projets de loi proposés sont contestés par les entreprises d'IA

    Les contenus générés par l'IA générative devraient être étiquetés, afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova

  13. #13
    Membre éclairé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    230
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 230
    Points : 780
    Points
    780
    Par défaut
    Et si on fait une capture d'écran de la photo, ça supprime ou conserve ces métadonnées?

  14. #14
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 299
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 299
    Points : 21 385
    Points
    21 385
    Par défaut OpenAI lance un outil capable de détecter les images créées par son générateur texte-image DALL-E 3
    OpenAI lance un outil capable de détecter les images créées par son générateur texte-image DALL-E 3, afin de répondre aux inquiétudes concernant l'influence des contenus générés par l'IA lors des élections

    OpenAI lance un outil capable de détecter les images créées par son générateur de texte à image DALL-E 3, a déclaré le mardi 7 mai la startup soutenue par Microsoft, alors que l'on s'inquiète de plus en plus de l'influence du contenu généré par l'IA dans les élections mondiales de cette année.

    La société a déclaré que l'outil identifiait correctement les images créées par DALL-E 3 dans environ 98 % des cas lors de tests internes et qu'il pouvait gérer des modifications courantes telles que la compression, le recadrage et les changements de saturation avec un impact minimal.


    Le créateur de ChatGPT prévoit également d'ajouter un filigrane inviolable pour marquer les contenus numériques tels que les photos ou les fichiers audio à l'aide d'un signal qui devrait être difficile à supprimer.

    Dans le cadre de ses efforts, OpenAI a également rejoint un groupe industriel comprenant Google, Microsoft et Adobe et prévoit de fournir une norme qui aiderait à retracer l'origine des différents médias.

    En avril, pendant les élections générales en cours en Inde, de fausses vidéos de deux acteurs de Bollywood critiquant le premier ministre Narendra Modi sont devenues virales en ligne.

    Les contenus générés par l'IA et les « deepfakes » sont de plus en plus utilisés en Inde et lors d'élections ailleurs dans le monde, notamment aux États-Unis, au Pakistan et en Indonésie.

    OpenAI a déclaré qu'elle se joignait à Microsoft pour lancer un fonds de « résilience sociétale » de 2 millions de dollars afin de soutenir l'éducation à l'IA.

    L'annonce par OpenAI des outils de détection des contenus générés par sa technologie est présentée ci-dessous :

    Comprendre la source de ce que nous voyons et entendons en ligne

    OpenAI introduit de nouveaux outils pour aider les chercheurs à étudier l'authenticité des contenus et rejoint le comité directeur de la Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité des contenus).

    Partout dans le monde, les gens adoptent l'IA générative pour créer et éditer des images, des vidéos et du son de manière à stimuler la créativité, la productivité et l'apprentissage. Le contenu audiovisuel généré devenant de plus en plus courant, OpenAI pense qu'il sera de plus en plus important pour la société dans son ensemble d'adopter de nouvelles technologies et normes qui aideront les gens à comprendre les outils utilisés pour créer le contenu qu'ils trouvent en ligne.

    OpenAI relève ce défi de deux manières : premièrement, en s'associant à d'autres pour adopter, développer et promouvoir une norme ouverte qui peut aider les gens à vérifier les outils utilisés pour créer ou éditer de nombreux types de contenu numérique, et deuxièmement, en créant une nouvelle technologie qui aide spécifiquement les gens à identifier le contenu créé par nos propres outils.

    Contribuer aux normes d'authenticité

    Le monde a besoin de moyens communs pour partager des informations sur la façon dont le contenu numérique a été créé. Les normes peuvent aider à clarifier la façon dont le contenu a été créé et à fournir d'autres informations sur ses origines d'une manière facile à reconnaître dans de nombreuses situations - que ce contenu soit la sortie brute d'un appareil photo ou une création artistique d'un outil tel que DALL-E 3.

    Aujourd'hui, OpenAI rejoint le comité directeur de la C2PA, la Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité des contenus). La C2PA est une norme largement utilisée pour la certification des contenus numériques, développée et adoptée par un large éventail d'acteurs, dont des éditeurs de logiciels, des fabricants de caméras et des plateformes en ligne. La C2PA peut être utilisée pour prouver que le contenu provient d'une source particulière. OpenAI se réjouit de pouvoir contribuer au développement de cette norme, qu'elle considère comme un aspect important de son approche.

    Au début de cette année, OpenAI a commencé à ajouter des métadonnées C2PA à toutes les images créées et éditées par DALL-E 3, son dernier modèle d'image, dans ChatGPT et l'API OpenAI. Elle intégrera les métadonnées C2PA pour Sora, son modèle de génération de vidéos, lorsque ce dernier sera lancé à grande échelle.

    Nom : orig_cat_c2pa_interface_1.png
Affichages : 3770
Taille : 144,1 Ko

    Il est toujours possible de créer des contenus trompeurs sans ces informations (ou de les supprimer), mais il n'est pas facile de les falsifier ou de les modifier, ce qui en fait une ressource importante pour instaurer la confiance. Au fur et à mesure de l'adoption de la norme, ces informations peuvent accompagner le contenu tout au long de son cycle de vie, qu'il s'agisse du partage, de la modification ou de la réutilisation. Au fil du temps, OpenAI pense que ce type de métadonnées sera attendu par les utilisateurs et comblera une lacune cruciale dans les pratiques d'authentification des contenus numériques.

    Pour favoriser l'adoption et la compréhension des normes de provenance, y compris la C2PA, OpenAI s'associe à Microsoft pour lancer un fonds de résilience sociétale. Ce fonds de 2 millions de dollars soutiendra l'éducation et la compréhension de l'IA, notamment par l'intermédiaire d'organisations telles que Older Adults Technology Services de l'AARP, International IDEA et Partnership on AI.

    Ce qu'OpenAI est en train de construire : de nouveaux outils pour identifier le contenu créé par ses services

    Outre ses investissements dans la C2PA, OpenAI développe également de nouvelles méthodes de provenance afin d'améliorer l'intégrité des contenus numériques. Il s'agit notamment de mettre en œuvre un filigrane infalsifiable - marquant le contenu numérique tel que l'audio avec un signal invisible qui vise à être difficile à supprimer - ainsi que des classificateurs de détection - des outils qui utilisent l'intelligence artificielle pour évaluer la probabilité qu'un contenu provienne de modèles génératifs. Ces outils visent à mieux résister aux tentatives de suppression des signaux relatifs à l'origine du contenu.

    Nom : Augmentations.png
Affichages : 691
Taille : 246,2 Ko

    À partir d'aujourd'hui, OpenAI ouvre les demandes d'accès à son classificateur de détection d'images à son premier groupe de testeurs - notamment des laboratoires de recherche et des organisations à but non lucratif de journalisme axées sur la recherche - pour obtenir des commentaires dans le cadre de son programme d'accès pour les chercheurs. Cet outil prédit la probabilité qu'une image ait été générée par DALL-E 3 d'OpenAI. L'objectif est de permettre une recherche indépendante qui évalue l'efficacité du classificateur, analyse son application dans le monde réel, met en évidence les considérations pertinentes pour une telle utilisation et explore les caractéristiques du contenu généré par l'IA.

    Comprendre quand et où un classificateur peut être moins performant est essentiel pour ceux qui prennent des décisions sur la base de ses résultats. Les tests internes effectués sur une première version du classificateur d'OpenAI ont montré une grande précision dans la distinction entre les images non générées par l'IA et celles créées par les produits DALL-E 3. Le classificateur identifie correctement les images générées par DALL-E 3 et ne se déclenche pas pour les images non générées par l'IA. Il a identifié correctement environ 98 % des images DALL-E 3 et moins de 0,5 % des images non générées par l'IA ont été incorrectement étiquetées comme provenant de DALL-E 3. Le classificateur gère les modifications courantes telles que la compression, le recadrage et les changements de saturation avec un impact minimal sur ses performances. D'autres modifications, en revanche, peuvent réduire ses performances. OpenAI a également constaté que les performances du classificateur pour la distinction entre les images générées par DALL-E 3 et d'autres modèles d'IA sont plus faibles et le classificateur marque actuellement ~5-10 % des images générées par d'autres modèles d'IA sur son ensemble de données interne.

    Nom : Augmentations - Copie.png
Affichages : 700
Taille : 186,9 Ko

    En outre, OpenAI a également intégré le filigrane audio dans Voice Engine, son modèle vocal personnalisé, qui fait actuellement l'objet d'une étude préliminaire limitée. Elle s'est engagée à poursuivre ses recherches dans ces domaines afin de s'assurer que ses avancées en matière de technologies audio sont tout aussi transparentes et sûres.

    L'avenir de l'authentification du contenu

    Si les solutions techniques décrites ci-dessus donnent à OpenAI des moyens de défense actifs, la mise en œuvre effective de l'authentification des contenus nécessitera une action collective. Par exemple, les plateformes, les créateurs de contenu et les gestionnaires intermédiaires doivent faciliter la conservation des métadonnées afin d'assurer la transparence de la source du contenu pour le consommateur final.

    Les efforts d'OpenAI en matière de provenance ne sont qu'une partie d'un effort plus large de l'industrie - beaucoup des laboratoires de recherche des pairs et des entreprises d'IA générative font également progresser la recherche dans ce domaine. OpenAI salue ces efforts - le secteur doit collaborer et partager ses connaissances pour améliorer notre compréhension et continuer à promouvoir la transparence en ligne.

    Source : "Understanding the source of what we see and hear online" (OpenAI)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative d'OpenAI crédible ou pertinente ?

    Voir aussi :

    OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024, en s'appuyant sur des programmes de vérification des informations et d'authenticité des images

    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

  15. #15
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 106
    Points : 56 753
    Points
    56 753
    Par défaut Meta étiquette des photos réelles avec l’indication « créé par l’IA », d’après des plaintes de photographes
    Meta étiquette des photos réelles avec l’indication « créé par l’IA », d’après des plaintes de photographes
    Qui ravivent les questionnements autour de l’étiquetage des contenus générés par l’IA

    Au début du mois de février, Meta a annoncé le début de l’étiquetage des photos créées à l'aide d'outils d'IA sur ses réseaux sociaux. Depuis le mois de mai, Meta a régulièrement apposé une étiquette « crée avec l’IA » sur certaines photos dans ses applications Facebook, Instagram et Threads. La manœuvre fait désormais l’objet de plaintes, d’après des rapports selon lesquelles Meta étiquette des photos réelles avec la même indication. Le tableau ravive les questionnements autour de l’étiquetage des contenus générés par l’IA tel que voulu par Meta qui appelle d’ailleurs à l’adoption de normes en la matière.

    Il existe de nombreux exemples de Meta qui associent automatiquement le label à des photos qui n'ont pas été créées par l'IA. Par exemple, cette photo des Kolkata Knight Riders remportant le tournoi de cricket Indian Premier League. Il est à noter que le label n'est visible que sur les applications mobiles et non sur le web.

    De nombreux autres photographes se sont inquiétés du fait que leurs images aient été étiquetées à tort avec le label « crée par l’IA. » Ces derniers estiment que le simple fait d'éditer une photo à l'aide d'un outil ne devrait pas être soumis à ce label.

    L'ancien photographe de la Maison Blanche Pete Souza a déclaré dans un post Instagram qu'une de ses photos avait été étiquetée avec le nouveau label. Des rapports font état de ce que ce dernier a modifié le fonctionnement de son outil de recadrage mais que l'algorithme de Meta a quand même apposé cette étiquette.

    Nom : 0.png
Affichages : 3455
Taille : 318,1 Ko

    Le tableau intervient dans un contexte de débats sur l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

    Certains groupes de personnes et des autorités gouvernementales pensent que l'ajout d'un filigrane aux contenus générés par les systèmes d'IA générative pourrait aider à lutter contre la fraude et la désinformation, notamment pendant les périodes d'élection. La fonctionnalité vise à étiqueter le contenu généré par l'IA afin de permettre aux utilisateurs de le distinguer facilement du contenu créé par l'homme. Mais les experts sont sceptiques quant à l'efficacité de cette initiative et affirment que sa mise en place pourrait s'avérer complexe pour des résultats mitigés. Ce groupe est d’avis que les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'intelligence artificielle.

    Il existe une longue tradition de marquage de documents et d'autres objets pour prouver leur authenticité, indiquer la propriété et lutter contre la contrefaçon. Selon certains experts, le filigrane idéal est celui qui est imperceptible et qui résiste à des manipulations simples telles que le recadrage, le redimensionnement, l'ajustement des couleurs et la conversion des formats numériques. Toutefois, un grand nombre d'entre eux ne considèrent pas les filigranes comme une solution efficace pouvant aider à lutter contre la fraude et la désinformation liées à l'IA. Selon eux, il y aura toujours un moyen de corrompre les filigranes, peu importe leur robustesse.


    En effet, lorsqu'il s'agit de la variété de contenu que l'IA peut générer, et des nombreux modèles qui existent déjà, les choses se compliquent. Pour l'instant, il n'existe aucune norme en matière de filigrane, ce qui signifie que chaque entreprise d'IA utilise une méthode différente. Dall-E, par exemple, utilise un filigrane visible (mais une recherche rapide sur Google permet de trouver des tutoriels sur la manière de le supprimer), tandis que d'autres services utilisent par défaut des métadonnées ou des filigranes au niveau du pixel qui ne sont pas visibles pour les utilisateurs. Si certaines de ces méthodes sont difficiles à annuler, d'autres peuvent l'être facilement.

    « Il ne sera pas possible de dire simplement oui ou non si quelque chose est généré par l'IA ou non, même avec des filigranes. Il y aura des moyens de corrompre les filigranes », a déclaré Sam Gregory, directeur de programme à l'organisation à but non lucratif Witness, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. En outre, l'expert souligne également que les tentatives visant à filigraner les contenus textuels générés par l'IA pourraient s'avérer beaucoup plus difficiles que certains ne le croient. Par exemple, il existe plusieurs moyens de filigraner les textes générés par des chatbots d'IA tels que ChatGPT d'OpenAI.

    Cela est possible en manipulant la manière dont les mots sont distribués, en faisant en sorte qu'un mot ou un ensemble de mots apparaissent plus fréquemment. Ces méthodes seraient détectables par une machine, mais pas nécessairement par un utilisateur humain. Cela signifie que les filigranes doivent être interprétés par une machine, puis signalés à un spectateur ou à un lecteur. La situation est d'autant plus complexe que le contenu est mixte, comme les éléments audio, image, vidéo et texte qui peuvent apparaître dans une seule vidéo TikTok. Par exemple, quelqu'un peut mettre du vrai son sur une image ou une vidéo qui a été manipulée.

    Dans ce cas, les plateformes devront trouver un moyen d'indiquer qu'une partie, mais pas la totalité, du clip a été générée par l'IA. De plus, le simple fait d'étiqueter un contenu comme étant généré par l'IA n'aide pas beaucoup les utilisateurs à déterminer si un contenu est malveillant, trompeur ou destiné à divertir. « Parfois, les médias manipulés ne sont pas fondamentalement mauvais si vous faites des vidéos TikTok et qu'elles sont destinées à être amusantes et divertissantes », affirme Hany Farid, professeur à l'école d'information de l'université de Berkeley, qui a travaillé avec l'éditeur de logiciels Adobe sur son initiative d'authenticité des contenus.

    Et vous ?

    Que pensez-vous de la pose des étiquettes comme moyen de lutter contre la désinformation amplifiée par la mise à contribution de l’intelligence artificielle ?
    Quelles solutions techniques vous semblent les plus efficaces en la matière ?

    Voir aussi :

    Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

    Les législateurs californiens envisagent d'exiger que les photos et vidéos créées par l'IA soient marquées d'un filigrane, mais les projets de loi proposés sont contestés par les entreprises d'IA

    Google intègre des filigranes inaudibles appelés SynthID dans sa musique générée par l'IA, la protection contre les contrefaçons ne devrait pas compromettre la vie privée des utilisateurs

  16. #16
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 739
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 739
    Points : 121 332
    Points
    121 332
    Par défaut OpenAI permet désormais aux utilisateurs gratuits de ChatGPT d'accéder à DALL-E 3
    OpenAI permet désormais aux utilisateurs gratuits de ChatGPT d'accéder à DALL-E 3, un modèle d'IA texte-image avancé, les utilisateurs peuvent générer jusqu'à deux images par jour via DALL-E 3.

    OpenAI permet désormais aux utilisateurs gratuits de ChatGPT d'accéder à DALL-E 3. Cette fonctionnalité est partiellement disponible sur le plan gratuit, auparavant réservé aux utilisateurs Plus. Les utilisateurs peuvent générer jusqu'à deux images d'IA par jour grâce au modèle DALL-E 3. OpenAI teste également un outil permettant d'identifier les images générées par l'IA.

    En Septembre 2023, OpenAI a lancé DALL-E 3, la dernière version de son outil de conversion de texte en image, qui est conçu pour fonctionner avec ChatGPT. DALL-E 3 était seulement disponible pour les clients ChatGPT Plus et Enterprise. DALL-E 3 pouvait convertir des demandes complexes en images très détaillées et exactes. Le programme comprenait également des filtres et des contrôles supplémentaires pour limiter la création de contenus violents, pornographiques ou haineux.

    Désormais, OpenAI permet aux utilisateurs gratuits de ChatGPT d'accéder à DALL-E 3. Les utilisateurs de ChatGPT peuvent générer jusqu'à deux images d'IA par jour grâce au modèle DALL-E 3 d'OpenAI. L'entreprise a annoncé l'intégration sur les réseaux sociaux et a expliqué que le générateur d'images serait partiellement disponible sur le plan gratuit.

    "Il suffit de demander à ChatGPT de créer une image pour un jeu de diapositives, de personnaliser une carte pour un ami ou de vous montrer à quoi ressemble quelque chose", écrit l'équipe de la start-up en partageant la nouvelle sur X (anciennement Twitter).

    DALL-E 3 est un modèle avancé de conversion de texte en image qui a été intégré à ChatGPT pour les clients Plus et Enterprise en octobre 2023. Il fonctionne de la même manière que si vous demandiez des informations verbales au chatbot, puisqu'il vous suffit de saisir un message pour générer une image. Lorsque l'idée est envoyée à l'outil, ChatGPT génère automatiquement des messages personnalisés et détaillés que DALL-E 3 peut créer. Vous pouvez ensuite demander des ajustements supplémentaires pour que l'image soit parfaite.

    Cet ajout à l'offre gratuite intervient alors que des rumeurs circulent sur ChatGPT-5, dont la sortie est prévue pour la fin de l'année. Auparavant, seuls les abonnés payants de ChatGPT Plus pouvaient utiliser l'outil par l'intermédiaire du populaire chatbot d'IA générative. Certains utilisateurs peuvent d'ores et déjà accéder à cette fonctionnalité, car l'entreprise indique que le déploiement a commencé.

    L'entreprise explique qu'elle est en train de réaliser des tests internes pour aider les gens à identifier si une image a été créée par l'IA. Sur la page d'accueil du modèle, on peut lire : "Nous expérimentons un classificateur de provenance - un nouvel outil interne qui peut nous aider à identifier si une image a été générée par DALL-E 3 - et nous espérons utiliser cet outil pour mieux comprendre les façons dont les images générées peuvent être utilisées. Nous vous en dirons plus bientôt".

    L'équipe a également mis en place des mesures d'atténuation afin que le générateur d'images puisse refuser les requêtes qui demandent le nom d'une personnalité publique. "Nous avons amélioré les performances en matière de sécurité dans des domaines à risque tels que la génération de personnages publics et les préjugés nuisibles liés à la sur/sous-représentation visuelle, en partenariat avec les red teamers - des experts du domaine qui testent le modèle sous contrainte - afin d'aider à informer notre évaluation des risques et nos efforts d'atténuation dans des domaines tels que la propagande et la désinformation".


    Et vous ?

    Pensez-vous que cet ajout à l'offre gratuite est crédible ou pertinent ?
    Avez-vous utilisé cet outil ou un outil similaire, et si oui quel est votre avis ?

    Voir aussi :

    OpenAI lance un outil capable de détecter les images créées par son générateur texte-image DALL-E 3, afin de répondre aux inquiétudes concernant l'influence des contenus générés par l'IA lors des élections

    Flux, une nouvelle IA générative texte-image open-source avec 12 milliards de paramètres, bat Midjourney, Stable Diffusion 3 et Auraflow, par Black Forest Labs, l'équipe de l'original Stable Diffusion

    OpenAI, xAI, Google, Meta et d'autres entreprises d'IA s'engagent sur la sécurité, promettant de ne pas déployer d'IA si les risques graves ne peuvent pas être pris en compte et atténués

Discussions similaires

  1. Open AI présente DALL-E (comme GPT-3), un modèle qui crée des images à partir de texte
    Par Bill Fassinou dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 11/01/2021, 13h06
  2. Réponses: 1
    Dernier message: 25/02/2020, 13h02
  3. Dernière version (NET) de Delphi pour W2000
    Par Invité dans le forum Delphi .NET
    Réponses: 14
    Dernier message: 28/11/2013, 07h09
  4. Réponses: 0
    Dernier message: 22/12/2011, 23h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo