Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Consultant informatique
    Inscrit en
    avril 2018
    Messages
    631
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : avril 2018
    Messages : 631
    Points : 18 585
    Points
    18 585
    Par défaut L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique
    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique
    Selon ses créateurs

    L’intelligence artificielle continue à bouleverser notre existence, à un rythme accéléré, par de nouvelles applications avancées auxquelles nous n’avions même pas eu le temps de penser. Ces applications sont mises au point par des chercheurs pour le bien des utilisateurs en leur facilitant de nombreuse tâches. Toutefois, elles peuvent aussi être utilisées à de mauvaises fins par certains acteurs malveillants épris du mal pour détruire ou pour se faire du profit au détriment des autres. Ce comportement pourrait pousser certains chercheurs à éviter de publier leurs recherches de peur qu'elles soient détournées de leur utilisation originelle.

    C’est, par ailleurs, dans cette logique qu’OpenAI, la société à but non lucratif, soutenue par Elon Musk, a décidé de ne pas publier les résultats de ses recherches par crainte d'une utilisation abusive, selon un article du Guardian publié hier. Les créateurs d'un système révolutionnaire d'intelligence artificielle capable d'écrire des reportages et des œuvres de fiction, surnommés « deepfakes for text », se sont sentis obligés de renoncer à rendre publique leur œuvre, par crainte d'une éventuelle utilisation non recommandée, rompant ainsi avec leur procédure habituelle qui est de publier leur recherche ainsi que les codes sources afférentes.

    En effet, le nouveau modèle d'IA mis au point par les chercheurs d’OpenAI, appelé GPT2, est si bon et le risque d'utilisation malveillante si élevé qu'ils comptent s'accorder plus de temps pour discuter des conséquences de cette avancée technologique avant de partager la recherche complète avec le public. « Cela semble bien réel », déclare David Luan, vice-président de l'ingénierie chez OpenAI, à propos du texte généré par le système. Lui et ses collègues chercheurs ont commencé à imaginer comment pareil système pourrait être utilisé à des fins hostiles. « Il se peut qu'une personne qui a des intentions malveillantes soit en mesure de produire de fausses actualités de haute qualité », dit Luan.

    Nom : Logo01.png
Affichages : 20232
Taille : 21,6 Ko

    A cause de cette préoccupation, OpenAI a préféré publier un document de recherche sur ses résultats, plutôt que son modèle complet ni les 8 millions de pages Web qui ont servi à former le système. Le manque de cadre éthique fondamental, dont souffre la technologie IA et qui ne permet pas de définir à l’avance les implications des modèles IA formés, est à la base de l’hésitation de l’OpenAI et bien d’autres organisations.

    OpenAI n’est pas la seule organisation à hésiter à partager ses recherches en matière de l’IA. Selon Wired, Google aussi a décidé le mois dernier de ne plus partager innocemment ni ses nouveaux résultats de recherche sur l'IA ni le code source. La firme a révélé dans un document de politique sur l'IA qu'elle avait imposé des contraintes aux logiciels de recherche qu'elle partageait en raison de craintes d'utilisation abusive. En décembre dernier, Google a également partagé, dans un billet de blog, des informations selon lesquelles la société ne proposera pas « d'API de reconnaissance faciale à usage général avant de résoudre d'importantes questions technologiques et stratégiques. »

    La technologie de l’IA étant souvent utilisée de façon abusive pour aller contre les libertés des humains (par exemple, son utilisation par les forces de l’ordre dans plusieurs pays), Microsoft s’est joint à un appel à la réglementation, en juillet dernier, pour limiter l'utilisation de la technologie de reconnaissance faciale, en exhortant le Congrès à étudier la technologie et à superviser son utilisation. Dans une autre intervention, le président de Microsoft a déclaré que sans la réglementation de la technologie de reconnaissance faciale, 2024 pourrait ressembler au roman « 1984 ».

    Selon The Guardian, GPT2 d’OpenAI est un générateur de texte qui doit être alimenté en texte, de quelques mots à une page entière, et qui est capable d'écrire les phrases suivantes en fonction de ses prédictions sur ce qui devrait arriver ensuite. Selon The Guardian, le système repousse les limites de la génération de texte au-delà de ce que l'on croyait possible, tant sur le plan de la qualité de la production que sur le plan de la grande variété des utilisations possibles. Le système d’IA est capable d'écrire des passages plausibles qui correspondent à ce qui lui est donné à la fois dans le style et le sujet. Selon The Guardian, GPT2 montre rarement des textes hors contexte à la différence des systèmes d'IA antérieurs, comme oublier ce qui est écrit au milieu d'un paragraphe ou modifier la syntaxe des longues phrases.

    Par exemple, Guardian a alimenté GPT2 avec les premiers paragraphes d'une de ses histoires sur Brexit, et, selon le quotidien, la production du système d’IA était de la prose de journal plausible, qui regorgeait de « citations » de Jeremy Corbyn, de mentions de la frontière irlandaise, et de réponses du porte-parole du Premier ministre.


    Selon Jack Clark, directeur des politiques chez OpenAI, ce genre d’exemple montre comment une telle technologie pourrait bouleverser les processus derrière la désinformation en ligne, dont certaines utilisent déjà une forme d'automatisation.

    Les préoccupations d’OpenAI peuvent être justifiées par l’utilisation des bots par les acteurs malveillants pour diffuser des fausses actualités sur Internet, GPT2 pouvant constituer un outil adapté à leur besogne. En effet, la période électorale 2016 aux Etats-Unis a été troublée par la prolifération des fausses nouvelles sur Internet. Les fausses informations pouvaient être non seulement sous forme de texte, mais également sous forme d’image et de vidéoclips trompeurs faits avec l'apprentissage machine, en combinant et superposant des images et des vidéos existantes sur des images ou des vidéos sources.

    Formation du modèle génération de texte d’OpenAI

    Selon les chercheurs, GPT2 est révolutionnaire à deux égards, du point de vue de la recherche. Le premier atout, c’est la taille, a expliqué Dario Amodei, directeur de recherche d'OpenAI. Les modèles « étaient 12 fois plus grands, et l'ensemble de données était 15 fois plus grand et beaucoup plus large » que l'ancien modèle d'IA à la fine pointe de la technologie. GPT2 a été formé sur un ensemble de données contenant environ 10 millions d'articles, sélectionnés en parcourant le site de nouvelles sociales Reddit pour les liens avec plus de trois votes, a rapporté The Guardian. Selon les chercheurs, la vaste collection de textes utilisée pour la formation pesait 40 Go.

    L’autre atout, c’est la qualité. Le modèle a été formé en lui donnant plus de connaissances sur la façon de comprendre le texte écrit. GPT2 est beaucoup plus général que les modèles de texte précédents. En structurant le texte saisi, il peut effectuer des tâches telles que la traduction et la synthèse, et réussir des tests simples de compréhension de la lecture, souvent aussi bien ou mieux que d'autres outils d'IA conçus spécialement pour ces tâches.

    La recherche d'OpenAI s'appuie sur un récent progrès dans le domaine des logiciels de traitement de texte, rendu possible par les nouveaux systèmes d'apprentissage machine qui permettent de mieux rechercher dans le texte des indices contextuels sur la signification d'un mot, a rapporté Wired. Selon Hammond, cofondateur d’une startup appelée Narrative Science qui génère des documents commerciaux tels que des rapports financiers en traduisant les données en texte, le système d’IA d'OpenAI montre une fluidité impressionnante et pourrait être utile dans des projets créatifs.

    OpenAI espère qu'en exprimant ses préoccupations au sujet de ses propres résultats de recherche, il pourra encourager les chercheurs en intelligence artificielle à être plus ouverts et réfléchis par rapport à ce qu'ils développent et publient.

    Source : The Gardian, Wired

    Et vous ?

    Que pensez-vous du modèle d’IA d’OpenAI ?
    Pensez-vous qu’un cadre éthique général d’utilisation de l’IA pourrait intervenir dans un délais proche ?
    A votre avis, qu’est ce qui empêche les acteurs du domaine de développer des normes éthiques pour l’utilisation de la technologie ?

    Lire aussi

    Des entreprises payeraient des utilisateurs Facebook pour poster de fausses critiques sur leurs produits en vente sur Amazon, selon une enquête
    Une vidéo deepfake de Donald Trump diffusée sur une chaine de TV nationale ? L'employé responsable a été licencié
    Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre
    Une vidéo truquée montre un discours de Barack Obama critiquant Donald Trump, un appel aux internautes à être vigilants sur les informations en ligne
    Le président de Microsoft a déclaré que sans la réglementation de la technologie de reconnaissance faciale, 2024 pourrait ressembler au roman « 1984 »
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut IA ...
    Bravo openIA, qui fait des IA pour faire de la merde. On ajoute au nom de la science et ca passe mieux ? Non clairement pas.

  3. #3
    Membre actif Avatar de steel-finger
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    janvier 2013
    Messages
    125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : janvier 2013
    Messages : 125
    Points : 217
    Points
    217
    Par défaut
    Je peux comprendre ce qui peux poussé ces personnes a ne pas publier leur découverte, mais tôt ou tard autre personne auront fait des recherches sur le même sujet et partagerons leur découverte

  4. #4
    Membre expert
    Homme Profil pro
    Développeur informatique
    Inscrit en
    avril 2017
    Messages
    789
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : avril 2017
    Messages : 789
    Points : 3 478
    Points
    3 478
    Par défaut
    Moi c'est pareil, j'ai inventé un médicament qui guérit le cancer. Comme c'est trop important, je le garde pour moi mais j'en parle quand même aux journalistes. Il faut savoir assumer ses responsabilités...

  5. #5
    Membre éprouvé
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    480
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2007
    Messages : 480
    Points : 1 106
    Points
    1 106
    Par défaut
    Après, il y avait plein de piste possible pour développer une IA "utile". La, le cas annonçait à l'avance les dérives possible... Donc pour moi, il y a une manière un peux idiote derrière ça de faire semblant de découvrir après coup que en effet ceci n'est pas anodin. Une manière de faire le buzz ou d'essayer de prévenir des dérives possibles (ou plus inavouable aussi)? Bizarre que des chercheurs ne se soit pas penché sur un algorithme qui cherche a faire le lien entre la mécanique quantique et la relativité générale pour voir ce que ça donne (je suis conscient que ça doit être un beau bordel a mettre en place).

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Consultant Ingenierie mécanique
    Inscrit en
    mars 2006
    Messages
    1 143
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Consultant Ingenierie mécanique
    Secteur : Transports

    Informations forums :
    Inscription : mars 2006
    Messages : 1 143
    Points : 2 512
    Points
    2 512
    Par défaut
    un coup de pub pour vendre au plus offrant. a savoir les gouvernement ou riches hommes d’affaires..

  7. #7
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    novembre 2010
    Messages
    2 846
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : novembre 2010
    Messages : 2 846
    Points : 7 821
    Points
    7 821
    Par défaut
    Citation Envoyé par SimonDecoline Voir le message
    Moi c'est pareil, j'ai inventé un médicament qui guérit le cancer. Comme c'est trop important, je le garde pour moi mais j'en parle quand même aux journalistes. Il faut savoir assumer ses responsabilités...
    ou mieux encore, tu inventes un médicament qu'a rien d'exceptionnel, mais t'en parle quand même aux journalistes comme si c'était quelque chose d'hyper important...
    Avant donc que d'écrire, apprenez à penser.
    Selon que notre idée est plus ou moins obscure, l'expression la suit, ou moins nette, ou plus pure.
    Ce que l'on conçoit bien s'énonce clairement, et les mots pour le dire arrivent aisément.
                                                        - Nicolas Boileau, L'Art poétique

  8. #8
    Membre actif
    Profil pro
    curiosité
    Inscrit en
    novembre 2003
    Messages
    105
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : curiosité

    Informations forums :
    Inscription : novembre 2003
    Messages : 105
    Points : 270
    Points
    270
    Par défaut
    Je vais dire exactement le contraire des commentaires précédents, pas spécialement pour le plaisir de contredire, car bien que je sois pour le partage des connaissances, etc, si je me place de leur point de vue, leur technologie est clairement à risque d'usage détourné abusif immédiat qui mettrait à mal certaines organisations, tant que celles-ci ne sont pas refondues pour s'assurer qu'un interlocuteur est bien humain (ce qui passerait sans doute par une identification biométrique forte en ligne, car le texte produit est clairement de qualité humaine).

    Ex :
    * création massive de contenu sur internet indistinguable du contenu humain, capable de voler la priorité au contenu réel, sans modifier les algo des moteurs de recherche ; perturbation du business de la publicité en ligne...
    * flood massif sur les réseaux sociaux plus vrai que nature : il suffit d'éduquer l'IA pour défendre telle opinion d'un groupe de pensée. Si vous donnez une opinion déviante, une IA malveillante pourrait simuler 500 utilisateurs plus vrais que nature pour vous pourrir avec des arguments biens écris.
    * usines à trolls parfaites pour influencer l'opinion publique
    * flood massif du grand débat public de macron en ligne...

  9. #9
    Membre à l'essai
    Avatar de titouan691
    Homme Profil pro
    Dirigeant
    Inscrit en
    juillet 2018
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : juillet 2018
    Messages : 1
    Points : 22
    Points
    22
    Billets dans le blog
    3
    Par défaut Faire un algo pour reconnaître
    Pourquoi ces chercheurs ne recherchent pas un algorithme Ia pour détecter les faux messages avec un système de validation par un groupe éthique sélectionné par l'onu

  10. #10
    Membre régulier
    Homme Profil pro
    Développeur informatique
    Inscrit en
    mai 2007
    Messages
    54
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : mai 2007
    Messages : 54
    Points : 72
    Points
    72
    Par défaut
    Ouh ! Ca sent la manipulation des marchés financiers ! Et le chaos !

  11. #11
    Membre du Club
    Profil pro
    Inscrit en
    janvier 2010
    Messages
    35
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : janvier 2010
    Messages : 35
    Points : 53
    Points
    53
    Par défaut Correcteurs - Test en double aveugle
    Sur le fond, et comme d'autres l'ont remarqué, cela pue le coup de publicité. Comme par exemple en médecine, il serait possible de mettre au point un test en double aveugle, dont les résultats seraient autrement plus fiables que l'annonce faite.

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Consultant informatique
    Inscrit en
    avril 2018
    Messages
    631
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : avril 2018
    Messages : 631
    Points : 18 585
    Points
    18 585
    Par défaut OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée,
    OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée,
    Mais le modèle n’est pas encore parfait

    OpenAI, laboratoire de recherche en intelligence artificielle, avait déjà annoncé en février la création de GPT-2, son algorithme capable d'écrire des paragraphes de texte d'une cohérence impressionnante. Mais plutôt que de publier l'outil IA dans son intégralité, l'équipe avait retenu la version complète du programme et s’était contentée de ne partager qu'un modèle plus réduit du modèle de peur que les gens n'utilisent l'outil le plus robuste à des fins malveillantes pour produire, par exemple, de faux articles de nouvelles ou du spam.

    Pendant ce temps, OpenAI a observé la réception de la version publiée afin de détecter les utilisations non recommandées, mais il n'a « vu jusqu'à présent aucune preuve d'utilisation abusive », selon un billet de blog publié mardi. C’est ainsi que l’entreprise, dont l’objectif est de développer une IA qui bénéficiera à toute l'humanité, a donc décidé de publier le modèle dans son intégralité. GPT-2 fait partie d'une nouvelle génération de systèmes de génération de texte qui ont impressionné les experts par leur capacité à générer du texte cohérent à partir d'invites minimales. Le système a été formé sur huit millions de documents textuels sélectionnés en parcourant le Web et réagit aux échantillons de texte fournis par les utilisateurs en produisant un article complet.

    Nom : op01.png
Affichages : 4687
Taille : 124,5 Ko

    L’algorithme de génération de texte d’OpenAI se distingue par sa qualité. Le modèle a été formé en lui donnant plus de connaissances sur la façon de comprendre le texte écrit. GPT-2 est beaucoup plus général que les modèles de texte précédents. En structurant le texte saisi, il peut effectuer des tâches telles que la traduction et la synthèse, et réussir des tests simples de compréhension de la lecture, souvent aussi bien ou mieux que d'autres outils d'IA conçus spécialement pour ces tâches.

    Le modèle GPT-2 produit des rendus très convaincants pour les humains. Les partenaires d’OpenAI de l'Université Cornell ont mené une enquête auprès des gens afin d'attribuer au texte sorti de GPT-2 un score de crédibilité pour toutes les tailles du modèle. Selon le billet de blog du laboratoire de recherche, les gens ont attribué au modèle 1.5B une « note de crédibilité » de 6,91 sur 10. Ce qui est légèrement supérieur à celui du modèle 774M (6,72) et nettement supérieur à celui du modèle moyen 355M (6,07). « Ces résultats nous incitent davantage à publier le modèle 1.5B, car l'augmentation progressive de la crédibilité perçue par l'être humain par rapport à 774M semble faible », a écrit l’équipe d’OpenAI.

    En février, The Guardian a testé l’algorithme d’OpenAI. GPT-2 est un générateur de texte qui doit être alimenté en texte, de quelques mots à une page entière, et qui est capable d'écrire les phrases suivantes en fonction de ses prédictions sur ce qui devrait arriver ensuite. The Guardian a conclu à l’époque que le système repousse les limites de la génération de texte au-delà de ce que l'on croyait possible, tant sur le plan de la qualité de la production que sur le plan de la grande variété des utilisations possibles. Le modèle est capable d'écrire des passages plausibles qui correspondent à ce qui lui est donné à la fois dans le style et le sujet, même s’il produit parfois des textes hors contexte.

    Selon les experts, GPT-2 pourrait être utilisé à des fins malveillantes. C’est ce qui a conduit à cette approche de diffusion de l’outil par OpenAI, en commençant par une version réduite. Par ailleurs, les experts ont souligné qu'un accès facile à des outils d'intelligence artificielle de pointe peut permettre à des acteurs malveillants d'en profiter. Les partenaires du Middlebury Institute of International Studies' Center on Terrorism, Extremism, and Counterterrorism (CTEC) ont constaté que les groupes extrémistes peuvent utiliser le GPT-2 à mauvais escient, notamment en peaufinant les modèles du GPT-2 selon quatre positions idéologiques : suprématie blanche, marxisme, islamisme jihadiste et anarchisme. Le CTEC a démontré qu'il est possible de créer des modèles qui peuvent générer une propagande synthétique pour ces idéologies, d’après OpenAI.

    OpenAI a limité la publication de son modèle en raison de cette préoccupation. Cependant, tout le monde n'est pas d’accord avec l'approche du laboratoire. De nombreux experts ont critiqué cette décision, affirmant qu'elle limitait le nombre de recherches que d'autres pourraient faire pour atténuer les inconvénients du modèle, et qu'elle créait un battage inutile sur les dangers de l'intelligence artificielle.

    Les mots « trop dangereux » ont été lancés ici par hasard, sans beaucoup de réflexion ou d'expérimentation », a déclaré le chercheur Delip Rao dans un communiqué. « Je ne pense pas que[OpenAI] a passé assez de temps à prouver que c'était vraiment dangereux ».

    Le laboratoire a également admis dans son article que ses craintes que le système ne soit utilisé pour pomper un grand volume de spams cohérents, écrasant des systèmes d'information en ligne comme les médias sociaux, ne se sont pas encore concrétisées. OpenAI a finalement publié la version 1.5B avec le code source et les poids du modèle pour faciliter la détection des textes produits par les modèles de GPT-2, selon le billet de blog.

    Nom : op02.png
Affichages : 1717
Taille : 142,9 Ko

    L’algorithme n’est toujours pas encore parfait

    Bien que le GPT-2 soit l'un des meilleurs modèles d’IA de génération de texte, sinon le meilleur, qui existe, il ne peut toujours pas produire un contenu qui soit impossible à distinguer d'un texte écrit par un humain. Le modèle présente des incohérences à long terme, comme des problèmes liés à l’utilisation des noms et les attributs des personnages de façon cohérente dans une histoire, ou des problèmes de pouvoir s'en tenir à un seul sujet dans un article de nouvelles. OpenAI prévient d’ailleurs que ce sont des algorithmes qu'il faudra surveiller. « Nous pensons que les générateurs de texte synthétique ont plus de chances d'être utilisés à mauvais escient si leurs sorties deviennent plus fiables et cohérentes », a écrit la startup dans son billet de blog.

    Le laboratoire a également noté que ses propres chercheurs avaient créé des systèmes automatiques capables de détecter du texte généré par GPT-2 avec une précision d'environ 95 %, mais que ce chiffre n'était pas assez élevé « pour une détection autonome » et que tout système utilisé pour détecter automatiquement un faux texte devrait être jumelé à des juges humains. OpenAI souhaite que cette publication puisse aider les autres chercheurs dans leur étude. « Nous publions ce modèle pour faciliter l'étude de la recherche sur la détection de texte synthétique, bien que cela permette aux adversaires qui y ont accès de mieux échapper à la détection », ont écrit les chercheurs d’OpenAI.

    Selon le billet de blog d’OpenAI, l'exactitude de la détection dépend en grande partie des méthodes d'échantillonnage utilisées pour la formation et les tests. Pour le laboratoire, la détection sera plus fiable lorsque la formation portera sur une gamme de techniques d'échantillonnage.

    OpenAI dit qu'elle continuera à surveiller la façon dont le GPT-2 est utilisé par la communauté et le public, et qu'elle continuera à développer ses politiques sur la publication responsable de la recherche sur l'IA. Pour ceux qui veulent se faire leur propre idée du GPT-2, vous pouvez accéder à une version Web sur TalkToTransformer.com et y entrer vos propres invites.

    Sources : OpenAI

    Et vous ?

    Avez-vous déjà testé le modèle GPT-2 ? Qu’en pensez-vous ?
    Que pensez-vous des craintes d’utilisations non recommandées du GPT-2 exprimées par OpenAI ?

    Lire aussi

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Deepfake : l'app gratuite Zao vous permet de changer le visage d'un personnage de film par le votre, après avoir téléchargé une photo
    « L'IA ne peut pas nous protéger contre les deepfakes », selon un rapport de Data & Society, qui préconise une solution tenant compte à la fois de l'histoire et des processus sociaux
    Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo, et faire dire au sujet ce que vous voulez
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  13. #13
    Membre actif
    Homme Profil pro
    Développeur Web
    Inscrit en
    juin 2013
    Messages
    55
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : juin 2013
    Messages : 55
    Points : 210
    Points
    210
    Par défaut
    Avez-vous déjà testé le modèle GPT-2 ? Qu’en pensez-vous ?
    Je pense que le modèle GPT-2 est en plus d'éclatée de nombreuses pré-créatives. Nous avons pensé de même d'une période d'une société et de plus de même présentation. Nous y allons les gens de la personne qui vous fermé par le nombreux mêmes créatures. Nous avons les nouveaux rôles pour la désordre de cette nouvelle période. Nous n'avons pas une expérience sur cette médaille et l'havre parmi les deux pays. Nous avons les nouvelles d'un nombre d'éléments pré-créatives qui nous sommes en débutants.

    Que pensez-vous des craintes d’utilisations non recommandées du GPT-2 exprimées par OpenAI ?
    Ces craintes d'utilisation son entreprises de niveaux sont d'abord sous le monde. Ce sont des produits qui ont utilisé la faculté d'une économie sécuritaire qui s'utilise à l'élimination de l'impôt et de l'économie des plus belles vapes, en s'appliquant pour le monde un des niveaux médicales, des prochaines d'utilisateur ou autres d'utilisateur de leurs services.


    PS : Les réponses ont été générés à l'aide de talktotransformer, visiblement il n'aime pas le français

  14. #14
    Membre émérite
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    juin 2004
    Messages
    599
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : juin 2004
    Messages : 599
    Points : 2 780
    Points
    2 780
    Par défaut
    Citation Envoyé par strato35 Voir le message
    Je pense que le modèle GPT-2 est en plus d'éclatée de nombreuses pré-créatives. Nous avons pensé de même d'une période d'une société et de plus de même présentation. Nous y allons les gens de la personne qui vous fermé par le nombreux mêmes créatures. Nous avons les nouveaux rôles pour la désordre de cette nouvelle période. Nous n'avons pas une expérience sur cette médaille et l'havre parmi les deux pays. Nous avons les nouvelles d'un nombre d'éléments pré-créatives qui nous sommes en débutants.
    On dirait le discours de nos politiciens...

  15. #15
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    novembre 2010
    Messages
    2 846
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : novembre 2010
    Messages : 2 846
    Points : 7 821
    Points
    7 821
    Par défaut
    Citation Envoyé par strato35 Voir le message
    Ces craintes d'utilisation son entreprises (...)
    n'empêche l'algo intègre des fautes de syntaxe et de sémantique comme les gens de la vraie vie, c'est bluffant
    Avant donc que d'écrire, apprenez à penser.
    Selon que notre idée est plus ou moins obscure, l'expression la suit, ou moins nette, ou plus pure.
    Ce que l'on conçoit bien s'énonce clairement, et les mots pour le dire arrivent aisément.
                                                        - Nicolas Boileau, L'Art poétique

Discussions similaires

  1. Réponses: 6
    Dernier message: 16/03/2007, 14h45
  2. [CheckStyle] la méthode n'est pas conçue pour être dérivée
    Par 17mounir dans le forum Eclipse Java
    Réponses: 6
    Dernier message: 19/02/2007, 16h41
  3. Le JPanel est trop reduit pour mon interface !
    Par LeNeutrino dans le forum JBuilder
    Réponses: 4
    Dernier message: 25/07/2005, 19h58

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo