Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique
    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique
    Selon ses créateurs

    L’intelligence artificielle continue à bouleverser notre existence, à un rythme accéléré, par de nouvelles applications avancées auxquelles nous n’avions même pas eu le temps de penser. Ces applications sont mises au point par des chercheurs pour le bien des utilisateurs en leur facilitant de nombreuse tâches. Toutefois, elles peuvent aussi être utilisées à de mauvaises fins par certains acteurs malveillants épris du mal pour détruire ou pour se faire du profit au détriment des autres. Ce comportement pourrait pousser certains chercheurs à éviter de publier leurs recherches de peur qu'elles soient détournées de leur utilisation originelle.

    C’est, par ailleurs, dans cette logique qu’OpenAI, la société à but non lucratif, soutenue par Elon Musk, a décidé de ne pas publier les résultats de ses recherches par crainte d'une utilisation abusive, selon un article du Guardian publié hier. Les créateurs d'un système révolutionnaire d'intelligence artificielle capable d'écrire des reportages et des œuvres de fiction, surnommés « deepfakes for text », se sont sentis obligés de renoncer à rendre publique leur œuvre, par crainte d'une éventuelle utilisation non recommandée, rompant ainsi avec leur procédure habituelle qui est de publier leur recherche ainsi que les codes sources afférentes.

    En effet, le nouveau modèle d'IA mis au point par les chercheurs d’OpenAI, appelé GPT2, est si bon et le risque d'utilisation malveillante si élevé qu'ils comptent s'accorder plus de temps pour discuter des conséquences de cette avancée technologique avant de partager la recherche complète avec le public. « Cela semble bien réel », déclare David Luan, vice-président de l'ingénierie chez OpenAI, à propos du texte généré par le système. Lui et ses collègues chercheurs ont commencé à imaginer comment pareil système pourrait être utilisé à des fins hostiles. « Il se peut qu'une personne qui a des intentions malveillantes soit en mesure de produire de fausses actualités de haute qualité », dit Luan.


    A cause de cette préoccupation, OpenAI a préféré publier un document de recherche sur ses résultats, plutôt que son modèle complet ni les 8 millions de pages Web qui ont servi à former le système. Le manque de cadre éthique fondamental, dont souffre la technologie IA et qui ne permet pas de définir à l’avance les implications des modèles IA formés, est à la base de l’hésitation de l’OpenAI et bien d’autres organisations.

    OpenAI n’est pas la seule organisation à hésiter à partager ses recherches en matière de l’IA. Selon Wired, Google aussi a décidé le mois dernier de ne plus partager innocemment ni ses nouveaux résultats de recherche sur l'IA ni le code source. La firme a révélé dans un document de politique sur l'IA qu'elle avait imposé des contraintes aux logiciels de recherche qu'elle partageait en raison de craintes d'utilisation abusive. En décembre dernier, Google a également partagé, dans un billet de blog, des informations selon lesquelles la société ne proposera pas « d'API de reconnaissance faciale à usage général avant de résoudre d'importantes questions technologiques et stratégiques. »

    La technologie de l’IA étant souvent utilisée de façon abusive pour aller contre les libertés des humains (par exemple, son utilisation par les forces de l’ordre dans plusieurs pays), Microsoft s’est joint à un appel à la réglementation, en juillet dernier, pour limiter l'utilisation de la technologie de reconnaissance faciale, en exhortant le Congrès à étudier la technologie et à superviser son utilisation. Dans une autre intervention, le président de Microsoft a déclaré que sans la réglementation de la technologie de reconnaissance faciale, 2024 pourrait ressembler au roman « 1984 ».

    Selon The Guardian, GPT2 d’OpenAI est un générateur de texte qui doit être alimenté en texte, de quelques mots à une page entière, et qui est capable d'écrire les phrases suivantes en fonction de ses prédictions sur ce qui devrait arriver ensuite. Selon The Guardian, le système repousse les limites de la génération de texte au-delà de ce que l'on croyait possible, tant sur le plan de la qualité de la production que sur le plan de la grande variété des utilisations possibles. Le système d’IA est capable d'écrire des passages plausibles qui correspondent à ce qui lui est donné à la fois dans le style et le sujet. Selon The Guardian, GPT2 montre rarement des textes hors contexte à la différence des systèmes d'IA antérieurs, comme oublier ce qui est écrit au milieu d'un paragraphe ou modifier la syntaxe des longues phrases.

    Par exemple, Guardian a alimenté GPT2 avec les premiers paragraphes d'une de ses histoires sur Brexit, et, selon le quotidien, la production du système d’IA était de la prose de journal plausible, qui regorgeait de « citations » de Jeremy Corbyn, de mentions de la frontière irlandaise, et de réponses du porte-parole du Premier ministre.


    Selon Jack Clark, directeur des politiques chez OpenAI, ce genre d’exemple montre comment une telle technologie pourrait bouleverser les processus derrière la désinformation en ligne, dont certaines utilisent déjà une forme d'automatisation.

    Les préoccupations d’OpenAI peuvent être justifiées par l’utilisation des bots par les acteurs malveillants pour diffuser des fausses actualités sur Internet, GPT2 pouvant constituer un outil adapté à leur besogne. En effet, la période électorale 2016 aux Etats-Unis a été troublée par la prolifération des fausses nouvelles sur Internet. Les fausses informations pouvaient être non seulement sous forme de texte, mais également sous forme d’image et de vidéoclips trompeurs faits avec l'apprentissage machine, en combinant et superposant des images et des vidéos existantes sur des images ou des vidéos sources.

    Formation du modèle génération de texte d’OpenAI

    Selon les chercheurs, GPT2 est révolutionnaire à deux égards, du point de vue de la recherche. Le premier atout, c’est la taille, a expliqué Dario Amodei, directeur de recherche d'OpenAI. Les modèles « étaient 12 fois plus grands, et l'ensemble de données était 15 fois plus grand et beaucoup plus large » que l'ancien modèle d'IA à la fine pointe de la technologie. GPT2 a été formé sur un ensemble de données contenant environ 10 millions d'articles, sélectionnés en parcourant le site de nouvelles sociales Reddit pour les liens avec plus de trois votes, a rapporté The Guardian. Selon les chercheurs, la vaste collection de textes utilisée pour la formation pesait 40 Go.

    L’autre atout, c’est la qualité. Le modèle a été formé en lui donnant plus de connaissances sur la façon de comprendre le texte écrit. GPT2 est beaucoup plus général que les modèles de texte précédents. En structurant le texte saisi, il peut effectuer des tâches telles que la traduction et la synthèse, et réussir des tests simples de compréhension de la lecture, souvent aussi bien ou mieux que d'autres outils d'IA conçus spécialement pour ces tâches.

    La recherche d'OpenAI s'appuie sur un récent progrès dans le domaine des logiciels de traitement de texte, rendu possible par les nouveaux systèmes d'apprentissage machine qui permettent de mieux rechercher dans le texte des indices contextuels sur la signification d'un mot, a rapporté Wired. Selon Hammond, cofondateur d’une startup appelée Narrative Science qui génère des documents commerciaux tels que des rapports financiers en traduisant les données en texte, le système d’IA d'OpenAI montre une fluidité impressionnante et pourrait être utile dans des projets créatifs.

    OpenAI espère qu'en exprimant ses préoccupations au sujet de ses propres résultats de recherche, il pourra encourager les chercheurs en intelligence artificielle à être plus ouverts et réfléchis par rapport à ce qu'ils développent et publient.

    Source : The Gardian, Wired

    Et vous ?

    Que pensez-vous du modèle d’IA d’OpenAI ?
    Pensez-vous qu’un cadre éthique général d’utilisation de l’IA pourrait intervenir dans un délais proche ?
    A votre avis, qu’est ce qui empêche les acteurs du domaine de développer des normes éthiques pour l’utilisation de la technologie ?

    Lire aussi

    Des entreprises payeraient des utilisateurs Facebook pour poster de fausses critiques sur leurs produits en vente sur Amazon, selon une enquête
    Une vidéo deepfake de Donald Trump diffusée sur une chaine de TV nationale ? L'employé responsable a été licencié
    Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre
    Une vidéo truquée montre un discours de Barack Obama critiquant Donald Trump, un appel aux internautes à être vigilants sur les informations en ligne
    Le président de Microsoft a déclaré que sans la réglementation de la technologie de reconnaissance faciale, 2024 pourrait ressembler au roman « 1984 »
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    IA ...
    Bravo openIA, qui fait des IA pour faire de la merde. On ajoute au nom de la science et ca passe mieux ? Non clairement pas.

  3. #3
    Membre actif
    Je peux comprendre ce qui peux poussé ces personnes a ne pas publier leur découverte, mais tôt ou tard autre personne auront fait des recherches sur le même sujet et partagerons leur découverte

  4. #4
    Expert confirmé
    Moi c'est pareil, j'ai inventé un médicament qui guérit le cancer. Comme c'est trop important, je le garde pour moi mais j'en parle quand même aux journalistes. Il faut savoir assumer ses responsabilités...

  5. #5
    Membre expérimenté
    Après, il y avait plein de piste possible pour développer une IA "utile". La, le cas annonçait à l'avance les dérives possible... Donc pour moi, il y a une manière un peux idiote derrière ça de faire semblant de découvrir après coup que en effet ceci n'est pas anodin. Une manière de faire le buzz ou d'essayer de prévenir des dérives possibles (ou plus inavouable aussi)? Bizarre que des chercheurs ne se soit pas penché sur un algorithme qui cherche a faire le lien entre la mécanique quantique et la relativité générale pour voir ce que ça donne (je suis conscient que ça doit être un beau bordel a mettre en place).

  6. #6
    Membre extrêmement actif
    un coup de pub pour vendre au plus offrant. a savoir les gouvernement ou riches hommes d’affaires..

  7. #7
    Expert éminent
    Citation Envoyé par SimonDecoline Voir le message
    Moi c'est pareil, j'ai inventé un médicament qui guérit le cancer. Comme c'est trop important, je le garde pour moi mais j'en parle quand même aux journalistes. Il faut savoir assumer ses responsabilités...
    ou mieux encore, tu inventes un médicament qu'a rien d'exceptionnel, mais t'en parle quand même aux journalistes comme si c'était quelque chose d'hyper important...

  8. #8
    Membre confirmé
    Je vais dire exactement le contraire des commentaires précédents, pas spécialement pour le plaisir de contredire, car bien que je sois pour le partage des connaissances, etc, si je me place de leur point de vue, leur technologie est clairement à risque d'usage détourné abusif immédiat qui mettrait à mal certaines organisations, tant que celles-ci ne sont pas refondues pour s'assurer qu'un interlocuteur est bien humain (ce qui passerait sans doute par une identification biométrique forte en ligne, car le texte produit est clairement de qualité humaine).

    Ex :
    * création massive de contenu sur internet indistinguable du contenu humain, capable de voler la priorité au contenu réel, sans modifier les algo des moteurs de recherche ; perturbation du business de la publicité en ligne...
    * flood massif sur les réseaux sociaux plus vrai que nature : il suffit d'éduquer l'IA pour défendre telle opinion d'un groupe de pensée. Si vous donnez une opinion déviante, une IA malveillante pourrait simuler 500 utilisateurs plus vrais que nature pour vous pourrir avec des arguments biens écris.
    * usines à trolls parfaites pour influencer l'opinion publique
    * flood massif du grand débat public de macron en ligne...

  9. #9
    Nouveau membre du Club
    Faire un algo pour reconnaître
    Pourquoi ces chercheurs ne recherchent pas un algorithme Ia pour détecter les faux messages avec un système de validation par un groupe éthique sélectionné par l'onu

  10. #10
    Membre régulier
    Ouh ! Ca sent la manipulation des marchés financiers ! Et le chaos !

  11. #11
    Membre régulier
    Correcteurs - Test en double aveugle
    Sur le fond, et comme d'autres l'ont remarqué, cela pue le coup de publicité. Comme par exemple en médecine, il serait possible de mettre au point un test en double aveugle, dont les résultats seraient autrement plus fiables que l'annonce faite.

  12. #12
    Chroniqueur Actualités

    OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée,
    OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée,
    Mais le modèle n’est pas encore parfait

    OpenAI, laboratoire de recherche en intelligence artificielle, avait déjà annoncé en février la création de GPT-2, son algorithme capable d'écrire des paragraphes de texte d'une cohérence impressionnante. Mais plutôt que de publier l'outil IA dans son intégralité, l'équipe avait retenu la version complète du programme et s’était contentée de ne partager qu'un modèle plus réduit du modèle de peur que les gens n'utilisent l'outil le plus robuste à des fins malveillantes pour produire, par exemple, de faux articles de nouvelles ou du spam.

    Pendant ce temps, OpenAI a observé la réception de la version publiée afin de détecter les utilisations non recommandées, mais il n'a « vu jusqu'à présent aucune preuve d'utilisation abusive », selon un billet de blog publié mardi. C’est ainsi que l’entreprise, dont l’objectif est de développer une IA qui bénéficiera à toute l'humanité, a donc décidé de publier le modèle dans son intégralité. GPT-2 fait partie d'une nouvelle génération de systèmes de génération de texte qui ont impressionné les experts par leur capacité à générer du texte cohérent à partir d'invites minimales. Le système a été formé sur huit millions de documents textuels sélectionnés en parcourant le Web et réagit aux échantillons de texte fournis par les utilisateurs en produisant un article complet.


    L’algorithme de génération de texte d’OpenAI se distingue par sa qualité. Le modèle a été formé en lui donnant plus de connaissances sur la façon de comprendre le texte écrit. GPT-2 est beaucoup plus général que les modèles de texte précédents. En structurant le texte saisi, il peut effectuer des tâches telles que la traduction et la synthèse, et réussir des tests simples de compréhension de la lecture, souvent aussi bien ou mieux que d'autres outils d'IA conçus spécialement pour ces tâches.

    Le modèle GPT-2 produit des rendus très convaincants pour les humains. Les partenaires d’OpenAI de l'Université Cornell ont mené une enquête auprès des gens afin d'attribuer au texte sorti de GPT-2 un score de crédibilité pour toutes les tailles du modèle. Selon le billet de blog du laboratoire de recherche, les gens ont attribué au modèle 1.5B une « note de crédibilité » de 6,91 sur 10. Ce qui est légèrement supérieur à celui du modèle 774M (6,72) et nettement supérieur à celui du modèle moyen 355M (6,07). « Ces résultats nous incitent davantage à publier le modèle 1.5B, car l'augmentation progressive de la crédibilité perçue par l'être humain par rapport à 774M semble faible », a écrit l’équipe d’OpenAI.

    En février, The Guardian a testé l’algorithme d’OpenAI. GPT-2 est un générateur de texte qui doit être alimenté en texte, de quelques mots à une page entière, et qui est capable d'écrire les phrases suivantes en fonction de ses prédictions sur ce qui devrait arriver ensuite. The Guardian a conclu à l’époque que le système repousse les limites de la génération de texte au-delà de ce que l'on croyait possible, tant sur le plan de la qualité de la production que sur le plan de la grande variété des utilisations possibles. Le modèle est capable d'écrire des passages plausibles qui correspondent à ce qui lui est donné à la fois dans le style et le sujet, même s’il produit parfois des textes hors contexte.

    Selon les experts, GPT-2 pourrait être utilisé à des fins malveillantes. C’est ce qui a conduit à cette approche de diffusion de l’outil par OpenAI, en commençant par une version réduite. Par ailleurs, les experts ont souligné qu'un accès facile à des outils d'intelligence artificielle de pointe peut permettre à des acteurs malveillants d'en profiter. Les partenaires du Middlebury Institute of International Studies' Center on Terrorism, Extremism, and Counterterrorism (CTEC) ont constaté que les groupes extrémistes peuvent utiliser le GPT-2 à mauvais escient, notamment en peaufinant les modèles du GPT-2 selon quatre positions idéologiques : suprématie blanche, marxisme, islamisme jihadiste et anarchisme. Le CTEC a démontré qu'il est possible de créer des modèles qui peuvent générer une propagande synthétique pour ces idéologies, d’après OpenAI.

    OpenAI a limité la publication de son modèle en raison de cette préoccupation. Cependant, tout le monde n'est pas d’accord avec l'approche du laboratoire. De nombreux experts ont critiqué cette décision, affirmant qu'elle limitait le nombre de recherches que d'autres pourraient faire pour atténuer les inconvénients du modèle, et qu'elle créait un battage inutile sur les dangers de l'intelligence artificielle.

    Les mots « trop dangereux » ont été lancés ici par hasard, sans beaucoup de réflexion ou d'expérimentation », a déclaré le chercheur Delip Rao dans un communiqué. « Je ne pense pas que[OpenAI] a passé assez de temps à prouver que c'était vraiment dangereux ».

    Le laboratoire a également admis dans son article que ses craintes que le système ne soit utilisé pour pomper un grand volume de spams cohérents, écrasant des systèmes d'information en ligne comme les médias sociaux, ne se sont pas encore concrétisées. OpenAI a finalement publié la version 1.5B avec le code source et les poids du modèle pour faciliter la détection des textes produits par les modèles de GPT-2, selon le billet de blog.


    L’algorithme n’est toujours pas encore parfait

    Bien que le GPT-2 soit l'un des meilleurs modèles d’IA de génération de texte, sinon le meilleur, qui existe, il ne peut toujours pas produire un contenu qui soit impossible à distinguer d'un texte écrit par un humain. Le modèle présente des incohérences à long terme, comme des problèmes liés à l’utilisation des noms et les attributs des personnages de façon cohérente dans une histoire, ou des problèmes de pouvoir s'en tenir à un seul sujet dans un article de nouvelles. OpenAI prévient d’ailleurs que ce sont des algorithmes qu'il faudra surveiller. « Nous pensons que les générateurs de texte synthétique ont plus de chances d'être utilisés à mauvais escient si leurs sorties deviennent plus fiables et cohérentes », a écrit la startup dans son billet de blog.

    Le laboratoire a également noté que ses propres chercheurs avaient créé des systèmes automatiques capables de détecter du texte généré par GPT-2 avec une précision d'environ 95 %, mais que ce chiffre n'était pas assez élevé « pour une détection autonome » et que tout système utilisé pour détecter automatiquement un faux texte devrait être jumelé à des juges humains. OpenAI souhaite que cette publication puisse aider les autres chercheurs dans leur étude. « Nous publions ce modèle pour faciliter l'étude de la recherche sur la détection de texte synthétique, bien que cela permette aux adversaires qui y ont accès de mieux échapper à la détection », ont écrit les chercheurs d’OpenAI.

    Selon le billet de blog d’OpenAI, l'exactitude de la détection dépend en grande partie des méthodes d'échantillonnage utilisées pour la formation et les tests. Pour le laboratoire, la détection sera plus fiable lorsque la formation portera sur une gamme de techniques d'échantillonnage.

    OpenAI dit qu'elle continuera à surveiller la façon dont le GPT-2 est utilisé par la communauté et le public, et qu'elle continuera à développer ses politiques sur la publication responsable de la recherche sur l'IA. Pour ceux qui veulent se faire leur propre idée du GPT-2, vous pouvez accéder à une version Web sur TalkToTransformer.com et y entrer vos propres invites.

    Sources : OpenAI

    Et vous ?

    Avez-vous déjà testé le modèle GPT-2 ? Qu’en pensez-vous ?
    Que pensez-vous des craintes d’utilisations non recommandées du GPT-2 exprimées par OpenAI ?

    Lire aussi

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Deepfake : l'app gratuite Zao vous permet de changer le visage d'un personnage de film par le votre, après avoir téléchargé une photo
    « L'IA ne peut pas nous protéger contre les deepfakes », selon un rapport de Data & Society, qui préconise une solution tenant compte à la fois de l'histoire et des processus sociaux
    Deepfake : des chercheurs présentent un logiciel qui permet d'éditer le discours d'une vidéo, et faire dire au sujet ce que vous voulez
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  13. #13
    Membre confirmé
    Avez-vous déjà testé le modèle GPT-2 ? Qu’en pensez-vous ?
    Je pense que le modèle GPT-2 est en plus d'éclatée de nombreuses pré-créatives. Nous avons pensé de même d'une période d'une société et de plus de même présentation. Nous y allons les gens de la personne qui vous fermé par le nombreux mêmes créatures. Nous avons les nouveaux rôles pour la désordre de cette nouvelle période. Nous n'avons pas une expérience sur cette médaille et l'havre parmi les deux pays. Nous avons les nouvelles d'un nombre d'éléments pré-créatives qui nous sommes en débutants.

    Que pensez-vous des craintes d’utilisations non recommandées du GPT-2 exprimées par OpenAI ?
    Ces craintes d'utilisation son entreprises de niveaux sont d'abord sous le monde. Ce sont des produits qui ont utilisé la faculté d'une économie sécuritaire qui s'utilise à l'élimination de l'impôt et de l'économie des plus belles vapes, en s'appliquant pour le monde un des niveaux médicales, des prochaines d'utilisateur ou autres d'utilisateur de leurs services.


    PS : Les réponses ont été générés à l'aide de talktotransformer, visiblement il n'aime pas le français

  14. #14
    Membre expert
    Citation Envoyé par strato35 Voir le message
    Je pense que le modèle GPT-2 est en plus d'éclatée de nombreuses pré-créatives. Nous avons pensé de même d'une période d'une société et de plus de même présentation. Nous y allons les gens de la personne qui vous fermé par le nombreux mêmes créatures. Nous avons les nouveaux rôles pour la désordre de cette nouvelle période. Nous n'avons pas une expérience sur cette médaille et l'havre parmi les deux pays. Nous avons les nouvelles d'un nombre d'éléments pré-créatives qui nous sommes en débutants.
    On dirait le discours de nos politiciens...

  15. #15
    Expert éminent
    Citation Envoyé par strato35 Voir le message
    Ces craintes d'utilisation son entreprises (...)
    n'empêche l'algo intègre des fautes de syntaxe et de sémantique comme les gens de la vraie vie, c'est bluffant

  16. #16
    Membre averti
    les groupes extrémistes peuvent utiliser le GPT-2 à mauvais escient, notamment en peaufinant les modèles du GPT-2 selon quatre positions idéologiques : suprématie blanche, marxisme, islamisme jihadiste et anarchisme
    Une liste curieusement sélective. Bien d'autres "ismes" et autres idéologies et tribalismes divers (nationalismes, capitalisme, religions, etc) pourraient utiliser ce logiciel. Qui est qualifié pour décider quelles sont les "bonnes" utilisations politiques de ce logiciel ?
    D'ailleurs je n'ai pas bien compris où est le danger. Qu'est-ce qui empêche de rédiger des faux et autres textes malveillants à la main, comme depuis toujours. Le danger spécifique de certains outils internet est de faciliter la diffusion massive de ces texte, bien plus que leur rédaction.

    EDIT : Je n'avais pas vu le gag de stratos35. C'est surprenant. Si GPT-2 est vraiment de ce niveau, il n'y a vraiment pas de quoi s"inquiéter. Mais peut-être est-il plus convaincant en anglais ?
    Linux Mint 20 64-bits Mate
    1984 est passé, les émules de Big Brother nous surveillent.

  17. #17
    Membre à l'essai
    TextToTransformer et la créativité
    Juste pour le fun, un auteur a tester l'IA. Les résultats sont "marrants"
    https://robertforge.wordpress.com/20...tes-histoires/

  18. #18
    Membre averti
    Bon, en fait, sur le français, on est tranquilles, le modèle est clairement fait pour de l'anglais

    l'exactitude de la détection dépend en grande partie des méthodes d'échantillonnage utilisées pour la formation et les tests
    donne
    l'exactitude de la détection dépend en grande partie des méthodes d'échantillonnage utilisées pour la formation et les tests de son détecteur de l'éventail. Il sera réunisé, de plus, la séquence et la recherche, des méthodes éventilissantes. Enfin, il fait plusieurs précis que l'éventail de l'énergie dans le monde de l'équipe ne s'était pas échoué et peut-être pas être très produit. Il a fait d'éviter un réseau suivante d'un équipe et l'étendu d'une recherche de ses tests en détecteur d'un nouveau détection
    .

  19. #19
    Chroniqueur Actualités

    OpenAI lance une API multitâche destinée à ses modèles d'IA basés sur du texte
    OpenAI lance une API multitâche destinée à ses modèles d'IA basés sur du texte,
    Qu’il va commencer à commercialiser

    OpenAI a publié jeudi une API pour accéder aux nouveaux modèles d'intelligence artificielle développés par l’organisation. La particularité de la nouvelle API, selon l’organisation, est que contrairement à la plupart des systèmes d'IA qui sont conçus pour un seul cas d'utilisation, cette API fournit une interface à usage général, permettant aux utilisateurs de l'essayer sur pratiquement n'importe quelle tâche linguistique pourvu qu’elle soit en anglais. Elle peut être appliquée, avec seulement quelques données d’exemples, sur la recherche sémantique, le résumé, l’analyse des sentiments, la génération de contenu, la traduction, et plus encore, d’après une l’annonce d’OpenAI.

    OpenAI est une organisation à but non lucratif qui a été cofondée en 2015 par Elon Musk, le PDG de Tesla Motors et de SpaceX, et Sam Altman, président de l’incubateur Y Combinator. Elon Musk a ensuite quitté la direction de l’organisation. OpenAI a pour vision de développer une intelligence artificielle générale sûre qui pourra profiter à toute l’humanité. Si vous avez toujours voulu essayer la fameuse boîte à outils d'apprentissage machine d'OpenAI, c'est devenu beaucoup plus facile. La nouvelle API de la société permet aux développeurs d'appeler ses outils d'IA sur « pratiquement n'importe quelle tâche en langue anglaise ».


    Selon l’organisation, vous pouvez "programmer" l’API en lui montrant quelques exemples de ce que vous aimeriez qu'elle fasse. Elle vous permet également d'affiner les performances sur des tâches spécifiques en se formant sur un ensemble de données (petit ou grand) d'exemples que vous fournissez, ou en apprenant à partir des commentaires humains fournis par les utilisateurs. En présence de toute invite de texte, l'API renvoie un texte complétion, en essayant de correspondre au modèle que vous lui avez donné.

    « Nous avons conçu l'API pour qu'elle soit à la fois simple à utiliser pour tout le monde, mais aussi suffisamment souple pour rendre les équipes d'apprentissage machine plus productives. En fait, beaucoup de nos équipes utilisent maintenant l'API afin de pouvoir se concentrer sur la recherche en apprentissage machine plutôt que sur les problèmes de systèmes distribués. Aujourd'hui, l'API fait fonctionner des modèles avec des pondérations de la famille GPT-3 avec de nombreuses améliorations de vitesse et de rendement », lit-on dans l’article de blog publié jeudi.

    Que fait l’API d’OpenAI ?

    Si vous avez une tâche qui nécessite de comprendre des mots en anglais, OpenAI veut vous aider à l'automatiser. Les différentes capacités de la famille GPT-3 de modèles de compréhension du langage naturel sont mises à la disposition des développeurs qui peuvent accéder à la bêta privée. Dans le cadre de la recherche sémantique, l'API permet de rechercher des documents en se basant sur la signification en langage naturel des requêtes plutôt que sur la correspondance par mot-clé. Par exemple, vous pourriez compter sur sa capacité à parcourir beaucoup de texte à la fois pour répondre à une question sur un article ou trouver une partie pertinente.

    L'API peut permettre également des discussions rapides, complexes et cohérentes en langage naturel, dans le cadre du chat. Avec une brève invite, l'API génère des dialogues couvrant un large éventail de sujets, allant des voyages dans l'espace à l'histoire, d’après la société. En exploitant les capacités de recherche et de chat, l'API génère un dialogue naturel pour donner rapidement aux clients des informations pertinentes, ce qui pourrait être utile aux services clientèle. Grâce à la compréhension sémantique des textes, l'API peut offrir une gamme d'outils d'analyse et de productivité pour mieux servir les clients.

    Jusqu'à présent, OpenAI dit être associée à une douzaine de sociétés pour tester l'API avant de la proposer à plus grande échelle. L’une des sociétés est Quizlet, une plateforme d'apprentissage qui fournit des outils d'étude pour aider les gens à pratiquer et à maîtriser ce qu'ils apprennent. Combinant les sciences cognitives et l'apprentissage automatique, Quizlet guide les étudiants à travers des activités d'étude adaptative pour qu'ils atteignent avec confiance leurs objectifs d'apprentissage.

    L'une des utilisations les plus courantes de Quizlet est d'apprendre du vocabulaire plus rapidement. Pour permettre une compréhension plus approfondie que la mémorisation par cœur, Quizlet s'appuie sur les puissantes capacités de génération de texte d'OpenAI pour générer automatiquement des exemples de la façon dont chaque mot de vocabulaire peut être utilisé dans une phrase, lit-ont dans l’article d’OpenAI. Selon l’organisation, « en combinant l’API d'OpenAI avec son travail d'apprentissage automatique, Quizlet pourra développer des phrases d'exemples pour les personnes qui étudient le vocabulaire et les langues, comme le fait un tuteur, afin d'aider les étudiants à intégrer leurs connaissances de manière ludique et à se tester de manière plus complète ».


    La technologie de génération de texte d'OpenAI devient commerciale

    L’outil de génération de texte d'OpenAI a été très applaudi lors de la publication l’année dernière du générateur de texte GPT-2. Au départ en février, OpenAI a limité la divulgation du GPT-2 pour des raisons, telles que la génération massive de fausses nouvelles ou de spam à des fins malveillantes. L’organisation a ensuite publié l'intégralité du code en novembre et déclaré qu'il n'avait « aucune preuve substantielle d'utilisation abusive ».

    Le projet a été largement considéré comme une avancée majeure. Les utilisateurs peuvent saisir chaque invite de texte du GPT-2 - plusieurs lignes d'une chanson, une brève histoire et même un article scientifique - et le logiciel continuera à écrire, dans une certaine mesure en faisant correspondre le style et le contenu. Cette année, OpenAI a annoncé une version plus avancée et 100 fois plus grande du système, appelée GPT-3, qui est maintenant devenue son premier produit commercial.

    Alors que le laboratoire a été fondé en 2015 en tant que société à but non lucratif, en mars 2019, la société a annoncé la création d’une division, cette fois-ci à but lucratif, dénommé OpenAI LP pour générer des profits afin de pouvoir financer ses recherches. Les responsables du laboratoire ont déclaré qu'il était nécessaire d'attirer les investissements, dont 1 milliard de dollars de Microsoft, nécessaires au financement de ses travaux ambitieux. Cependant, certains chercheurs en IA ont critiqué cette décision et ont déclaré qu'elle affaiblit les affirmations du laboratoire selon lesquelles « le bénéfice de l'humanité est une IA sophistiquée ».

    Le lancement jeudi du premier produit commercial d'OpenAI complète la métamorphose, et plusieurs vont maintenant observer attentivement comment cette nouvelle ligne de travail change leurs priorités de recherche. Toutefois, dans son article de blog, OpenAI dit que les nouvelles mesures prises dans le domaine des affaires ont uniquement pour but de donner à l’organisation les moyens pour mener à bien les recherches avancées profitables à l’humanité.

    « En fin de compte, ce qui nous importe le plus est de faire en sorte que l'intelligence générale artificielle profite à tous. Nous considérons le développement de produits commerciaux comme l'un des moyens de nous assurer que nous disposons de suffisamment de fonds pour réussir », lit-on.

    OpenAI dit également qu’une API commerciale lui permettra de travailler en étroite collaboration avec des partenaires pour voir quels sont les défis à relever lorsque les systèmes d'IA sont utilisés dans le monde réel. « Cela nous aidera à orienter nos efforts pour comprendre comment se fera le déploiement des futurs systèmes d'IA et ce que nous devons faire pour nous assurer qu'ils sont sûrs et bénéfiques pour tous », a ajouté la société.

    OpenAI veut également avoir le contrôle des utilisateurs de son outil, ce qui permettra de réduire les risques d'abus tout en permettant de mieux comprendre les implications et les limites de l'API. « Nous mettrons fin à l'accès à l'API pour les cas d'utilisation qui causent un préjudice physique ou mental aux personnes, y compris mais sans s'y limiter, le harcèlement, la tromperie intentionnelle, la radicalisation, l'astroturfing ou le spam ; à mesure que nous acquerrons plus d'expérience dans l'exploitation pratique de l'API, nous espérons élargir et affiner ces catégories », c’est la réponse d’OpenAI à la question de savoir ce que fera la société en cas d'utilisation abusive de l'API.

    Le lancement de l’API basée sur le GPT-3 a suscité l’enthousiasme parmi les commentateurs qui y voient la démocratisation de la technologie. « Proposer le plus grand modèle jamais formé (avec des résultats proches de ceux de Turing pour certaines tâches) est une démocratisation de la technologie qui, autrement, aurait été réservée aux organisations bien financées », a écrit l’un d’entre eux. Cependant, d’autres craignent que les sociétés utilisent l’outil de façon abusive. Et vous, qu’en pensez-vous ?

    Source : OpenAI

    Et vous ?

    Que pensez-vous de la nouvelle API d’OpenAI ?
    L’API d’OpenAI est payante et à la disposition des grandes et petites entreprises. Quel commentaire en faites-vous ?
    Que pensez-vous des craintes d’utilisations abusives de l’outil exprimées par certains ?

    Lire aussi

    OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée, mais le modèle n'est pas encore parfait
    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    OpenAI crée OpenAI LP en tant qu'hybride d'une société à but lucratif et non lucratif, pour générer de profits et se financer
    Microsoft vient de construire un supercalculateur de classe mondiale exclusivement pour OpenAI, afin de former de très grands modèles d'intelligence artificielle
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

###raw>template_hook.ano_emploi###