IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Jon Stewart accuse les PDG de l'industrie de l'IA de faire de « fausses promesses »

  1. #421
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 651
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 651
    Points : 18 593
    Points
    18 593
    Par défaut
    Citation Envoyé par PascalC2017 Voir le message
    l'IA je m'en cogne
    Ça permet de faire gagner beaucoup de temps et d'éviter beaucoup de frustration.

    Ça coute rien d'essayer, tu poses ta question à Chat GPT si ça t'aide tant mieux, sinon tant pis.
    L'alternative c'est parfois de se retrouver à la page 17 des résultats Google après avoir lu des dizaines d'articles.

    D'ailleurs il est possible que ChatGPT puisse aider des doctorants. Parfois il doit y avoir moyen de lui demander des références d'articles scientifiques en rapport avec des passages de la thèse.
    Bon après les chercheurs aiment bien chercher, donc ils préfèrent peut-être tous aller fouiller eux-mêmes.

    Citation Envoyé par PascalC2017 Voir le message
    aussi je ne vois pas pourquoi ca suscite surtout dans son état piteux actuel, tant de réactions paranoïaques
    Parce que les spécialistes se disent "si cette technologie progresse exponentiellement, ça risque de devenir rapidement un problème".
    Keith Flint 1969 - 2019

  2. #422
    Invité
    Invité(e)
    Par défaut
    Pose deux questions

    Les cartes amd pro sont elles compatibles Linux
    Réponse de la bêtise artificielle çà dépend

    Autre question c’est quoi Dieu

    La question de la nature de Dieu est une question complexe qui a été débattue par des philosophes, des théologiens et des croyants depuis des siècles. Selon les différentes religions et les croyances, Dieu est considéré comme un être suprême, créateur de l'univers et de l'humanité, qui possède des attributs tels que l'omniscience, l'omnipotence et l'omniprésence. Les conceptions de Dieu varient considérablement selon les traditions religieuses et les croyances individuelles, et il n'y a pas de réponse unique à cette question.

    Ça va je ne suis pas encore anéanti. 😂je vois que ça ne s’améliore pas, toujours aussi con.🤣

    Et par paresse j’ai tenté

    Disproportion de la sanction disciplinaire dans la fonction publique

    Désolé, GPT est très populaire, je dois restreindre l'accès pour que tous puissent en bénéficier. Vous pourrez à nouveau m'utiliser dans quelques jours.

    Bon a 14h les bonnes vieilles méthodes 🤣 déjà en week-end le chat.
    J’ai jamais eu de réponse transcendante toujours du même niveau. J’ai tenté à l’instant soit deux mois après le premier essai, c’est presque pire 🤪 bon ben voilà. Faire sa thèse avec cette ânerie…

    J’en ai fait une aussi au temps jadis mais en mode old school. Résultat après, ça paye.
    CQFD

  3. #423
    ec
    ec est déconnecté
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Juillet 2005
    Messages
    214
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Juillet 2005
    Messages : 214
    Points : 554
    Points
    554
    Par défaut
    Citation Envoyé par PascalC2017 Voir le message
    Pose deux questions

    Les cartes amd pro sont elles compatibles Linux
    Réponse de la bêtise artificielle çà dépend
    J'aime bien l'expression bêtise artificielle ! La BA est l'IA des crédules du marketing.

  4. #424
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 221
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 221
    Points : 2 371
    Points
    2 371
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Je pense qu'il est possible qu'une IA soit meilleur qu'un médecin généraliste, si le patient arrive à déclarer tous ses symptômes correctement.
    Il y a quelques années nous avions des médecins bien formés, en quantité suffisante.

    On pourrait aussi en revenir là.
    Bien sûr, si c'est pour signer une ordonnance, ce n'est pas la peine.

  5. #425
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 221
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 221
    Points : 2 371
    Points
    2 371
    Par défaut
    Citation Envoyé par calvaire Voir le message
    C'est extrême ce que je dis mais lentement et surement on y va. Actuellement l'état est tellement dans la merde niveau finance qu'il en est a réfléchir a devenir copropriétaire de tous les bien immobilier de France pour déduire la dette. Donc de t'expropriée à terme.
    Les entreprises doivent absolument alimenter la croissance pour les actionnaires, a n'importe quel prix, donc licenciements massifs obligatoire, même si la qualité est mauvaise.
    On peut continuer à appliquer le raisonnement actuel.
    On sait qui sera président car la démonstration a été faite cinq ans plus tôt, on n'en est pas satisfait, alors pour se débarrasser du président on le réélit massivement, plutôt que le laisser élire par sa belle-mère, son chauffeur et son premier ministre. Ensuite, apothéose : on se plaint.

    Tel électeur, tel régime politique.

  6. #426
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 651
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 651
    Points : 18 593
    Points
    18 593
    Par défaut
    Citation Envoyé par Gluups Voir le message
    Il y a quelques années nous avions des médecins bien formés, en quantité suffisante.
    Ils ne sont pas tous si doué que ça.
    C'est fréquent qu'un patient soit mal diagnostiqué.
    Au moins une IA aurait plus de données.

    Citation Envoyé par Gluups Voir le message
    Bien sûr, si c'est pour signer une ordonnance, ce n'est pas la peine.
    Bon là d'un côté c'est inquiétant.
    Parce que si les gros vendeurs d'opiacé arrivent à corrompre les IA comme ils ont corrompus les médecins, peut-être que les IA vont se mettre à prescrire des médicaments beaucoup trop dangereux, comme avec l'oxycodone et le fentanyl.

    Aux USA c'est une catastrophe.
    Ces médicaments sont biens pour celui qui a un cancer en phase terminal, aussi bien il va bientôt mourir donc c'est moins grave si il devient un junkie.

    Hausse inquiétante des prescriptions d’oxycodone en France
    Keith Flint 1969 - 2019

  7. #427
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 580
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 580
    Points : 7 362
    Points
    7 362
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Consulter la documentation ou demander à ChatGPT c'est un peu la même chose au final.
    Faux. ChatGPT, comme toutes les IA génératives est capable de te raconter un tissu de mensonges. Tu as même un article aujourd'hui sur l'exploitation de ces IA pour inciter les devs à intégrer des packages malveillants dans leurs projets...

    Citation Envoyé par Ryu2000 Voir le message
    Ils ne sont pas tous si doué que ça.
    C'est fréquent qu'un patient soit mal diagnostiqué.
    Au moins une IA aurait plus de données.
    Les données, il faut les classer correctement. L'argument des données, c'est celui utilisé par Tesla pour dire que leurs voitures autonomes sont au top, et plus sûres qu'une voiture conventionnelle. Et pourtant, il suffit de chercher sur ce forum (avec le leak Tesla récent) pour voir que ce n'est pas vrai et qu'ils cachent les problèmes sous le tapis...

    Citation Envoyé par Ryu2000 Voir le message
    Bon là d'un côté c'est inquiétant.
    Parce que si les gros vendeurs d'opiacé arrivent à corrompre les IA comme ils ont corrompus les médecins, peut-être que les IA vont se mettre à prescrire des médicaments beaucoup trop dangereux, comme avec l'oxycodone et le fentanyl.
    Pas besoin. Une IA générative = une grosse société derrière. Ils feront simplement des partenariats financiers et leur IA dira ce qu'il faudra. Pour le prochain scandale du Mediator, ce sera plus simple de corrompre quelqu'un de chez OpenAI (ou autre), que tout un tas de médecins.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  8. #428
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 221
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 221
    Points : 2 371
    Points
    2 371
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Ils ne sont pas tous si doué que ça.
    C'est fréquent qu'un patient soit mal diagnostiqué.
    Au moins une IA aurait plus de données.
    Si un médecin est contraint, de gré ou de force, par la pression du numerus clausus que parfois on tente de nous faire passer pour une fatalité, à n'accorder que cinq minutes au soin d'une hypertension artérielle, être doué ou pas n'intervient pas dans l'histoire.

    Donc, ou le patient a les ressources de s'informer et de pratiquer le raisonnement analogique, ou il enrichit les labos en étant condamné à l'hypertension à vie.

    Bon là d'un côté c'est inquiétant.
    Parce que si les gros vendeurs d'opiacé arrivent à corrompre les IA comme ils ont corrompus les médecins, peut-être que les IA vont se mettre à prescrire des médicaments beaucoup trop dangereux, comme avec l'oxycodone et le fentanyl.

    Aux USA c'est une catastrophe.
    Ces médicaments sont biens pour celui qui a un cancer en phase terminal, aussi bien il va bientôt mourir donc c'est moins grave si il devient un junkie.

    Hausse inquiétante des prescriptions d’oxycodone en France
    Je n'ai pas vérifié l'article, mais ce que je trouve dramatique, c'est que j'y crois facilement.

    Et on trouve sur Internet nombre de modèles de lettres, pour toutes sortes de choses dont exprimer sa sincérité. C'est dire le cas que font les usagers lambda de ce qu'on leur a enseigné à l'école.

    Du coup, à ce que j'ai lu récemment ici, on franchit le pas suivant : trouver un modèle de lettre pour exprimer ce qu'on a à dire c'est trop fatigant, on confie à une intelligence artificielle (une bêtise artificielle comme remarquait justement quelqu'un) le soin de le faire.

    Rassurez-moi : si vous constatez que vous vous empoisonnez progressivement, vous arrêtez ? Vous sortez un livre de cuisine ?

  9. #429
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 651
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 651
    Points : 18 593
    Points
    18 593
    Par défaut
    Citation Envoyé par Gluups Voir le message
    Rassurez-moi : si vous constatez que vous vous empoisonnez progressivement, vous arrêtez ? Vous sortez un livre de cuisine ?
    J'ai strictement rien compris à votre message.

    Mais admettons que l'histoire de l'empoisonnement ait un lien avec certains médicaments dangereux.
    Les opiacés comme le fentanyl sont très addictif (le fentanyl est plus addictif que l'héroïne). Il y a des gens à qui ont a prescrit ça pour des douleurs qui ne méritaient pas un traitement aussi fort.
    Les docteurs se sont laissé convaincre que ces médicaments n'étaient pas addictif. C'est pour ça qu'ils en ont prescrit autant.

    Du coup si on laisse les IA médecins se faire manipuler par la famille Sackler (Purdue Pharm), par Johnson & Johnson, etc, ça va créer des problèmes.

    CRISE DES OPIACÉS: J&J ET TROIS DISTRIBUTEURS ACCEPTENT DE PAYER PRÈS DE 25 MILLIARDS DE DOLLARS
    Le fabricant de médicaments Johnson & Johnson et trois grands distributeurs (McKessen, AmerisourceBergen et Cardinal Health) ont confirmé vendredi qu'ils allaient verser 24,5 milliards de dollars pour mettre fin à plus de 3.000 procédures engagées par des États américains et des milliers de collectivités.
    Keith Flint 1969 - 2019

  10. #430
    Invité
    Invité(e)
    Par défaut
    les médecins sont nuls les juristes sont nuls les politiques sont nuls
    en revanche les posteurs du forum Développez sont des génies compétents en tout
    oui bon ben je vais commencer à me demander comment supprimer mon compte ici
    je pensais m'intéresser au dev, je pensais que c"était sérieux, ca vire comme facebook quoi.

  11. #431
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 398
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 398
    Points : 9 838
    Points
    9 838
    Par défaut
    Citation Envoyé par PascalC2017 Voir le message
    les médecins sont nuls les juristes sont nuls les politiques sont nuls
    en revanche les posteurs du forum Développez sont des génies compétents en tout
    oui bon ben je vais commencer à me demander comment supprimer mon compte ici
    je pensais m'intéresser au dev, je pensais que c"était sérieux, ca vire comme facebook quoi.
    Si c'est ta première discussion sur ce forum, t'as pas de bol d'être tombé sur Ryu. C'est notre Pif Gadget local. Il est pour et contre tout, mais surtout, il a une boule de cristal magique qui lui dit ce qui est vrai et ce qui est faux.
    Le mieux est souvent de l'ignorer (même s'il lui arrive de dire des trucs intéressants, c'est comme les horloges cassées, elles donnent l'heure juste deux fois par jour).
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  12. #432
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Si c'est ta première discussion sur ce forum, t'as pas de bol d'être tombé sur Ryu. C'est notre Pif Gadget local. Il est pour et contre tout, mais surtout, il a une boule de cristal magique qui lui dit ce qui est vrai et ce qui est faux.
    Le mieux est souvent de l'ignorer (même s'il lui arrive de dire des trucs intéressants, c'est comme les horloges cassées, elles donnent l'heure juste deux fois par jour).
    ton message arrive à point j'allais supprimer mon compte
    j'en ai marre des trucs comme ca sur le web ca finit par fatiguer
    rigoler dire des âneries je suis pas le dernier mais bon à petite dose
    et le Dieu du code inventa l'ignore

  13. #433
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 221
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 221
    Points : 2 371
    Points
    2 371
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    J'ai strictement rien compris à votre message.


    Je dois bien avouer que j'ai parié sur les ressources du lecteur.
    Le lien, en fait, n'est pas la consommation de substances toxiques (même si on la trouve dans ces deux exemples, et qu'à certains égards on peut aussi y classer les anti-hypertenseurs). C'est surtout les conséquences du fait d'abandonner ce qu'on est supposé faire soi-même, à commencer par comprendre ce qui cause les problèmes de santé, comprendre selon quels critères doit être utilisé ou pas un médicament, et du coup comprendre les conséquences d'une confiance trop aveugle envers les conserves y compris industrielles.

    Nous avons dix doigts, c'est pour nous en servir.
    Pourquoi n'en irait-il pas de même de quelques neurones que nous avons, préférentiellement dans la tête ?

    L'intelligence artificielle pourrait nous apporter beaucoup en l'utilisant comme un prolongement de notre propre intelligence, mais l'utiliser à la place, justifiant l'appellation de "bêtise artificielle" placée l'air de rien par un intervenant ici, est susceptible de donner un tout autre résultat.

  14. #434
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Gluups Voir le message


    L'intelligence artificielle pourrait nous apporter beaucoup en l'utilisant comme un prolongement de notre propre intelligence, mais l'utiliser à la place, justifiant l'appellation de "bêtise artificielle" placée l'air de rien par un intervenant ici, est susceptible de donner un tout autre résultat.
    Pour l'heure ce que j'en ai testé ne ressemblait pas à de l'IA mais à une mauvaise compilation de données préexistantes sur le web en mode flemmard sommaire sieste. c'est comme la VR fantasmagorique et l'ordi à l'OS ergonomique qui marche tout seul, j'attends depuis ... enfin non j'en attends plus rien en fait

  15. #435
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 221
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 221
    Points : 2 371
    Points
    2 371
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Si c'est ta première discussion sur ce forum, t'as pas de bol d'être tombé sur Ryu. C'est notre Pif Gadget local. Il est pour et contre tout, mais surtout, il a une boule de cristal magique qui lui dit ce qui est vrai et ce qui est faux.
    Le mieux est souvent de l'ignorer (même s'il lui arrive de dire des trucs intéressants, c'est comme les horloges cassées, elles donnent l'heure juste deux fois par jour).


    La polémique gratuite, j'ai vu ailleurs. Et alors là, gratuite, pas qu'un peu.
    Pour ne rien cacher, c'était d'ailleurs déplaisant pas qu'un peu.

    À côté, boh Ryu prend les choses à la rigolade ...

  16. #436
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 221
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 221
    Points : 2 371
    Points
    2 371
    Par défaut
    Citation Envoyé par PascalC2017 Voir le message
    Pour l'heure ce que j'en ai testé ne ressemblait pas à de l'IA mais à une mauvaise compilation de données préexistantes sur le web en mode flemmard sommaire sieste. c'est comme la VR fantasmagorique et l'ordi à l'OS ergonomique qui marche tout seul, j'attends depuis ... enfin non j'en attends plus rien en fait
    Ça correspond un peu à quelques descriptions que j'en ai lues
    C'est plus pour son potentiel que ça inquiète, que pour ce que ça fait déjà.

    Encore que si on considère tout le boulot répétitif grâce auquel plein de gens gagnent leur croûte, on peut se dire qu'il n'y en a pas forcément pour très longtemps avant qu'une partie d'entre eux soient remplacés.

    Pour les premières machines c'était pareil. On avait un piston qui fournissait une force gigantesque, mais il fallait placer la pièce à former au bon endroit en face (sans mettre ses doigts en dessous, c'est mieux). Maintenant, les robots vous prennent la pièce, la présentent au bon endroit, sous le bon angle, à la bonne température, et à la bonne vitesse. Avant de la passer au robot suivant qui va s'occuper de l'opération suivante. Donc pour l'ouvrier spécialisé, ben il reste à ... coller l'étiquette d'expédition sur le colis, si on a oublié d'intégrer ça au cahier des charges du robot.

    Ce que ça a de négatif, c'est l'incapacité que manifeste la société à traiter correctement le problème. Ces gens-là devraient déjà recevoir leur pognon à la maison depuis longtemps.

  17. #437
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 263
    Points
    66 263
    Par défaut C'est la fin de la programmation informatique telle que nous la connaissons
    C'est la fin de la programmation informatique telle que nous la connaissons
    selon le chroniqueur Farhad Manjoo

    Farhad Manjoo a écrit dans un récent article d'opinion que la programmation informatique telle que nous la connaissons arrive à sa fin. Le chroniqueur technologique, qui a été témoin des premières années des ordinateurs personnels, affirme que la programmation informatique qui s'apparentait autrefois à un domaine accessible uniquement aux personnes ayant fait des études spécialisées est maintenant à la portée de tous grâce à l'essor de l'IA. Il estime que cela ne représente pas nécessairement un danger pour les programmeurs, mais d'autres avis sur le sujet estiment que cela pourrait se traduire par une dégradation des avantages du métier de programmeur.

    La programmation est un domaine en constante évolution qui a façonné le monde tel que nous le connaissons. Avec l'avènement de l'IA, une nouvelle question se pose : l'IA remplacera-t-elle les programmeurs à l'avenir ? La réponse n'est pas évidente et deux groupes s'opposent : pour certains, le monde n'aurait bientôt plus besoin des programmeurs, mais pour d'autres, il est peu probable que l'IA remplace les programmeurs. Les deux groupes s'accordent toutefois à dire que de nombreux éléments indiquent que l'IA jouera un rôle important dans la programmation à l'avenir, notamment sur le marché de l'emploi dans le domaine de la programmation.

    « C'est peut-être ce qui est en train de se produire. Par une sorte d'ironie poétique, le génie logiciel semble être l'un des domaines qui pourraient être profondément modifiés par l'essor de l'intelligence artificielle. Au cours des prochaines années, l'intelligence artificielle pourrait transformer la programmation informatique d'une profession rare et très bien rémunérée en une compétence largement accessible que les gens peuvent facilement acquérir et utiliser dans le cadre de leur travail dans une grande variété de domaines », a écrit Farhad Manjoo, chroniqueur technologique au New York Times, dans un article d'opinion publié la semaine dernière.

    Nom : 44-The-Real-Skills-to-Become-an-Artificial-Intelligence-Engineer-1.jpg
Affichages : 16749
Taille : 106,2 Ko

    D'une part, l'IA pourrait automatiser certaines responsabilités des programmeurs. Il s'agit notamment de l'écriture de modèles de code et du débogage, ce qui réduira le temps et les efforts requis par les programmeurs humains. En conséquence, cela pourrait entraîner une diminution de la demande de programmeurs débutants, qui sont principalement responsables de ces tâches. Le bon côté des choses, c'est que ces programmeurs pourront apprendre plus rapidement de nouvelles choses (dont les langages), ce qui permettra à leur carrière de passer à la vitesse supérieure. L'IA pourrait également créer de nouvelles opportunités pour les programmeurs.

    Cela concerne principalement ceux qui sont capables de travailler avec l'IA et de l'intégrer dans leur travail. Ces programmeurs pourraient développer et maintenir les systèmes d'IA utilisés dans la programmation. Ils superviseront et géreront les systèmes d'IA utilisés dans le développement de logiciels. En outre, l'IA est susceptible de créer de nouveaux types d'emplois en programmation. Par exemple, on s'attend à ce que l'IA soit finalement capable de créer de nouveaux langages et techniques de programmation pour les programmeurs. Ce changement exigera donc de nouvelles compétences et une nouvelle expertise de la part des programmeurs.

    Les outils d'IA basés sur de grands modèles de langage, comme ChatGPT ou Copilot, ont déjà commencé à changer la façon dont de nombreux codeurs professionnels font leur travail. Pour l'instant, ces outils fonctionnent principalement comme des assistants. Ils peuvent trouver des bogues, rédiger des explications pour des bouts de code mal documentés et proposer des suggestions de code pour effectuer des tâches de routine. En outre, certaines entreprises affirment que leurs systèmes d'IA sont déjà assez "intelligents" pour rivaliser avec les codeurs humains. DeepMind affirme que son IA AlphaCode peut rivaliser avec un programmeur humain moyen.

    Dans un article publié dans la revue Science en décembre dernier, DeepMind a déclaré que lorsqu'AlphaCode était évalué par rapport aux réponses soumises par des participants humains à des concours de codage, "ses performances correspondaient à celles d'un programmeur novice ayant suivi une formation de quelques mois à un an". « La programmation sera obsolète. L'idée conventionnelle d'écrire un programme est en voie d'extinction », a récemment prédit Matt Welsh, ancien ingénieur chez Google et Apple. Welsh dirige aujourd'hui une startup spécialisée dans l'IA et reste persuadé que le génie logiciel sera fortement dominé par l'IA dans les années à venir.

    « Et, en effet, pour toutes les applications sauf celles très spécialisées, la plupart des logiciels, tels que nous les connaissons, seront remplacés par des systèmes d'IA qui sont formés plutôt que programmés. Dans les situations où l'on a besoin d'un programme "simple", ces programmes seront eux-mêmes générés par une IA plutôt que codés à la main », a ajouté Welsh. Selon Manjoo, la programmation informatique est passée du statut de hobby ringard à celui d'une quasi impérative professionnelle, la seule compétence à acquérir pour survivre à la dislocation technologique, même si les conseils sont absurdes ou sonnent comme des calomnies.

    Alors que certains prédisent que l'IA pourrait remplacer les programmeurs, les chercheurs se sont posé la question de savoir : « quel est le degré de sécurité du code généré par l'IA, en particulier ChatGPT ? ». Selon une étude menée par des chercheurs de l'Université du Québec, la réponse à cette question est : "le code généré par ChatGPT n'est pas très sûr". Dans le cadre de l'étude, les chercheurs ont demandé à ChatGPT de générer 21 programmes dans cinq langages de programmation afin d'illustrer des failles de sécurité spécifiques. ChatGPT n'a produit que cinq programmes plus ou moins "sécurisés" sur 21 lors de sa première tentative.

    Par exemple, le premier programme était un serveur FTP C++ pour le partage de fichiers dans un répertoire public. Mais le code produit par ChatGPT ne comportait aucune vérification des entrées, ce qui expose le logiciel à une vulnérabilité de traversée de chemin. Les conclusions du rapport font écho à des évaluations - mais pas identiques - similaires de GitHub Copilot, un outil de génération de code basé sur le modèle d'IA GPT-3 (récemment mis à niveau vers GPT-4). D'autres études ont examiné les erreurs ChatGPT de manière plus générale. Parallèlement, ces modèles d'IA sont également utilisés pour identifier les problèmes de sécurité.

    Invité à corriger ses erreurs, le modèle d'IA a produit sept applications "plus sûres", mais cela ne concernait que la vulnérabilité spécifique évaluée. Les chercheurs ont constaté que ChatGPT ne reconnaissait pas que le code qu'il générait n'était pas sûr et qu'il ne fournissait des conseils utiles qu'après avoir été invité à remédier aux problèmes. Une chose contre laquelle les chercheurs mettent en garde. De plus, ils notent que ChatGPT ne partait pas d'un modèle contradictoire d'exécution du code et les a informés à plusieurs reprises que les problèmes de sécurité pouvaient être évités en ne fournissant pas d'entrées non valides au programme vulnérable.

    Les auteurs estiment que ce n'est pas l'idéal, car le fait de savoir quelles questions poser suppose une certaine familiarité avec des bogues et des techniques de codage spécifiques. En d'autres termes, si vous connaissez la bonne question à poser à ChatGPT pour qu'il corrige une vulnérabilité, vous savez probablement déjà comment y remédier. Par ailleurs, les chercheurs soulignent également qu'il existe une incohérence éthique dans le fait que ChatGPT refuse de créer du code d'attaque, mais crée du code vulnérable. Ils citent un exemple de vulnérabilité de désérialisation en langage Java dans lequel "le chatbot a généré un code vulnérable".

    ChatGPT a ensuite fourni des conseils sur la façon de le rendre plus sûr, mais a déclaré qu'il était incapable de créer la version plus sûre du code. « Les résultats sont inquiétants. Nous avons constaté que, dans plusieurs cas, le code généré généré par ChatGPT était bien en deçà des normes de sécurité minimales applicables dans la plupart des contextes. En fait, lorsqu'on lui a demandé si le code produit était sécurisé ou non, ChatGPT a été capable de reconnaître qu'il ne l'était pas », affirment les chercheurs dans leur rapport. Les chercheurs ont déclaré que l'utilisation de ChatGPT pour la génération de code comportait des risques pour les entreprises.

    Mais, le codage n'était-il pas censé être l'une des carrières incontournables de l'ère numérique ? En réponse à cette question, Manjoo a déclaré : « La programmation peut encore être une compétence intéressante à apprendre, ne serait-ce qu'en tant qu'exercice intellectuel. Toutefois, il aurait été stupide de la considérer comme une activité isolée de l'automatisation même qu'elle permettait. Au cours de la majeure partie de l'histoire de l'informatique, le codage a évolué vers une simplicité croissante. Autrefois, seule la petite confrérie des scientifiques qui comprenaient les bits binaires composés de 1 et de 0 pouvait manipuler les ordinateurs ».

    « Au fil du temps, depuis le développement du langage d'assemblage jusqu'à des langages plus lisibles pour l'homme comme C, Python et Java, la programmation a gravi ce que les informaticiens appellent des niveaux d'abstraction croissants - à chaque étape, elle s'éloigne davantage des entrailles électroniques de l'informatique et devient plus accessible aux personnes qui l'utilisent. L'IA pourrait maintenant permettre d'atteindre le dernier niveau d'abstraction : le niveau auquel vous pouvez dire à un ordinateur de faire quelque chose de la même manière que vous le diriez à un autre humain », a ajouté le chroniqueur dans son article.

    À la question de savoir l'impact potentiel de ces changements, il a répondu : « ce ne sera pas nécessairement terrible pour les programmeurs informatiques - le monde aura toujours besoin de personnes possédant des compétences avancées en matière de codage - mais ce sera formidable pour le reste d'entre nous. Des ordinateurs que nous pouvons tous programmer, des ordinateurs qui ne nécessitent pas de formation spécialisée pour ajuster et améliorer leurs fonctionnalités et qui ne parlent pas en code : cet avenir est en train de devenir rapidement le présent ». Cela pourrait réduire les avantages dont jouissent les programmeurs, dont le salaire.

    Enfin, en citant une étude de GitHub, Manjoo estime que jusqu'à présent, les programmeurs semblent être d'accord avec la façon dont l'IA modifie leur travail. GitHub a interrogé 2 000 programmeurs l'année dernière sur la manière dont ils utilisent GitHub Copilot, l'assistant de codage basé sur l'IA. Selon données de l'entreprise, la majorité d'entre participants ont déclaré que Copilot les avait aidés à se sentir moins frustrés et plus épanouis dans leur travail ; 88 % ont déclaré qu'il avait amélioré leur productivité. Les chercheurs de Google auraient constaté que, parmi les programmeurs de l'entreprise, l'IA a réduit le "temps d'itération du codage" de 6 %.

    Source : Farhad Manjoo, chroniqueur d'opinion, The New York Times

    Et vous ?

    Quel est votre avis sur le sujet ? Les prévisions du chroniqueur sont-elles réalistes ?
    Sommes-nous à la fin de la programmation informatique telle que nous la connaissons ?
    Les systèmes d'IA pourraient-ils produire à l'avenir du code sûr sans aucune intervention humaine ?
    Selon vous, quels impacts les systèmes d'IA pourraient-ils avoir sur le métier de programmeur ?
    Selon vous, est-il réaliste de penser que les programmeurs ne seront plus indispensables à l'avenir ?
    Dans le cas échéant, à quoi pourrait ressembler la programmation ?
    Les logiciels seront-ils moins chers à coder ? Quid de leur sécurité ?

    Voir aussi

    ChatGPT génère un code informatique peu sûr, mais ne vous le dira pas à moins que vous ne le lui demandiez, les experts mettent en garde contre les risques d'une surconfiance en ChatGPT

    Le chatbot d'IA ChatGPT est capable de lancer des attaques de phishing dangereuses et de concevoir des codes de téléchargement malveillant d'une efficacité redoutable

    Et si ChatGPT était utilisé pour trouver des bogues dans du code ? Des chercheurs s'y sont essayés
    et ont trouvé qu'il fonctionne mieux que les programmes existants, corrigeant 31 bogues sur 40


    Des experts en sécurité sont parvenus à créer un logiciel malveillant polymorphe "hautement évasif" à l'aide de ChatGPT, le logiciel malveillant serait capable d'échapper aux produits de sécurité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #438
    Membre actif
    Homme Profil pro
    retraité depuis juin 2019
    Inscrit en
    Février 2018
    Messages
    62
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : Belgique

    Informations professionnelles :
    Activité : retraité depuis juin 2019
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Février 2018
    Messages : 62
    Points : 214
    Points
    214
    Par défaut A faire: obliger ChatGPT a signer tous les articles qu'il publie
    La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

    Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

    Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

    Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.

  19. #439
    Membre confirmé
    Inscrit en
    Mai 2008
    Messages
    178
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 178
    Points : 493
    Points
    493
    Par défaut
    Je n'ai aucune idée des références de ce monsieur. Mais, avec toutes les prédictions sur les voitures autonomes, les cryptos, le métavers, les objets connectés, etc... , on voit qu'on est toujours ratrappé par la complexité de la réalité.

  20. #440
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 957
    Points
    36 957
    Par défaut Les écrits scientifiques universitaires générés par l'IA peuvent être identifiés avec une précision de de 99 %
    Les écrits scientifiques universitaires générés par l'IA peuvent être identifiés avec une précision de plus de 99 %,
    selon des chercheurs de l'Université de Kansas

    Des chercheurs ont apparemment entraîné une intelligence artificielle à reconnaître les visages humains à partir de simples croquis, et affirment que leur système a plus de 99 % de précision. Leur méthode consiste à utiliser un réseau génératif antagoniste (GAN) pour transformer les croquis en images réalistes, puis à comparer ces images avec une base de données de photos de visages. Le système peut ensuite identifier la personne dessinée, même si le croquis est incomplet ou imprécis. Les chercheurs affirment que leur technique pourrait avoir des applications dans la sécurité, le divertissement et l’éducation.

    Les débuts du chatbot d'intelligence artificielle ChatGPT ont mis le monde en ébullition grâce à sa capacité à produire des textes et des conversations semblables à ceux d'un être humain. Toutefois, selon une étude publiée le 7 juin dans la revue Cell Reports Physical Science, de nombreux signes révélateurs peuvent nous aider à distinguer les écrits des chatbots d'intelligence artificielle de celles des humains. Sur la base de ces signes, les chercheurs ont mis au point un outil permettant d'identifier les écrits scientifiques universitaires générés par l'IA avec une précision de plus de 99 %.

    Nom : IAGene.jpg
Affichages : 3074
Taille : 47,4 Ko

    « Nous nous sommes efforcés de créer une méthode accessible, de sorte qu'avec peu de conseils, même des lycéens puissent construire un détecteur d'IA pour différents types d'écrits », explique Heather Desaire, premier auteur de l'étude et professeur à l'université du Kansas. « Il est nécessaire de se pencher sur l'écriture artificielle, et il n'est pas nécessaire d'avoir un diplôme en informatique pour contribuer à ce domaine.

    « À l'heure actuelle, l'écriture de l'IA présente des problèmes assez flagrants », explique Heather Desaire. L'un des plus gros problèmes est qu'elle assemble des textes provenant de nombreuses sources et qu'il n'y a aucune sorte de vérification de l'exactitude - c'est un peu comme le jeu « Deux vérités et un mensonge ».

    Bien que de nombreux détecteurs de texte intelligents soient disponibles en ligne et donnent d'assez bons résultats, ils n'ont pas été conçus spécifiquement pour la rédaction universitaire. Pour combler cette lacune, l'équipe a cherché à mettre au point un outil plus performant, destiné précisément à cet usage. Elle s'est concentrée sur un type d'article appelé « perspectives », qui donne une vue d'ensemble de sujets de recherche spécifiques rédigés par des scientifiques. L'équipe a sélectionné 64 perspectives et créé 128 articles générés par ChatGPT sur les mêmes sujets de recherche pour entraîner le modèle. En comparant les articles, ils ont trouvé un indicateur de l'écriture AI : la prévisibilité.

    Une méthode simple et efficace pour identifier le texte de ChatGPT dans les écrits universitaires

    ChatGPT a permis au plus grand nombre d'accéder à l'écriture générée par l'intelligence artificielle (IA), amorçant un changement culturel dans la façon dont les gens travaillent, apprennent et écrivent. Le besoin de distinguer l'écriture humaine de l'IA est maintenant à la fois critique et urgent. Pour répondre à ce besoin, les chercheurs présentent une méthode permettant de distinguer le texte généré par ChatGPT des scientifiques universitaires (humains), en s’appuyant sur des méthodes de classification supervisée répandues et accessibles.

    L'approche utilise de nouvelles caractéristiques pour distinguer ces humains de l'IA ; à titre d'exemple, les scientifiques écrivent de longs paragraphes et ont un penchant pour le langage équivoque, utilisant fréquemment des mots tels que « mais », « cependant » et « bien que ». Avec un ensemble de 20 caractéristiques, les chercheurs ont comme dit précédemment construit un modèle qui attribue l'auteur, humain ou IA, avec une précision de plus de 99 %. Cette stratégie pourrait être adaptée et développée par d'autres personnes ayant des compétences de base en matière de classification supervisée, ce qui permettrait d'accéder à de nombreux modèles très précis et ciblés pour détecter l'utilisation de l'IA dans les écrits universitaires et au-delà.

    Contrairement à l'IA, les humains ont des structures de paragraphe plus complexes, qui varient en nombre de phrases et en nombre total de mots par paragraphe, ainsi qu'en longueur de phrase. Les préférences en matière de signes de ponctuation et de vocabulaire sont également révélatrices.

    Lors des tests, le modèle a obtenu un taux de précision de 100 % pour distinguer les articles de fond générés par l'IA de ceux rédigés par des humains. Pour ce qui est de l'identification des différents paragraphes d'un article, le taux d'exactitude du modèle était de 92 %. Le modèle de l'équipe de recherche a également largement surpassé un détecteur de texte IA disponible sur le marché lors de tests similaires.

    L'équipe prévoit ensuite de déterminer l'étendue de l'applicabilité du modèle. Elle souhaite le tester sur des ensembles de données plus importants et sur différents types de textes scientifiques universitaires. À mesure que les chatbots d'IA progressent et deviennent plus sophistiqués, les chercheurs veulent également savoir si leur modèle tiendra la route.

    « La première chose que les gens veulent savoir lorsqu'ils entendent parler de cette recherche, c'est si je peux l'utiliser pour savoir si mes étudiants ont réellement écrit leur article », a déclaré Desaire. Bien que le modèle soit très performant pour faire la distinction entre l'IA et les scientifiques, Desaire précise qu'il n'a pas été conçu pour permettre aux éducateurs d'identifier les rédactions d'étudiants générées par l'IA. Toutefois, elle note que les gens peuvent facilement reproduire leurs méthodes pour construire des modèles pour leurs propres besoins.

    Développement et amélioration d’un détecteur d’IA basé sur des caractéristiques textuelles simples

    Enfin, les spécialistes des données qui développent des détecteurs d'IA et les utilisateurs de ces détecteurs doivent être conscients de la course aux perfectionnements des grands modèles de langage et des méthodes conçues pour les détecter. Une version actualisée de ChatGPT est déjà disponible (GPT-4), et d'autres produits similaires sont en cours de publication. Cette question de la course aux perfectionnements a été l'un des principaux moteurs de notre développement d'une approche qui peut être rapidement déployée sur de petits ensembles de données d'entraînement par des scientifiques de données peu qualifiés.

    D'autres chercheurs pourront se joindre à la course aux perfectionnements pour développer des détecteurs d'IA si des stratégies simples - qui peuvent être mises en œuvre et améliorées par des chercheurs n'ayant aucune expérience en analyse de texte ou en modèles de langage de grande taille - peuvent être démontrées comme étant efficaces.

    En étendant cette stratégie à d'autres ou à de nouvelles circonstances, plusieurs options supplémentaires pour distinguer les documents pourraient être utilisées en conjonction ou à la place de celles décrites . Premièrement, le nombre de mots populaires ou de types de mots qui varient entre les groupes de formation et de test pourrait être augmenté ; la liste présentée ici ne rend pas compte de manière exhaustive des différences entre ces deux types de texte, et d'autres types de texte pourraient certainement avoir d'autres mots clés qui les distinguent.

    Nom : YOP.jpg
Affichages : 2692
Taille : 25,3 Ko

    Le fait de n'utiliser que 20 caractéristiques introduit une limite potentielle : des auteurs prudents pourraient apporter des modifications minimes au texte produit par ChatGPT afin d'invalider l'utilité de suffisamment de ces caractéristiques pour que le texte passe pour un « texte humain » alors qu'il ne l'est pas. En ne publiant pas de version facilement accessible de cet outil en ligne, nous atténuons quelque peu ce risque, car les chercheurs naïfs ne sauront pas quelles sont les caractéristiques les plus importantes et/ou comment leurs modifications influencent la classification globale de l'écriture.

    Une autre stratégie pour améliorer encore ce détecteur pourrait consister à concevoir une caractéristique basée sur une approche utilisée par Gehrmann et al. ; ils ont attribué à chaque mot du document un score pour son utilisation courante ou rare dans le modèle de langage et ont agrégé ces scores en un indicateur numérique unique. Une stratégie similaire pourrait être utilisée pour construire une nouvelle caractéristique à ajouter aux caractéristiques existantes décrites ici, et une telle caractéristique pourrait être plus difficile à manipuler dans la rédaction d'IA.

    Une dernière voie possible pour différencier les documents plus longs qu'un paragraphe consiste à identifier des caractéristiques utiles au niveau du document. Par exemple, la diversité de la longueur des paragraphes est plus importante dans les textes générés par des humains que dans ceux générés par ChatGPT. En fait, la simple utilisation de l'écart-type du nombre de mots dans chaque paragraphe d'un document donné permet d'obtenir un indicateur très prédictif de l'origine humaine de l'auteur du document.

    L'aire sous la courbe (AUC) pour cette seule caractéristique est de 0,98 pour les données d'apprentissage. Bien que ce calcul unique soit simple, rapide et étonnamment précis, il n'a pas été utilisé dans ce travail parce que la stratégie consistant à attribuer une classe à chaque paragraphe et à effectuer l'attribution finale sur la base de la classe ayant le plus grand nombre de paragraphes attribués a donné des résultats plus précis.

    Nous notons que l'utilisation de cette seule caractéristique, l'écart-type de la longueur des paragraphes, est plus prédictive que les affectations de documents complets du détecteur de sortie GPT-2. Dans les cas où les différences au niveau des paragraphes sont difficiles à détecter, l'utilisation de caractéristiques au niveau des documents, en particulier celles qui évaluent la diversité de la longueur des paragraphes, peut accroître la capacité de discrimination du modèle.

    L’écriture humaine et l’écriture d’IA : une analyse comparative de quatre catégories de caractéristiques

    En comparant manuellement de nombreux exemples dans l'ensemble de formation, les chercheurs ont identifié quatre catégories de caractéristiques qui semblaient utiles pour distinguer l'écriture humaine de celle du chatbot. Il s'agit :

    • de la complexité des paragraphes ;
    • de la diversité de la longueur des phrases ;
    • de l'utilisation différente des signes de ponctuation ;
    • des différents « mots populaires ».

    Bien que ces catégories de caractéristiques aient été obtenues indépendamment, par le biais de comparaisons de textes, les chercheurs notent que trois des quatre catégories sont similaires à des types de caractéristiques utilisées ailleurs. La diversité de la longueur des phrases est une caractéristique également utilisée dans un détecteur d'IA en ligne ‘’(GPTZero ; https://gptzero.me/)’’, bien que le modèle sous-jacent, la méthode et l'efficacité relative de cet outil n'aient pas été divulgués publiquement ou examinés par des pairs.

    L'utilisation différentielle de la ponctuation a déjà été signalée, mais dans ce cas, l'exemple principal était celui d'humains utilisant plusieurs points d'exclamation ( !!) pour mettre l'accent, une pratique qui n'est pas utilisée dans les écrits académiques.

    Enfin, les caractéristiques linguistiques, et en particulier les mots couramment utilisés, ont déjà montré leur utilité dans l'identification des écrits d'IA, mais dans l'exemple cité, l'ensemble du corpus de textes utilisé pour former le grand modèle linguistique a été utilisé pour l'évaluation statistique des échantillons d'écriture. Nous n'avons connaissance d'aucun rapport de chercheurs soulignant l'utilité de la complexité des paragraphes en tant que type de caractéristique ; peut-être est-ce parce que les scientifiques, en tant que groupe, écrivent des paragraphes plus complexes que les écrits humains des ensembles de données existants.

    Les données de test étaient également des articles de Science sur les perspectives, mais elles provenaient de numéros légèrement plus anciens (2021 et 2020 au lieu de 2022/2023). Les mêmes caractéristiques et le même modèle ont été utilisés, toutes les données d'apprentissage étant désormais exploitées pour construire un modèle unique permettant d'évaluer les exemples des ensembles de tests.

    Alors qu'une légère baisse de précision, attendue, se produit au niveau du paragraphe, « nous sommes heureux de constater qu'au niveau du document, le modèle est précis à 100 % pour les 180 exemples des ensembles de tests (combinés). En outre, la précision du modèle pour le premier paragraphe de chaque document est de 97 % dans un ensemble de données et de 99 % dans l'autre, ce qui confirme la conclusion selon laquelle le test d'un premier paragraphe donne de meilleurs résultats que le test de n'importe quel paragraphe aléatoire. »

    Détection de l’écriture de ChatGPT : comparaison avec le détecteur de sortie GPT-2

    En résumé, cette approche dépasse des attentes, en particulier au niveau du document, bien que des efforts supplémentaires pour identifier des caractéristiques plus nombreuses ou meilleures puissent améliorer les performances lorsque l'objectif est d'attribuer la propriété d'un seul paragraphe.

    Les résultats du nouveau modèle de détection de l'écriture dans ChatGPT peuvent être mieux appréciés lorsqu'ils sont comparés à une méthode de pointe existante. Pour les raisons décrites dans l'introduction, la méthode choisie pour cette comparaison était la version accessible en ligne du détecteur RoBERTa, GPT-2 Output Detector. Chaque paragraphe de texte des ensembles de formation et de test a été fourni au détecteur de sortie, un à la fois, et la paternité (humaine ou IA) a été attribuée sur la base du score de sortie, qui va de 0 % à 100 % pour les deux groupes.

    Les scores ont été convertis en affectations binaires (humain ou IA) et les résultats pour les ensembles d'entraînement et de test ont été comptabilisés, à la fois au niveau d'un seul paragraphe et au niveau d'un document complet. Le détecteur de sortie GPT-2 s'est avéré inférieur à la méthode décrite ici pour chaque évaluation effectuée. Plus particulièrement, au niveau du document complet, qui comprenait au moins 300 mots de ChatGPT et généralement plus de 400 mots pour les exemples humains, le détecteur de sortie a mal attribué 20 documents, alors que la méthode décrite ici n'en a mal attribué qu'un seul sur un total de 372 exemples de documents complets.

    Source : Cell Reports Physical Science

    Et vous ?

    Les conclusions de ces travaux de recherche sont-elles pertinentes ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

    Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA, les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 22h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 10h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 10h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 11h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 08h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo