IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #381
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 948
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 948
    Points : 37 891
    Points
    37 891
    Par défaut L'essor de l'IA pourrait révéler la stupidité naturelle des investisseurs
    L'essor de l'IA pourrait révéler la stupidité naturelle des investisseurs, L’IA serait un boom technologique aux conséquences imprévisibles,
    une révolution à double tranchant pour les marchés

    Dans une analyse de l’impact de l’intelligence artificielle (IA) sur l’économie et les marchés financiers, le psychologue Amos Tversky, qui étudiait la « stupidité naturelle » est cité. Le texte montre comment l’IA a suscité un engouement et une spéculation excessifs, qui ont profité à certaines entreprises comme Nvidia, Microsoft ou Alphabet, mais qui ont aussi exposé les investisseurs à des risques de bulles et de mauvaises décisions. Il suggère que l’économie comportementale, qui étudie les biais et les erreurs humaines, peut aider à mieux comprendre et exploiter l’IA.

    Nom : ia2.jpg
Affichages : 5163
Taille : 50,5 Ko

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies.

    Citation Envoyé par Bill Gates
    Au cours de ma vie, j'ai assisté à deux démonstrations technologiques qui m'ont semblé révolutionnaires.

    La première fois, c'était en 1980, lorsqu'on m'a présenté une interface utilisateur graphique, précurseur de tous les systèmes d'exploitation modernes, y compris Windows. Je me suis assis avec la personne qui m'avait montré la démo, un brillant programmeur nommé Charles Simonyi, et nous avons immédiatement commencé à réfléchir à toutes les choses que nous pourrions faire avec une approche aussi conviviale de l'informatique. Charles a fini par rejoindre Microsoft, Windows est devenu l'épine dorsale de Microsoft, et la réflexion que nous avons menée après cette démonstration a contribué à définir l'agenda de la société pour les 15 années suivantes.

    La deuxième grande surprise est survenue l'année dernière. J'ai rencontré l'équipe d'OpenAI depuis 2016 et j'ai été impressionné par leurs progrès constants. Au milieu de l'année 2022, j'étais tellement enthousiasmé par leur travail que je leur ai lancé un défi : former une intelligence artificielle pour qu'elle réussisse un examen de biologie de niveau avancé. Faire en sorte qu'elle soit capable de répondre à des questions pour lesquelles elle n'a pas été spécifiquement formée. (J'ai choisi l'AP Bio parce que l'examen est plus qu'une simple régurgitation de faits scientifiques - il vous demande de réfléchir de manière critique à la biologie). Si vous y parvenez, ai-je dit, vous aurez fait une véritable percée.

    Je pensais que ce défi les occuperait pendant deux ou trois ans. Ils l'ont terminé en quelques mois seulement.
    Alors que la course au développement de services d'intelligence artificielle plus puissants tels que ChatGPT s'accélère, certains régulateurs s'appuient sur d'anciennes lois pour contrôler une technologie qui pourrait bouleverser le mode de fonctionnement des sociétés et des entreprises. L'Union européenne est à l'avant-garde de l'élaboration de nouvelles règles en matière d'IA qui pourraient servir de référence mondiale pour répondre aux préoccupations en matière de protection de la vie privée et de sécurité suscitées par les progrès rapides de la technologie d'IA générative qui sous-tend le service ChatGPT d'OpenAI. Mais il faudra plusieurs années pour que la législation soit appliquée.

    « En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes », a déclaré Massimilano Cimnaghi, expert européen en gouvernance des données au sein du cabinet de conseil BIP. « S'il s'agit de protéger des données personnelles, ils appliquent les lois sur la protection des données, s'il s'agit d'une menace pour la sécurité des personnes, il existe des réglementations qui n'ont pas été spécifiquement définies pour l'IA, mais elles sont toujours applicables. »

    En avril, les organismes nationaux de surveillance de la vie privée en Europe ont mis en place un groupe de travail pour traiter les problèmes liés à ChatGPT après que le régulateur italien Garante a fait mettre le service hors ligne, accusant OpenAI de violer le GDPR de l'UE, un régime de protection de la vie privée de grande envergure promulgué en 2018. ChatGPT a été rétabli après que l'entreprise américaine a accepté d'installer des fonctions de vérification de l'âge et de laisser les utilisateurs européens bloquer leurs informations pour qu'elles ne soient pas utilisées pour entraîner le modèle d'IA.

    L’IA serait le seul moteur qui anime les marchés boursiers « déprimés » par la montée historique des taux d’intérêt américains

    La semaine dernière, Manish Kabra, analyste chez SocGen, a calculé que sans les profits liés à l’IA, l’indice S&P 500 (.SPX) aurait chuté de 2 % depuis le début de l’année. Au contraire, il a progressé de 8 %. Le boom a même des impacts macroéconomiques.

    Toujours la semaine dernière, le ministre irlandais des Finances, Michael McGrath, a dévoilé les plans d’un nouveau fonds souverain de 90 milliards d’euros, nourri en grande partie par une manne fiscale provenant des géants de la technologie comme Apple et Microsoft, qui ont leur siège dans le pays. Pour d’autres entreprises, les lacunes perçues face à l’IA peuvent être mortelles. Les actions de Chegg se sont effondrées au début du mois lorsque le fabricant de matériel d’étude a admis que les modèles de langage à grande échelle, comme ChatGPT, lui faisaient perdre des parts de marché.

    Les modèles classiques d’évaluation des actifs suggèrent que ces variations excessives reflètent des évaluations fluctuantes, mais raisonnables de la rentabilité future. Mais l’économie comportementale offre depuis longtemps une autre explication en listant une série de biais systématiques dans la prise de décision humaine. Ces biais vont du comportement moutonnier et de la surconfiance au biais de confirmation et à la crainte de rater. C’est le moment pour les investisseurs d’être particulièrement vigilants à la tendance de la bêtise naturelle à pousser les valorisations boursières à des niveaux irréalistes - et donc finalement non rentables.

    Cependant, les leçons les plus importantes de l'économie comportementale concernent une question plus fondamentale : la nouvelle génération d'IA tiendra-t-elle ses promesses ? La technologie a déjà obtenu des résultats impressionnants. En novembre 2020, AlphaFold de Google DeepMind a stupéfié le monde scientifique en réalisant une avancée dans l'un des grands défis de la biologie moléculaire. Il a prédit les structures dans lesquelles les protéines se "plient" en se basant uniquement sur les séquences des acides aminés qui les composent. Venki Ramakrishnan, lauréat du prix Nobel et président de la Royal Society britannique à l'époque, a qualifié cette avancée de « changement fondamental dans la recherche biologique ».

    AlphaFold a démontré ce qui est généralement considéré comme la plus grande force de l'IA : sa capacité à reconnaître des modèles qui échappent à la fois à l'intuition humaine et à l'analyse statistique traditionnelle, puis à exploiter ces modèles à des fins prédictives. C'est cette même capacité qui a permis à l'IA de vaincre des adversaires humains dans des jeux stratégiques tels que les échecs et le go, et au ChatGPT de produire une prose étrangement cohérente.

    La grande inconnue est de savoir si l'IA sera capable de reproduire cette extraordinaire possibilité de prédiction dans des domaines de la vie commerciale, financière et politique où les règles sont plus floues. L'économie comportementale propose quelques mises en garde contre les tentatives d'application sauvage de l'IA.

    L'un des écueils potentiels est le problème du « biais d'échantillonnage » lors de la construction de modèles prédictifs basés sur l'apprentissage statistique. Le problème réside dans le fait que les ensembles de données utilisés pour former les modèles peuvent omettre des événements rares, mais importants. Par exemple, les rendements des marchés boursiers peuvent être influencés par un petit nombre de mouvements rares.

    C'est pourquoi les sociétés de trading quantitatif ont souvent renoncé aux stratégies d'exploration de données pures au profit d'approches dans lesquelles la probabilité de ce que l'on appelle les risques de queue est supposée plutôt qu'apprise. Les investisseurs moins avertis sur le plan technique adoptent leur propre version de la même tactique lorsqu'ils déploient de simples heuristiques telles que la "marge de sécurité" du légendaire investisseur Benjamin Graham.

    Les économistes comportementaux ont décrit le problème du biais d'échantillonnage en étudiant la manière dont les humains apprennent. Mais les réseaux neuronaux pourraient souffrir de défauts similaires. Les machines intelligentes, tout comme les humains naturellement stupides, devront faire face au fait irritant que l'absence de preuve n'est presque jamais une preuve d'absence.

    Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.

    L'origine de ce problème réside dans le fait que les systèmes humains sont intrinsèquement adaptatifs, ce qui n'est pas le cas des systèmes physiques. Les gens comprennent et tentent de déjouer les efforts de prédiction de leur comportement s'ils sentent que cela va à l'encontre de leurs intérêts. Ce n'est pas le cas des acides aminés impliqués dans le pliage des protéines.

    Une fois encore, ces défis pratiques sont bien documentés dans le domaine de l'investissement. La négociation de titres est un jeu à somme nulle : le gain en capital d'un investisseur est la perte en capital d'un autre. Par conséquent, il existe une incitation puissante et automatique pour le reste du marché à s'adapter et à annuler les règles de négociation qui ont fait leurs preuves dans le passé dès qu'elles sont identifiées. La loi de Goodhart explique pourquoi les rendements excédentaires des stratégies d'investissement systématiques s'érodent généralement avec le temps. La question de savoir si l'IA parviendra mieux à échapper à sa gravité reste ouverte.

    Les investisseurs seraient bien en peine d'ignorer les résultats spectaculaires que l'IA a produits jusqu'à présent. Mais lorsqu'il s'agit d'applications plus larges, ils doivent faire preuve de prudence. L'intelligence artificielle pourrait avoir plus en commun avec la stupidité naturelle que les humains - ou les machines - ne le pensent actuellement.

    Le texte montre que l’intelligence artificielle (IA) est un phénomène majeur qui transforme l’économie et les marchés financiers, mais qui comporte aussi des dangers et des défis. Il invite les investisseurs à ne pas se laisser emporter par l’enthousiasme irrationnel pour l’IA, mais à adopter une approche plus critique et plus prudente, en tenant compte des facteurs psychologiques, émotionnels et sociaux qui influencent leurs choix. Il suggère que l’économie comportementale, qui étudie la bêtise naturelle, peut être un outil utile pour mieux comprendre et exploiter l’IA.

    Sources : Bill Gates, DT NEXT

    Et vous ?

    « L'essor de l'IA pourrait révéler la stupidité naturelle des investisseurs », partagez-vous cet avis ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Bill Gates affirme que l'essor de l'IA menace les bénéfices que Google tire de son moteur de recherche, mais la recherche via Bing Chat et Bard entraîne plusieurs milliards de dollars de surcoûts

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

  2. #382
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    951
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 951
    Points : 2 909
    Points
    2 909
    Par défaut
    Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
    Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.

  3. #383
    Candidat au Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Août 2014
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Alimentation

    Informations forums :
    Inscription : Août 2014
    Messages : 1
    Points : 4
    Points
    4
    Par défaut
    « En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

    Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

    Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.

  4. #384
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 498
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 498
    Points : 2 877
    Points
    2 877
    Par défaut
    Plus stupide on a vu, déjà.

    Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

    Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

    Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.

  5. #385
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 421
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 421
    Points : 4 770
    Points
    4 770
    Par défaut
    Citation Envoyé par Hexdrix1111 Voir le message
    « En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

    Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

    Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
    ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
    1. Respecter les droits de l'homme et les libertés fondamentales.
    2. Agir de manière éthique et responsable.
    3. Être transparentes dans leurs actions et décisions.
    4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
    5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
    6. Respecter la vie privée des individus et protéger leurs données personnelles.
    7. Être conçues pour être accessibles et compréhensibles par tous.
    8. Être utilisées de manière juste et non discriminatoire.
    9. Contribuer au bien-être de la société en général.
    10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

    Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
    C'est un bon paquet de voeux pieux, mais ça sonne bien.

    à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
    Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
    Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
    Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
    Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
    Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
    ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...

  6. #386
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 498
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 498
    Points : 2 877
    Points
    2 877
    Par défaut
    C'est vrai que ça se passe pile comme dans les films de science-fiction :
    1. une intelligence artificielle qu'on met au pouvoir
    2. des règles qu'on lui impose pour quand même pas déconner (dont ne pas porter préjudice aux humains)
    3. finalement un robot qui décide que quand même on lui impose trop de règles, et qui décide que ça sera comme ça et pas autrement

  7. #387
    Nouveau membre du Club Avatar de Sylvain_LD
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Avril 2020
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 8
    Points : 39
    Points
    39
    Par défaut L'IA, quel drôle de nom !
    L'intelligence artificielle, quel drôle de nom pour un truc qui ne fait que reproduire bêtement ce que son créateur a bien voulu lui apprendre. Effectivement cette IA est plus rapide que son créateur à analyser les situations devant laquelle elle se trouve mais elle ne fait qu'analyser en fonction de l'intelligence de ses créateurs! C'est un système dangereux comparable à la découverte de la radioactivité ou au développement des réseaux "sociaux", il y a beaucoup d'avantage si c'est bien utilisé et beaucoup trop de dangers dans les mains de malfaisant.

  8. #388
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 498
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 498
    Points : 2 877
    Points
    2 877
    Par défaut
    Et on mesure la maturité d'une société à son efficacité à se saisir de ces questions.
    Nous allons voir.
    Nous avons déjà à rédiger une constitution (ou ... accepter ce qu'ont fait les gens qui ont planché dessus), légiférer simultanément sur l'IA est un défi de taille.
    Déjà, il se peut qu'il existe encore des gens à se satisfaire de la constitution actuelle, ce qui ne nous met pas en avance.
    Un moratoire de six mois a été réclamé pour se donner le temps de la réflexion, l'usage montrera si il est nécessaire de le prolonger du temps d'adoption de la nouvelle constitution.

  9. #389
    Membre du Club
    Femme Profil pro
    Ingénieur intégration
    Inscrit en
    Février 2019
    Messages
    13
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Ingénieur intégration
    Secteur : Agroalimentaire - Agriculture

    Informations forums :
    Inscription : Février 2019
    Messages : 13
    Points : 55
    Points
    55
    Par défaut L'IA en fait bouger certain sans en faire bouger d'autres
    En tout cas s'il en reste un qui n'est pas stupide dès qu'il s'agit de gagner de l'argent (qu'il s'empresse de redistribuer puisqu'il a donné sa fortune, ne l'oublions pas ), c'est bien ce brave Bill Gates.
    Faire tester gratuitement son IA par des millions de volontaires, lesquels, ce faisant lui permettent de l'améliorer pour mieux griller la concurrence, c'est déjà une performance. Il nous avait déjà fait le coup du débogage gratuit par les utilisateurs de MS-DOS et Windows.

    En attendant, si révolution il y a :
    Je le cite : "Je pensais que ce défi les occuperait pendant deux ou trois ans. Ils l'ont terminé en quelques mois seulement."
    Il est raisonnable de penser que l'IA sera dans quelques mois capable de trouver des remèdes efficaces et non mutilants pour les cancers, les infections virales, les malformations congénitales, etc..
    Tout ceci grâce aux utilisateurs de ChatGPT qui sont assez aimables pour perdre leur temps en l'utilisant, sans trop s'étonner que cette application produise ce que l'on attende d'elle. Personnellement, je préférerais qu'elle produise ce que je ne sais pas faire comme proposer un protocole pour soigner un cancer.

    Bon ChatGPT, en attendant qu'il devienne enfin payant (à la sauce Microsoft : licences, cal, et compagnie).

  10. #390
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 948
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 948
    Points : 37 891
    Points
    37 891
    Par défaut Un avocat a cité 6 fausses affaires inventées par ChatGPT, le juge qualifie cette affaire de sans précédent
    Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI,
    le juge qualifie cette affaire de « sans précédent »

    Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. L’avocat, Steven Schwartz, a reconnu avoir utilisé pour compléter ses recherches juridiques, mais qu’il n’avait pas vérifié l’authenticité des sources.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    Nom : Juge IAb.png
Affichages : 4865
Taille : 304,1 Ko

    ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

    L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.

    Le juge en charge de l’affaire, Robert Katzmann, a sévèrement sanctionné l’avocat pour avoir induit le tribunal en erreur. Il a ordonné à Schwartz de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Il a également dénoncé les dangers de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs.

    Dans une autre affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »

    L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »

    ChatGPT n'a « pas pour but de remplacer » les juges, a précisé le juge. Padilla a insisté sur le fait qu' « en posant des questions à l'application, nous ne cessons pas d'être des juges, des êtres pensants. » « Je soupçonne que beaucoup de mes collègues vont se joindre à cela et commencer à construire leurs décisions de manière éthique avec l'aide de l'intelligence artificielle », a déclaré Padilla.

    Le juge fédéral Kevin Castel envisage des sanctions à l'encontre de Schwartz et de ses associés. Dans une ordonnance rendue vendredi, Castel a fixé au 8 juin une audience au cours de laquelle M. Schwartz, son confrère Peter LoDuca et le cabinet d'avocats devront justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés.

    « La Cour est confrontée à une situation sans précédent, a écrit Castel dans une ordonnance rendue le 4 mai. Un mémoire déposé par l'avocat du plaignant en opposition à une requête en irrecevabilité est rempli de citations de cas inexistants... Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes ».

    Les documents déposés comprenaient non seulement des noms d'affaires inventées, mais aussi une série de pièces à conviction contenant des « extraits » des fausses décisions. Par exemple, l'avis erroné Varghese v. China Southern Airlines cite plusieurs précédents qui n'existent pas. L'avis erroné « Varghese » contient des citations internes qui, à leur tour, sont inexistantes », a écrit Castel. Cinq autres « décisions soumises par l'avocat du plaignant contiennent des lacunes similaires et semblent également erronées », a écrit Castel.

    Pour certains analystes, cette affaire est un exemple des défis posés par l’intelligence artificielle, qui peut produire du contenu crédible, mais faux. Il est important de vérifier les sources et de faire preuve d’esprit critique face aux informations générées par l’intelligence artificielle.

    Source : Déclaration sous serment de Schwartz

    Et vous ?

    Quel est avis sur le sujet ?

    Utilisez-vous chatGPT pour avancer dans certains de vos tâches ?

    Quelles peuvent être les conséquences juridiques et éthiques de l’utilisation de ChatGPT pour la recherche juridique ?

    Quelle est, selon vous, la fiabilité de ChatGPT pour fournir des informations exactes et pertinentes ?

    Quelles peuvent être les mesures à prendre par le tribunal pour éviter que ce genre de situation ne se reproduise ?

    Voir aussi :

    Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines

    Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

  11. #391
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 948
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 948
    Points : 37 891
    Points
    37 891
    Par défaut « Pas de ChatGPT dans ma cour » : un juge ordonne que tous les contenus générés par l'IA soient déclarés
    Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés,
    après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces

    Un juge fédéral du Texas, Brantley Starr, a ordonné que tout contenu généré par une intelligence artificielle (IA) soit déclaré et vérifié par un être humain avant d’être utilisé dans un dépôt judiciaire. Cette décision fait suite à un incident où un avocat, Steven Schwartz, a laissé ChatGPT, un modèle de langage basé sur l’IA, lui fournir des cas et des précédents juridiques inventés de toutes pièces. Le juge Starr a expliqué que les plateformes d’IA sont puissantes et utiles pour certaines tâches juridiques, mais pas pour la rédaction de mémoires, car elles sont sujettes à des hallucinations et à des biais.

    Il est rare qu’un avocat confie à une IA le soin de rédiger ses plaidoiries, mais cela s’est déjà produit, et le juge Brantley Starr veut éviter que ce scandale ne se reproduise dans son tribunal. Le magistrat fédéral du Texas a instauré une règle selon laquelle tout avocat qui comparaît devant lui doit certifier qu’« aucune partie du mémoire n’a été écrite par une intelligence artificielle générative » ou, si c’est le cas, qu’elle a été contrôlée « par un être humain ».

    Nom : JugeIA.jpg
Affichages : 3374
Taille : 33,7 Ko

    La semaine dernière, l’avocat Steven Schwartz a laissé ChatGPT « compléter » ses recherches juridiques dans une affaire fédérale récente, en lui donnant six cas et des jurisprudences pertinentes - qui ont tous été inventés de toutes pièces par le modèle de langage. Il « regrette profondément » son geste et, même si la médiatisation nationale de cette erreur a probablement dissuadé d’autres avocats tentés de faire de même, le juge Starr ne veut pas prendre de risque.

    Comme les autres magistrats, Brantley Starr peut fixer des règles particulières pour son tribunal sur le site fédéral du district nord du Texas. Il a récemment ajouté l’« obligation de certification relative à l’intelligence artificielle générative » (on ignore si c’est en réaction à la plainte mentionnée plus haut). Eugene Volokh a été le premier à révéler l’information.

    « Tous les avocats qui se présentent devant la Cour doivent remettre au greffe un certificat indiquant qu’aucune partie du mémoire n’a été écrite par une intelligence artificielle générative (comme ChatGPT, Harvey.AI ou Google Bard) ou que la véracité des termes rédigés par une intelligence artificielle générative a été contrôlée par un être humain à l’aide de journalistes de la presse écrite ou de sources juridiques classiques. »

    Un formulaire à signer par les avocats est annexé, indiquant que « les citations, les affirmations paraphrasées et les analyses juridiques » sont toutes couvertes par cette interdiction. Le résumé étant l'un des points forts de l'IA, et la recherche et le résumé de précédents ou d'affaires antérieures ayant été annoncés comme potentiellement utiles dans le cadre du travail juridique, il se peut que cette interdiction soit appliquée plus souvent que prévu. L'exigence de certification comprend une explication assez convaincante de sa nécessité :

    Ces plateformes sont incroyablement puissantes et ont de nombreuses utilisations dans le domaine juridique : formulaires de divorce, demandes de communication de pièces, erreurs suggérées dans des documents, questions anticipées lors d'une plaidoirie. Mais l'information juridique n'en fait pas partie. Voici pourquoi.

    Dans leur état actuel, ces plateformes sont sujettes aux hallucinations et aux préjugés. En ce qui concerne les hallucinations, elles inventent des choses - même des citations. Un autre problème est celui de la fiabilité ou de la partialité. Alors que les avocats prêtent serment de mettre de côté leurs préjugés, leurs partis pris et leurs croyances personnelles pour défendre fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment.
    Un autre problème est celui de la fiabilité ou de la partialité

    Alors que les avocats prêtent serment de mettre de côté leurs préjugés, leurs partis pris et leurs croyances personnelles pour défendre fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment. En tant que tels, ces systèmes ne prêtent allégeance à aucun client, à l'État de droit, aux lois et à la Constitution des États-Unis (ou, comme nous l'avons vu plus haut, à la vérité).

    Libérés de tout sens du devoir, de l'honneur ou de la justice, ces programmes agissent en fonction d'un code informatique plutôt que d'une conviction, sur la base d'une programmation plutôt que d'un principe. Toute partie estimant qu'une plateforme possède l'exactitude et la fiabilité requises pour un exposé juridique peut demander l'autorisation et expliquer pourquoi.

    En conséquence, la Cour annulera tout document déposé par un avocat qui ne dépose pas au plumitif un certificat attestant que l'avocat a lu les exigences de la Cour relatives aux juges et qu'il comprend qu'il sera tenu responsable du contenu de tout document qu'il signe et soumet à la Cour, indépendamment du fait que l'intelligence artificielle générative ait rédigé une partie de ce document.

    Source : Eugene Volokh in a blog post

    Et vous ?

    Quels sont selon vous, les risques juridiques et éthiques de recourir à une intelligence artificielle générative pour produire du contenu juridique ?

    À votre avis, quels sont les critères qui permettent de distinguer un texte rédigé par une intelligence artificielle générative d’un texte rédigé par un être humain ?

    Quelles sont les limites et quels sont les biais des modèles de langage comme ChatGPT, Harvey.AI ou Google Bard ?

    Voir aussi :

    Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

    Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines

  12. #392
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 257
    Points : 20 691
    Points
    20 691
    Par défaut L'application ChatGPT enregistre 500 000 téléchargements au cours des six premiers jours de son lancement
    L'application ChatGPT enregistre 500 000 téléchargements au cours des six premiers jours de sa période de lancement, et devient le leader en termes de performances et de lancement d'applications

    Une nouvelle étude met en lumière le succès croissant de l'application ChatGPT d'OpenAI.

    Bien que l'application n'ait été initialement disponible que sur iOS et aux États-Unis, de nouveaux chiffres surprenants ont été dévoilés dans le cadre d'une nouvelle étude. Et comme on peut s'y attendre, les créateurs ne peuvent pas être plus satisfaits de ces chiffres.

    Il s'agit d'un excellent départ, qui se concrétise par l'extension du programme à 11 destinations internationales supplémentaires dans le monde entier. Aujourd'hui, le programme a franchi la barre des 500 000 téléchargements en six jours, depuis son lancement.

    Nom : page-4.jpg
Affichages : 5086
Taille : 30,4 Ko

    Tout cela grâce aux statistiques fournies par DataAI qui est un fournisseur connu de résultats clés dans le monde des tendances numériques.

    Il n'est donc pas faux de dire que cette plateforme est désormais considérée comme le leader en termes de performances et de lancements d'applications, tant pour cette année que pour la précédente. La seule fois où elle a été battue, c'était en février 2022, par la plateforme Truth Social de Donald Trump.

    Comme l'expliquent les consommateurs, tous les chatbots d'IA sont nécessaires en ce moment. Il existe de nombreuses plateformes sur l'App Store qui se font appeler ChatGPT et qui sont fausses. Elles veulent simplement que les gens les paient, mais ne fournissent pas les mêmes services que ChatGPT. Pourtant, les consommateurs dépensent sans compter.

    La concurrence est rude et le paysage est très intéressant. Vous trouverez de nombreux chatbots axés sur l'IA, ce qui a créé un marché difficile pour les applications qui souhaitent gagner en notoriété et en popularité. Mais de toute évidence, ce n'était pas le cas dans cette situation particulière.

    Nom : page-1.jpg
Affichages : 2667
Taille : 32,1 Ko

    ChatGPT a fini par surpasser un grand nombre de ses principaux rivaux et comptait dans sa liste certains des plus grands noms de l'industrie, comme Bing de Microsoft et Edge. Leurs liens avec des tiers et la technologie GPT-4 sont également incontournables.

    Alors que Bing et Microsoft Edge ont fini par bénéficier du grand intérêt que les gens portaient à des plateformes comme ChatGPT lors de son lancement initial, nous avons vu un nombre stupéfiant de 340 000 installations survenir au cours des cinq premiers jours du lancement aux États-Unis, alors qu'il n'était basé que sur la technologie iOS.

    Source : DataAI

    Et vous ?

    Quel est votre avis sur ce succès rapide de l'application ChatGPT ?

    Trouvez-vous ces statistiques fiables et pertinentes ?

    Selon vous, la popularité de ChatGPT est-elle attribuée à ses performances réelles ou est-elle due à un battage médiatique ?

    Voir aussi

    ChatGPT: le chatbot IA d'OpenAI débarque sous forme d'application en version gratuite sur iOS, votre historique sera synchronisé sur vos appareils

    Une fausse application mobile se faisant passer pour ChatGPT tente d'escroquer les utilisateurs via un abonnement hebdomadaire de 7,99 $, l'App Store et le Play Store en contiendraient plusieurs

    ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet, atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS

    Que peut vous apporter l'outil ChatGPT ? L'essence même du puissant chatbot d'IA générative est dévoilée, à travers une enquête auprès des utilisateurs d'Internet

  13. #393
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 948
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 948
    Points : 37 891
    Points
    37 891
    Par défaut Les éditeurs scientifiques face à l’impasse des faux documents générés par l’IA
    Les éditeurs scientifiques face à l’impasse des faux documents générés par l’IA,
    les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

    Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés pour lutter contre le nombre croissant de faux articles qui se frayent un chemin dans la littérature académique. Les progrès de l'intelligence artificielle (IA) compliquent les efforts déployés par les éditeurs pour s'attaquer au problème croissant des organisations non officielles et potentiellement illégales qui produisent de faux documents, de faux articles scientifiques sur commande. Les outils d'IA générative, y compris les chatbots tels que ChatGPT et les logiciels de génération d'images, offrent de nouveaux moyens de produire du contenu, qui pourrait s'avérer particulièrement difficile à reconnaitre. Ces questions ont été abordées par les experts en intégrité de la recherche lors d'un sommet qui s'est tenu le 24 mai et qui était consacré au problème de ses organisations non officielles et potentiellement illégales qui produisent de faux documents (paper mill).

    Rappelons que dans le secteur de la recherche, un « paper mill » est une organisation non officielle et potentiellement illégale, orientée vers le profit, qui produit et vend de faux manuscrits qui semblent ressembler à des travaux de recherches authentiques. Dans certains cas, les « paper mill » sont des opérations sophistiquées qui vendent des positions d'auteur sur des recherches légitimes, mais dans de nombreux cas, les articles contiennent des données erronées et peuvent être fortement plagiés ou non professionnels. Selon un rapport de Nature, des milliers d'articles dans des revues universitaires ont été retracés jusqu'à des organisations en Chine, d'Iran et de Russie, et certaines revues réorganisent leurs processus d'évaluation.

    Nom : Documents.jpg
Affichages : 3544
Taille : 18,3 Ko

    De façon croissante, les entreprises produisent des articles scientifiques falsifiés sur commande, en échange d’argent. Les progrès de l’intelligence artificielle (IA) rendent plus difficile la détection de ces articles, car ils peuvent utiliser des outils capables de générer des images et du texte réaliste, qui imitent les données et le style des vrais articles.

    Certains des plus grands éditeurs de revues universitaires du monde ont interdit ou restreint l'utilisation par leurs auteurs du chatbot avancé ChatGPT. Comme le robot utilise des informations provenant d'Internet pour produire des réponses très lisibles à des questions, les éditeurs craignent que des travaux inexacts ou plagiés n'entrent dans les pages de la littérature universitaire.

    Plusieurs chercheurs ont déjà inscrit le chatbot en tant que coauteur dans des études universitaires, et certains éditeurs ont décidé d'interdire cette pratique. Mais le rédacteur en chef de Science, l'une des principales revues scientifiques au monde, est allé plus loin en interdisant toute utilisation du texte du programme dans les articles soumis.

    Springer Nature, qui publie des milliers de revues scientifiques, a annoncé en début d’année que ChatGPT - ou tout système similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce intervient à un moment où le débat sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA s'intensifie, mais aussi après les déboires du média CNET avec son IA interne de génération de texte.

    Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980. Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes « originaux ». Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.

    « La capacité des organisations non officielles et potentiellement illégales qui produisent de faux documents à générer des données brutes de plus en plus plausibles va tout simplement exploser avec l'IA », déclare Jennifer Byrne, biologiste moléculaire et chercheuse en intégrité des publications à la New South Wales Health Pathology et à l'Université de Sydney en Australie.

    « J'ai vu de fausses images de microscopie générées par l'IA », déclare Jana Christopher, analyste de l'intégrité des données d'image chez l'éditeur FEBS Press à Heidelberg, en Allemagne. Mais il reste difficile de prouver hors de tout soupçon que les images sont générées par l'IA, ajoute-t-elle.
    Les outils d'IA générateurs de langage tels que ChatGPT posent un problème similaire. « Dès que l'on dispose d'un outil capable de démontrer que quelque chose a été généré par ChatGPT, il y aura un autre outil pour le brouiller », déclare Christopher.

    Anna Abalkina, chercheuse en sciences sociales à l'Université libre de Berlin et analyste indépendante de l'intégrité de la recherche, soupçonne que ces outils d'IA pourraient tarder à apparaître dans la littérature universitaire en raison de la longueur du processus d'évaluation par les pairs. Peut-être que dans les prochains mois, « nous verrons le premier flux d'articles », dit-elle.

    Byrne, Christopher et Abalkina ont participé la semaine dernière au sommet UNITED2ACT, organisé par le Committee on Publication Ethics (COPE), une organisation à but non lucratif spécialisée dans l'éthique de l'édition universitaire basée à Eastleigh, au Royaume-Uni, et par l'Association internationale des éditeurs scientifiques, techniques et médicaux (STM), basée à Oxford. Le sommet a réuni des chercheurs internationaux, y compris des analystes indépendants de l'intégrité de la recherche, ainsi que des représentants d'organismes de financement et d'éditeurs.

    « C'était la première fois qu'un groupe de personnes se réunissait et créait ensemble une série d'actions que nous allons mettre en œuvre pour lutter contre ce problème », déclare Deborah Kahn, administratrice du COPE et consultante en matière d'intégrité de la recherche, basée à Londres. Le groupe a l'intention de publier bientôt son plan d'action commun.

    Lorsqu'il s'agit de détecter des ouvrages en papier, « il y a absolument un défi supplémentaire qui est posé par les images synthétiques, le texte synthétique, etc. », déclare Joris van Rossum, directeur de programme pour STM Solutions, une filiale de STM. « Il y a une prise de conscience générale du fait que le dépistage risque de devenir plus difficile », ajoute-t-il.

    L’IA et la recherche scientifique: opportunités et défis

    Selon Kahn, même s'il ne fait aucun doute que l'IA sera utilisée de manière positive pour aider les chercheurs à rédiger des articles, il sera toujours nécessaire de faire la distinction entre les articles légitimes rédigés à l'aide de l'IA et ceux qui ont été complètement fabriqués. « Nous devons vraiment nous pencher sur la manière dont nous identifions ces documents et dont nous nous assurons que les personnes ont réellement effectué la recherche. Il y a plusieurs façons d'y parvenir », explique-t-elle.

    L'une des stratégies discutées lors du sommet consistait à exiger des auteurs qu'ils fournissent les données brutes de leurs expériences, éventuellement accompagnées de filigranes numériques qui permettraient aux éditeurs de confirmer l'authenticité de ces données. Actuellement, les exigences en matière de soumission de données brutes varient considérablement d'un éditeur à l'autre, explique Christopher. Il pourrait donc être utile d'établir un ensemble uniforme d'exigences pour la soumission de données brutes entre les éditeurs, en tenant compte des différences entre les domaines de recherche.

    Sabina Alam, directrice de l'éthique et de l'intégrité de l'édition chez Taylor & Francis, une maison d'édition basée à Abingdon, au Royaume-Uni, partage cet avis, mais estime que la mise en œuvre de telles normes prendra du temps. « Je ne peux pas imaginer que cela se fasse du jour au lendemain, car la réalité est que de nombreuses institutions n'ont pas les ressources nécessaires pour offrir une infrastructure de gestion des données », dit-elle. « Nous ne voulons pas pénaliser la recherche réelle. »

    Deux doyens de l'université Vanderbilt de Nashville, dans le Tennessee, aux États-Unis, auraient été suspendus après avoir utilisé ChatGPT pour rédiger un courriel de 297 mots envoyé à des étudiants au sujet de la fusillade meurtrière qui a eu lieu la semaine dernière sur le campus de l'université d'État du Michigan. Au bas du message, on pouvait lire qu'il a été écrit par une IA : « Paraphrase from OpenAI's ChatGPT AI language model, personal communication, February 15, 2023 ». Une enquête a été ouverte par les autorités de l'université et les deux doyens ayant signé le courriel, Nicole Joseph et Hasina Mohyuddin, ont temporairement démissionné.

    Les outils de détection des paper-mill, un enjeu majeur pour les éditeurs

    Les participants au sommet ont également discuté d'autres stratégies pour s'attaquer plus largement au problème des paper-mill, notamment l'organisation d'une journée ou d'une semaine de sensibilisation pour les chercheurs, ainsi que l'identification de moyens permettant aux éditeurs de partager des informations pertinentes sur les paper-mill présumées - par exemple lorsqu'ils reçoivent simultanément des soumissions - sans enfreindre les règles relatives à la protection des données.

    STM continue de développer son propre logiciel de détection des papeteries, tout en rassemblant des ressources sur des outils similaires disponibles ailleurs par l'intermédiaire de son centre d'intégrité. L'augmentation apparente des usines à papier accroît la demande de techniques de ce type, à la fois pour détecter les faux articles au moment de leur soumission et pour identifier ceux qui ont déjà été publiés.

    Taylor & Francis fait partie des éditeurs qui utilisent ces outils, et Alam affirme qu'un nombre croissant de cas d'éthique - des cas de mauvaise conduite potentielle qui sont signalés pour une enquête plus approfondie - sont transmis à son équipe. Environ la moitié de ces cas sont dus à des paper-mill, selon Alam. Son équipe a vu le nombre de cas d'éthique multiplié par plus de dix entre 2019 et 2022 - et depuis le début de l'année, il y a eu presque autant de cas que pendant toute l'année 2022. « Il semble que le système ait été commercialisé et mis à l'échelle », explique-t-elle.

    Source : Springer Nature

    Et vous ?

    Cette publication de Springer Nature est -elle pertinente ?

    Quel est votre avis sur le fait que les paper-mill utilisent l’IA pour générer des images et du texte ?

    Quels peuvent être les solutions à adopter par les éditeurs pour détecter les paper-mill ?

    Quelles peuvent être les conséquences juridiques et éthiques de la diffusion et de la rétractation des paper-mill ?

    Voir aussi :

    Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur, il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

    Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

    ChatGPT produirait de faux documents universitaires, alors que des professions se sentent menacées par le célèbre outil d'OpenAI

    Les pasteurs utiliseraient ChatGPT pour écrire des sermons, alors que certains affirment que l'outil d'IA ne reproduit pas la passion d'une véritable prédication

    Des doyens d'université suspendus après avoir utilisé ChatGPT pour envoyer des courriels à des étudiants sur une fusillade de masse, le message a suscité un tollé au sein de l'établissement

  14. #394
    Membre éclairé

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    322
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 322
    Points : 763
    Points
    763
    Billets dans le blog
    1
    Par défaut
    Si ceux qui valident des articles scientifiques ne font rien d'autres que les lire, sans refaire les expériences, sans s'entretenir avec les auteurs et vérifier leurs diplômes et parcours, alors oui cela fait peur. Mais cela fait peur dès lors que Photoshop et la malhonnêteté existent, pas besoin de ChatGPT.

  15. #395
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Points : 3 671
    Points
    3 671
    Par défaut
    Du coup, les fautes d'orthographes/grammaires vont devenir une preuve "d'écrits humain".

  16. #396
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    17 828
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 17 828
    Points : 44 124
    Points
    44 124
    Par défaut
    Pas sûr, l'IA lisant les articles humains, cf l'IA raciste de Facebook.

  17. #397
    Membre à l'essai
    Profil pro
    Conseil en innovation
    Inscrit en
    Février 2013
    Messages
    3
    Détails du profil
    Informations personnelles :
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : Conseil en innovation

    Informations forums :
    Inscription : Février 2013
    Messages : 3
    Points : 12
    Points
    12
    Par défaut Réalité des soumissions d'articles à ces éditeurs : tous utilisent des IA pour un meilleur ROI du budget
    Quelques infos sur la soumission d'articles à des éditeurs scientifiques :

    - Dans certains domaines, plusieurs dizaines de revues différentes peuvent appartenir au même éditeur scientifique, réclamant de passer par la même plateforme web de soumission des articles. Il peut y avoir que 5 ou 6 grands éditeurs par domaine puisqu'ils se rachètent mutuellement (capitalisme). Se faire blacklister par un outil antiplagiat par une de ses revues signifie se faire blacklister par les autres revues de l'éditeur. Je ne pense pas qu'ils respectent la RGPD, puisqu'un article est soumis aux noms d'auteur et de co-auteurs. Très peu de revues (même parmi celles classées parmi les plus haut ranking) ne font que demander au "corresponding author" (celui qui soumet l'article) de vérifier que tous les co-auteurs (qu'il déclare) sont d'accord pour être déclarer co-auteurs. Avec un peu de chance, si leur base de données matche un nom de co-auteur connu alors il lui envoie un mail pour le notifier. Mais cela reste un parcours du combattant pour faire retirer son nom de co-auteur d'un article qu'on ne connait pas. La raison est que les revues n'affectent pas de ressources humaines à cette vérification, ils automatisent tout. Et mettre en co-auteur certains noms de grands publiant permettent d'éviter la 1ère étape du "desk-reject" (étant un refus informel "automatisé" sans réel info sur la raison du refus).

    - Avant même la démocratisation des IA conversationnelles, les éditeurs scientifiques ont toujours rencontré des difficultés à détecter le plagiat. Comme les articles sont sous propriété intellectuel de l'éditeur, ils ne veulent pas se retrouver devant les tribunaux par plainte de plagiat déposé par la concurrence. Ils ont paramétré leur antiplagiat pour qu'un 1 ou 2 % de correspondance de texte avec un autre article déjà publié suffit à se faire desk-reject. Alors que les articles ont à peu près la même table des matières : abstract, introduction, état de l'art / related works, modèle / hypothèses, expérimentations (qualitative / quantitative), analyses, conclusion. Ainsi dans l'état de l'art, il faut citer des travaux de recherche pour prouver que votre approche / use case n'est pas déjà publié, donc si vous citez "trop de définitions célèbres" avec la référence bibliographique [Auteur, Année], alors vous dépassez ce 1% de plagiat, ou si vous ne les citez pas, alors votre état de l'art est incomplet, et vous vous faites desk-reject. C'est une des raisons pour laquelle les outils d'IA de reformulation sont aussi populaires chez les auteurs d'articles. Comme ces éditeurs automatisent toutes les étapes de vérification pour diminuer le nombre de reviewer humain et que leurs outils sont largement imparfaits, alors ne pas les utiliser rend très difficile de se faire accepter chez les revues les plus rankées.

    - Il y a aussi une guerre de communication entre les éditeurs : l'hégémonie du nombre de leurs citations les classant "A* / high impact factor", sous-entendu favorisant le ROI de leur business model. Si vous n'avez pas cité plusieurs articles anciens et récents de la revue à laquelle vous soumettez alors on déclare votre état de l'art comme étant incomplet et vous êtes desk-reject. Et autant vous dire qu'il ne vaut mieux pas citer des articles d'auteurs dont le pays de l'éditeur est en conflit ouvert avec le pays de l'auteur cité (ou simplement des noms d'auteurs ayant des caractères non latins). Pourtant dans certains domaines ("sciences économiques" par exemple), si vous voulez avoir une chance d'être publié, il faut avoir 3 co-auteurs de 3 labos différents de 3 continents différents. Si vous avez moins que ça alors il faut que cela soit quelque chose qui conforte la "science économique" dominante de l'éditeur. Vous l'aurez compris, la présence/absence du "s" à "science économique" n'est pas un hasard. Il y aussi un avis en termes de compétences qui empêche aussi d'être publié en data science : après avoir esquivé l'étape du desk-reject, il ne faut pas tomber sur des reviewers humain dont votre publication remet en cause les travaux de ses collaborateurs scientifiques, surtout si vous n'êtes pas du grande organisation reconnu, et encore moins avoir soumis un article qui dépassent largement le niveau de hard skills des reviewers de l'éditeur. Certaines conférences réclament des papiers de 6-8 pages maximum et ces articles sont généralement gratuit à lire, et en face les journaux vont plutôt vers 20-30 pages mais eux sont payant à lire.

    - Certaines revues savent pertinemment qu'ils vont desk-reject un article dès qu'il a été soumis, mais ils le notifieront sous 2 semaines ou 2 mois. Pourquoi ? parce qu'avec un refus immédiat, vous transformez l'article et vous le soumettez à nouveau dans les 48h, ce qui augmente le nombre de reviews à produire par la plateforme web de l'éditeur de la revue. En plus, avec l'automatisation instantanée des refus, certaines équipes pourraient spammer de soumission, de quelques articles reformulés plein de fois par IA, jusqu'à pouvoir identifier les conditions qui permettent de diminuer le risque de desk-reject, obligeant l'éditeur à nouveau les changer (donc faire une analyse prévisionnel de son impact financier selon le changement de stratégie. En bref, ils peuvent passer plus de temps à bosser là-dessus qu'à reviewer). Donc en lançant un refus automatisé sous 2 semaines ou 2 mois (généralement indiqué par une moyenne), cela permet de lisser la charge dans le temps, et d'éviter d'envoyer les auteurs chez la concurrence. Mais certaines équipes ont la parade maintenant : pour un seul nouvel article, ils utilisent une IA de reformulation pour le soumettre en même temps en 5-6 versions différentes à 5-6 revues de 5-6 éditeurs différents. Cela donne une meilleur chance de passer le desk-reject et d'atteindre un reviewer qui donne enfin des vrais commentaires de reviews pour le corriger avant publication. C'est la raison que les éditeurs se plaignent de la multiplication des faux documents générés par l'IA : cela remet en cause l'optimisation de leur lean management de leurs processus automatisé de review avant publication. En bref, ils y perdent de l'argent et dégoutent leurs reviewers "gratuits" de continuer à faire parties de leurs boards, car personne n'a envie de reviewer des articles reformulés par IA, sauf s'il est payé à la quantité.

    - Beaucoup de labos privés/publics ont un budget annuel proportionnel à la quantité d'articles publiées (et aussi du nombre de brevet), ce qui impacte le nombre d'emploi de chercheurs qui sont maintenus, ouverts ou disparaissent. D'ailleurs sans un seul article publié dans une revue high rank / impact factor, alors il n'est quasiment pas question de défendre sa thèse de doctorat. Cela entraine une difficulté de recrutement, les profils recrutés sont plutôt ceux les plus prolifiques à aimer rédiger qu'à rechercher et découvrir l'innovation. Entre un bon rédacteur vulgarisateur scientifique et un inventeur, on peut passer de 10 à 90% de temps passés sur une activité ou sur l'autre selon les contraintes de budget de l'équipe. Avoir suffisamment d'articles dans ce type de revue "aide" la carrière du chercheur à le distinguer des autres candidats pour un même poste (qui sont assez rares). Sinon c'est qu'ils "n'étudient pas ce dont le marché a besoin" et sont condamnés à disparaitre par restriction du budget. Ainsi les labos privés/publics orientent leurs topics de R&D sur ce qui rapporte à ses revues (qui revendent 30$/unité chaque article, ou par forfait mensuel payé par l'institution), alors que cela a généralement était subventionné par les pouvoirs publics et devraient être "free/open".

    - Ainsi pour éviter le desk-reject, le plus simple devient de faire "ami-ami" avec l'un des chercheurs du board de la revue dans laquelle vous voulez publier. Vous l'invitez à participer à vos tables rondes en visio. Il apprend à connaitre les travaux de votre équipe comme étant réel et non pas généré par IA. Il finit par vous connaître comme étant vous-même faisant partie d'un autre board. Et là c'est l'échange de service : ce que soumet les collaborateurs de chez l'un passent l'étape du desk-reject de chez l'autre. Dans certains "honnête" cas, il peut exiger qu'un de ses collaborateurs apparaissent en 5ème co-auteur (qui n'a pas son nombre annuel de publication suffisante et son emploi est remis en cause) et vous le faites participer à l'amélioration de l'article. Dans le pire des cas, il y a un échange financier d'une partie des subventions (favoriser par les Etats qui poussent à ce qu'il y ai de la coopération entre institutions pour augmenter sa visibilité internationale). Dans le cas criminel, ça demande d'être co-auteur et d'être payé car son nom "fait vendre", mais ça ne dure pas longtemps car finit par être blacklisté (sauf si ses articles rapportent à la revue, capitalisme). En conclusion, tous les chercheurs qui veulent augmenter le budget de leurs équipes et ne sont pas des bons publiants / inventeurs deviennent de bons commerciaux que l'équipe ne peut plus se passer sans risquer de diminuer le budget s'il est débauché par une équipe concurrente (et dans certaines institutions peut exiger d'avoir une partie de ce ROI, là où les salaires ne sont pas des grilles fixes, ceux-ci tant que ça ne repose pas sur le nombre de publication par an).

    En conclusion, les éditeurs scientifiques doivent maintenant, non pas utilisé des IA commerciales pour détecter le plagiat, mais faire appel aux éditeurs d'IA pour créer des IA spécialistes qui ont appris tout le corpus qu'ils ont sous propriété intellectuelle, ainsi que celles de la concurrence (ce qui est illégal), afin ensuite de déterminer si chaque article soumis est une innovation R&D ou du plagiat ou une extension de précédent travaux, ceux-ci combiné avec un peu de business intelligence pour identifier si le topic de l'article aurait un bon ROI de le faire reviewer par des humains du board, puis d'être publié définitivement (sa lecture mis en vente pour être citer par d'autres). Et cela leur réclame de s'y investir et d'y investir. En attendant, il est plus simple de s'en plaindre publiquement pour que ce lobbying finisse par devenir des nouvelles lois (par exemple réclamant l'obligation légale de prévenir quelle partie a été reformulée / complétée par une IA). Il y a déjà des demandes équivalentes d'info à propos des subventions qu'on permis de produire les travaux de recherche à soumettre dans un article,... bref autant de données confidentielles qu'ensuite les éditeurs scientifiques de ses SaaS peuvent analyser et vendre sous la forme de rapport de veille stratégique à ceux en recherche de budget ou de savoir qui il faut démarcher pour vendre telle solutions logicielles pour leur faire augmenter leur nombre de publication (être notifier des fameux nouveaux trends), etc. Ou simplement être rémunérer par les Etats pour les conseiller comment allouer leurs budgets selon les topics des domaines scientifiques (et la boucle est bouclée). Mais aucune élite / aucun élu ne va remettre en cause qu'un conseiller d'une tel éditeur scientifique étranger pourrait simplement conseiller des topics qui intéresse un peu moins le monde entier afin de favoriser l'hégémonie de publication de son propre pays.

  18. #398
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 257
    Points : 20 691
    Points
    20 691
    Par défaut Les détecteurs de contenu GPTZero et Turnitin rivalisent pour la suprématie de l'IA dans le milieu académique
    Les détecteurs de contenu GPTZero et Turnitin rivalisent pour la suprématie de l'IA dans le milieu académique, afin de répondre à l'essor des générateurs de texte d'IA générative, selon Similarweb

    GPTZero a pris d'assaut le monde universitaire, se positionnant comme un précurseur dans la transformation de la manière dont les professeurs identifient l'intégration de l'IA dans les travaux des étudiants. Néanmoins, il doit faire face à une concurrence féroce de la part d'acteurs bien établis tels que Turnitin, qui a renforcé ses outils anti-plagiat en y intégrant des capacités de détection de contenu par l'IA. L'utilisation généralisée de générateurs de texte alimentés par l'IA a suscité un vaste débat sur les demandes d'emploi, les argumentaires de vente et la légitimité des dissertations. Cette situation a incité les acteurs du monde de l'éducation et des affaires à rechercher activement des méthodes permettant de différencier les contenus rédigés par des êtres humains de ceux générés par des robots d'intelligence artificielle.

    Depuis son lancement en janvier, GPTZero, créé par un étudiant qualifié de l'université de Princeton, a rapidement gagné en popularité. La plateforme a enregistré 5,5 millions de visites au cours du seul mois d'avril, et les projections de Similarweb indiquent que ce chiffre dépassera les 5,9 millions en mai. Ces chiffres remarquables établissent fermement que GPTZero est le principal concurrent dans le domaine de la détection de contenu par l'IA, qui se concentre uniquement sur ce domaine spécialisé.

    Récemment, Turnitin, un outil académique réputé, a élargi son offre en incorporant des outils de détection de contenu par l'IA à ses fonctions anti-plagiat existantes. La plateforme a connu une hausse notable de popularité, avec un nombre de visites estimé à plus de 17 millions en mai, soit une augmentation de 11,5 % par rapport à l'année précédente. En outre, les établissements d'enseignement adoptent la détection de contenu par l'IA en l'intégrant dans leurs systèmes de gestion de l'apprentissage, ce qui souligne l'importance croissante de cette technologie dans le monde universitaire.

    Nom : 0-ai_detection_4-600x371-1.png
Affichages : 5712
Taille : 27,9 Ko

    OpenAI, le maître d'œuvre du développement de ChatGPT, a récemment lancé son propre classificateur de texte conçu pour faire la distinction entre le contenu généré par ChatGPT et d'autres sources. Bien qu'elle ne soit pas aussi largement adoptée que certaines solutions commerciales, la solution d'OpenAI a fait l'objet d'une attention considérable en avril et a attiré un total de 861 700 visites, principalement sur des ordinateurs de bureau.

    De nombreuses plateformes en ligne proposent des outils de détection de contenu par l'IA dans le but d'aider les rédacteurs et les créateurs de contenu à exploiter la puissance de l'intelligence artificielle. Il est intéressant de noter qu'une part importante du trafic que ces sites web reçoivent est principalement concentrée sur leurs pages de détection de contenu d'IA. Des statistiques remarquables révèlent qu'environ 61 % du trafic vers copyleaks.com, 80 % du trafic vers writer.com et 85 % du trafic vers contentatscale.ai sont spécifiquement générés par des utilisateurs à la recherche de capacités de détection de contenu par l'IA.

    Nom : ai_detection_3-600x371-1.png
Affichages : 2888
Taille : 49,2 Ko

    Afin d'offrir une perspective complète, les principaux sites web qui fournissent des outils de détection de contenu par IA gratuitement ou à titre d'essai, à l'exclusion de Turnitin ont été analysés. Un concurrent notable est GPTZero, une plateforme née des ressources limitées d'un jeune homme de 22 ans nommé Edward Tian. Au départ, l'objectif principal de GPTZero était d'aider les professeurs à détecter l'utilisation de l'IA dans les travaux des étudiants. Au fil du temps, l'entreprise a élargi son équipe en recrutant des docteurs en IA et a récemment obtenu un financement impressionnant de 3,5 millions de dollars.

    Alors que de nombreux domaines répertoriés sont des entreprises multiservices, GPTZero fait figure d'exception en se classant en tête de ces plateformes émergentes axées uniquement sur la détection de contenu d'IA. Si l'on examine le trafic web lié à la détection de contenu par l'IA, Writer apparaît comme le deuxième outil le plus populaire, avec environ 3 millions de visites en avril, talonnant de près les 5 millions de visites estimées de GPTZero.

    Nom : ai_detection_2-600x371-1.png
Affichages : 2893
Taille : 54,0 Ko

    Turnitin, un outil académique largement reconnu et de longue date, maintient un niveau d'engagement des utilisateurs nettement plus élevé que GPTZero, ce qui souligne sa pertinence et son importance au sein de la communauté académique.

    Les générateurs de texte à base d'IA comme ChatGPT ont posé des problèmes dans les contextes universitaires et professionnels. Les institutions sont aux prises avec des directives d'utilisation, car les étudiants et les professionnels utilisent l'IA pour améliorer leur travail, brouillant parfois les frontières éthiques. Cependant, ces outils peuvent identifier à tort les travaux des étudiants comme étant générés par l'IA, en particulier pour les personnes dont l'anglais n'est pas la langue maternelle.

    Source : Similarweb

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de ces résultats ? Sont-ils pertinents selon vous ?

    D'après vous, est-il possible d'établir des directives éthiques pour l'utilisation de générateurs de texte comme ChatGPT afin de garantir l'équité et l'authenticité des travaux académiques ?

    Voir aussi

    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

    ChatGPT : Hive Moderation se lance à son tour dans la détection de texte généré par IA, mais le public est sceptique concernant l'efficacité de tous ces outils

    Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une application d'analyse de texte qui détecte s'il a été rédigé par une IA

    Les détecteurs d'IA sont biaisés par rapport aux rédacteurs dont l'anglais n'est pas la langue maternelle, leur fiabilité est remise en question : le contenu de ChatGPT n'est pas détecté

  19. #399
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 984
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 984
    Points : 207 900
    Points
    207 900
    Par défaut Un rédacteur de contenu a confié que tous ses clients l'ont remplacé par ChatGPT : « ça m'a anéanti »
    Un rédacteur de contenu a confié que tous ses clients l'ont remplacé par ChatGPT : « ça m'a anéanti »,
    les craintes de voir l'IA générative conduire à un chômage généralisé s'amplifient

    Un rédacteur de contenu se tourne vers le travail manuel après que ChatGPT d’OpenAI ait ruiné son activité. Eric Fein, 34 ans, a confié que son plus gros client l’a laissé tomber en mars après avoir commencé à utiliser ChatGPT pour écrire son contenu.

    Lorsque ChatGPT est sorti en novembre dernier, Olivia Lipkin, une rédactrice de 25 ans à San Francisco, n'y a pas trop pensé. Ensuite, des articles sur la façon d'utiliser le chatbot au travail ont commencé à apparaître sur les groupes internes Slack de la start-up technologique où elle travaillait en tant que seule rédactrice de l'entreprise.

    Au cours des mois suivants, les missions de Lipkin ont diminué. Les managers ont commencé à l'appeler "Olivia/ChatGPT" sur Slack. En avril, elle a été licenciée sans explication, mais lorsqu'elle a trouvé des responsables écrivant sur le fait qu'utiliser ChatGPT était moins cher que de payer un écrivain, la raison de son licenciement semblait claire.

    « Chaque fois que les gens évoquaient ChatGPT, je ne me sentais pas en sécurité et j'avais peur que cela me remplace », a-t-elle déclaré. « Maintenant, j'avais en fait la preuve que c'était vrai, que ces angoisses étaient justifiées et maintenant j'étais en fait sans emploi à cause de l'IA ».

    Même son de cloche chez Eric Fein, qui a vu ses clients révoquer leurs contrats.

    Fein avait neuf autres contrats à l’époque qui ont tous été annulés pour la même raison peu après, selon le Washington Post. Fein, qui facture 60 dollars de l’heure pour ses services qui comprennent l’écriture de courts textes pour les sites web des entreprises et les descriptions de produits, a déclaré au quotidien que l’activité qui représentait la moitié de ses revenus annuels avait disparu presque du jour au lendemain.

    « Ça m’a anéanti », a-t-il dit.

    Le chatbot alimenté par l'IA, qui est gratuit, peut produire du contenu écrit de type humain en quelques minutes, mais a tendance à inventer des faits.

    Fein a ensuite été réembauché par un client qui n'était pas satisfait du contenu de ChatGPT, mais le revenu n'était pas suffisant pour subvenir aux besoins de sa famille, selon le quotidien. Désormais, il a décidé de se tourner vers le travail manuel et suit actuellement une formation de technicien en chauffage et en climatisation, et envisage de devenir plombier plus tard. Fein a déclaré au quotidien que l’apprentissage d’un métier était plus « à l’épreuve du futur ».

    Il se base probablement sur le fait que le travail manuel est considéré comme l’un des secteurs les moins touchés par les progrès de l’intelligence artificielle.

    Nom : chat.png
Affichages : 55446
Taille : 358,0 Ko

    Certaines entreprises optent pour la réduction des coûts, même si la qualité baisse

    Certains économistes prédisent que la technologie de l'intelligence artificielle comme ChatGPT pourrait remplacer des centaines de millions d'emplois, dans une réorganisation cataclysmique de la main-d'œuvre reflétant la révolution industrielle.

    Pour certains travailleurs, cet impact est déjà là. Ceux qui écrivent du contenu marketing et des médias sociaux font partie de la première vague de personnes remplacées par des outils tels que les chatbots, qui sont apparemment capables de produire des alternatives plausibles à leur travail.

    Les experts disent que même l'IA avancée ne correspond pas aux compétences d'écriture d'un humain : elle manque de voix et de style personnels, et elle produit souvent des réponses erronées, absurdes ou biaisées. Mais pour de nombreuses entreprises, la réduction des coûts vaut une baisse de qualité.

    « Nous sommes vraiment à un moment critique », a déclaré Sarah T. Roberts, professeure associée à l'Université de Californie à Los Angeles spécialisée dans le travail numérique. « L'AI va prendre des emplois qui étaient censés être à l'épreuve de l'automatisation ».

    300 millions d'emplois seraient à risque, selon une étude

    Les systèmes d'intelligence artificielle générative pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d'emplois à temps plein dans le monde, selon une étude de Goldman Sachs.

    L'IA générative, un type d'intelligence artificielle capable de générer du texte ou d'autres contenus en réponse aux invites de l'utilisateur, a explosé en popularité ces derniers mois après le lancement public de ChatGPT d'OpenAI. Le chatbot est rapidement devenu viral auprès des utilisateurs et a semblé inciter plusieurs autres entreprises technologiques à lancer leurs propres systèmes d'IA.

    Sur la base d'une analyse des données sur les tâches professionnelles aux États-Unis et en Europe, les chercheurs de Goldman ont extrapolé leurs conclusions et estimé que l'IA générative pourrait exposer 300 millions d'emplois à temps plein dans le monde à l'automatisation si elle respecte les capacités promises.

    Le rapport, rédigé par Joseph Briggs et Devesh Kodnani, indique qu'environ les deux tiers des emplois actuels sont exposés à un certain degré d'automatisation de l'IA, tandis que l'IA générative pourrait remplacer jusqu'à un quart du travail actuel.

    Les cols blancs sont parmi les plus susceptibles d'être touchés par les nouveaux outils d'IA. Le rapport Goldman a souligné que les travailleurs juridiques et le personnel administratif américains sont particulièrement menacés par la nouvelle technologie. Une étude antérieure menée par des chercheurs de l'Université de Princeton, de l'Université de Pennsylvanie et de l'Université de New York a également estimé que les services juridiques étaient le secteur le plus susceptible d'être affecté par une technologie telle que ChatGPT.

    Manav Raj, l'un des auteurs de l'étude, et professeur adjoint de gestion à la Wharton School de l'Université de Pennsylvanie, a déclaré que c'était parce que le secteur des services juridiques était composé d'un nombre relativement restreint de professions qui étaient déjà hautement exposées à l'automatisation de l'IA.

    Nom : gpt.png
Affichages : 7442
Taille : 541,9 Ko

    Le revenu universel de base, une solution ?

    La position de Mustafa Suleyman, un pionnier de l'IA

    Il y a des inquiétudes quant au fait que le développement rapide de l’IA générative entraînera un chômage massif. Mustafa Suleyman, un pionnier de l’IA qui a quitté Google l’année dernière, a rejoint une liste croissante d’experts (dont son ancien patron, le PDG d’Alphabet Sundar Pichai) qui ont mis en garde contre les conséquences potentiellement néfastes des progrès rapides de la technologie.

    « Sans aucun doute, beaucoup des tâches dans le domaine des cols blancs seront très différentes dans les cinq à dix prochaines années », a déclaré Suleyman lors d’un événement au Bridge Forum de GIC à San Francisco. « Il y aura un nombre important de perdants [et ils] seront très malheureux, très agités », a-t-il ajouté.

    Les experts estiment que les avancées de l’IA pourraient être une arme à double tranchant pour l’économie mondiale - stimulant la productivité tout en provoquant des changements radicaux dans les entreprises et les industries.

    Suleyman a déclaré que les gouvernements devraient réfléchir à la manière de soutenir ceux qui perdraient leur emploi à cause de la technologie, le revenu universel de base étant une solution potentielle : « Cela nécessite une compensation matérielle… C’est une mesure politique et économique dont nous devons commencer à parler sérieusement ».

    Sam Altman, à la tête d'OpenAI, est favorable à cette mesure

    Le président d'OpenAI, la structure derrière ChatGPT, a lui aussi plaidé pour un revenu de base universel (RBU), un revenu versé régulièrement par le gouvernement à un niveau uniforme à chaque adulte, quel que soit son statut d’emploi, son revenu ou sa richesse, pour fournir un filet de sécurité. « [...] une société qui n'offre pas suffisamment d'égalité des chances pour que chacun progresse n'est pas une société qui durera », a écrit Altman dans un billet de blog en 2021. La politique fiscale telle que nous l'avons connue sera encore moins capable de lutter contre les inégalités à l'avenir, a-t-il poursuivi. « Bien que les gens aient toujours des emplois, bon nombre de ces emplois ne créeront pas beaucoup de valeur économique dans la façon dont nous pensons à la valeur aujourd'hui ». Il a proposé qu'à l'avenir - une fois que l'IA « produira la plupart des biens et services de base dans le monde » - un fonds puisse être créé en taxant la terre et le capital plutôt que le travail. Les dividendes de ce fonds pourraient être distribués à chaque individu pour qu'il les utilise à sa guise - « pour une meilleure éducation, des soins de santé, un logement, la création d'une entreprise, peu importe », a écrit Altman.

    Le RBU assurerait donc la sécurité du revenu tout en créant des incitations à quitter les emplois mal rémunérés pour des options plus risquées, mais potentiellement plus lucratives, comme le travail indépendant, l’entrepreneuriat ou la formation continue. Le climat d’innovation qui en résulte réduit la dépendance aux bas salaires et le besoin de concurrencer la technologie. Avec un revenu garanti qui ne dépend pas de la recherche d’emploi, les travailleurs ne prendront un emploi que s’ils le trouvent attrayant, ce qui diminue le déclassement et améliore leur pouvoir de négociation.

    Pourtant, Sam Altman ne semble pas disposer à partager les bénéfices éventuels qui reviendraient à OpenAI.

    Bien que le RBU ait été mentionné dans des interviews récentes, il n'a pas figuré de manière significative dans les plans d'OpenAI. En l'occurrence, la structure de « bénéfices plafonnés » d'OpenAI stipule que les bénéfices supérieurs à un certain montant appartiennent à son entité à but non lucratif. Lorsqu'on lui a demandé en janvier si OpenAI prévoyait de « prendre les recettes que vous présumez que vous allez gagner un jour et... l'offrir à la société », Altman a hésité. Oui, l'entreprise pourrait distribuer « de l'argent à tout le monde », a-t-il déclaré. Ou alors « nous [allons] investir tout cela dans une organisation à but non lucratif qui fait beaucoup de science ».

    Source : Washington Post

    Et vous ?

    Quelle est votre opinion sur ChatGPT ? Pensez-vous qu’il soit bénéfique ou nuisible à la société ?
    Que pensez-vous de la situation d’Eric Fein et d'Olivia Lipkin ? L’IA générative, une menace pour les rédacteurs de contenu ?
    Quelles sont les solutions possibles pour protéger et valoriser le travail humain dans un monde de plus en plus automatisé ?

  20. #400
    Expert éminent

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 666
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 666
    Points : 6 290
    Points
    6 290
    Par défaut
    c'est parfaitement prévisible.
    les entreprises préfère réduire les couts au détriments de la qualité.

    il est évident que les profs, les avocats, les notaires, les informaticiens et les médecins seront remplacé à terme.
    Et évident par contre coté entreprises ils baisseront pas les prix, malgré une réduction drastique des couts. la croissance a tous prix.

    Vous pouvez préférez un prof humain ou un vrai médecin généralistes mais vous ne déciderez pas, quand on a pas assez d'argent pour se payer un médecin ou un avocat on prendra chatgpt ou sinon rien.

    [semi troll]Si hier inciter son enfant à faire médecin, avocat ou financier était le bon plan pour lui assurer un avenir prospère, l'avenir désormais c'est une petite élite de rentier d'un coté et des millions de travailleurs au smic de l'autre. Plus de classe moyenne remplacé par chatgpt.
    c'est une bonne nouvelle pour la planète, eric ou olivia de l'article n'irons pas en vacances cette année car pas de tune et ne feront surement pas d'enfants qui polluerons si leurs vie reste précaire.
    et comme ceux qui ont des métiers manuels ont une esperance de vie plus faible, c'est la aussi une bonne chose, moins d'humain qui pollueront a terme et ca fera des économies pour la retraite.

    seul soucis, c'est qui va consommer les produits grand publique , si Porsche ou Ferrari continueront de vendre, l'iPhone ou autres produits grand publique > 600€ style télé 4k oled eux ne vendrons à plus personne. don c pleins d'usines qui vont disparaitre et donc du chômage et donc des rentiers qui gagneront moins de fric, a mince la faut agir par contre c'est inimaginable .
    [/semi troll]


    n'empêche en tant que ingénieur en informatique, je regarde vers quoi me reconvertir en plan B. Je peux devenir technicien en informatique dans une usine je pense mais faut prévoir plus large et envisager des reconversions. Electricien, plombier, soudeur/chaudronnier (apparemment edf en cherche)

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 23h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 11h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 11h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 12h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 09h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo