IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Les articles scientifiques frauduleux sont en forte augmentation

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éclairé
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    952
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 952
    Par défaut
    Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
    Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.

  2. #2
    Invité de passage
    Homme Profil pro
    Étudiant
    Inscrit en
    Août 2014
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Alimentation

    Informations forums :
    Inscription : Août 2014
    Messages : 1
    Par défaut
    « En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

    Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

    Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.

  3. #3
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Plus stupide on a vu, déjà.

    Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

    Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

    Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.

  4. #4
    Membre éprouvé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 453
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 453
    Par défaut
    Citation Envoyé par Hexdrix1111 Voir le message
    « En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

    Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

    Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
    ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
    1. Respecter les droits de l'homme et les libertés fondamentales.
    2. Agir de manière éthique et responsable.
    3. Être transparentes dans leurs actions et décisions.
    4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
    5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
    6. Respecter la vie privée des individus et protéger leurs données personnelles.
    7. Être conçues pour être accessibles et compréhensibles par tous.
    8. Être utilisées de manière juste et non discriminatoire.
    9. Contribuer au bien-être de la société en général.
    10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

    Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
    C'est un bon paquet de voeux pieux, mais ça sonne bien.

    à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
    Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
    Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
    Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
    Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
    Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
    ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...

  5. #5
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    C'est vrai que ça se passe pile comme dans les films de science-fiction :
    1. une intelligence artificielle qu'on met au pouvoir
    2. des règles qu'on lui impose pour quand même pas déconner (dont ne pas porter préjudice aux humains)
    3. finalement un robot qui décide que quand même on lui impose trop de règles, et qui décide que ça sera comme ça et pas autrement

  6. #6
    Membre habitué Avatar de Sylvain_LD
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Avril 2020
    Messages
    10
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 10
    Par défaut L'IA, quel drôle de nom !
    L'intelligence artificielle, quel drôle de nom pour un truc qui ne fait que reproduire bêtement ce que son créateur a bien voulu lui apprendre. Effectivement cette IA est plus rapide que son créateur à analyser les situations devant laquelle elle se trouve mais elle ne fait qu'analyser en fonction de l'intelligence de ses créateurs! C'est un système dangereux comparable à la découverte de la radioactivité ou au développement des réseaux "sociaux", il y a beaucoup d'avantage si c'est bien utilisé et beaucoup trop de dangers dans les mains de malfaisant.

  7. #7
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 896
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 896
    Par défaut
    Et on mesure la maturité d'une société à son efficacité à se saisir de ces questions.
    Nous allons voir.
    Nous avons déjà à rédiger une constitution (ou ... accepter ce qu'ont fait les gens qui ont planché dessus), légiférer simultanément sur l'IA est un défi de taille.
    Déjà, il se peut qu'il existe encore des gens à se satisfaire de la constitution actuelle, ce qui ne nous met pas en avance.
    Un moratoire de six mois a été réclamé pour se donner le temps de la réflexion, l'usage montrera si il est nécessaire de le prolonger du temps d'adoption de la nouvelle constitution.

  8. #8
    Membre habitué
    Femme Profil pro
    Ingénieur intégration
    Inscrit en
    Février 2019
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Ingénieur intégration
    Secteur : Agroalimentaire - Agriculture

    Informations forums :
    Inscription : Février 2019
    Messages : 15
    Par défaut L'IA en fait bouger certain sans en faire bouger d'autres
    En tout cas s'il en reste un qui n'est pas stupide dès qu'il s'agit de gagner de l'argent (qu'il s'empresse de redistribuer puisqu'il a donné sa fortune, ne l'oublions pas ), c'est bien ce brave Bill Gates.
    Faire tester gratuitement son IA par des millions de volontaires, lesquels, ce faisant lui permettent de l'améliorer pour mieux griller la concurrence, c'est déjà une performance. Il nous avait déjà fait le coup du débogage gratuit par les utilisateurs de MS-DOS et Windows.

    En attendant, si révolution il y a :
    Je le cite : "Je pensais que ce défi les occuperait pendant deux ou trois ans. Ils l'ont terminé en quelques mois seulement."
    Il est raisonnable de penser que l'IA sera dans quelques mois capable de trouver des remèdes efficaces et non mutilants pour les cancers, les infections virales, les malformations congénitales, etc..
    Tout ceci grâce aux utilisateurs de ChatGPT qui sont assez aimables pour perdre leur temps en l'utilisant, sans trop s'étonner que cette application produise ce que l'on attende d'elle. Personnellement, je préférerais qu'elle produise ce que je ne sais pas faire comme proposer un protocole pour soigner un cancer.

    Bon ChatGPT, en attendant qu'il devienne enfin payant (à la sauce Microsoft : licences, cal, et compagnie).

  9. #9
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 117
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 117
    Par défaut Un avocat a cité 6 fausses affaires inventées par ChatGPT, le juge qualifie cette affaire de sans précédent
    Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI,
    le juge qualifie cette affaire de « sans précédent »

    Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. L’avocat, Steven Schwartz, a reconnu avoir utilisé pour compléter ses recherches juridiques, mais qu’il n’avait pas vérifié l’authenticité des sources.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    Nom : Juge IAb.png
Affichages : 7156
Taille : 304,1 Ko

    ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

    L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées prompts.

    Le juge en charge de l’affaire, Robert Katzmann, a sévèrement sanctionné l’avocat pour avoir induit le tribunal en erreur. Il a ordonné à Schwartz de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Il a également dénoncé les dangers de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte pour éviter les abus et les erreurs.

    Dans une autre affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »

    L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »

    ChatGPT n'a « pas pour but de remplacer » les juges, a précisé le juge. Padilla a insisté sur le fait qu' « en posant des questions à l'application, nous ne cessons pas d'être des juges, des êtres pensants. » « Je soupçonne que beaucoup de mes collègues vont se joindre à cela et commencer à construire leurs décisions de manière éthique avec l'aide de l'intelligence artificielle », a déclaré Padilla.

    Le juge fédéral Kevin Castel envisage des sanctions à l'encontre de Schwartz et de ses associés. Dans une ordonnance rendue vendredi, Castel a fixé au 8 juin une audience au cours de laquelle M. Schwartz, son confrère Peter LoDuca et le cabinet d'avocats devront justifier les raisons pour lesquelles ils ne devraient pas être sanctionnés.

    « La Cour est confrontée à une situation sans précédent, a écrit Castel dans une ordonnance rendue le 4 mai. Un mémoire déposé par l'avocat du plaignant en opposition à une requête en irrecevabilité est rempli de citations de cas inexistants... Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes ».

    Les documents déposés comprenaient non seulement des noms d'affaires inventées, mais aussi une série de pièces à conviction contenant des « extraits » des fausses décisions. Par exemple, l'avis erroné Varghese v. China Southern Airlines cite plusieurs précédents qui n'existent pas. L'avis erroné « Varghese » contient des citations internes qui, à leur tour, sont inexistantes », a écrit Castel. Cinq autres « décisions soumises par l'avocat du plaignant contiennent des lacunes similaires et semblent également erronées », a écrit Castel.

    Pour certains analystes, cette affaire est un exemple des défis posés par l’intelligence artificielle, qui peut produire du contenu crédible, mais faux. Il est important de vérifier les sources et de faire preuve d’esprit critique face aux informations générées par l’intelligence artificielle.

    Source : Déclaration sous serment de Schwartz

    Et vous ?

    Quel est avis sur le sujet ?

    Utilisez-vous chatGPT pour avancer dans certains de vos tâches ?

    Quelles peuvent être les conséquences juridiques et éthiques de l’utilisation de ChatGPT pour la recherche juridique ?

    Quelle est, selon vous, la fiabilité de ChatGPT pour fournir des informations exactes et pertinentes ?

    Quelles peuvent être les mesures à prendre par le tribunal pour éviter que ce genre de situation ne se reproduise ?

    Voir aussi :

    Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines

    Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 117
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 117
    Par défaut « Pas de ChatGPT dans ma cour » : un juge ordonne que tous les contenus générés par l'IA soient déclarés
    Un juge ordonne que tous les contenus générés par l'IA soient déclarés et contrôlés,
    après qu'un avocat a laissé ChatGPT lui fournir des précédents juridiques inventés de toutes pièces

    Un juge fédéral du Texas, Brantley Starr, a ordonné que tout contenu généré par une intelligence artificielle (IA) soit déclaré et vérifié par un être humain avant d’être utilisé dans un dépôt judiciaire. Cette décision fait suite à un incident où un avocat, Steven Schwartz, a laissé ChatGPT, un modèle de langage basé sur l’IA, lui fournir des cas et des précédents juridiques inventés de toutes pièces. Le juge Starr a expliqué que les plateformes d’IA sont puissantes et utiles pour certaines tâches juridiques, mais pas pour la rédaction de mémoires, car elles sont sujettes à des hallucinations et à des biais.

    Il est rare qu’un avocat confie à une IA le soin de rédiger ses plaidoiries, mais cela s’est déjà produit, et le juge Brantley Starr veut éviter que ce scandale ne se reproduise dans son tribunal. Le magistrat fédéral du Texas a instauré une règle selon laquelle tout avocat qui comparaît devant lui doit certifier qu’« aucune partie du mémoire n’a été écrite par une intelligence artificielle générative » ou, si c’est le cas, qu’elle a été contrôlée « par un être humain ».

    Nom : JugeIA.jpg
Affichages : 4462
Taille : 33,7 Ko

    La semaine dernière, l’avocat Steven Schwartz a laissé ChatGPT « compléter » ses recherches juridiques dans une affaire fédérale récente, en lui donnant six cas et des jurisprudences pertinentes - qui ont tous été inventés de toutes pièces par le modèle de langage. Il « regrette profondément » son geste et, même si la médiatisation nationale de cette erreur a probablement dissuadé d’autres avocats tentés de faire de même, le juge Starr ne veut pas prendre de risque.

    Comme les autres magistrats, Brantley Starr peut fixer des règles particulières pour son tribunal sur le site fédéral du district nord du Texas. Il a récemment ajouté l’« obligation de certification relative à l’intelligence artificielle générative » (on ignore si c’est en réaction à la plainte mentionnée plus haut). Eugene Volokh a été le premier à révéler l’information.

    « Tous les avocats qui se présentent devant la Cour doivent remettre au greffe un certificat indiquant qu’aucune partie du mémoire n’a été écrite par une intelligence artificielle générative (comme ChatGPT, Harvey.AI ou Google Bard) ou que la véracité des termes rédigés par une intelligence artificielle générative a été contrôlée par un être humain à l’aide de journalistes de la presse écrite ou de sources juridiques classiques. »

    Un formulaire à signer par les avocats est annexé, indiquant que « les citations, les affirmations paraphrasées et les analyses juridiques » sont toutes couvertes par cette interdiction. Le résumé étant l'un des points forts de l'IA, et la recherche et le résumé de précédents ou d'affaires antérieures ayant été annoncés comme potentiellement utiles dans le cadre du travail juridique, il se peut que cette interdiction soit appliquée plus souvent que prévu. L'exigence de certification comprend une explication assez convaincante de sa nécessité :

    Ces plateformes sont incroyablement puissantes et ont de nombreuses utilisations dans le domaine juridique : formulaires de divorce, demandes de communication de pièces, erreurs suggérées dans des documents, questions anticipées lors d'une plaidoirie. Mais l'information juridique n'en fait pas partie. Voici pourquoi.

    Dans leur état actuel, ces plateformes sont sujettes aux hallucinations et aux préjugés. En ce qui concerne les hallucinations, elles inventent des choses - même des citations. Un autre problème est celui de la fiabilité ou de la partialité. Alors que les avocats prêtent serment de mettre de côté leurs préjugés, leurs partis pris et leurs croyances personnelles pour défendre fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment.
    Un autre problème est celui de la fiabilité ou de la partialité

    Alors que les avocats prêtent serment de mettre de côté leurs préjugés, leurs partis pris et leurs croyances personnelles pour défendre fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment. En tant que tels, ces systèmes ne prêtent allégeance à aucun client, à l'État de droit, aux lois et à la Constitution des États-Unis (ou, comme nous l'avons vu plus haut, à la vérité).

    Libérés de tout sens du devoir, de l'honneur ou de la justice, ces programmes agissent en fonction d'un code informatique plutôt que d'une conviction, sur la base d'une programmation plutôt que d'un principe. Toute partie estimant qu'une plateforme possède l'exactitude et la fiabilité requises pour un exposé juridique peut demander l'autorisation et expliquer pourquoi.

    En conséquence, la Cour annulera tout document déposé par un avocat qui ne dépose pas au plumitif un certificat attestant que l'avocat a lu les exigences de la Cour relatives aux juges et qu'il comprend qu'il sera tenu responsable du contenu de tout document qu'il signe et soumet à la Cour, indépendamment du fait que l'intelligence artificielle générative ait rédigé une partie de ce document.

    Source : Eugene Volokh in a blog post

    Et vous ?

    Quels sont selon vous, les risques juridiques et éthiques de recourir à une intelligence artificielle générative pour produire du contenu juridique ?

    À votre avis, quels sont les critères qui permettent de distinguer un texte rédigé par une intelligence artificielle générative d’un texte rédigé par un être humain ?

    Quelles sont les limites et quels sont les biais des modèles de langage comme ChatGPT, Harvey.AI ou Google Bard ?

    Voir aussi :

    Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

    Chat GPT a atteint un million d'utilisateurs en un temps record, cinq jours seulement après sa création en novembre 2022, révolutionnant le gain de temps dans divers domaines
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #11
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 722
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 722
    Par défaut L'application ChatGPT enregistre 500 000 téléchargements au cours des six premiers jours de son lancement
    L'application ChatGPT enregistre 500 000 téléchargements au cours des six premiers jours de sa période de lancement, et devient le leader en termes de performances et de lancement d'applications

    Une nouvelle étude met en lumière le succès croissant de l'application ChatGPT d'OpenAI.

    Bien que l'application n'ait été initialement disponible que sur iOS et aux États-Unis, de nouveaux chiffres surprenants ont été dévoilés dans le cadre d'une nouvelle étude. Et comme on peut s'y attendre, les créateurs ne peuvent pas être plus satisfaits de ces chiffres.

    Il s'agit d'un excellent départ, qui se concrétise par l'extension du programme à 11 destinations internationales supplémentaires dans le monde entier. Aujourd'hui, le programme a franchi la barre des 500 000 téléchargements en six jours, depuis son lancement.

    Nom : page-4.jpg
Affichages : 6556
Taille : 30,4 Ko

    Tout cela grâce aux statistiques fournies par DataAI qui est un fournisseur connu de résultats clés dans le monde des tendances numériques.

    Il n'est donc pas faux de dire que cette plateforme est désormais considérée comme le leader en termes de performances et de lancements d'applications, tant pour cette année que pour la précédente. La seule fois où elle a été battue, c'était en février 2022, par la plateforme Truth Social de Donald Trump.

    Comme l'expliquent les consommateurs, tous les chatbots d'IA sont nécessaires en ce moment. Il existe de nombreuses plateformes sur l'App Store qui se font appeler ChatGPT et qui sont fausses. Elles veulent simplement que les gens les paient, mais ne fournissent pas les mêmes services que ChatGPT. Pourtant, les consommateurs dépensent sans compter.

    La concurrence est rude et le paysage est très intéressant. Vous trouverez de nombreux chatbots axés sur l'IA, ce qui a créé un marché difficile pour les applications qui souhaitent gagner en notoriété et en popularité. Mais de toute évidence, ce n'était pas le cas dans cette situation particulière.

    Nom : page-1.jpg
Affichages : 3121
Taille : 32,1 Ko

    ChatGPT a fini par surpasser un grand nombre de ses principaux rivaux et comptait dans sa liste certains des plus grands noms de l'industrie, comme Bing de Microsoft et Edge. Leurs liens avec des tiers et la technologie GPT-4 sont également incontournables.

    Alors que Bing et Microsoft Edge ont fini par bénéficier du grand intérêt que les gens portaient à des plateformes comme ChatGPT lors de son lancement initial, nous avons vu un nombre stupéfiant de 340 000 installations survenir au cours des cinq premiers jours du lancement aux États-Unis, alors qu'il n'était basé que sur la technologie iOS.

    Source : DataAI

    Et vous ?

    Quel est votre avis sur ce succès rapide de l'application ChatGPT ?

    Trouvez-vous ces statistiques fiables et pertinentes ?

    Selon vous, la popularité de ChatGPT est-elle attribuée à ses performances réelles ou est-elle due à un battage médiatique ?

    Voir aussi

    ChatGPT: le chatbot IA d'OpenAI débarque sous forme d'application en version gratuite sur iOS, votre historique sera synchronisé sur vos appareils

    Une fausse application mobile se faisant passer pour ChatGPT tente d'escroquer les utilisateurs via un abonnement hebdomadaire de 7,99 $, l'App Store et le Play Store en contiendraient plusieurs

    ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet, atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS

    Que peut vous apporter l'outil ChatGPT ? L'essence même du puissant chatbot d'IA générative est dévoilée, à travers une enquête auprès des utilisateurs d'Internet
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #12
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 117
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 117
    Par défaut Les éditeurs scientifiques face à l’impasse des faux documents générés par l’IA
    Les éditeurs scientifiques face à l’impasse des faux documents générés par l’IA,
    les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

    Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés pour lutter contre le nombre croissant de faux articles qui se frayent un chemin dans la littérature académique. Les progrès de l'intelligence artificielle (IA) compliquent les efforts déployés par les éditeurs pour s'attaquer au problème croissant des organisations non officielles et potentiellement illégales qui produisent de faux documents, de faux articles scientifiques sur commande. Les outils d'IA générative, y compris les chatbots tels que ChatGPT et les logiciels de génération d'images, offrent de nouveaux moyens de produire du contenu, qui pourrait s'avérer particulièrement difficile à reconnaitre. Ces questions ont été abordées par les experts en intégrité de la recherche lors d'un sommet qui s'est tenu le 24 mai et qui était consacré au problème de ses organisations non officielles et potentiellement illégales qui produisent de faux documents (paper mill).

    Rappelons que dans le secteur de la recherche, un « paper mill » est une organisation non officielle et potentiellement illégale, orientée vers le profit, qui produit et vend de faux manuscrits qui semblent ressembler à des travaux de recherches authentiques. Dans certains cas, les « paper mill » sont des opérations sophistiquées qui vendent des positions d'auteur sur des recherches légitimes, mais dans de nombreux cas, les articles contiennent des données erronées et peuvent être fortement plagiés ou non professionnels. Selon un rapport de Nature, des milliers d'articles dans des revues universitaires ont été retracés jusqu'à des organisations en Chine, d'Iran et de Russie, et certaines revues réorganisent leurs processus d'évaluation.

    Nom : Documents.jpg
Affichages : 5231
Taille : 18,3 Ko

    De façon croissante, les entreprises produisent des articles scientifiques falsifiés sur commande, en échange d’argent. Les progrès de l’intelligence artificielle (IA) rendent plus difficile la détection de ces articles, car ils peuvent utiliser des outils capables de générer des images et du texte réaliste, qui imitent les données et le style des vrais articles.

    Certains des plus grands éditeurs de revues universitaires du monde ont interdit ou restreint l'utilisation par leurs auteurs du chatbot avancé ChatGPT. Comme le robot utilise des informations provenant d'Internet pour produire des réponses très lisibles à des questions, les éditeurs craignent que des travaux inexacts ou plagiés n'entrent dans les pages de la littérature universitaire.

    Plusieurs chercheurs ont déjà inscrit le chatbot en tant que coauteur dans des études universitaires, et certains éditeurs ont décidé d'interdire cette pratique. Mais le rédacteur en chef de Science, l'une des principales revues scientifiques au monde, est allé plus loin en interdisant toute utilisation du texte du programme dans les articles soumis.

    Springer Nature, qui publie des milliers de revues scientifiques, a annoncé en début d’année que ChatGPT - ou tout système similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce intervient à un moment où le débat sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA s'intensifie, mais aussi après les déboires du média CNET avec son IA interne de génération de texte.

    Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980. Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes « originaux ». Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.

    « La capacité des organisations non officielles et potentiellement illégales qui produisent de faux documents à générer des données brutes de plus en plus plausibles va tout simplement exploser avec l'IA », déclare Jennifer Byrne, biologiste moléculaire et chercheuse en intégrité des publications à la New South Wales Health Pathology et à l'Université de Sydney en Australie.

    « J'ai vu de fausses images de microscopie générées par l'IA », déclare Jana Christopher, analyste de l'intégrité des données d'image chez l'éditeur FEBS Press à Heidelberg, en Allemagne. Mais il reste difficile de prouver hors de tout soupçon que les images sont générées par l'IA, ajoute-t-elle.
    Les outils d'IA générateurs de langage tels que ChatGPT posent un problème similaire. « Dès que l'on dispose d'un outil capable de démontrer que quelque chose a été généré par ChatGPT, il y aura un autre outil pour le brouiller », déclare Christopher.

    Anna Abalkina, chercheuse en sciences sociales à l'Université libre de Berlin et analyste indépendante de l'intégrité de la recherche, soupçonne que ces outils d'IA pourraient tarder à apparaître dans la littérature universitaire en raison de la longueur du processus d'évaluation par les pairs. Peut-être que dans les prochains mois, « nous verrons le premier flux d'articles », dit-elle.

    Byrne, Christopher et Abalkina ont participé la semaine dernière au sommet UNITED2ACT, organisé par le Committee on Publication Ethics (COPE), une organisation à but non lucratif spécialisée dans l'éthique de l'édition universitaire basée à Eastleigh, au Royaume-Uni, et par l'Association internationale des éditeurs scientifiques, techniques et médicaux (STM), basée à Oxford. Le sommet a réuni des chercheurs internationaux, y compris des analystes indépendants de l'intégrité de la recherche, ainsi que des représentants d'organismes de financement et d'éditeurs.

    « C'était la première fois qu'un groupe de personnes se réunissait et créait ensemble une série d'actions que nous allons mettre en œuvre pour lutter contre ce problème », déclare Deborah Kahn, administratrice du COPE et consultante en matière d'intégrité de la recherche, basée à Londres. Le groupe a l'intention de publier bientôt son plan d'action commun.

    Lorsqu'il s'agit de détecter des ouvrages en papier, « il y a absolument un défi supplémentaire qui est posé par les images synthétiques, le texte synthétique, etc. », déclare Joris van Rossum, directeur de programme pour STM Solutions, une filiale de STM. « Il y a une prise de conscience générale du fait que le dépistage risque de devenir plus difficile », ajoute-t-il.

    L’IA et la recherche scientifique: opportunités et défis

    Selon Kahn, même s'il ne fait aucun doute que l'IA sera utilisée de manière positive pour aider les chercheurs à rédiger des articles, il sera toujours nécessaire de faire la distinction entre les articles légitimes rédigés à l'aide de l'IA et ceux qui ont été complètement fabriqués. « Nous devons vraiment nous pencher sur la manière dont nous identifions ces documents et dont nous nous assurons que les personnes ont réellement effectué la recherche. Il y a plusieurs façons d'y parvenir », explique-t-elle.

    L'une des stratégies discutées lors du sommet consistait à exiger des auteurs qu'ils fournissent les données brutes de leurs expériences, éventuellement accompagnées de filigranes numériques qui permettraient aux éditeurs de confirmer l'authenticité de ces données. Actuellement, les exigences en matière de soumission de données brutes varient considérablement d'un éditeur à l'autre, explique Christopher. Il pourrait donc être utile d'établir un ensemble uniforme d'exigences pour la soumission de données brutes entre les éditeurs, en tenant compte des différences entre les domaines de recherche.

    Sabina Alam, directrice de l'éthique et de l'intégrité de l'édition chez Taylor & Francis, une maison d'édition basée à Abingdon, au Royaume-Uni, partage cet avis, mais estime que la mise en œuvre de telles normes prendra du temps. « Je ne peux pas imaginer que cela se fasse du jour au lendemain, car la réalité est que de nombreuses institutions n'ont pas les ressources nécessaires pour offrir une infrastructure de gestion des données », dit-elle. « Nous ne voulons pas pénaliser la recherche réelle. »

    Deux doyens de l'université Vanderbilt de Nashville, dans le Tennessee, aux États-Unis, auraient été suspendus après avoir utilisé ChatGPT pour rédiger un courriel de 297 mots envoyé à des étudiants au sujet de la fusillade meurtrière qui a eu lieu la semaine dernière sur le campus de l'université d'État du Michigan. Au bas du message, on pouvait lire qu'il a été écrit par une IA : « Paraphrase from OpenAI's ChatGPT AI language model, personal communication, February 15, 2023 ». Une enquête a été ouverte par les autorités de l'université et les deux doyens ayant signé le courriel, Nicole Joseph et Hasina Mohyuddin, ont temporairement démissionné.

    Les outils de détection des paper-mill, un enjeu majeur pour les éditeurs

    Les participants au sommet ont également discuté d'autres stratégies pour s'attaquer plus largement au problème des paper-mill, notamment l'organisation d'une journée ou d'une semaine de sensibilisation pour les chercheurs, ainsi que l'identification de moyens permettant aux éditeurs de partager des informations pertinentes sur les paper-mill présumées - par exemple lorsqu'ils reçoivent simultanément des soumissions - sans enfreindre les règles relatives à la protection des données.

    STM continue de développer son propre logiciel de détection des papeteries, tout en rassemblant des ressources sur des outils similaires disponibles ailleurs par l'intermédiaire de son centre d'intégrité. L'augmentation apparente des usines à papier accroît la demande de techniques de ce type, à la fois pour détecter les faux articles au moment de leur soumission et pour identifier ceux qui ont déjà été publiés.

    Taylor & Francis fait partie des éditeurs qui utilisent ces outils, et Alam affirme qu'un nombre croissant de cas d'éthique - des cas de mauvaise conduite potentielle qui sont signalés pour une enquête plus approfondie - sont transmis à son équipe. Environ la moitié de ces cas sont dus à des paper-mill, selon Alam. Son équipe a vu le nombre de cas d'éthique multiplié par plus de dix entre 2019 et 2022 - et depuis le début de l'année, il y a eu presque autant de cas que pendant toute l'année 2022. « Il semble que le système ait été commercialisé et mis à l'échelle », explique-t-elle.

    Source : Springer Nature

    Et vous ?

    Cette publication de Springer Nature est -elle pertinente ?

    Quel est votre avis sur le fait que les paper-mill utilisent l’IA pour générer des images et du texte ?

    Quels peuvent être les solutions à adopter par les éditeurs pour détecter les paper-mill ?

    Quelles peuvent être les conséquences juridiques et éthiques de la diffusion et de la rétractation des paper-mill ?

    Voir aussi :

    Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur, il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

    Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

    ChatGPT produirait de faux documents universitaires, alors que des professions se sentent menacées par le célèbre outil d'OpenAI

    Les pasteurs utiliseraient ChatGPT pour écrire des sermons, alors que certains affirment que l'outil d'IA ne reproduit pas la passion d'une véritable prédication

    Des doyens d'université suspendus après avoir utilisé ChatGPT pour envoyer des courriels à des étudiants sur une fusillade de masse, le message a suscité un tollé au sein de l'établissement
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #13
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    336
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 336
    Billets dans le blog
    1
    Par défaut
    Si ceux qui valident des articles scientifiques ne font rien d'autres que les lire, sans refaire les expériences, sans s'entretenir avec les auteurs et vérifier leurs diplômes et parcours, alors oui cela fait peur. Mais cela fait peur dès lors que Photoshop et la malhonnêteté existent, pas besoin de ChatGPT.

  14. #14
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Par défaut
    Du coup, les fautes d'orthographes/grammaires vont devenir une preuve "d'écrits humain".

  15. #15
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    18 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 18 264
    Par défaut
    Pas sûr, l'IA lisant les articles humains, cf l'IA raciste de Facebook.
    Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
    Mon article sur le P2V, mon article sur le cloud
    Consultez nos FAQ : Windows, Linux, Virtualisation

  16. #16
    Futur Membre du Club
    Profil pro
    Conseil en innovation
    Inscrit en
    Février 2013
    Messages
    3
    Détails du profil
    Informations personnelles :
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : Conseil en innovation

    Informations forums :
    Inscription : Février 2013
    Messages : 3
    Par défaut Réalité des soumissions d'articles à ces éditeurs : tous utilisent des IA pour un meilleur ROI du budget
    Quelques infos sur la soumission d'articles à des éditeurs scientifiques :

    - Dans certains domaines, plusieurs dizaines de revues différentes peuvent appartenir au même éditeur scientifique, réclamant de passer par la même plateforme web de soumission des articles. Il peut y avoir que 5 ou 6 grands éditeurs par domaine puisqu'ils se rachètent mutuellement (capitalisme). Se faire blacklister par un outil antiplagiat par une de ses revues signifie se faire blacklister par les autres revues de l'éditeur. Je ne pense pas qu'ils respectent la RGPD, puisqu'un article est soumis aux noms d'auteur et de co-auteurs. Très peu de revues (même parmi celles classées parmi les plus haut ranking) ne font que demander au "corresponding author" (celui qui soumet l'article) de vérifier que tous les co-auteurs (qu'il déclare) sont d'accord pour être déclarer co-auteurs. Avec un peu de chance, si leur base de données matche un nom de co-auteur connu alors il lui envoie un mail pour le notifier. Mais cela reste un parcours du combattant pour faire retirer son nom de co-auteur d'un article qu'on ne connait pas. La raison est que les revues n'affectent pas de ressources humaines à cette vérification, ils automatisent tout. Et mettre en co-auteur certains noms de grands publiant permettent d'éviter la 1ère étape du "desk-reject" (étant un refus informel "automatisé" sans réel info sur la raison du refus).

    - Avant même la démocratisation des IA conversationnelles, les éditeurs scientifiques ont toujours rencontré des difficultés à détecter le plagiat. Comme les articles sont sous propriété intellectuel de l'éditeur, ils ne veulent pas se retrouver devant les tribunaux par plainte de plagiat déposé par la concurrence. Ils ont paramétré leur antiplagiat pour qu'un 1 ou 2 % de correspondance de texte avec un autre article déjà publié suffit à se faire desk-reject. Alors que les articles ont à peu près la même table des matières : abstract, introduction, état de l'art / related works, modèle / hypothèses, expérimentations (qualitative / quantitative), analyses, conclusion. Ainsi dans l'état de l'art, il faut citer des travaux de recherche pour prouver que votre approche / use case n'est pas déjà publié, donc si vous citez "trop de définitions célèbres" avec la référence bibliographique [Auteur, Année], alors vous dépassez ce 1% de plagiat, ou si vous ne les citez pas, alors votre état de l'art est incomplet, et vous vous faites desk-reject. C'est une des raisons pour laquelle les outils d'IA de reformulation sont aussi populaires chez les auteurs d'articles. Comme ces éditeurs automatisent toutes les étapes de vérification pour diminuer le nombre de reviewer humain et que leurs outils sont largement imparfaits, alors ne pas les utiliser rend très difficile de se faire accepter chez les revues les plus rankées.

    - Il y a aussi une guerre de communication entre les éditeurs : l'hégémonie du nombre de leurs citations les classant "A* / high impact factor", sous-entendu favorisant le ROI de leur business model. Si vous n'avez pas cité plusieurs articles anciens et récents de la revue à laquelle vous soumettez alors on déclare votre état de l'art comme étant incomplet et vous êtes desk-reject. Et autant vous dire qu'il ne vaut mieux pas citer des articles d'auteurs dont le pays de l'éditeur est en conflit ouvert avec le pays de l'auteur cité (ou simplement des noms d'auteurs ayant des caractères non latins). Pourtant dans certains domaines ("sciences économiques" par exemple), si vous voulez avoir une chance d'être publié, il faut avoir 3 co-auteurs de 3 labos différents de 3 continents différents. Si vous avez moins que ça alors il faut que cela soit quelque chose qui conforte la "science économique" dominante de l'éditeur. Vous l'aurez compris, la présence/absence du "s" à "science économique" n'est pas un hasard. Il y aussi un avis en termes de compétences qui empêche aussi d'être publié en data science : après avoir esquivé l'étape du desk-reject, il ne faut pas tomber sur des reviewers humain dont votre publication remet en cause les travaux de ses collaborateurs scientifiques, surtout si vous n'êtes pas du grande organisation reconnu, et encore moins avoir soumis un article qui dépassent largement le niveau de hard skills des reviewers de l'éditeur. Certaines conférences réclament des papiers de 6-8 pages maximum et ces articles sont généralement gratuit à lire, et en face les journaux vont plutôt vers 20-30 pages mais eux sont payant à lire.

    - Certaines revues savent pertinemment qu'ils vont desk-reject un article dès qu'il a été soumis, mais ils le notifieront sous 2 semaines ou 2 mois. Pourquoi ? parce qu'avec un refus immédiat, vous transformez l'article et vous le soumettez à nouveau dans les 48h, ce qui augmente le nombre de reviews à produire par la plateforme web de l'éditeur de la revue. En plus, avec l'automatisation instantanée des refus, certaines équipes pourraient spammer de soumission, de quelques articles reformulés plein de fois par IA, jusqu'à pouvoir identifier les conditions qui permettent de diminuer le risque de desk-reject, obligeant l'éditeur à nouveau les changer (donc faire une analyse prévisionnel de son impact financier selon le changement de stratégie. En bref, ils peuvent passer plus de temps à bosser là-dessus qu'à reviewer). Donc en lançant un refus automatisé sous 2 semaines ou 2 mois (généralement indiqué par une moyenne), cela permet de lisser la charge dans le temps, et d'éviter d'envoyer les auteurs chez la concurrence. Mais certaines équipes ont la parade maintenant : pour un seul nouvel article, ils utilisent une IA de reformulation pour le soumettre en même temps en 5-6 versions différentes à 5-6 revues de 5-6 éditeurs différents. Cela donne une meilleur chance de passer le desk-reject et d'atteindre un reviewer qui donne enfin des vrais commentaires de reviews pour le corriger avant publication. C'est la raison que les éditeurs se plaignent de la multiplication des faux documents générés par l'IA : cela remet en cause l'optimisation de leur lean management de leurs processus automatisé de review avant publication. En bref, ils y perdent de l'argent et dégoutent leurs reviewers "gratuits" de continuer à faire parties de leurs boards, car personne n'a envie de reviewer des articles reformulés par IA, sauf s'il est payé à la quantité.

    - Beaucoup de labos privés/publics ont un budget annuel proportionnel à la quantité d'articles publiées (et aussi du nombre de brevet), ce qui impacte le nombre d'emploi de chercheurs qui sont maintenus, ouverts ou disparaissent. D'ailleurs sans un seul article publié dans une revue high rank / impact factor, alors il n'est quasiment pas question de défendre sa thèse de doctorat. Cela entraine une difficulté de recrutement, les profils recrutés sont plutôt ceux les plus prolifiques à aimer rédiger qu'à rechercher et découvrir l'innovation. Entre un bon rédacteur vulgarisateur scientifique et un inventeur, on peut passer de 10 à 90% de temps passés sur une activité ou sur l'autre selon les contraintes de budget de l'équipe. Avoir suffisamment d'articles dans ce type de revue "aide" la carrière du chercheur à le distinguer des autres candidats pour un même poste (qui sont assez rares). Sinon c'est qu'ils "n'étudient pas ce dont le marché a besoin" et sont condamnés à disparaitre par restriction du budget. Ainsi les labos privés/publics orientent leurs topics de R&D sur ce qui rapporte à ses revues (qui revendent 30$/unité chaque article, ou par forfait mensuel payé par l'institution), alors que cela a généralement était subventionné par les pouvoirs publics et devraient être "free/open".

    - Ainsi pour éviter le desk-reject, le plus simple devient de faire "ami-ami" avec l'un des chercheurs du board de la revue dans laquelle vous voulez publier. Vous l'invitez à participer à vos tables rondes en visio. Il apprend à connaitre les travaux de votre équipe comme étant réel et non pas généré par IA. Il finit par vous connaître comme étant vous-même faisant partie d'un autre board. Et là c'est l'échange de service : ce que soumet les collaborateurs de chez l'un passent l'étape du desk-reject de chez l'autre. Dans certains "honnête" cas, il peut exiger qu'un de ses collaborateurs apparaissent en 5ème co-auteur (qui n'a pas son nombre annuel de publication suffisante et son emploi est remis en cause) et vous le faites participer à l'amélioration de l'article. Dans le pire des cas, il y a un échange financier d'une partie des subventions (favoriser par les Etats qui poussent à ce qu'il y ai de la coopération entre institutions pour augmenter sa visibilité internationale). Dans le cas criminel, ça demande d'être co-auteur et d'être payé car son nom "fait vendre", mais ça ne dure pas longtemps car finit par être blacklisté (sauf si ses articles rapportent à la revue, capitalisme). En conclusion, tous les chercheurs qui veulent augmenter le budget de leurs équipes et ne sont pas des bons publiants / inventeurs deviennent de bons commerciaux que l'équipe ne peut plus se passer sans risquer de diminuer le budget s'il est débauché par une équipe concurrente (et dans certaines institutions peut exiger d'avoir une partie de ce ROI, là où les salaires ne sont pas des grilles fixes, ceux-ci tant que ça ne repose pas sur le nombre de publication par an).

    En conclusion, les éditeurs scientifiques doivent maintenant, non pas utilisé des IA commerciales pour détecter le plagiat, mais faire appel aux éditeurs d'IA pour créer des IA spécialistes qui ont appris tout le corpus qu'ils ont sous propriété intellectuelle, ainsi que celles de la concurrence (ce qui est illégal), afin ensuite de déterminer si chaque article soumis est une innovation R&D ou du plagiat ou une extension de précédent travaux, ceux-ci combiné avec un peu de business intelligence pour identifier si le topic de l'article aurait un bon ROI de le faire reviewer par des humains du board, puis d'être publié définitivement (sa lecture mis en vente pour être citer par d'autres). Et cela leur réclame de s'y investir et d'y investir. En attendant, il est plus simple de s'en plaindre publiquement pour que ce lobbying finisse par devenir des nouvelles lois (par exemple réclamant l'obligation légale de prévenir quelle partie a été reformulée / complétée par une IA). Il y a déjà des demandes équivalentes d'info à propos des subventions qu'on permis de produire les travaux de recherche à soumettre dans un article,... bref autant de données confidentielles qu'ensuite les éditeurs scientifiques de ses SaaS peuvent analyser et vendre sous la forme de rapport de veille stratégique à ceux en recherche de budget ou de savoir qui il faut démarcher pour vendre telle solutions logicielles pour leur faire augmenter leur nombre de publication (être notifier des fameux nouveaux trends), etc. Ou simplement être rémunérer par les Etats pour les conseiller comment allouer leurs budgets selon les topics des domaines scientifiques (et la boucle est bouclée). Mais aucune élite / aucun élu ne va remettre en cause qu'un conseiller d'une tel éditeur scientifique étranger pourrait simplement conseiller des topics qui intéresse un peu moins le monde entier afin de favoriser l'hégémonie de publication de son propre pays.

  17. #17
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 722
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 722
    Par défaut Les détecteurs de contenu GPTZero et Turnitin rivalisent pour la suprématie de l'IA dans le milieu académique
    Les détecteurs de contenu GPTZero et Turnitin rivalisent pour la suprématie de l'IA dans le milieu académique, afin de répondre à l'essor des générateurs de texte d'IA générative, selon Similarweb

    GPTZero a pris d'assaut le monde universitaire, se positionnant comme un précurseur dans la transformation de la manière dont les professeurs identifient l'intégration de l'IA dans les travaux des étudiants. Néanmoins, il doit faire face à une concurrence féroce de la part d'acteurs bien établis tels que Turnitin, qui a renforcé ses outils anti-plagiat en y intégrant des capacités de détection de contenu par l'IA. L'utilisation généralisée de générateurs de texte alimentés par l'IA a suscité un vaste débat sur les demandes d'emploi, les argumentaires de vente et la légitimité des dissertations. Cette situation a incité les acteurs du monde de l'éducation et des affaires à rechercher activement des méthodes permettant de différencier les contenus rédigés par des êtres humains de ceux générés par des robots d'intelligence artificielle.

    Depuis son lancement en janvier, GPTZero, créé par un étudiant qualifié de l'université de Princeton, a rapidement gagné en popularité. La plateforme a enregistré 5,5 millions de visites au cours du seul mois d'avril, et les projections de Similarweb indiquent que ce chiffre dépassera les 5,9 millions en mai. Ces chiffres remarquables établissent fermement que GPTZero est le principal concurrent dans le domaine de la détection de contenu par l'IA, qui se concentre uniquement sur ce domaine spécialisé.

    Récemment, Turnitin, un outil académique réputé, a élargi son offre en incorporant des outils de détection de contenu par l'IA à ses fonctions anti-plagiat existantes. La plateforme a connu une hausse notable de popularité, avec un nombre de visites estimé à plus de 17 millions en mai, soit une augmentation de 11,5 % par rapport à l'année précédente. En outre, les établissements d'enseignement adoptent la détection de contenu par l'IA en l'intégrant dans leurs systèmes de gestion de l'apprentissage, ce qui souligne l'importance croissante de cette technologie dans le monde universitaire.

    Nom : 0-ai_detection_4-600x371-1.png
Affichages : 7816
Taille : 27,9 Ko

    OpenAI, le maître d'œuvre du développement de ChatGPT, a récemment lancé son propre classificateur de texte conçu pour faire la distinction entre le contenu généré par ChatGPT et d'autres sources. Bien qu'elle ne soit pas aussi largement adoptée que certaines solutions commerciales, la solution d'OpenAI a fait l'objet d'une attention considérable en avril et a attiré un total de 861 700 visites, principalement sur des ordinateurs de bureau.

    De nombreuses plateformes en ligne proposent des outils de détection de contenu par l'IA dans le but d'aider les rédacteurs et les créateurs de contenu à exploiter la puissance de l'intelligence artificielle. Il est intéressant de noter qu'une part importante du trafic que ces sites web reçoivent est principalement concentrée sur leurs pages de détection de contenu d'IA. Des statistiques remarquables révèlent qu'environ 61 % du trafic vers copyleaks.com, 80 % du trafic vers writer.com et 85 % du trafic vers contentatscale.ai sont spécifiquement générés par des utilisateurs à la recherche de capacités de détection de contenu par l'IA.

    Nom : ai_detection_3-600x371-1.png
Affichages : 3464
Taille : 49,2 Ko

    Afin d'offrir une perspective complète, les principaux sites web qui fournissent des outils de détection de contenu par IA gratuitement ou à titre d'essai, à l'exclusion de Turnitin ont été analysés. Un concurrent notable est GPTZero, une plateforme née des ressources limitées d'un jeune homme de 22 ans nommé Edward Tian. Au départ, l'objectif principal de GPTZero était d'aider les professeurs à détecter l'utilisation de l'IA dans les travaux des étudiants. Au fil du temps, l'entreprise a élargi son équipe en recrutant des docteurs en IA et a récemment obtenu un financement impressionnant de 3,5 millions de dollars.

    Alors que de nombreux domaines répertoriés sont des entreprises multiservices, GPTZero fait figure d'exception en se classant en tête de ces plateformes émergentes axées uniquement sur la détection de contenu d'IA. Si l'on examine le trafic web lié à la détection de contenu par l'IA, Writer apparaît comme le deuxième outil le plus populaire, avec environ 3 millions de visites en avril, talonnant de près les 5 millions de visites estimées de GPTZero.

    Nom : ai_detection_2-600x371-1.png
Affichages : 3467
Taille : 54,0 Ko

    Turnitin, un outil académique largement reconnu et de longue date, maintient un niveau d'engagement des utilisateurs nettement plus élevé que GPTZero, ce qui souligne sa pertinence et son importance au sein de la communauté académique.

    Les générateurs de texte à base d'IA comme ChatGPT ont posé des problèmes dans les contextes universitaires et professionnels. Les institutions sont aux prises avec des directives d'utilisation, car les étudiants et les professionnels utilisent l'IA pour améliorer leur travail, brouillant parfois les frontières éthiques. Cependant, ces outils peuvent identifier à tort les travaux des étudiants comme étant générés par l'IA, en particulier pour les personnes dont l'anglais n'est pas la langue maternelle.

    Source : Similarweb

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de ces résultats ? Sont-ils pertinents selon vous ?

    D'après vous, est-il possible d'établir des directives éthiques pour l'utilisation de générateurs de texte comme ChatGPT afin de garantir l'équité et l'authenticité des travaux académiques ?

    Voir aussi

    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

    ChatGPT : Hive Moderation se lance à son tour dans la détection de texte généré par IA, mais le public est sceptique concernant l'efficacité de tous ces outils

    Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une application d'analyse de texte qui détecte s'il a été rédigé par une IA

    Les détecteurs d'IA sont biaisés par rapport aux rédacteurs dont l'anglais n'est pas la langue maternelle, leur fiabilité est remise en question : le contenu de ChatGPT n'est pas détecté
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut Un rédacteur de contenu a confié que tous ses clients l'ont remplacé par ChatGPT : « ça m'a anéanti »
    Un rédacteur de contenu a confié que tous ses clients l'ont remplacé par ChatGPT : « ça m'a anéanti »,
    les craintes de voir l'IA générative conduire à un chômage généralisé s'amplifient

    Un rédacteur de contenu se tourne vers le travail manuel après que ChatGPT d’OpenAI ait ruiné son activité. Eric Fein, 34 ans, a confié que son plus gros client l’a laissé tomber en mars après avoir commencé à utiliser ChatGPT pour écrire son contenu.

    Lorsque ChatGPT est sorti en novembre dernier, Olivia Lipkin, une rédactrice de 25 ans à San Francisco, n'y a pas trop pensé. Ensuite, des articles sur la façon d'utiliser le chatbot au travail ont commencé à apparaître sur les groupes internes Slack de la start-up technologique où elle travaillait en tant que seule rédactrice de l'entreprise.

    Au cours des mois suivants, les missions de Lipkin ont diminué. Les managers ont commencé à l'appeler "Olivia/ChatGPT" sur Slack. En avril, elle a été licenciée sans explication, mais lorsqu'elle a trouvé des responsables écrivant sur le fait qu'utiliser ChatGPT était moins cher que de payer un écrivain, la raison de son licenciement semblait claire.

    « Chaque fois que les gens évoquaient ChatGPT, je ne me sentais pas en sécurité et j'avais peur que cela me remplace », a-t-elle déclaré. « Maintenant, j'avais en fait la preuve que c'était vrai, que ces angoisses étaient justifiées et maintenant j'étais en fait sans emploi à cause de l'IA ».

    Même son de cloche chez Eric Fein, qui a vu ses clients révoquer leurs contrats.

    Fein avait neuf autres contrats à l’époque qui ont tous été annulés pour la même raison peu après, selon le Washington Post. Fein, qui facture 60 dollars de l’heure pour ses services qui comprennent l’écriture de courts textes pour les sites web des entreprises et les descriptions de produits, a déclaré au quotidien que l’activité qui représentait la moitié de ses revenus annuels avait disparu presque du jour au lendemain.

    « Ça m’a anéanti », a-t-il dit.

    Le chatbot alimenté par l'IA, qui est gratuit, peut produire du contenu écrit de type humain en quelques minutes, mais a tendance à inventer des faits.

    Fein a ensuite été réembauché par un client qui n'était pas satisfait du contenu de ChatGPT, mais le revenu n'était pas suffisant pour subvenir aux besoins de sa famille, selon le quotidien. Désormais, il a décidé de se tourner vers le travail manuel et suit actuellement une formation de technicien en chauffage et en climatisation, et envisage de devenir plombier plus tard. Fein a déclaré au quotidien que l’apprentissage d’un métier était plus « à l’épreuve du futur ».

    Il se base probablement sur le fait que le travail manuel est considéré comme l’un des secteurs les moins touchés par les progrès de l’intelligence artificielle.

    Nom : chat.png
Affichages : 57078
Taille : 358,0 Ko

    Certaines entreprises optent pour la réduction des coûts, même si la qualité baisse

    Certains économistes prédisent que la technologie de l'intelligence artificielle comme ChatGPT pourrait remplacer des centaines de millions d'emplois, dans une réorganisation cataclysmique de la main-d'œuvre reflétant la révolution industrielle.

    Pour certains travailleurs, cet impact est déjà là. Ceux qui écrivent du contenu marketing et des médias sociaux font partie de la première vague de personnes remplacées par des outils tels que les chatbots, qui sont apparemment capables de produire des alternatives plausibles à leur travail.

    Les experts disent que même l'IA avancée ne correspond pas aux compétences d'écriture d'un humain : elle manque de voix et de style personnels, et elle produit souvent des réponses erronées, absurdes ou biaisées. Mais pour de nombreuses entreprises, la réduction des coûts vaut une baisse de qualité.

    « Nous sommes vraiment à un moment critique », a déclaré Sarah T. Roberts, professeure associée à l'Université de Californie à Los Angeles spécialisée dans le travail numérique. « L'AI va prendre des emplois qui étaient censés être à l'épreuve de l'automatisation ».

    300 millions d'emplois seraient à risque, selon une étude

    Les systèmes d'intelligence artificielle générative pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d'emplois à temps plein dans le monde, selon une étude de Goldman Sachs.

    L'IA générative, un type d'intelligence artificielle capable de générer du texte ou d'autres contenus en réponse aux invites de l'utilisateur, a explosé en popularité ces derniers mois après le lancement public de ChatGPT d'OpenAI. Le chatbot est rapidement devenu viral auprès des utilisateurs et a semblé inciter plusieurs autres entreprises technologiques à lancer leurs propres systèmes d'IA.

    Sur la base d'une analyse des données sur les tâches professionnelles aux États-Unis et en Europe, les chercheurs de Goldman ont extrapolé leurs conclusions et estimé que l'IA générative pourrait exposer 300 millions d'emplois à temps plein dans le monde à l'automatisation si elle respecte les capacités promises.

    Le rapport, rédigé par Joseph Briggs et Devesh Kodnani, indique qu'environ les deux tiers des emplois actuels sont exposés à un certain degré d'automatisation de l'IA, tandis que l'IA générative pourrait remplacer jusqu'à un quart du travail actuel.

    Les cols blancs sont parmi les plus susceptibles d'être touchés par les nouveaux outils d'IA. Le rapport Goldman a souligné que les travailleurs juridiques et le personnel administratif américains sont particulièrement menacés par la nouvelle technologie. Une étude antérieure menée par des chercheurs de l'Université de Princeton, de l'Université de Pennsylvanie et de l'Université de New York a également estimé que les services juridiques étaient le secteur le plus susceptible d'être affecté par une technologie telle que ChatGPT.

    Manav Raj, l'un des auteurs de l'étude, et professeur adjoint de gestion à la Wharton School de l'Université de Pennsylvanie, a déclaré que c'était parce que le secteur des services juridiques était composé d'un nombre relativement restreint de professions qui étaient déjà hautement exposées à l'automatisation de l'IA.

    Nom : gpt.png
Affichages : 7975
Taille : 541,9 Ko

    Le revenu universel de base, une solution ?

    La position de Mustafa Suleyman, un pionnier de l'IA

    Il y a des inquiétudes quant au fait que le développement rapide de l’IA générative entraînera un chômage massif. Mustafa Suleyman, un pionnier de l’IA qui a quitté Google l’année dernière, a rejoint une liste croissante d’experts (dont son ancien patron, le PDG d’Alphabet Sundar Pichai) qui ont mis en garde contre les conséquences potentiellement néfastes des progrès rapides de la technologie.

    « Sans aucun doute, beaucoup des tâches dans le domaine des cols blancs seront très différentes dans les cinq à dix prochaines années », a déclaré Suleyman lors d’un événement au Bridge Forum de GIC à San Francisco. « Il y aura un nombre important de perdants [et ils] seront très malheureux, très agités », a-t-il ajouté.

    Les experts estiment que les avancées de l’IA pourraient être une arme à double tranchant pour l’économie mondiale - stimulant la productivité tout en provoquant des changements radicaux dans les entreprises et les industries.

    Suleyman a déclaré que les gouvernements devraient réfléchir à la manière de soutenir ceux qui perdraient leur emploi à cause de la technologie, le revenu universel de base étant une solution potentielle : « Cela nécessite une compensation matérielle… C’est une mesure politique et économique dont nous devons commencer à parler sérieusement ».

    Sam Altman, à la tête d'OpenAI, est favorable à cette mesure

    Le président d'OpenAI, la structure derrière ChatGPT, a lui aussi plaidé pour un revenu de base universel (RBU), un revenu versé régulièrement par le gouvernement à un niveau uniforme à chaque adulte, quel que soit son statut d’emploi, son revenu ou sa richesse, pour fournir un filet de sécurité. « [...] une société qui n'offre pas suffisamment d'égalité des chances pour que chacun progresse n'est pas une société qui durera », a écrit Altman dans un billet de blog en 2021. La politique fiscale telle que nous l'avons connue sera encore moins capable de lutter contre les inégalités à l'avenir, a-t-il poursuivi. « Bien que les gens aient toujours des emplois, bon nombre de ces emplois ne créeront pas beaucoup de valeur économique dans la façon dont nous pensons à la valeur aujourd'hui ». Il a proposé qu'à l'avenir - une fois que l'IA « produira la plupart des biens et services de base dans le monde » - un fonds puisse être créé en taxant la terre et le capital plutôt que le travail. Les dividendes de ce fonds pourraient être distribués à chaque individu pour qu'il les utilise à sa guise - « pour une meilleure éducation, des soins de santé, un logement, la création d'une entreprise, peu importe », a écrit Altman.

    Le RBU assurerait donc la sécurité du revenu tout en créant des incitations à quitter les emplois mal rémunérés pour des options plus risquées, mais potentiellement plus lucratives, comme le travail indépendant, l’entrepreneuriat ou la formation continue. Le climat d’innovation qui en résulte réduit la dépendance aux bas salaires et le besoin de concurrencer la technologie. Avec un revenu garanti qui ne dépend pas de la recherche d’emploi, les travailleurs ne prendront un emploi que s’ils le trouvent attrayant, ce qui diminue le déclassement et améliore leur pouvoir de négociation.

    Pourtant, Sam Altman ne semble pas disposer à partager les bénéfices éventuels qui reviendraient à OpenAI.

    Bien que le RBU ait été mentionné dans des interviews récentes, il n'a pas figuré de manière significative dans les plans d'OpenAI. En l'occurrence, la structure de « bénéfices plafonnés » d'OpenAI stipule que les bénéfices supérieurs à un certain montant appartiennent à son entité à but non lucratif. Lorsqu'on lui a demandé en janvier si OpenAI prévoyait de « prendre les recettes que vous présumez que vous allez gagner un jour et... l'offrir à la société », Altman a hésité. Oui, l'entreprise pourrait distribuer « de l'argent à tout le monde », a-t-il déclaré. Ou alors « nous [allons] investir tout cela dans une organisation à but non lucratif qui fait beaucoup de science ».

    Source : Washington Post

    Et vous ?

    Quelle est votre opinion sur ChatGPT ? Pensez-vous qu’il soit bénéfique ou nuisible à la société ?
    Que pensez-vous de la situation d’Eric Fein et d'Olivia Lipkin ? L’IA générative, une menace pour les rédacteurs de contenu ?
    Quelles sont les solutions possibles pour protéger et valoriser le travail humain dans un monde de plus en plus automatisé ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 061
    Par défaut
    c'est parfaitement prévisible.
    les entreprises préfère réduire les couts au détriments de la qualité.

    il est évident que les profs, les avocats, les notaires, les informaticiens et les médecins seront remplacé à terme.
    Et évident par contre coté entreprises ils baisseront pas les prix, malgré une réduction drastique des couts. la croissance a tous prix.

    Vous pouvez préférez un prof humain ou un vrai médecin généralistes mais vous ne déciderez pas, quand on a pas assez d'argent pour se payer un médecin ou un avocat on prendra chatgpt ou sinon rien.

    [semi troll]Si hier inciter son enfant à faire médecin, avocat ou financier était le bon plan pour lui assurer un avenir prospère, l'avenir désormais c'est une petite élite de rentier d'un coté et des millions de travailleurs au smic de l'autre. Plus de classe moyenne remplacé par chatgpt.
    c'est une bonne nouvelle pour la planète, eric ou olivia de l'article n'irons pas en vacances cette année car pas de tune et ne feront surement pas d'enfants qui polluerons si leurs vie reste précaire.
    et comme ceux qui ont des métiers manuels ont une esperance de vie plus faible, c'est la aussi une bonne chose, moins d'humain qui pollueront a terme et ca fera des économies pour la retraite.

    seul soucis, c'est qui va consommer les produits grand publique , si Porsche ou Ferrari continueront de vendre, l'iPhone ou autres produits grand publique > 600€ style télé 4k oled eux ne vendrons à plus personne. don c pleins d'usines qui vont disparaitre et donc du chômage et donc des rentiers qui gagneront moins de fric, a mince la faut agir par contre c'est inimaginable .
    [/semi troll]


    n'empêche en tant que ingénieur en informatique, je regarde vers quoi me reconvertir en plan B. Je peux devenir technicien en informatique dans une usine je pense mais faut prévoir plus large et envisager des reconversions. Electricien, plombier, soudeur/chaudronnier (apparemment edf en cherche)

  20. #20
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 558
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 558
    Par défaut
    Citation Envoyé par calvaire Voir le message
    il est évident que les profs, les avocats, les notaires, les informaticiens et les médecins seront remplacé à terme.
    Et évident par contre coté entreprises ils baisseront pas les prix, malgré une réduction drastique des couts. la croissance a tous prix.
    Il y a quelques années il était évident pour certains que le travail à domicile était la solution à terme, les grands groupes informatiques en reviennent au fur et à mesure.
    Remplacer les profs, les médecins par les IA serait créer la société décadente que beaucoup regrettent déjà. Je n'ai aucune considérations pour les profs pourtant certains m'ont quasiment sauvé la vie et je suis incapable d'apprendre avec un IA (avec leur état de maturité actuelle), et quand je vais voir mon médecin je ne vais pas juste récupérer une prescription, je vais aussi trouver l'avis d'un professionnel, pouvoir lui expliquer en quoi pratiquer un sport de contact alors que j'ai des problèmes de dos est une préoccupation et qu'il me fasse un retour sur les choses à favoriser/éviter. Ces consultations sont d'ailleurs assez caucasses parce qu'on envisage des vraies situaitons de jeu.

    Il parait par contre assez peu surprenant que les rédacteurs de texte impersonnels et neutre voient leur métier disparaitre mais je pense que les entreprises reviendront sur leur décision pour les articles ou que ces articles (je parle des articles en interne des entreprises) disparaitront juste parce que personne ne lit les articles mous. Donc soit on leur donne du relief soit on ne les écrit pas.
    [semi troll]Les "capitalistes" veulent s'enrichir donc diminuer leurs charges salariales semble une bonne idée mais quand ils auront de armées de robots qui achètera leurs produits?
    Donc finalement le salaire à vie est peut la réforme qui les sauvera

Discussions similaires

  1. Réponses: 0
    Dernier message: 24/06/2024, 11h26
  2. Réponses: 0
    Dernier message: 21/03/2024, 20h09
  3. Réponses: 0
    Dernier message: 31/12/2022, 21h09
  4. Réponses: 8
    Dernier message: 04/06/2016, 17h36
  5. Les vieux sont très fort au Basket
    Par kOrt3x dans le forum Sports
    Réponses: 2
    Dernier message: 08/08/2013, 16h43

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo