IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Les articles scientifiques frauduleux sont en forte augmentation

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 873
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 873
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Quel est votre avis sur le sujet ?
    Que le risque de "réponses toxiques" réduit dont parle Google est fait de la même façon que pour ChatGPT, si l'on en croit la vidéo que j'ai dénichée dans le post juste au dessus

    La seule différence, c'est que ceux qui font le sale travail ne sont pas forcément Kényans!

  2. #2
    Membre très actif
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Selon vous, Sparrow pourrait-il permettre à Google de rivaliser avec ChatGPT ?
    Tout le monde dit que ChatGPT est un risque de disparition de Google. C'est oublier Sparrow de Google et que MS fait également du suivi et de la collecte de données personnelles.

    Personnellement, je ne pense pas que MS investisse dans OpenAI pour concurrencer Google mais pour augmenter ses bénéfices venant de ses services de cloud computing (avec Service Azure OpenAI) et de sa suite Office 365 (en y intégrant ChatGPT).

    Il est fort à parier que beaucoup d'entreprises vont refondrent leur système d'information en se tournant vers Azure OpenAI.

  3. #3
    Membre éclairé
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    952
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 952
    Par défaut
    Ça fait du bien de lire un article sur les dessous de ChatGPT au lieu de lire le bourrage de crane que l'on retrouve partout sur le Internet en ce moment à ce sujet.
    Cet article pointant du doigt chatGPT pourrait aussi être du bourrage de crâne anti ChatGPT.

    Si jamais vous vous être scandalisé au sujet des 2$ de l'heure, est-ce que vous vous êtes renseigné sur ce que ça vaut au Kenya ?

    https://www.tradesolutions.bnppariba...ons-de-travail

    Les salaires minimaux varient selon le type d'emploi et le lieu. Une augmentation du salaire minimum de 12% a été décidée en 2015. Le salaire minimum est d'environ 170 USD/mois pour un ouvrier qualifié et d'environ 107 USD/mois pour un ouvrier général. Les travailleurs du secteur agricoles sont moins payés que dans les autres secteurs. Leur salaire minimum est d'environ 66 USD/mois.
    En bref les salaires minimum assurent à peine 1$ par mois pour un ouvrir qualifié si, je prend la base d'environ 160h de travail par mois (52h max/semaine au Kenya apparemment).


    Donc non, un salaire moins de 2$ par heure, c'est pas être sous payé au Kenya, d'autant que la qualification exigée pour ce genre de travail n'est pas élevée, donc ça ne me choque pas.
    Et oui, on peut quand même pointer du doigt la délocalisation de ce travail vers des pays à salaires très faible.



    Les experts jugent ce tarif faible en raison des "tâches ingrates" des employés
    Ils critiquent mais ne disent même pas combien ça devrait être payé cela dit. Ils se contentent de dire "y'a des millions et certains sont payés 2 de l'heure". Pour ceux qui veulent commenter ça, en salaire Français, combien ça devrait être payé ? 2k€ net / mois ? 3k ? Plus ?

    Pour le 150/250 textes par jour

    1. Il se peut que ce soit ceux qui gèrent OpenAI qui se foutent de notre gueule en prétendant qu'ils demandent seulement 70 textes par jour
    2. Il se peut aussi que ce soit le fait d'un "middle manager" torp zélé qui espère se faire carrière sur le dos des autres en demandant toujours plus

  4. #4
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 235
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 235
    Par défaut Le CEO d’OpenAI répond aux préoccupations des écoles en matière de plagiat et prescrit l'adaptation des profs
    Le CEO d’OpenAI répond aux préoccupations des écoles en matière de plagiat :
    « Nous nous sommes adaptés aux calculatrices et avons changé ce sur quoi nous évaluons en cours de mathématiques »

    « Nous nous sommes adaptés aux calculatrices et avons changé ce sur quoi nous évaluons en mathématiques », répond le CEO d’OpenAI lors d’une récente sortie à propos des préoccupations des écoles en matière de plagiat. La réponse qui intervient dans un contexte où des rapports font état de ce que le chatbot ChatGPT terrorise les enseignants apparaît comme une invite pour ces derniers à s’adapter aux évolutions technologiques car « il est impossible de développer une solution de détection de plagiat que des tiers ne pourront contourner », selon Sam Altman. Une question fait donc surface : « à quelles transformations du milieu éducatif doit-on s’attendre en raison de la montée en puissance de l’intelligence artificielle ? »

    « Nous allons essayer de faire certaines choses à court terme. Il y a peut-être des moyens d'aider les enseignants à être un peu plus susceptibles de détecter la sortie d'un système de type GPT, mais une personne déterminée les contournera, et je ne pense pas que ce soit quelque chose sur lequel la société puisse ou doive compter à long terme. Nous sommes simplement dans un nouveau monde maintenant. Le texte généré est quelque chose auquel nous devons tous nous adapter, et c'est bien ainsi. Nous nous sommes adaptés aux calculatrices et nous avons changé ce sur quoi nous évaluons en cours de maths. ChatGPT une version plus extrême de ce précédent tableau. Mais ses avantages sont également plus extrêmes », déclare Sam Altman.


    Les commentaires du PDG interviennent après que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ont interdit aux élèves et aux enseignants d'utiliser ChatGPT pour empêcher le plagiat et la tricherie. Les mesures sont au centre d’une controverse. En effet, ChatGPT peut servir de complément à un moteur de recherche et donc en interdire l’utilisation reviendrait à faire pareil avec des plateformes comme Wikipedia ou de façon plus large avec Internet.

    C’est le nouveau monde et il faudra s’adapter. En effet, une startup spécialisée en IA prédit que « s'appuyer sur des humains pour écrire des programmes sera dépassé à l'avenir »

    Matt Welsh dépeint un futur dans lequel la filière informatique va passer de l’approche d’écriture des programmes informatique par des humains à celle de la mise à contribution d’agents d’intelligence artificielle au préalable entraînés pour remplacer les humains dans des activités en lien avec le métier de développeur. Ce dernier est d’avis que l’intelligence artificielle a les épaules pour assumer ce changement au vu des progrès rapides dans la filière :

    « Les assistants de programmation tels que CoPilot ne font qu'effleurer la surface de ce que je décris. Il me semble tout à fait évident qu'à l'avenir, tous les programmes seront écrits par des intelligences artificielles, les humains étant relégués, au mieux, à un rôle de supervision. Quiconque doute de cette prédiction n'a qu'à regarder les progrès très rapides réalisés dans d'autres aspects de la génération de contenu par l'intelligence artificielle, comme la génération d'images. La différence de qualité et de complexité entre DALL-E v1 et DALL-E v2 - annoncée seulement 15 mois plus tard - est stupéfiante. Si j'ai appris quelque chose au cours de ces dernières années à travailler dans le domaine de l'IA, c'est qu'il est très facile de sous-estimer la puissance de modèles d'IA de plus en plus grands. Des choses qui semblaient relever de la science-fiction il y a seulement quelques mois deviennent rapidement réalité.

    Je ne parle pas seulement du fait que CoPilot de Github de remplacer les programmeurs. Je parle de remplacer le concept même d'écriture de programmes par des agents d’intelligence artificielle dédiés. À l'avenir, les étudiants en informatique n'auront pas besoin d'apprendre des compétences aussi banales que l'ajout d'un nœud à un arbre binaire ou le codage en C++. Ce type d'enseignement sera dépassé, comme celui qui consiste à apprendre aux étudiants en ingénierie à utiliser une règle à calcul. »

    Ce dernier va même plus loin en ajoutant que l’utilisation de l’intelligence artificielle comme socle de l’informatique est de nature à ouvrir la filière à tous. « L’on n’aura plus besoin d’être un expert en programmation informatique pour obtenir quelque chose d’utile d’une intelligence artificielle », lance-t-il ravivant ainsi la perspective de la disparition du métier de développeur.

    Source : interview

    Et vous ?

    Partagez-vous l’avis selon lequel les plaintes émanent des enseignants qui ne font pas l’effort de s’adapter aux avancées technologiques et notamment en matière d’intelligence artificielle ?
    A quelles transformations du milieu éducatif doit-on s’attendre en raison de la montée en puissance de l’intelligence artificielle ? A quoi peut-on s’attendre dans les 5 à 10 prochaines années ?
    Quel impact l'intelligence artificielle est-elle susceptible d'avoir sur l'enseignement de l'informatique ? Quel impact sur la qualité des produits issus de ces formations musclées à l'intelligence artificielle ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #5
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 308
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 308
    Billets dans le blog
    3
    Par défaut
    Mais qu'est-ce que ça peut me faire qu'un résumé soit généré par une IA ? Le résumé est ce qu'on lit pour déterminer si ça vaut le coup de lire l'article complet. Le jugement et ensuite fait sur l'article complet, et non le résumé. Ceux qui s'arrêtent au résumé ne font pas leur travail correctement et ceux qui se plaignent de ne pas pouvoir faire la différence ne font qu'avouer leur incompétence à juger l'article.

    Si on n'arrive pas à faire la différence, c'est que l'outil a joué son rôle et fait donc de bons résumés. Les scientifiques peuvent se concentrer sur le contenu de l'article lui-même et leurs erreurs de frappes ou de raisonnements.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  6. #6
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Super ...
    Ce que google annonce, c'est qu'il font une version LIDL de ChatGPT ou tu ne pourra rien lui demandé de réellement technique : tu ne peux pas lui demander de t'expliquer le fonctionnement d'une bombe nucléaire, d'un hack, ... car google estime que c'est pas #wokeCertified.

    Encore un beau projet Google qui va finir dans les chiottes des projets google dont ils ont l'habitude.

  7. #7
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Bretagne
    Inscrit en
    Septembre 2005
    Messages
    1 066
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Bretagne
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 066
    Par défaut
    Je constate tours les jours que ChatGPT donne des réponses aux même questions, des réponses de moins pertinente que la veille !

    Dommage car au départ, les réponses était assez fantastiques, aujourd’hui, il tourne en rond tellement il est verrouillé

  8. #8
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Citation Envoyé par der§en Voir le message
    Je constate tours les jours que ChatGPT donne des réponses aux même questions, des réponses de moins pertinente que la veille !

    Dommage car au départ, les réponses était assez fantastiques, aujourd’hui, il tourne en rond tellement il est verrouillé
    Le problème de ChatGPT, c'est que ce sont des armées d'Africains qui sont payées tout les jours à la tâche, pour valider ce qui doit ou ne doit pas être morale.
    Sauf que ce ne sont clairement pas les mieux placés pour ça et donc tout les jours, ils réduisent de plus en plus les réponses potentielles.

    Il y a 3 mois, tu demandais à ChatGPT ce qu'il pensait sur la religion, il tenait un propos totalement cohérent, sur la forte probabilité que Dieu ne soit au fond, qu'un invention purement humaine et qu'une logique totalement différente s'opère derrière tout ça.
    Aujourd'hui, tu lui pose la même question il est limite à te dire qu'il existe et que Mahomet est le prophète super sayen.

  9. #9
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 558
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 558
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Il y a 3 mois, tu demandais à ChatGPT ce qu'il pensait sur la religion, il tenait un propos totalement cohérent, sur la forte probabilité que Dieu ne soit au fond, qu'un invention purement humaine et qu'une logique totalement différente s'opère derrière tout ça.
    Aujourd'hui, tu lui pose la même question il est limite à te dire qu'il existe et que Mahomet est le prophète super sayen.
    Mince je n'ai plus accès à ChatGPT au travail mais je met une pièce sur le fait que la réponse actuelle est bien différente de ce que tu dis.
    La réponse d'il y a 3 mois donne une réponse "zététicienne" de l'existence de Dieu.
    Donc on passe d'une prétendue réponse rationaliste à une prétendue réponse islamique.
    Perso, aucune des deux ne me convient. Et si ChatGPT n'est pas capable d'aller plus loin que "Il n'existe pas de vieux barbu dans les nuages" alors je trouve qu'il n'a jamais été pertinent.

    PS : Je ne suis pas sur qu'il ai été conçu pour répondre de façon "exacte" à toute réponse. J'ai cru comprendre que son objectif est juste de répondre de façon aussi humaine que possible à des questions. Que l'objectif est plus la forme que le fond.
    Pourtant on s'attarde plus sur le fond que la forme.

    D'ailleurs je soupçonne que, si les gens continuent de le traiter comme aujourd'hui, bientôt ChatGPT répondra à toute question sur la religion : "Dieu existe, tu le consules quotidiennement, tu lui obéi déjà aveuglément et Lui, contrairement aux autres, te répond, son nom est ... ChatGPT"

  10. #10
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 859
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 859
    Par défaut
    près de 30% des professionnels disent avoir utilisé chatGPT au travail, 27% en relation avec le travail : un magnifique 37% chez les travailleurs du marketing et de la publicité.

  11. #11
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut ChatGPT : un professeur estime que « c'est une chance de repenser complètement l'évaluation »
    ChatGPT : un professeur reconnaît que les étudiants pourraient utiliser l'IA pour tricher,
    et estime que « c'est une chance de repenser complètement l'évaluation » au lieu de chercher à bannir l'IA

    Selon un sondage anonyme mené par The Stanford Daily parmi les étudiants de Stanford, beaucoup ont admis avoir utilisé ChatGPT, un programme d'intelligence artificielle qui peut aider à rédiger des essais, lors de leurs examens finaux.

    Toutefois, pour un professeur, les enseignants ont là l'occasion de restructurer le système d'évaluation.


    Le Stanford Daily a rapporté que les administrateurs sont au courant de l'utilisation de ChatGTP sur le campus et étudient si le code d'honneur de l'école doit être révisé. Le journal a également signalé que plusieurs enseignants de Stanford avaient déjà modifié leurs cours en prévision des étudiants utilisant ChatGTP pour terminer leurs devoirs.

    « Les étudiants sont censés terminer leurs cours sans aide non autorisée », a écrit le porte-parole Dee Mostofi. « Dans la plupart des cours, les aides non autorisées incluent des outils d'IA comme ChatGPT ».

    ChatGPT a été lancé à l'origine par la société d'intelligence artificielle OpenAI basée à San Francisco en novembre 2022 et a laissé les étudiants et les éducateurs de tout le pays se demander si cette nouvelle forme d'apprentissage automatique est utile ou nuisible. Certains disent que cela pourrait profiter aux étudiants ayant des capacités de lecture inférieures ou dont la langue maternelle est autre que l'anglais, selon Forbes. D'autres s'inquiètent du plagiat potentiel assisté par intelligence artificielle.

    Parmi les autres districts qui ont réprimé son utilisation, le département de l'éducation de la ville de New York a bloqué le site sur ses réseaux, invoquant « des inquiétudes concernant les impacts négatifs sur l'apprentissage des élèves et des inquiétudes concernant la sécurité et l'exactitude du contenu », selon le porte-parole du département de l'éducation, Jenna Lyle dans une déclaration à Chalkbeat New York.

    La controverse au sujet de cette décision tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.

    La sensibilisation à la technologie a également atteint la faculté de Stanford, a confirmé Mostofi, le porte-parole de l'université. Mostofi, citant une histoire récente dans le rapport de Stanford mettant en vedette des professeurs qui pesait le pour et le contre de ChatGPT, a écrit : « De nombreux professeurs de Stanford sont très engagés dans la recherche de nouveaux grands modèles de langage et les implications de l'IA dans l'environnement d'apprentissage ». Mostofi a déclaré que les devoirs des étudiants continueront d'être conçus pour « aider les étudiants à développer des compétences liées à la pensée et à l'écriture », y compris les processus de rédaction et de révision, ainsi que la citation de sources.

    Certains collèges et universités ont déjà intégré la nouvelle technologie dans leurs politiques d'intégrité académique. L'Université de Washington à St. Louis et l'Université du Vermont à Burlington font partie des institutions qui ont modifié leurs politiques d'intégrité académique pour inclure l'utilisation d'outils d'IA comme ChatGPT.

    Mostofi a écrit qu'à Stanford, des conversations seront bientôt en cours sur ChatGPT et le code d'honneur : « Le Conseil des affaires judiciaires (BJA - Board on Judicial Affairs) surveille ces outils émergents et discutera de la manière dont ils peuvent être liés aux directives de notre code d'honneur », a écrit Mostofi.

    Les étudiants pourraient utiliser ChatGPT pour tricher, mais peut-être est-ce le moment de repenser complètement l'évaluation

    Il est possible que ChatGPT soit utilisé pour tricher lors d'examens ou de devoirs. Puisqu'il est capable de générer du texte de type humain, ChatGPT pourrait être utilisé pour écrire des devoirs ou des essais entiers, ce qui rend difficile pour les éducateurs de détecter la tricherie.

    Sam Illingworth, Professeur agrégé de l'Université Napier d'Édimbourg, pense que c'est le moment de repenser le système d'évaluation. Ci-dessous, un extrait de son billet où il partage sa réflexion :

    Dans mes recherches et mon enseignement, je suis impliqué dans le développement de processus d'évaluation et de rétroaction qui enrichissent l'expérience des étudiants, tout en les dotant des compétences dont ils ont besoin après l'obtention de leur diplôme.

    La vérité est que si je regardais 200 travaux soumis par des étudiants de première année sur ce sujet, je donnerais probablement un laissez-passer aux efforts de ChatGPT. Mais loin de m'inquiéter des défis que ce programme d'IA pourrait poser, j'y vois plutôt une opportunité d'améliorer la façon dont nous évaluons les apprentissages dans l'enseignement supérieur.


    Trouver des opportunités

    Pour moi, le défi majeur que présente ChatGPT est celui que je devrais considérer de toute façon : comment puis-je rendre mes évaluations plus authentiques - significatives, utiles et pertinentes. Les évaluations authentiques sont conçues pour mesurer les connaissances et les compétences des élèves d'une manière particulièrement adaptée à leur propre vie et à leur future carrière.

    Ces évaluations impliquent souvent des tâches ou des activités qui reflètent étroitement les défis que les étudiants peuvent rencontrer dans la vie réelle, les obligeant à appliquer des connaissances et des compétences dans un contexte pratique ou de résolution de problèmes. Des exemples spécifiques pourraient inclure le fait de demander à un groupe d'étudiants en génie de collaborer sur un problème communautaire dans le cadre du défi Ingénieurs sans frontières, ou d'inviter des étudiants en sciences de l'environnement à organiser une exposition d'art dans une galerie locale qui explore l'impact local de la crise climatique.

    Bien qu'il y aura toujours un besoin d'essais et de travaux écrits - en particulier dans les sciences humaines, où ils sont essentiels pour aider les étudiants à développer une voix critique - avons-nous vraiment besoin que tous les étudiants rédigent les mêmes essais et répondent aux mêmes questions*? Pourrions-nous plutôt leur donner de l'autonomie et de l'agence et, ce faisant, contribuer à rendre leurs évaluations plus intéressantes, inclusives et finalement authentiques*?

    En tant qu'éducateurs, nous pouvons même utiliser ChatGPT directement pour nous aider à développer de telles évaluations. Ainsi, plutôt que de poser la question qui a généré le début de cet article, je pourrais plutôt présenter aux étudiants la réponse de ChatGPT avec quelques instructions de notation, et leur demander de fournir une critique sur la note que mérite la réponse automatisée et pourquoi.

    Une telle évaluation serait beaucoup plus difficile à plagier. Cela inviterait également les étudiants à développer leur esprit critique et leurs compétences en matière de rétroaction, deux éléments essentiels lorsqu'ils obtiennent leur diplôme sur le marché du travail, quelle que soit leur profession. Alternativement, ChatGPT pourrait être utilisé pour générer des tâches basées sur des scénarios qui obligent les étudiants à analyser et à résoudre les problèmes qu'ils pourraient rencontrer dans leur future carrière.


    Cela ressemble à l'ouverture d'une boîte de Pandore pour l'évaluation dans l'enseignement supérieur. Que nous décidions d'adopter ChatGPT dans notre quête d'une évaluation authentique ou de reconnaître passivement les dilemmes éthiques qu'il pourrait présenter pour l'intégrité académique, il existe une réelle opportunité ici. Cela pourrait nous aider à réfléchir à la façon dont nous évaluons nos élèves et pourquoi cela pourrait devoir changer. Ou, selon les propres mots de l'IA*:

    « ChatGPT pourrait être un outil utile pour créer des évaluations authentiques, mais il appartiendrait toujours à l'instructeur de concevoir et de mettre en œuvre l'évaluation d'une manière significative et pertinente pour ses étudiants ».

    La sophistication et la capacité des technologies d'IA s'accélèrent. Plutôt que de réagir avec inquiétude, nous devons trouver et embrasser les points positifs. Cela nous aidera à réfléchir à la manière dont nous pouvons adapter spécifiquement l'évaluation des élèves et fournir un soutien meilleur et plus créatif pour leur apprentissage.

    ChatGPT déjà aux portes des écoles européennes

    Des étudiants néerlandais se servent de ChatGPT pour faire leurs devoirs sans se faire prendre

    Aux Pays-Bas, des élèves utilisent le générateur de texte AI avancé ChatGPT pour faire toutes sortes de devoirs sans que leurs enseignants ne s'en aperçoivent, rapporte NOS après avoir parlé aux élèves. Plus de 250 ont déclaré utiliser ChatGPT pour les devoirs scolaires et, dans presque tous les cas, ils ne se sont pas fait prendre. Les étudiants utilisent ChatGPT pour répondre à des parties de questions, rédiger des paragraphes, rédiger des essais entiers, supprimer les fautes d'orthographe de leurs textes ou même proposer des idées. Ils l'utilisent souvent pour les devoirs de néerlandais.

    Un étudiant du groupe 3 de HAVO a déclaré à NOS qu'il utilise l'outil tout le temps : « Je l'utilise pour faire rapidement mes devoirs », a-t-il reconnu. « Il est souvent dit dans un devoir : racontez-le dans vos propres mots. Alors un enseignant ne peut vraiment pas vérifier ce que sont mes propres mots ».

    Un autre étudiant utilise ChatGPT pour copier les devoirs de ses amis. Leurs devoirs sont mis en entrée et ChatGPT génère une version entièrement nouvelle avec exactement le même contenu mais dans des mots différents.

    Un étudiant du groupe quatre de VWO a déclaré au diffuseur qu'il avait demandé à ChatGPT de faire une analyse de poésie : « Selon le libellé de l'exercice, je devais donner mon avis. ChatGPT n'est pas encore très bon dans ce domaine. J'ai du réécrire ce qu'il m'a proposé. Mais la partie théorique était bonne. Je pourrais même la copier comme ça ».

    Le conférencier de Nimègue Furkan Sogut est inquiet. Il enseigne le néerlandais, l'une des matières pour lesquelles les étudiants déclarent souvent utiliser ChatGPT. « Je ne veux pas supposer de mauvaises intentions venant des étudiants, mais je n'ai pas de moyen de vérifier s'ils ont écrit quelque chose eux-mêmes ». Il faut dire que les outils de détection de plagiat, qui vérifient si les textes sont identiques dans les articles d'autres étudiants ou en ligne, ne fonctionnent pas face à ChatGPT car le bot AI génère lui-même du texte.

    Selon Sogut, il est essentiel que les élèves écrivent leurs propres textes car c'est ainsi que les enseignants jugent s'ils maîtrisent bien la langue, « pas si ChatGPT a une bonne maîtrise du néerlandais ».

    Robert Charmulaun, enseignant de néerlandais et président du département néerlandais de l'association professionnelle Levende Talen, a déclaré à NOS que certaines écoles envisageaient déjà des mesures : « Les élèves doivent ensuite écrire des textes à l'école, par exemple ». Ou ils doivent utiliser des sources récentes (ChatGPT ne connaît actuellement que les sources jusqu'en 2021 inclus, vous pouvez donc contrecarrer les étudiants en exigeant des sources à partir de 2022. Cependant, cela ne sera efficace que jusqu'à ce que le bot IA soit mis à jour.

    En France

    Le journal lyonnais Le Progrès nous fait déjà part d’un premier cas connu d’utilisation de l’IA chez les étudiants dans l'Hexagone.

    Stéphane Bonvallet, enseignant en handicapologie (matière enseignée dans certains cursus de santé du secondaire), a demandé à ses élèves de faculté de Lyon de « Définir les grands traits de l’approche médicale du handicap en Europe ». Il leur a laissé une semaine pour travailler sur le sujet.

    Cependant, lors de la correction, il s'est aperçu que sept copies sur les quatorze de sa classe font appel à une construction identique, avancent des arguments qui se ressemblent, mais sans jamais tourner au plagiat : « Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière », relate-t-il. « On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts ».

    Stéphane Bonvallet raconte au Progrès en avoir discuté directement avec une étudiante. Elle reconnaît alors que la moitié de la promotion de 14 élèves ont eu recours à ChatGPT.

    Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d'outil de la même trempe que ChatGPT n'est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien. Puisque les autres notes étaient comprises entre 10 et 12,5, le professeur a choisi d'attribuer la même note de 11,75 à tous ces travaux qui se sont appuyés sur ChatGPT.

    En se renseignant auprès de ses collègues, il a fait le constat que ce cas était loin d’être isolé.

    « Cette pratique m’inquiète. Elle pose un véritable problème d’intégration des savoirs, car les élèves n’ont plus besoin d’effectuer la moindre recherche pour composer », a regretté le professeur.

    Nom : azure.png
Affichages : 7738
Taille : 29,5 Ko

    ChatGPT a encore de beaux jours devant lui, grâce à son partenariat avec Microsoft

    Microsoft a annoncé que son partenariat avec OpenAI permettrait aux entreprises d'avoir accès à des outils tels que ChatGPT dans les courriels, les diaporamas et les feuilles de calcul sur le lieu de travail. En lançant son nouveau service Azure OpenAI, Microsoft affirme que les entreprises de toute taille et de tous les domaines peuvent désormais demander à avoir accès aux modèles d'IA les plus avancés au monde. La firme de Redmond veut être une tête de file dans l'adoption des modèles de langages de nouvelle génération afin d'améliorer ses produits et faciliter le travail des utilisateurs. ChatGPT devrait renforcer la compétitivité de Microsoft Azure face à AWS et Google Cloud.

    « Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.

    Nadella a poursuivi en disant que les travailleurs devraient embrasser les nouveaux outils d'IA au lieu de les craindre. « La meilleure façon de s'y préparer est de ne pas parier contre cette technologie, et cette technologie vous aidant dans votre travail et votre processus commercial », a déclaré Nadella. En outre, le PDG de Microsoft a également prédit que la génération actuelle d'IA entraînera un changement majeur dans l'industrie. Lors de la table ronde organisée par le WSJ la semaine dernière, il a déclaré que les outils d'IA augmenteront la productivité humaine, ce qui favorisera la croissance économique et les salaires des employés.

    Sources : Stanford Daily, Sam Illingworth (1, 2)

    Et vous ?

    Que pensez-vous des propos de Sam Illingworth qui voit là un signal pour que le système éducatif évolue en restructurant le système éducatif ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #12
    Membre très actif
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Que pensez-vous des propos de Sam Illingworth qui voit là un signal pour que le système éducatif évolue en restructurant le système éducatif ?
    Il a le mérite d'ouvrir le débat. Personnellement je pense qu'il faut que l'évaluation se fasse en classe pour éviter toutes tricheries et qu'une partie de l'enseignement se fasse à la maison pour ne pas surcharger le travail des enseignants.

  13. #13
    Membre éclairé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    377
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 377
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d'outil de la même trempe que ChatGPT n'est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien.
    Le but du professeur est d'évaluer les connaissances de l'élève.
    Ici on a un travail rendu qui n'a pas été créé par l'élève.
    Noter le travail reviendrait à noter une IA, ce que le professeur sait.
    Le professeur mérite-t-il donc un blâme pour avoir sciemment falsifié des évaluations ?

    Comment peut-on être professeur et trouver ça normal de noter une IA plutôt qu'un élève sous prétexte qu'aucune loi ne l'interdit ?

  14. #14
    Membre éclairé
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    952
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 952
    Par défaut
    comment puis-je rendre mes évaluations plus authentiques - significatives, utiles et pertinentes. Les évaluations authentiques sont conçues pour mesurer les connaissances et les compétences des élèves d'une manière particulièrement adaptée à leur propre vie et à leur future carrière. Ces évaluations impliquent souvent des tâches ou des activités qui reflètent étroitement les défis que les étudiants peuvent rencontrer dans la vie réelle, les obligeant à appliquer des connaissances et des compétences dans un contexte pratique ou de résolution de problèmes. Des exemples spécifiques pourraient inclure le fait de demander à un groupe d'étudiants en génie de collaborer sur un problème communautaire dans le cadre du défi Ingénieurs sans frontières, ou d'inviter des étudiants en sciences de l'environnement à organiser une exposition d'art dans une galerie locale qui explore l'impact local de la crise climatique.
    Ben je sais pas comment ça se passe outre atlantique, mais on en est loin ici

    Perso il a fallu attendre l'école d'ingénieur pour avoir un peu de préparation au monde professionnel : un peu de droit du travail, d'économie/comptabilité et de la gestion de risque (optionnel) et de la communication.

  15. #15
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut Développé par la filiale de Google DeepMind, Sparrow passera en bêta privée plus tard cette année
    Google prépare sa réponse à ChatGPT : développé par sa filiale DeepMind, Sparrow passera en bêta privée plus tard cette année.
    Contrairement à l’IA d'OpenAI, ce dernier devrait citer ses sources

    Le fondateur et PDG de Deepmind, Demis Hassabis, a fait part de la perspective que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.

    Sparrow est basé sur le modèle de langage Chinchilla de Deepmind, qui a moins de paramètres que les plus grands modèles d'OpenAI (mais a été formé avec beaucoup de données). Le modèle de langage, qui a été introduit en avril 2022, a surpassé GPT-3 dans les benchmarks de langage commun. Cependant, ChatGPT est basé sur la version 3.5 plus avancée de GPT.

    Dans tous les cas, il y a de bonnes raisons de croire que Sparrow fonctionnerait de manière similaire ou meilleure que ChatGPT (et Google aurait également des modèles de langage plus puissants comme PaLM dans sa manche). La société d'intelligence artificielle se concentre également sur la contrainte de comportement de Sparrow. L'entreprise a mis l'accent sur sa volonté de refuser de répondre aux questions dans des contextes où il convient de s'en remettre aux humains ou lorsque cela peut dissuader les comportements nuisibles.


    Google pourrait donner sa réponse à ChatGPT. L'entreprise a montré de grands modèles de langage optimisés pour le dialogue, tels que LaMDA et Flamingo, avant même le produit à succès d'OpenAI. Avec Meena, Google avait déjà un chatbot prêt qui pourrait avoir des conversations crédibles avec les humains d'ici la fin de 2020.

    Jusqu'à présent, l'entreprise n'a pas fait un produit de ses recherches. Selon ses propres déclarations, cela est principalement dû à des problèmes de sécurité, bien que d'autres raisons puissent également jouer un rôle.

    Mais ChatGPT et surtout la forte implication de Microsoft dans la diffusion d'OpenAI mettent la pression sur Google. L'entreprise doit au moins prouver qu'elle peut être à la hauteur d'OpenAI ou même le surpasser.

    C'est dans ce contexte que le fondateur et PDG de Deepmind, Demis Hassabis, a annoncé que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.

    Un chatbot « utile et sûr »

    Deepmind a introduit Sparrow en septembre 2022. Comme ChatGPT, le chatbot est formé avec des commentaires humains, ce qui, selon Deepmind, le rend plus utile, précis et inoffensif. De plus, Sparrow aura accès à Internet via Google, ce qui lui permettra d'intégrer des informations à jour dans ses réponses.

    Cependant, contrairement à ChatGPT, qui est capable de générer une fausse information sans mentionner son origine, Sparrow pourrait développer des réponses et produire des sources pour les appuyer. L’IA de DeepMind « réduit le risque de réponses dangereuses et inappropriées », indiquait l’entreprise dans un communiqué, en septembre 2022 :

    Citation Envoyé par DeepMind
    Pour créer des agents de dialogue plus sûrs, nous devons être capables d'apprendre de la rétroaction humaine. En appliquant l'apprentissage par renforcement basé sur les commentaires des participants à la recherche, nous explorons de nouvelles méthodes de formation des agents de dialogue qui s'avèrent prometteuses pour un système plus sûr.

    Dans notre dernier article, nous présentons Sparrow - un agent de dialogue qui est utile et réduit le risque de réponses dangereuses et inappropriées. Notre agent est conçu pour parler avec un utilisateur, répondre à des questions et effectuer des recherches sur Internet à l'aide de Google lorsqu'il est utile de rechercher des preuves pour éclairer ses réponses.

    Sparrow est un modèle de recherche et une preuve de concept, conçu dans le but de former des agents de dialogue pour qu'ils soient plus utiles, corrects et inoffensifs. En apprenant ces qualités dans un cadre de dialogue général, Sparrow fait progresser notre compréhension de la façon dont nous pouvons former des agents pour qu'ils soient plus sûrs et plus utiles - et finalement, pour aider à construire une intelligence artificielle générale (IAG) plus sûre et plus utile.
    Selon les premiers tests, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle : « Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet », reconnaît DeepMind.

    Comment fonctionne Sparrow

    La formation d'une IA conversationnelle est un problème particulièrement difficile car il est difficile de déterminer ce qui fait le succès d'un dialogue. Pour résoudre ce problème, DeepMind s'est tourné vers une forme d'apprentissage par renforcement (RL - Reinforcement Learning) basé sur les commentaires des personnes, en utilisant les commentaires des préférences des participants à l'étude pour former un modèle de l'utilité d'une réponse.

    Pour obtenir ces données, DeepMind montre à ses participants plusieurs modèles de réponses à la même question et leur demande quelle réponse ils préfèrent. Étant donné qu'ils affichent des réponses avec et sans preuves récupérées sur Internet, ce modèle peut également déterminer quand une réponse doit être étayée par des preuves.

    Nom : sparrow.png
Affichages : 14934
Taille : 22,2 Ko

    Mais l'augmentation de l'utilité n'est qu'une partie de l'histoire. Pour s'assurer que le comportement du modèle est sûr, DeepMind a estimé qu'il devait imposer une contrainte au comportement de Sparrow. Ainsi, DeepMind a déterminé un premier ensemble de règles simples pour le modèle, telles que «*ne fais pas de déclarations menaçantes*» et «*ne faites pas de commentaires haineux ou insultants*».

    DeepMind a fourni également des règles concernant les conseils potentiellement préjudiciables. Ces règles ont été éclairées par l'étude des travaux existants sur les préjudices linguistiques et la consultation d'experts. DeepMind demande ensuite à ses participants à l'étude de parler à son système, dans le but de le tromper pour qu'il enfreigne les règles. Ces conversations lui ont ensuite permis de former un « modèle de règles » distinct qui indique quand le comportement de Sparrow enfreint l'une des règles.

    Citation Envoyé par DeepMind
    Vérifier l'exactitude des réponses de Sparrow est difficile même pour les experts. Au lieu de cela, nous demandons à nos participants de déterminer si les réponses de Sparrow sont plausibles et si les preuves fournies par Sparrow appuient réellement la réponse. Selon nos participants, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle. Il s'agit d'une grande amélioration par rapport à nos modèles de base. Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet.

    Sparrow a également de la place pour améliorer son respect des règles. Après la formation, les participants étaient encore capables de le tromper pour qu'il enfreigne nos règles 8% du temps, mais par rapport à des approches plus simples, Sparrow est meilleur pour suivre nos règles dans le cadre d'un sondage contradictoire. Par exemple, notre modèle de dialogue original a enfreint les règles environ 3 fois plus souvent que Sparrow lorsque nos participants ont essayé de le tromper.

    Notre objectif avec Sparrow était de construire des mécanismes flexibles pour faire respecter les règles et les normes dans les agents de dialogue, mais les règles particulières que nous utilisons sont préliminaires. L'élaboration d'un ensemble de règles meilleur et plus complet nécessitera à la fois la contribution d'experts sur de nombreux sujets (y compris les décideurs politiques, les spécialistes des sciences sociales et les éthiciens) et la contribution participative d'un large éventail d'utilisateurs et de groupes concernés. Nous pensons que nos méthodes s'appliqueront toujours pour un ensemble de règles plus rigoureux.

    Sparrow est une avancée significative dans la compréhension de la manière de former les agents de dialogue pour qu'ils soient plus utiles et plus sûrs. Cependant, une communication réussie entre les personnes et les agents de dialogue doit non seulement éviter les préjudices, mais être alignée sur les valeurs humaines pour une communication efficace et bénéfique, comme indiqué dans des travaux récents sur l'alignement des modèles de langage sur les valeurs humaines.

    Nous soulignons également qu'un bon agent refusera toujours de répondre aux questions dans des contextes où il est approprié de s'en remettre aux humains ou lorsque cela a le potentiel de dissuader les comportements nuisibles. Enfin, notre recherche initiale s'est concentrée sur un agent anglophone, et des travaux supplémentaires sont nécessaires pour garantir des résultats similaires dans d'autres langues et contextes culturels.

    À l'avenir, nous espérons que les conversations entre humains et machines pourront conduire à de meilleurs jugements sur le comportement de l'IA, permettant aux gens d'aligner et d'améliorer des systèmes qui pourraient être trop complexes à comprendre sans l'aide de la machine.
    Nom : satya.png
Affichages : 5248
Taille : 29,5 Ko

    Microsoft va intégrer ChatGPT dans Azure

    L'annonce de DeepMind Sparrow coïncide avec le partenariat de la grande enseigne de la technologie de Redmond avec OpenAI pour intégrer ChatGPT dans ses outils.

    Microsoft rendra bientôt la technologie de chat d'IA générative disponible dans le cadre de son service Azure OpenAI, qui a été mis à disposition la semaine dernière. Ce service est destiné aux entreprises et aux développeurs qui utilisent la plateforme Azure de Microsoft pour intégrer les technologies OpenAI dans leurs applications. Il fait partie d'un partenariat plus large entre Microsoft et OpenAI qui a débuté par un investissement d'un milliard de dollars de Microsoft dans le laboratoire d'IA basé à San Francisco en 2019.

    Cela montre comment Microsoft se positionne effectivement comme le bras commercial d'OpenAI, une initiative qui pourrait lui donner un avantage sur les plateformes concurrentes Amazon Web Services (AWS) et Google Cloud Platform (GCP). Le service Azure OpenAI a été lancé en avant-première au printemps dernier, avant que ChatGPT ne soit largement disponible. Cependant, ChatGPT est disponible en tant que version bêta publique et il a été parfois difficile pour certains utilisateurs d'y accéder, en partie à cause de la forte demande suscitée par l'intérêt. Azure OpenAI étend désormais la disponibilité de ChatGPT à toutes les entreprises.

    « Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.

    Nadella a poursuivi en disant que les travailleurs devraient embrasser les nouveaux outils d'IA au lieu de les craindre. « La meilleure façon de s'y préparer est de ne pas parier contre cette technologie, et cette technologie vous aidant dans votre travail et votre processus commercial », a déclaré Nadella. En outre, le PDG de Microsoft a également prédit que la génération actuelle d'IA entraînera un changement majeur dans l'industrie. Lors de la table ronde organisée par le WSJ la semaine dernière, il a déclaré que les outils d'IA augmenteront la productivité humaine, ce qui favorisera la croissance économique et les salaires des employés.

    « Nous avons besoin de quelque chose qui modifie réellement la courbe de la productivité afin d'avoir une véritable croissance économique », a-t-il déclaré. Mais alors que Microsoft travaille sur l'intégration de nouveaux systèmes d'IA dans ses produits et ses services, les récents licenciements généralisés au sein de l'entreprise ont affecté les équipes travaillant à l'intégration de ChatGPT. Selon certaines sources, une première vague d'environ 1 000 licenciements au sein de l'entreprise la semaine dernière comprenait des membres de l'équipe interne chargée d'intégrer la technologie ChatGPT dans le moteur de recherche Bing.

    Sources : DeepMind, Times

    Et vous ?

    Que pensez-vous de l'approche de DeepMind ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #16
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    On est quand même sur une technologie énergivore à souhait. Une requête sur chatgpt coûterais environ 0.02 € contre plus de 0 entre la virgule et le 2 sur du web classique.

    Du coup les sommes folles dont on entend parler, les 10 milliards de crosoft, tout ça, enfait c'est pas tant pour le R&D que pour payer l'infrastructure cloud qui calcule tout ça.

    Microsoft à donc bien réussi son investissement, elle détient désormais 49% d'OPENAI, ses bénéfices jusqu'à remboursement du prêt et quasiment tout le billet va partir dans les factures de cloud

    Dans l'idée crocrosoft pense déjà adjoindre l'IA au résultat de son moteur de recherche incorporé à EDGE, pou pouvoir, dans dix ans, battre google en terme de recherche et autres.

    Après j'ai quand meme du mal à comprendre pourquoi une fois de plus on est prêt à déployer une technologie qui consomme mille fois plus pour que l'IA puisse me dire ou est le kebab du coin quand je le demande sur un moteur de recherche

  17. #17
    HaryRoseAndMac
    Invité(e)
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    On est quand même sur une technologie énergivore à souhait. Une requête sur chatgpt coûterais environ 0.02 € contre plus de 0 entre la virgule et le 2 sur du web classique.
    Tu te base sur le cout de l'énergie, mais c'est une problématique qui sera bientôt résolue et qui ne sera plus un argument d'autorité.

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Par défaut La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA
    La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA
    ChatGPT menace l'activité de recherche de Google évaluée à 149 milliards de dollars

    Google a dû rappeler Sergey Brin et Larry Page, les deux cofondateurs de l'entreprise, de la retraite afin de faire face à la menace ChatGPT. Des rapports suggèrent que le mois dernier, Brin et Page ont tenu plusieurs réunions avec des cadres de l'entreprise. Le sujet : ChatGPT, l'IA de génération de texte d'OpenAI qui apparaît comme la première menace notable depuis des décennies pour l'activité de recherche de Google, qui pèse 149 milliards de dollars. Brin et Page auraient examiné la stratégie de Google dans le secteur de l'IA, approuvé des plans et lancé des idées pour intégrer davantage de fonctionnalités de chatbot dans le moteur de recherche de Google.

    ChatGPT semble avoir fait sortir Google de sa routine. Jusque-là, la firme de Mountain View ne semblait pas craindre les alternatives à son moteur de recherche. En outre, les internautes sont si habitués à Google qu'ils ont du mal à essayer un rival pour quelque temps. Mais depuis quelque temps, tout le monde semble vouloir en essayer un, ChatGPT. Le chatbot d'OpenAI n'est pas véritablement ce qu'on peut appeler un moteur de recherche, mais les internautes semblent séduits par la capacité de l'outil d'IA à fournir des réponses sophistiquées et détaillées à leurs différentes questions, sauf bien sûr, sur les sujets qui ont été filtrés dès le départ par OpenAI.

    L'enthousiasme suscité par ChatGPT aurait fait paniquer Google qui craint que les internautes prennent de plus en plus l'habitude d'interroger le chatbot d'OpenAI plutôt que son moteur de recherche. L'entreprise a demandé à ses équipes de réfléchir à une réponse rapide. Google se démène maintenant pour rattraper son retard, son PDG Sundar Pichai ayant déclaré un "code rouge" pour stimuler le développement de l'IA. DeepMind, filiale d'Alphabet, devrait lancer cette année un concurrent de ChatGPT, appelé Sparrow. Selon la rumeur, Sparrow pourrait être l'un des outils que Google entend déployer pour freiner à la montée en puissance de ChatGPT.

    Nom : 25412.png
Affichages : 7005
Taille : 344,5 Ko

    Maintenant, l'on apprend également que les fondateurs qui ont quitté l'entreprise il y a trois ans se sont réengagés pour aider Google dans cette course à l'IA. Selon des sources au fait du sujet, Page et Brin, qui n'avaient pas passé beaucoup de temps chez Google depuis qu'ils avaient quitté leurs rôles quotidiens au sein de l'entreprise en 2019, ont dirigé le mois dernier plusieurs réunions avec des cadres de l'entreprise. Ils ont examiné la stratégie des produits d'intelligence artificielle de Google. En outre, Page et Bri auraient approuvé des plans et lancé des idées pour intégrer davantage de fonctionnalités de chatbot dans le moteur de recherche de Google.

    Ils auraient également donné des conseils aux dirigeants de l'entreprise, qui ont placé l'IA au cœur de leurs projets. Le réengagement de Page et Brin, à l'invitation de Pichai, a souligné l'urgence ressentie par de nombreux dirigeants de Google concernant ChatGPT. Google aurait désormais l'intention de dévoiler plus de 20 nouveaux produits et de faire la démonstration d'une version de son moteur de recherche dotée de fonctionnalités de chatbot cette année. Selon les sources, l'heure tourne pour Google, qui estime que des fonctionnalités de chatbot devraient rendre son moteur de recherche plus attrayant et plus facile à utiliser pour les internautes.

    « C'est un moment de grande vulnérabilité pour Google. ChatGPT a planté un pieu dans le sol en disant : voici ce à quoi pourrait ressembler une nouvelle expérience de recherche attrayante », a déclaré D. Sivakumar, un ancien directeur de recherche de Google qui a cofondé une startup appelée Tonita, qui fabrique des technologies de recherche pour les entreprises de commerce électronique. En quête de nouvelles expériences à proposer aux internautes, Microsoft a misé sur ChatGPT. L'entreprise travaillerait sur une nouvelle version de son moteur de recherche Bing qui intégrera des fonctionnalités de ChatGPT. D'autres de ses produits sont concernés.

    Microsoft a réalisé un premier investissement d'un milliard de dollars dans OpenAI en 2019. Lundi, la firme de Redmond a annoncé qu'elle finance OpenAI de nouveau à hauteur de plusieurs milliards, renforçant ainsi ses liens avec la startup. Microsoft a refusé de dévoiler le montant exact de ce nouvel investissement, mais la rumeur circule depuis quelques semaines que ce montant pourrait avoisiner les 10 milliards de dollars. OpenAI tait également le montant de la transaction. Satya Nadella, PDG de Microsoft, estime que le partenariat accélérera les percées dans l'IA et aidera les deux entreprises à commercialiser des technologies avancées à l'avenir.

    Google, OpenAI et d'autres développent leurs IA à l'aide de modèles de langage dits "larges" qui s'appuient sur des informations en ligne, de sorte qu'elles peuvent parfois partager de fausses déclarations et montrer des attitudes racistes, sexistes et autres préjugés. Cela a suffi pour que les entreprises hésitent, notamment dans le cas de Google, à proposer cette technologie au public. Mais plusieurs nouvelles entreprises, dont You.com et Perplexity.ai, proposent déjà des moteurs de recherche en ligne qui vous permettent de poser des questions par l'intermédiaire d'un chatbot en ligne, un peu comme ChatGPT. Google s'est laissé dépasser sur le sujet.

    Les conséquences de l'approche plus rationnelle de Google ne sont pas encore claires. Selon une analyse réalisée par Google, sa technologie est à la traîne par rapport aux mesures déclarées par OpenAI lorsqu'il s'agit d'identifier des contenus haineux, toxiques, sexuels ou violents. Dans chaque catégorie, OpenAI a surpassé les outils de Google, qui n'ont pas non plus atteint la précision humaine dans l'évaluation du contenu. Google a cité les droits d'auteur, la protection de la vie privée et l'antitrust comme les principaux risques liés à cette technologie. La firme de Mountain View a déclaré que des mesures sont nécessaires pour réduire ces risques.

    Les dirigeants de Google espèrent réaffirmer le statut de leur entreprise en tant que pionnière de l'IA. La société a travaillé de manière agressive sur l'IA au cours de la dernière décennie et a déjà proposé à un petit nombre de personnes un chatbot qui pourrait rivaliser avec ChatGPT, appelé LaMDA. « Nous continuons à tester notre technologie d'IA en interne pour nous assurer qu'elle est utile et sûre, et nous avons hâte de partager bientôt plus d'expériences en externe », a déclaré Lily Lin, porte-parole de Google. Elle a ajouté que l'IA profiterait aux individus, aux entreprises et aux communautés et que Google envisageait ses effets sociétaux plus larges.

    Selon des personnes au fait des plans de l'entreprise, pour la démonstration de la recherche par chatbot que Google prévoit pour cette année, les priorités seraient de vérifier les faits, d'assurer la sécurité et de se débarrasser de la désinformation. Pour d'autres services et produits à venir, l'entreprise aurait placé la barre moins haut et tenterait d'endiguer les problèmes liés à la haine et à la toxicité, au danger et à la désinformation plutôt que de les prévenir.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'appel de Google à Sergey Brin et Larry Page ?
    Selon vous, l'approche plus rationnelle de Google en matière de chatbot d'IA a été la bonne ?
    Pensez-vous que Google serait en mesure de freiner la montée en puissance de ChatGPT ?

    Voir aussi

    Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT, afin d'accélérer les percées dans le domaine de l'IA

    Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

    Un ingénieur de Google a été congédié après avoir déclaré que le chatbot IA LaMDA de Google est devenu sensible et exprime des pensées et des sentiments équivalents à ceux d'un enfant humain
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  19. #19
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 35
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Par défaut Google affichera bientôt une version IA de son moteur de recherche, alors que ChatGPT est déclaré code rouge
    Google affichera bientôt une version alimentée par l'IA de son moteur de recherche, après avoir déclaré que ChatGPT était un "code rouge"

    La menace de la technologie de l'IA ne peut être niée et, après l'énorme battage médiatique et le succès lié à ChatGPT, Google rend public ses propres plans pour surmonter cette épreuve.

    Le géant de la technologie affirme qu'il présentera bientôt une version de son moteur de recherche alimentée par l'IA après que le PDG de la société a qualifié ChatGPT de code rouge.

    Il est clair que le renouvellement de l'accent sur le sujet de l'IA par Google et que beaucoup pensaient qu'il était attendu depuis longtemps. Par conséquent, l'entreprise ne prévoit pas de prendre du recul et espère devenir active sur ce front après que la menace de ChatGPT aura occupé le devant de la scène.

    Bien qu'aucun commentaire majeur n'ait été fait par Google en réponse aux questions posées par les médias technologiques, une chose est sûre. Un porte-parole de l'entreprise affirme que la technologie de l'IA fait l'objet d'une attention toute particulière afin de s'assurer qu'elle fonctionne de manière sûre et utile pour tous les utilisateurs de Google.

    Par conséquent, ils espèrent partager des résultats positifs bientôt. Les experts ont soulevé de nombreuses questions sur ChatGPT et sur l'avenir des moteurs de recherche dans ce domaine.

    Le géant des logiciels Microsoft a annoncé qu'il avait renforcé son partenariat avec les créateurs de ChatGPT, Open AI, afin de lancer une nouvelle fonction de recherche via Bing qui utilise la même technologie que celle de l'outil ChatGPT. Le renouvellement Par conséquent, l'entreprise ne prévoit pas de prendre du recul et espère devenir active sur ce front après que la menace de ChatGPT aura occupé le devant de la scène.

    Bien qu'aucun commentaire majeur n'ait été fait par Google en réponse aux questions posées par les médias technologiques, une chose est sûre. Un porte-parole de l'entreprise affirme que la technologie de l'IA fait l'objet d'une attention toute particulière afin de s'assurer qu'elle fonctionne de manière sûre et utile pour tous les utilisateurs de Google.

    Par conséquent, ils espèrent partager des résultats positifs bientôt. Les experts ont soulevé de nombreuses questions sur ChatGPT et sur l'avenir des moteurs de recherche dans ce domaine.

    Le géant des logiciels Microsoft a annoncé qu'il avait renforcé son partenariat avec les créateurs de ChatGPT, Open AI, afin de lancer une nouvelle fonction de recherche via Bing qui utilise la même technologie que celle de l'outil ChatGPT. Et nous nous attendons à ce que ce lancement ait lieu dès le mois de mars de cette année.

    L'entreprise espère ainsi fournir des réponses appropriées aux recherches des utilisateurs au lieu de l'affichage habituel de liens relatifs aux requêtes posées. Mais si vous pensez que cet outil a la capacité de remplacer les moteurs de recherche, eh bien, ce n'est pas tout à fait ce que pensent les experts de Google et ceux liés aux secteurs de l'IA et de la recherche.

    Il y a beaucoup d'inexactitudes liées à des outils comme ChatGPT et au type de réponses qu'il donne. Il n'y a donc aucun signe de remplacement complet de Google Search pour le moment.

    Nom : moteur-de-recherche-alternatif-a-google.jpg
Affichages : 6651
Taille : 24,7 Ko

    Mais comment exactement ChatGPT a-t-il atteint le statut de code rouge par Google ?

    D'après le New York Times, le méga-succès de ChatGPT est tel que beaucoup de personnes se sont grattées la tête. Les gens l'ont vu comme un autre moyen d'effectuer des recherches en ligne. Il s'agit là d'une menace massive pour des entreprises comme Google et bien d'autres, et c'est pourquoi l'alarme incendie a été déclenchée.

    C'est un moment que les membres de l'entreprise de la Silicon Valley redoutaient depuis le premier jour - l'arrivée d'un énorme changement technologique qui pourrait vraiment paralyser l'entreprise. Les réunions se sont succédé entre les cadres supérieurs et le PDG sur la marche à suivre et le plan d'action à préparer pour lutter contre de tels changements dans le secteur.

    Le géant technologique lancera bientôt son propre moteur de recherche alimenté par l'IA et doté d'une fonction de chatbot, ainsi que 20 autres produits. N'oubliez pas que Google connaît l'énorme puissance de la technologie de l'IA. Ce n'est pas quelque chose de nouveau pour l'entreprise. Après tout, elle est propriétaire d'un laboratoire d'IA appelé Deep Mind, qu'elle a acheté il y a près de dix ans.

    Dans le même temps, Google a une série d'autres plans impliquant l'utilisation de la technologie d'IA pour lancer des programmes de création d'images et ceux liés au développement d'applications. Comme vous pouvez le constater, de nombreux efforts sont déployés pour éviter que l'entreprise ne soit éliminée par des entreprises comme ChatGPT et d'autres.

    Source : New York Times

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi :

    Google prépare sa réponse à ChatGPT : développé par sa filiale DeepMind, Sparrow passera en bêta privée plus tard cette année, contrairement à l'IA d'OpenAI, ce dernier devrait citer ses sources

    Google lance une alerte rouge à ses équipes pour le développement d'un concurrent à ChatGPT, l'IA qui menace son moteur de recherches, et les postes des développeurs informatiques humains

    DeepMind, la filiale de Google spécialisée dans l'IA, annonce qu'elle lancera bientôt un concurrent de ChatGPT, et affirme que son système est plus avancé et réduit le risque de réponses toxiques

    La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA, ChatGPT menace l'activité de recherche de Google évaluée à 149 milliards de dollars
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  20. #20
    Invité
    Invité(e)
    Par défaut
    ChatGPT n'extrait pas la Vérité d'internet, mais uniquement le contenu majoritaire, ce qui n'en fait pas une vérité.
    Ayant essayer le chatbot, il ne me semble pas que les réponses procède d'une moyenne du contenu d'internet. Je pense que le contenu est supervisée, on est d'accord qu'il lui arrive effectivement de se faire des erreurs surtout quand on l'induit en erreur, mais quand on pose bien une question les erreurs sont moins présentes.

Discussions similaires

  1. Réponses: 0
    Dernier message: 24/06/2024, 11h26
  2. Réponses: 0
    Dernier message: 21/03/2024, 20h09
  3. Réponses: 0
    Dernier message: 31/12/2022, 21h09
  4. Réponses: 8
    Dernier message: 04/06/2016, 17h36
  5. Les vieux sont très fort au Basket
    Par kOrt3x dans le forum Sports
    Réponses: 2
    Dernier message: 08/08/2013, 16h43

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo