1 pièce(s) jointe(s)
ChatGPT : un professeur estime que « c'est une chance de repenser complètement l'évaluation »
ChatGPT : un professeur reconnaît que les étudiants pourraient utiliser l'IA pour tricher,
et estime que « c'est une chance de repenser complètement l'évaluation » au lieu de chercher à bannir l'IA
Selon un sondage anonyme mené par The Stanford Daily parmi les étudiants de Stanford, beaucoup ont admis avoir utilisé ChatGPT, un programme d'intelligence artificielle qui peut aider à rédiger des essais, lors de leurs examens finaux.
Toutefois, pour un professeur, les enseignants ont là l'occasion de restructurer le système d'évaluation.
Le Stanford Daily a rapporté que les administrateurs sont au courant de l'utilisation de ChatGTP sur le campus et étudient si le code d'honneur de l'école doit être révisé. Le journal a également signalé que plusieurs enseignants de Stanford avaient déjà modifié leurs cours en prévision des étudiants utilisant ChatGTP pour terminer leurs devoirs.
« Les étudiants sont censés terminer leurs cours sans aide non autorisée », a écrit le porte-parole Dee Mostofi. « Dans la plupart des cours, les aides non autorisées incluent des outils d'IA comme ChatGPT ».
ChatGPT a été lancé à l'origine par la société d'intelligence artificielle OpenAI basée à San Francisco en novembre 2022 et a laissé les étudiants et les éducateurs de tout le pays se demander si cette nouvelle forme d'apprentissage automatique est utile ou nuisible. Certains disent que cela pourrait profiter aux étudiants ayant des capacités de lecture inférieures ou dont la langue maternelle est autre que l'anglais, selon Forbes. D'autres s'inquiètent du plagiat potentiel assisté par intelligence artificielle.
Parmi les autres districts qui ont réprimé son utilisation, le département de l'éducation de la ville de New York a bloqué le site sur ses réseaux, invoquant « des inquiétudes concernant les impacts négatifs sur l'apprentissage des élèves et des inquiétudes concernant la sécurité et l'exactitude du contenu », selon le porte-parole du département de l'éducation, Jenna Lyle dans une déclaration à Chalkbeat New York.
La controverse au sujet de cette décision tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.
La sensibilisation à la technologie a également atteint la faculté de Stanford, a confirmé Mostofi, le porte-parole de l'université. Mostofi, citant une histoire récente dans le rapport de Stanford mettant en vedette des professeurs qui pesait le pour et le contre de ChatGPT, a écrit : « De nombreux professeurs de Stanford sont très engagés dans la recherche de nouveaux grands modèles de langage et les implications de l'IA dans l'environnement d'apprentissage ». Mostofi a déclaré que les devoirs des étudiants continueront d'être conçus pour « aider les étudiants à développer des compétences liées à la pensée et à l'écriture », y compris les processus de rédaction et de révision, ainsi que la citation de sources.
Certains collèges et universités ont déjà intégré la nouvelle technologie dans leurs politiques d'intégrité académique. L'Université de Washington à St. Louis et l'Université du Vermont à Burlington font partie des institutions qui ont modifié leurs politiques d'intégrité académique pour inclure l'utilisation d'outils d'IA comme ChatGPT.
Mostofi a écrit qu'à Stanford, des conversations seront bientôt en cours sur ChatGPT et le code d'honneur : « Le Conseil des affaires judiciaires (BJA - Board on Judicial Affairs) surveille ces outils émergents et discutera de la manière dont ils peuvent être liés aux directives de notre code d'honneur », a écrit Mostofi.
Les étudiants pourraient utiliser ChatGPT pour tricher, mais peut-être est-ce le moment de repenser complètement l'évaluation
Il est possible que ChatGPT soit utilisé pour tricher lors d'examens ou de devoirs. Puisqu'il est capable de générer du texte de type humain, ChatGPT pourrait être utilisé pour écrire des devoirs ou des essais entiers, ce qui rend difficile pour les éducateurs de détecter la tricherie.
Sam Illingworth, Professeur agrégé de l'Université Napier d'Édimbourg, pense que c'est le moment de repenser le système d'évaluation. Ci-dessous, un extrait de son billet où il partage sa réflexion :
Dans mes recherches et mon enseignement, je suis impliqué dans le développement de processus d'évaluation et de rétroaction qui enrichissent l'expérience des étudiants, tout en les dotant des compétences dont ils ont besoin après l'obtention de leur diplôme.
La vérité est que si je regardais 200 travaux soumis par des étudiants de première année sur ce sujet, je donnerais probablement un laissez-passer aux efforts de ChatGPT. Mais loin de m'inquiéter des défis que ce programme d'IA pourrait poser, j'y vois plutôt une opportunité d'améliorer la façon dont nous évaluons les apprentissages dans l'enseignement supérieur.
Trouver des opportunités
Pour moi, le défi majeur que présente ChatGPT est celui que je devrais considérer de toute façon : comment puis-je rendre mes évaluations plus authentiques - significatives, utiles et pertinentes. Les évaluations authentiques sont conçues pour mesurer les connaissances et les compétences des élèves d'une manière particulièrement adaptée à leur propre vie et à leur future carrière.
Ces évaluations impliquent souvent des tâches ou des activités qui reflètent étroitement les défis que les étudiants peuvent rencontrer dans la vie réelle, les obligeant à appliquer des connaissances et des compétences dans un contexte pratique ou de résolution de problèmes. Des exemples spécifiques pourraient inclure le fait de demander à un groupe d'étudiants en génie de collaborer sur un problème communautaire dans le cadre du défi Ingénieurs sans frontières, ou d'inviter des étudiants en sciences de l'environnement à organiser une exposition d'art dans une galerie locale qui explore l'impact local de la crise climatique.
Bien qu'il y aura toujours un besoin d'essais et de travaux écrits - en particulier dans les sciences humaines, où ils sont essentiels pour aider les étudiants à développer une voix critique - avons-nous vraiment besoin que tous les étudiants rédigent les mêmes essais et répondent aux mêmes questions*? Pourrions-nous plutôt leur donner de l'autonomie et de l'agence et, ce faisant, contribuer à rendre leurs évaluations plus intéressantes, inclusives et finalement authentiques*?
En tant qu'éducateurs, nous pouvons même utiliser ChatGPT directement pour nous aider à développer de telles évaluations. Ainsi, plutôt que de poser la question qui a généré le début de cet article, je pourrais plutôt présenter aux étudiants la réponse de ChatGPT avec quelques instructions de notation, et leur demander de fournir une critique sur la note que mérite la réponse automatisée et pourquoi.
Une telle évaluation serait beaucoup plus difficile à plagier. Cela inviterait également les étudiants à développer leur esprit critique et leurs compétences en matière de rétroaction, deux éléments essentiels lorsqu'ils obtiennent leur diplôme sur le marché du travail, quelle que soit leur profession. Alternativement, ChatGPT pourrait être utilisé pour générer des tâches basées sur des scénarios qui obligent les étudiants à analyser et à résoudre les problèmes qu'ils pourraient rencontrer dans leur future carrière.
Cela ressemble à l'ouverture d'une boîte de Pandore pour l'évaluation dans l'enseignement supérieur. Que nous décidions d'adopter ChatGPT dans notre quête d'une évaluation authentique ou de reconnaître passivement les dilemmes éthiques qu'il pourrait présenter pour l'intégrité académique, il existe une réelle opportunité ici. Cela pourrait nous aider à réfléchir à la façon dont nous évaluons nos élèves et pourquoi cela pourrait devoir changer. Ou, selon les propres mots de l'IA*:
« ChatGPT pourrait être un outil utile pour créer des évaluations authentiques, mais il appartiendrait toujours à l'instructeur de concevoir et de mettre en œuvre l'évaluation d'une manière significative et pertinente pour ses étudiants ».
La sophistication et la capacité des technologies d'IA s'accélèrent. Plutôt que de réagir avec inquiétude, nous devons trouver et embrasser les points positifs. Cela nous aidera à réfléchir à la manière dont nous pouvons adapter spécifiquement l'évaluation des élèves et fournir un soutien meilleur et plus créatif pour leur apprentissage.
ChatGPT déjà aux portes des écoles européennes
Des étudiants néerlandais se servent de ChatGPT pour faire leurs devoirs sans se faire prendre
Aux Pays-Bas, des élèves utilisent le générateur de texte AI avancé ChatGPT pour faire toutes sortes de devoirs sans que leurs enseignants ne s'en aperçoivent, rapporte NOS après avoir parlé aux élèves. Plus de 250 ont déclaré utiliser ChatGPT pour les devoirs scolaires et, dans presque tous les cas, ils ne se sont pas fait prendre. Les étudiants utilisent ChatGPT pour répondre à des parties de questions, rédiger des paragraphes, rédiger des essais entiers, supprimer les fautes d'orthographe de leurs textes ou même proposer des idées. Ils l'utilisent souvent pour les devoirs de néerlandais.
Un étudiant du groupe 3 de HAVO a déclaré à NOS qu'il utilise l'outil tout le temps : « Je l'utilise pour faire rapidement mes devoirs », a-t-il reconnu. « Il est souvent dit dans un devoir : racontez-le dans vos propres mots. Alors un enseignant ne peut vraiment pas vérifier ce que sont mes propres mots ».
Un autre étudiant utilise ChatGPT pour copier les devoirs de ses amis. Leurs devoirs sont mis en entrée et ChatGPT génère une version entièrement nouvelle avec exactement le même contenu mais dans des mots différents.
Un étudiant du groupe quatre de VWO a déclaré au diffuseur qu'il avait demandé à ChatGPT de faire une analyse de poésie : « Selon le libellé de l'exercice, je devais donner mon avis. ChatGPT n'est pas encore très bon dans ce domaine. J'ai du réécrire ce qu'il m'a proposé. Mais la partie théorique était bonne. Je pourrais même la copier comme ça ».
Le conférencier de Nimègue Furkan Sogut est inquiet. Il enseigne le néerlandais, l'une des matières pour lesquelles les étudiants déclarent souvent utiliser ChatGPT. « Je ne veux pas supposer de mauvaises intentions venant des étudiants, mais je n'ai pas de moyen de vérifier s'ils ont écrit quelque chose eux-mêmes ». Il faut dire que les outils de détection de plagiat, qui vérifient si les textes sont identiques dans les articles d'autres étudiants ou en ligne, ne fonctionnent pas face à ChatGPT car le bot AI génère lui-même du texte.
Selon Sogut, il est essentiel que les élèves écrivent leurs propres textes car c'est ainsi que les enseignants jugent s'ils maîtrisent bien la langue, « pas si ChatGPT a une bonne maîtrise du néerlandais ».
Robert Charmulaun, enseignant de néerlandais et président du département néerlandais de l'association professionnelle Levende Talen, a déclaré à NOS que certaines écoles envisageaient déjà des mesures : « Les élèves doivent ensuite écrire des textes à l'école, par exemple ». Ou ils doivent utiliser des sources récentes (ChatGPT ne connaît actuellement que les sources jusqu'en 2021 inclus, vous pouvez donc contrecarrer les étudiants en exigeant des sources à partir de 2022. Cependant, cela ne sera efficace que jusqu'à ce que le bot IA soit mis à jour.
En France
Le journal lyonnais Le Progrès nous fait déjà part d’un premier cas connu d’utilisation de l’IA chez les étudiants dans l'Hexagone.
Stéphane Bonvallet, enseignant en handicapologie (matière enseignée dans certains cursus de santé du secondaire), a demandé à ses élèves de faculté de Lyon de « Définir les grands traits de l’approche médicale du handicap en Europe ». Il leur a laissé une semaine pour travailler sur le sujet.
Cependant, lors de la correction, il s'est aperçu que sept copies sur les quatorze de sa classe font appel à une construction identique, avancent des arguments qui se ressemblent, mais sans jamais tourner au plagiat : « Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière », relate-t-il. « On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts ».
Stéphane Bonvallet raconte au Progrès en avoir discuté directement avec une étudiante. Elle reconnaît alors que la moitié de la promotion de 14 élèves ont eu recours à ChatGPT.
Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d'outil de la même trempe que ChatGPT n'est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien. Puisque les autres notes étaient comprises entre 10 et 12,5, le professeur a choisi d'attribuer la même note de 11,75 à tous ces travaux qui se sont appuyés sur ChatGPT.
En se renseignant auprès de ses collègues, il a fait le constat que ce cas était loin d’être isolé.
« Cette pratique m’inquiète. Elle pose un véritable problème d’intégration des savoirs, car les élèves n’ont plus besoin d’effectuer la moindre recherche pour composer », a regretté le professeur.
ChatGPT a encore de beaux jours devant lui, grâce à son partenariat avec Microsoft
Microsoft a annoncé que son partenariat avec OpenAI permettrait aux entreprises d'avoir accès à des outils tels que ChatGPT dans les courriels, les diaporamas et les feuilles de calcul sur le lieu de travail. En lançant son nouveau service Azure OpenAI, Microsoft affirme que les entreprises de toute taille et de tous les domaines peuvent désormais demander à avoir accès aux modèles d'IA les plus avancés au monde. La firme de Redmond veut être une tête de file dans l'adoption des modèles de langages de nouvelle génération afin d'améliorer ses produits et faciliter le travail des utilisateurs. ChatGPT devrait renforcer la compétitivité de Microsoft Azure face à AWS et Google Cloud.
« Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.
Nadella a poursuivi en disant que les travailleurs devraient embrasser les nouveaux outils d'IA au lieu de les craindre. « La meilleure façon de s'y préparer est de ne pas parier contre cette technologie, et cette technologie vous aidant dans votre travail et votre processus commercial », a déclaré Nadella. En outre, le PDG de Microsoft a également prédit que la génération actuelle d'IA entraînera un changement majeur dans l'industrie. Lors de la table ronde organisée par le WSJ la semaine dernière, il a déclaré que les outils d'IA augmenteront la productivité humaine, ce qui favorisera la croissance économique et les salaires des employés.
Sources : Stanford Daily, Sam Illingworth (1, 2)
Et vous ?
:fleche: Que pensez-vous des propos de Sam Illingworth qui voit là un signal pour que le système éducatif évolue en restructurant le système éducatif ?
2 pièce(s) jointe(s)
Développé par la filiale de Google DeepMind, Sparrow passera en bêta privée plus tard cette année
Google prépare sa réponse à ChatGPT : développé par sa filiale DeepMind, Sparrow passera en bêta privée plus tard cette année.
Contrairement à l’IA d'OpenAI, ce dernier devrait citer ses sources
Le fondateur et PDG de Deepmind, Demis Hassabis, a fait part de la perspective que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.
Sparrow est basé sur le modèle de langage Chinchilla de Deepmind, qui a moins de paramètres que les plus grands modèles d'OpenAI (mais a été formé avec beaucoup de données). Le modèle de langage, qui a été introduit en avril 2022, a surpassé GPT-3 dans les benchmarks de langage commun. Cependant, ChatGPT est basé sur la version 3.5 plus avancée de GPT.
Dans tous les cas, il y a de bonnes raisons de croire que Sparrow fonctionnerait de manière similaire ou meilleure que ChatGPT (et Google aurait également des modèles de langage plus puissants comme PaLM dans sa manche). La société d'intelligence artificielle se concentre également sur la contrainte de comportement de Sparrow. L'entreprise a mis l'accent sur sa volonté de refuser de répondre aux questions dans des contextes où il convient de s'en remettre aux humains ou lorsque cela peut dissuader les comportements nuisibles.
Google pourrait donner sa réponse à ChatGPT. L'entreprise a montré de grands modèles de langage optimisés pour le dialogue, tels que LaMDA et Flamingo, avant même le produit à succès d'OpenAI. Avec Meena, Google avait déjà un chatbot prêt qui pourrait avoir des conversations crédibles avec les humains d'ici la fin de 2020.
Jusqu'à présent, l'entreprise n'a pas fait un produit de ses recherches. Selon ses propres déclarations, cela est principalement dû à des problèmes de sécurité, bien que d'autres raisons puissent également jouer un rôle.
Mais ChatGPT et surtout la forte implication de Microsoft dans la diffusion d'OpenAI mettent la pression sur Google. L'entreprise doit au moins prouver qu'elle peut être à la hauteur d'OpenAI ou même le surpasser.
C'est dans ce contexte que le fondateur et PDG de Deepmind, Demis Hassabis, a annoncé que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.
Un chatbot « utile et sûr »
Deepmind a introduit Sparrow en septembre 2022. Comme ChatGPT, le chatbot est formé avec des commentaires humains, ce qui, selon Deepmind, le rend plus utile, précis et inoffensif. De plus, Sparrow aura accès à Internet via Google, ce qui lui permettra d'intégrer des informations à jour dans ses réponses.
Cependant, contrairement à ChatGPT, qui est capable de générer une fausse information sans mentionner son origine, Sparrow pourrait développer des réponses et produire des sources pour les appuyer. L’IA de DeepMind « réduit le risque de réponses dangereuses et inappropriées », indiquait l’entreprise dans un communiqué, en septembre 2022 :
Citation:
Envoyé par DeepMind
Pour créer des agents de dialogue plus sûrs, nous devons être capables d'apprendre de la rétroaction humaine. En appliquant l'apprentissage par renforcement basé sur les commentaires des participants à la recherche, nous explorons de nouvelles méthodes de formation des agents de dialogue qui s'avèrent prometteuses pour un système plus sûr.
Dans notre dernier article, nous présentons Sparrow - un agent de dialogue qui est utile et réduit le risque de réponses dangereuses et inappropriées. Notre agent est conçu pour parler avec un utilisateur, répondre à des questions et effectuer des recherches sur Internet à l'aide de Google lorsqu'il est utile de rechercher des preuves pour éclairer ses réponses.
Sparrow est un modèle de recherche et une preuve de concept, conçu dans le but de former des agents de dialogue pour qu'ils soient plus utiles, corrects et inoffensifs. En apprenant ces qualités dans un cadre de dialogue général, Sparrow fait progresser notre compréhension de la façon dont nous pouvons former des agents pour qu'ils soient plus sûrs et plus utiles - et finalement, pour aider à construire une intelligence artificielle générale (IAG) plus sûre et plus utile.
Selon les premiers tests, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle : « Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet », reconnaît DeepMind.
Comment fonctionne Sparrow
La formation d'une IA conversationnelle est un problème particulièrement difficile car il est difficile de déterminer ce qui fait le succès d'un dialogue. Pour résoudre ce problème, DeepMind s'est tourné vers une forme d'apprentissage par renforcement (RL - Reinforcement Learning) basé sur les commentaires des personnes, en utilisant les commentaires des préférences des participants à l'étude pour former un modèle de l'utilité d'une réponse.
Pour obtenir ces données, DeepMind montre à ses participants plusieurs modèles de réponses à la même question et leur demande quelle réponse ils préfèrent. Étant donné qu'ils affichent des réponses avec et sans preuves récupérées sur Internet, ce modèle peut également déterminer quand une réponse doit être étayée par des preuves.
Mais l'augmentation de l'utilité n'est qu'une partie de l'histoire. Pour s'assurer que le comportement du modèle est sûr, DeepMind a estimé qu'il devait imposer une contrainte au comportement de Sparrow. Ainsi, DeepMind a déterminé un premier ensemble de règles simples pour le modèle, telles que «*ne fais pas de déclarations menaçantes*» et «*ne faites pas de commentaires haineux ou insultants*».
DeepMind a fourni également des règles concernant les conseils potentiellement préjudiciables. Ces règles ont été éclairées par l'étude des travaux existants sur les préjudices linguistiques et la consultation d'experts. DeepMind demande ensuite à ses participants à l'étude de parler à son système, dans le but de le tromper pour qu'il enfreigne les règles. Ces conversations lui ont ensuite permis de former un « modèle de règles » distinct qui indique quand le comportement de Sparrow enfreint l'une des règles.
Citation:
Envoyé par DeepMind
Vérifier l'exactitude des réponses de Sparrow est difficile même pour les experts. Au lieu de cela, nous demandons à nos participants de déterminer si les réponses de Sparrow sont plausibles et si les preuves fournies par Sparrow appuient réellement la réponse. Selon nos participants, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle. Il s'agit d'une grande amélioration par rapport à nos modèles de base. Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet.
Sparrow a également de la place pour améliorer son respect des règles. Après la formation, les participants étaient encore capables de le tromper pour qu'il enfreigne nos règles 8% du temps, mais par rapport à des approches plus simples, Sparrow est meilleur pour suivre nos règles dans le cadre d'un sondage contradictoire. Par exemple, notre modèle de dialogue original a enfreint les règles environ 3 fois plus souvent que Sparrow lorsque nos participants ont essayé de le tromper.
Notre objectif avec Sparrow était de construire des mécanismes flexibles pour faire respecter les règles et les normes dans les agents de dialogue, mais les règles particulières que nous utilisons sont préliminaires. L'élaboration d'un ensemble de règles meilleur et plus complet nécessitera à la fois la contribution d'experts sur de nombreux sujets (y compris les décideurs politiques, les spécialistes des sciences sociales et les éthiciens) et la contribution participative d'un large éventail d'utilisateurs et de groupes concernés. Nous pensons que nos méthodes s'appliqueront toujours pour un ensemble de règles plus rigoureux.
Sparrow est une avancée significative dans la compréhension de la manière de former les agents de dialogue pour qu'ils soient plus utiles et plus sûrs. Cependant, une communication réussie entre les personnes et les agents de dialogue doit non seulement éviter les préjudices, mais être alignée sur les valeurs humaines pour une communication efficace et bénéfique, comme indiqué dans des travaux récents sur l'alignement des modèles de langage sur les valeurs humaines.
Nous soulignons également qu'un bon agent refusera toujours de répondre aux questions dans des contextes où il est approprié de s'en remettre aux humains ou lorsque cela a le potentiel de dissuader les comportements nuisibles. Enfin, notre recherche initiale s'est concentrée sur un agent anglophone, et des travaux supplémentaires sont nécessaires pour garantir des résultats similaires dans d'autres langues et contextes culturels.
À l'avenir, nous espérons que les conversations entre humains et machines pourront conduire à de meilleurs jugements sur le comportement de l'IA, permettant aux gens d'aligner et d'améliorer des systèmes qui pourraient être trop complexes à comprendre sans l'aide de la machine.
Microsoft va intégrer ChatGPT dans Azure
L'annonce de DeepMind Sparrow coïncide avec le partenariat de la grande enseigne de la technologie de Redmond avec OpenAI pour intégrer ChatGPT dans ses outils.
Microsoft rendra bientôt la technologie de chat d'IA générative disponible dans le cadre de son service Azure OpenAI, qui a été mis à disposition la semaine dernière. Ce service est destiné aux entreprises et aux développeurs qui utilisent la plateforme Azure de Microsoft pour intégrer les technologies OpenAI dans leurs applications. Il fait partie d'un partenariat plus large entre Microsoft et OpenAI qui a débuté par un investissement d'un milliard de dollars de Microsoft dans le laboratoire d'IA basé à San Francisco en 2019.
Cela montre comment Microsoft se positionne effectivement comme le bras commercial d'OpenAI, une initiative qui pourrait lui donner un avantage sur les plateformes concurrentes Amazon Web Services (AWS) et Google Cloud Platform (GCP). Le service Azure OpenAI a été lancé en avant-première au printemps dernier, avant que ChatGPT ne soit largement disponible. Cependant, ChatGPT est disponible en tant que version bêta publique et il a été parfois difficile pour certains utilisateurs d'y accéder, en partie à cause de la forte demande suscitée par l'intérêt. Azure OpenAI étend désormais la disponibilité de ChatGPT à toutes les entreprises.
« Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.
Nadella a poursuivi en disant que les travailleurs devraient embrasser les nouveaux outils d'IA au lieu de les craindre. « La meilleure façon de s'y préparer est de ne pas parier contre cette technologie, et cette technologie vous aidant dans votre travail et votre processus commercial », a déclaré Nadella. En outre, le PDG de Microsoft a également prédit que la génération actuelle d'IA entraînera un changement majeur dans l'industrie. Lors de la table ronde organisée par le WSJ la semaine dernière, il a déclaré que les outils d'IA augmenteront la productivité humaine, ce qui favorisera la croissance économique et les salaires des employés.
« Nous avons besoin de quelque chose qui modifie réellement la courbe de la productivité afin d'avoir une véritable croissance économique », a-t-il déclaré. Mais alors que Microsoft travaille sur l'intégration de nouveaux systèmes d'IA dans ses produits et ses services, les récents licenciements généralisés au sein de l'entreprise ont affecté les équipes travaillant à l'intégration de ChatGPT. Selon certaines sources, une première vague d'environ 1 000 licenciements au sein de l'entreprise la semaine dernière comprenait des membres de l'équipe interne chargée d'intégrer la technologie ChatGPT dans le moteur de recherche Bing.
Sources : DeepMind, Times
Et vous ?
:fleche: Que pensez-vous de l'approche de DeepMind ?
1 pièce(s) jointe(s)
Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI
Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT
afin d'accélérer les percées dans le domaine de l'IA
Microsoft a annoncé lundi un nouvel investissement de plusieurs milliards de dollars dans OpenAI, renforçant ainsi ses liens avec la startup à l'origine de ChatGPT, l'IA de génération de texte à succès, préparant le terrain pour une concurrence accrue avec son rival Google. La firme de Redmond a refusé de dévoiler le montant exact de ce nouvel investissement, mais la rumeur circule depuis quelques semaines que ce montant pourrait avoisiner les 10 milliards de dollars. OpenAI tait également le montant de la transaction. Microsoft estime que le partenariat renouvelé accélérera les percées dans l'IA et aidera les deux entreprises à commercialiser des technologies avancées à l'avenir.
« Nous avons formé notre partenariat avec OpenAI autour d'une ambition commune de faire progresser de manière responsable la recherche de pointe en intelligence artificielle et de la démocratiser en tant que nouvelle plateforme technologique », a déclaré le PDG de Microsoft, Satya Nadella, dans un billet de blogue. Parallèlement, OpenAI a annoncé lundi qu'il avait reçu un "investissement pluriannuel de plusieurs milliards de dollars" de la part de Microsoft. « Microsoft partage notre vision et nos valeurs, et notre partenariat est essentiel à notre progression », a écrit OpenAI, la startup d'IA cofondée par Elon Musk et l'investisseur Sam Altman.
Lancée en 2015, OpenAI est à l'origine de nombreuses technologies clés qui ont fait de 2022 l'année où l'IA générative s'est généralisée, notamment l'IA de synthèses d'images DALL-E, le chatbot ChatGPT (basé sur le modèle de langage par GPT-3.5) et GitHub Copilot pour l'aide à la programmation. ChatGPT, en particulier, a fait que Google aurait "paniqué" pour élaborer une réponse, tandis que Microsoft aurait travaillé à l'intégration de la technologie du chatbot d'IA dans son moteur de recherche Bing. Microsoft, qui a récemment annoncé une révolution dans le domaine de l'IA, s'appuie sur le pari qu'elle a fait sur OpenAI il y a près de quatre ans.
Le nouvel accord marque la troisième phase du partenariat entre les deux entreprises, après les investissements précédents de Microsoft en 2019 et 2021. En juillet 2019, Microsoft a soutenu OpenAI avec un milliard de dollars, et l'investissement a fait de Microsoft le fournisseur "exclusif" de services de cloud computing à OpenAI. Microsoft a déclaré lundi qu'Azure continuera à servir de fournisseur exclusif d'OpenAI. En outre, Microsoft a récemment lancé Azure OpenAI dans le but de permettre aux entreprises du monde entier d'accéder à des outils tels que ChatGPT dans les courriels, les diaporamas et les feuilles de calcul sur le lieu de travail.
« Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.
Microsoft a également construit un superordinateur pour alimenter la technologie d'OpenAI, entre autres formes de soutien. Selon le billet de blogue de Microsoft, ce nouvel investissement comprend le développement de superordinateurs supplémentaires et le soutien à OpenAI en matière de cloud computing. Les deux entreprises seront en mesure de commercialiser les technologies d'IA qui en résulteront. Bien que les deux entreprises n'aient pas officiellement annoncé un montant en dollars sur l'accord, la nouvelle fait suite aux rumeurs d'un investissement de 10 milliards de dollars qui ont émergé il y a deux semaines.
Selon les sources, l'investissement de Microsoft ferait partie d'un accord complexe dans lequel l'entreprise obtiendrait 75 % des bénéfices d'OpenAI jusqu'à ce que la firme de Redmond récupère ses fonds. (Il n'est pas clair si l'argent qu'OpenAI dépense sur Azure, la branche de cloud computing de Microsoft compterait dans le calcul de son compte.) Comme l'a rapporté le média d'information Semafor au début du mois, une fois ce seuil atteint, l'on devrait repasser à une structure reflétant la propriété d'OpenAI, avec une participation de 49 % pour Microsoft, 49 % pour les autres investisseurs et 2 % pour la société mère à but non lucratif d'OpenAI.
OpenAI est classé par les chercheurs en IA comme l'un des trois meilleures startups d'IA au monde, et l'entreprise a développé des logiciels d'IA capables de battre les humains à des jeux vidéo tels que Dota 2. Cependant, elle a surtout attiré l'attention sur son générateur de texte d'IA GPT-3 et son IA de génération d'images Dall-E. ChatGPT génère automatiquement du texte à partir d'invites écrites, d'une manière beaucoup plus avancée et créative que les chatbots du passé. Le logiciel a fait ses débuts fin novembre et s'est rapidement transformé en une sensation virale, certains l'ayant même comparé au lancement de l'iPhone par Apple en 2007.
Bien que Google dispose de capacités d'IA similaires, ChatGPT a attiré l'attention des dirigeants de Google, qui ont déclaré lors d'une récente réunion générale que sa réputation pourrait en pâtir s'il allait trop vite en matière de technologie de chat IA. Parmi les fondateurs d'OpenAI figurent Sam Altman, Elon Musk, PDG de Tesla et SpaceX, Greg Brockman, Ilya Sutskever, Wojciech Zaremba et John Schulman. Le groupe s'est engagé à investir plus d'un milliard de dollars dans l'entreprise lors de son lancement. Musk a démissionné du conseil d'administration en février 2018, mais est resté un donateur.
Sources : Microsoft, OpenAI
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi
:fleche: Microsoft serait en pourparlers pour investir 10 milliards de dollars dans OpenAI, le propriétaire de ChatGPT, ce qui devrait donner à la firme de Redmond un accès plus étroit aux produits d'OpenAI
:fleche: Le PDG de Microsoft affirme que le partenariat avec OpenAI permettra aux entreprises d'accéder à des outils tels que ChatGPT dans les courriers et les feuilles de calcul sur le lieu de travail
:fleche: La startup OpenAI en pourparlers pour vendre des actions dans le cadre d'une offre publique d'achat, susceptible de faire passer sa valorisation à 29 milliards de dollars
Le service antiplagiat Turnitin affirme avoir créé un outil pour détecter les rédactions écrites par ChatGPT
Le service antiplagiat Turnitin affirme avoir mis au point un outil pour détecter les rédactions écrites par ChatGPT
mais les critiques sont sceptiques quant à l'efficacité du système
Turnitin, connu pour son logiciel antiplagiat utilisé par des dizaines de milliers d'universités et d'écoles dans le monde, affirme avoir mis au point un outil permettant de détecter les textes générés par les systèmes d'IA tels que ChatGPT. L'entreprise ajoute que son logiciel détecte automatiquement les travaux rédigés par une IA, allant même jusqu'à montrer quelles parties d'un essai ont été rédigées par l'IA et par un humain. L'outil de Turnitin arrive à un moment où le débat sur la question de savoir s'il faut autoriser ou non l'utilisation des systèmes tels que ChatGPT en milieu scolaire s'intensifie. Les enseignants devraient pouvoir disposer de cet outil dans les mois à venir.
Les grands modèles de langage ont gagné en popularité depuis le lancement commercial de GPT-3 d'OpenAI en 2020. Aujourd'hui, de nombreux acteurs du secteur ont construit leurs propres systèmes rivaux, donnant le coup d'envoi à une nouvelle vague de startups développant des IA génératives. Ces modèles fonctionnent comme des chatbots à usage général. Les utilisateurs tapent des instructions, et ils répondent par des passages de texte cohérents et convaincants. Les étudiants se tournent de plus en plus vers ces IA pour effectuer leurs travaux, tandis que les enseignants commencent seulement à considérer leur impact et leur rôle dans l'éducation.
Les avis sont partagés. Certains pensent que la technologie peut affiner les compétences rédactionnelles, tandis que d'autres la considèrent comme une tricherie. Des sources ont rapporté au cours des dernières semaines que des écoles de Californie, de New York, de Virginie et de l'Alabama ont banni l'utilisation des outils d'IA tels que ChatGPT et ont bloqué l'accès des étudiants sur les réseaux publics. Les départements de l'éducation ne savent pas exactement quelles politiques devraient être introduites pour réglementer l'utilisation des systèmes d'IA de génération de texte. En outre, toutes les règles seraient de toute façon difficiles à appliquer.
Cela en raison du fait qu'il n'existe actuellement aucun moyen efficace de détecter les textes écrits par des IA. Au début du mois, un étudiant a proposé une application d'analyse de texte qui détecte s'il a été rédigé par une IA, mais l'outil a rapidement fait preuve de certaines insuffisances. Et bien qu'OpenAI ne partage pas l'avis selon lequel ChatGPT pourrait accentuer la tricherie dans les écoles, la société a également annoncé au début du mois qu'elle travaille à la mise en place d'un logiciel pour détecter le texte généré par son chatbot d'IA. L'outil de détection d'OpenAI n'est pas encore prêt, mais le service américain Turnitin en propose désormais un.
Turnitin a récemment mis en ligne une démo de sa technologie. Dedans, Turnitin a montré le nombre de phrases dans certains échantillons de dissertations qui ont été écrites par une IA (24 sur 24 dans un cas) et a mis en évidence le texte dans différentes nuances pour indiquer les parties écrites par l'IA et les parties partiellement écrites par l'IA. Annie Chechitelli, directrice des produits chez Turnitin, a déclaré que l'entreprise construit discrètement son logiciel de détection depuis des années, notamment depuis la sortie de GPT-3 en 2020. GPT-3 est un grand modèle de langage développé par OpenAI, avec environ 175 milliards de paramètres.
L'outil est toujours en développement, mais Turnitin espère lancer son logiciel au cours du premier semestre de cette année. « Il s'agira d'une détection assez basique au début, puis nous lancerons des versions rapides ultérieures qui créeront un flux de travail plus exploitable pour les enseignants », a déclaré Chechitelli. Le plan est de rendre le prototype gratuit pour ses clients existants à mesure que la société recueille des données et des commentaires des utilisateurs. La ruée pour donner aux éducateurs la capacité d'identifier les textes écrits par des humains et des ordinateurs s'est intensifiée avec le lancement de ChatGPT fin novembre 2022.
« Au début, nous voulons vraiment aider le secteur et aider les éducateurs à prendre leurs marques et à se sentir plus confiants. Et obtenir le plus d'utilisation possible dès le début ; c'est important pour faire un outil réussi. Plus tard, nous déterminerons comment nous allons le produire », a-t-elle ajouté. Bien que le texte généré par l'IA soit convaincant, il existe des signes révélateurs de l'œuvre d'une IA : elle est souvent fade et sans originalité ; des outils comme ChatGPT régurgitent des idées et des points de vue existants et n'ont pas de voix distincte. Les humains peuvent repérer les textes générés par l'IA, mais cela devient de plus en plus difficile.
Toutefois, les machines sont bien meilleures pour cela. Eric Wang, vice-président de l'IA chez Turnitin, note que les ordinateurs peuvent détecter des modèles évidents dans les textes produits par l'IA. « Même si nous avons l'impression que cela ressemble à de l'œuvre d'un humain, [les machines écrivent en utilisant] un mécanisme fondamentalement différent. Elles choisissent le mot le plus probable à l'endroit le plus probable, et c'est une façon très différente de construire le langage par rapport à vous et moi », a-t-il déclaré à The Register. L'outil de Turnitin semble baser son fonctionnement sur la façon dont les humains lisent et écrivent les textes.
Wang explique : « nous lisons en faisant des allers-retours avec nos yeux sans même le savoir, ou en papillonnant entre les mots, entre les paragraphes, et parfois entre les pages. Nous avons aussi tendance à écrire avec un état d'esprit futur. Je peux être en train d'écrire, et je pense à quelque chose, un paragraphe, une phrase, un chapitre ; la fin de la rédaction est liée dans mon esprit à la phrase que je suis en train d'écrire, même si les phrases entre maintenant et alors n'ont pas encore été écrites ». D'après Wang, ChatGPT, en revanche, ne dispose pas de ce type de flexibilité et ne peut générer de nouveaux mots qu'à partir de phrases précédentes.
Le détecteur de Turnitin fonctionne en prédisant quels mots l'IA est plus susceptible de générer dans un extrait de texte donné. « C'est très fade sur le plan statistique. Les humains n'ont pas tendance à utiliser systématiquement un mot à forte probabilité dans des endroits à forte probabilité, mais GPT-3 le fait, et notre détecteur s'en aperçoit vraiment », a-t-il déclaré. Wang a déclaré que le détecteur est basé sur la même architecture que GPT-3 et l'a décrit comme une version miniature du modèle. Selon lui, à bien des égards, il s'agit de combattre le feu par le feu. Il y a un composant de détection attaché au lieu d'un composant de génération.
« Ce qu'il fait, c'est qu'il lit le langage exactement de la même manière que GPT-3, mais au lieu de cracher plus de langage, il nous donne une prédiction sur le fait que ce passage ressemble [à] GPT-3 », a-t-il expliqué. Il rappelle que l'outil n'a pas été conçu dans le but de faire interdire ChatGPT dans les universités. Bien qu'il puisse dissuader les étudiants d'utiliser ce type d'outils, Turnitin pense que son détecteur permettra plutôt aux enseignants et aux étudiants de se faire confiance et de faire confiance à la technologie. « Je pense qu'il y a un changement majeur dans la façon dont nous créons du contenu et la façon dont nous travaillons », a-t-il déclaré.
Par ailleurs, Turnitin cherche toujours la meilleure façon de présenter les résultats de son détecteur aux enseignants qui utilisent l'outil. « C'est un défi difficile à relever. Comment dire à un instructeur, dans un espace réduit, ce qu'il veut voir ? Il peut vouloir voir un pourcentage indiquant la proportion d'une rédaction qui semble avoir été écrite par l'IA, ou des niveaux de confiance indiquant si la confiance dans la prédiction du détecteur est faible, moyenne ou élevée pour évaluer la précision », a déclaré Chechitelli. En attendant l'outil de détection de Turnitin et celui d'OpenAI, les écoles continuent à signaler les cas de tricherie avec ChatGPT.
Cependant, certaines personnes pensent que les outils pour détecter les textes générés par les systèmes d'IA pourraient être "facilement" contourner en faisant passer un texte donné par différents outils de reformulation de texte. Selon elles, cela devrait déjouer, par exemple, les principes sur lesquels est basé le fonctionnement de l'outil de Turnitin.
Source : Turnitin
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de la description faite par Turnitin de son outil de détection de texte généré par l'IA ?
:fleche: Selon vous, l'outil de Turnitin serait-il efficace ? Pensez-vous qu'il pourrait être facilement contourné comme certains l'estiment ?
Voir aussi
:fleche: OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains
:fleche: Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une application d'analyse de texte qui détecte s'il a été rédigé par une IA
:fleche: Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT, afin d'accélérer les percées dans le domaine de l'IA
:fleche: CNET suspend la publication d'articles générés par l'IA après une controverse sur la divulgation d'informations, le site n'a pas été transparent sur le fait qu'une IA écrivait certains articles
1 pièce(s) jointe(s)
La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA
La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA
ChatGPT menace l'activité de recherche de Google évaluée à 149 milliards de dollars
Google a dû rappeler Sergey Brin et Larry Page, les deux cofondateurs de l'entreprise, de la retraite afin de faire face à la menace ChatGPT. Des rapports suggèrent que le mois dernier, Brin et Page ont tenu plusieurs réunions avec des cadres de l'entreprise. Le sujet : ChatGPT, l'IA de génération de texte d'OpenAI qui apparaît comme la première menace notable depuis des décennies pour l'activité de recherche de Google, qui pèse 149 milliards de dollars. Brin et Page auraient examiné la stratégie de Google dans le secteur de l'IA, approuvé des plans et lancé des idées pour intégrer davantage de fonctionnalités de chatbot dans le moteur de recherche de Google.
ChatGPT semble avoir fait sortir Google de sa routine. Jusque-là, la firme de Mountain View ne semblait pas craindre les alternatives à son moteur de recherche. En outre, les internautes sont si habitués à Google qu'ils ont du mal à essayer un rival pour quelque temps. Mais depuis quelque temps, tout le monde semble vouloir en essayer un, ChatGPT. Le chatbot d'OpenAI n'est pas véritablement ce qu'on peut appeler un moteur de recherche, mais les internautes semblent séduits par la capacité de l'outil d'IA à fournir des réponses sophistiquées et détaillées à leurs différentes questions, sauf bien sûr, sur les sujets qui ont été filtrés dès le départ par OpenAI.
L'enthousiasme suscité par ChatGPT aurait fait paniquer Google qui craint que les internautes prennent de plus en plus l'habitude d'interroger le chatbot d'OpenAI plutôt que son moteur de recherche. L'entreprise a demandé à ses équipes de réfléchir à une réponse rapide. Google se démène maintenant pour rattraper son retard, son PDG Sundar Pichai ayant déclaré un "code rouge" pour stimuler le développement de l'IA. DeepMind, filiale d'Alphabet, devrait lancer cette année un concurrent de ChatGPT, appelé Sparrow. Selon la rumeur, Sparrow pourrait être l'un des outils que Google entend déployer pour freiner à la montée en puissance de ChatGPT.
Maintenant, l'on apprend également que les fondateurs qui ont quitté l'entreprise il y a trois ans se sont réengagés pour aider Google dans cette course à l'IA. Selon des sources au fait du sujet, Page et Brin, qui n'avaient pas passé beaucoup de temps chez Google depuis qu'ils avaient quitté leurs rôles quotidiens au sein de l'entreprise en 2019, ont dirigé le mois dernier plusieurs réunions avec des cadres de l'entreprise. Ils ont examiné la stratégie des produits d'intelligence artificielle de Google. En outre, Page et Bri auraient approuvé des plans et lancé des idées pour intégrer davantage de fonctionnalités de chatbot dans le moteur de recherche de Google.
Ils auraient également donné des conseils aux dirigeants de l'entreprise, qui ont placé l'IA au cœur de leurs projets. Le réengagement de Page et Brin, à l'invitation de Pichai, a souligné l'urgence ressentie par de nombreux dirigeants de Google concernant ChatGPT. Google aurait désormais l'intention de dévoiler plus de 20 nouveaux produits et de faire la démonstration d'une version de son moteur de recherche dotée de fonctionnalités de chatbot cette année. Selon les sources, l'heure tourne pour Google, qui estime que des fonctionnalités de chatbot devraient rendre son moteur de recherche plus attrayant et plus facile à utiliser pour les internautes.
« C'est un moment de grande vulnérabilité pour Google. ChatGPT a planté un pieu dans le sol en disant : voici ce à quoi pourrait ressembler une nouvelle expérience de recherche attrayante », a déclaré D. Sivakumar, un ancien directeur de recherche de Google qui a cofondé une startup appelée Tonita, qui fabrique des technologies de recherche pour les entreprises de commerce électronique. En quête de nouvelles expériences à proposer aux internautes, Microsoft a misé sur ChatGPT. L'entreprise travaillerait sur une nouvelle version de son moteur de recherche Bing qui intégrera des fonctionnalités de ChatGPT. D'autres de ses produits sont concernés.
Microsoft a réalisé un premier investissement d'un milliard de dollars dans OpenAI en 2019. Lundi, la firme de Redmond a annoncé qu'elle finance OpenAI de nouveau à hauteur de plusieurs milliards, renforçant ainsi ses liens avec la startup. Microsoft a refusé de dévoiler le montant exact de ce nouvel investissement, mais la rumeur circule depuis quelques semaines que ce montant pourrait avoisiner les 10 milliards de dollars. OpenAI tait également le montant de la transaction. Satya Nadella, PDG de Microsoft, estime que le partenariat accélérera les percées dans l'IA et aidera les deux entreprises à commercialiser des technologies avancées à l'avenir.
Google, OpenAI et d'autres développent leurs IA à l'aide de modèles de langage dits "larges" qui s'appuient sur des informations en ligne, de sorte qu'elles peuvent parfois partager de fausses déclarations et montrer des attitudes racistes, sexistes et autres préjugés. Cela a suffi pour que les entreprises hésitent, notamment dans le cas de Google, à proposer cette technologie au public. Mais plusieurs nouvelles entreprises, dont You.com et Perplexity.ai, proposent déjà des moteurs de recherche en ligne qui vous permettent de poser des questions par l'intermédiaire d'un chatbot en ligne, un peu comme ChatGPT. Google s'est laissé dépasser sur le sujet.
Les conséquences de l'approche plus rationnelle de Google ne sont pas encore claires. Selon une analyse réalisée par Google, sa technologie est à la traîne par rapport aux mesures déclarées par OpenAI lorsqu'il s'agit d'identifier des contenus haineux, toxiques, sexuels ou violents. Dans chaque catégorie, OpenAI a surpassé les outils de Google, qui n'ont pas non plus atteint la précision humaine dans l'évaluation du contenu. Google a cité les droits d'auteur, la protection de la vie privée et l'antitrust comme les principaux risques liés à cette technologie. La firme de Mountain View a déclaré que des mesures sont nécessaires pour réduire ces risques.
Les dirigeants de Google espèrent réaffirmer le statut de leur entreprise en tant que pionnière de l'IA. La société a travaillé de manière agressive sur l'IA au cours de la dernière décennie et a déjà proposé à un petit nombre de personnes un chatbot qui pourrait rivaliser avec ChatGPT, appelé LaMDA. « Nous continuons à tester notre technologie d'IA en interne pour nous assurer qu'elle est utile et sûre, et nous avons hâte de partager bientôt plus d'expériences en externe », a déclaré Lily Lin, porte-parole de Google. Elle a ajouté que l'IA profiterait aux individus, aux entreprises et aux communautés et que Google envisageait ses effets sociétaux plus larges.
Selon des personnes au fait des plans de l'entreprise, pour la démonstration de la recherche par chatbot que Google prévoit pour cette année, les priorités seraient de vérifier les faits, d'assurer la sécurité et de se débarrasser de la désinformation. Pour d'autres services et produits à venir, l'entreprise aurait placé la barre moins haut et tenterait d'endiguer les problèmes liés à la haine et à la toxicité, au danger et à la désinformation plutôt que de les prévenir.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de l'appel de Google à Sergey Brin et Larry Page ?
:fleche: Selon vous, l'approche plus rationnelle de Google en matière de chatbot d'IA a été la bonne ?
:fleche: Pensez-vous que Google serait en mesure de freiner la montée en puissance de ChatGPT ?
Voir aussi
:fleche: Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT, afin d'accélérer les percées dans le domaine de l'IA
:fleche: Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux
:fleche: Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »
:fleche: Un ingénieur de Google a été congédié après avoir déclaré que le chatbot IA LaMDA de Google est devenu sensible et exprime des pensées et des sentiments équivalents à ceux d'un enfant humain