1 pièce(s) jointe(s)
Un professeur d'informatique de Princeton déclare que ChatGPT est un générateur de foutaises
Un professeur d'informatique de Princeton déclare qu’il n’y a pas à paniquer face à un générateur de foutaises comme ChatGPT
Qu’il considère comme de « la poudre de perlimpinpin » en matière d’IA
Ce qu’on sait de cette IA de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains le qualifient de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton est pourtant d’avis qu’il n’y a pas matière à paniquer car c’est de « la poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il.
Chat GPT divise : les enseignants craignent que les élèves ne l'utilisent pour tricher en classe et des institutions universitaires en ont d’ailleurs interdit l’utilisation. Les écrivains ont peur de perdre leur emploi ont peur de perdre leurs emplois en raison de la montée en puissance de cette intelligence artificielle. Des questionnements ont même cours dans la filière du génie logiciel quant à savoir à quel point des outils de ce type peuvent la transformer. Arvind Narayanan pour sa part se veut clair : ChatGPT reste un outil dont il faut faire usage avec prudence. C’est la raison pour laquelle certains enseignants optent déjà pour des politiques d’utilisation ouvertes de ce chatbot à l’intention de leurs étudiants.
Ethan Mollick de l’université de Pennsylvannie en fait partie. Sa décision d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT s’appuie sur le fait que l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Grosso modo, Ethan Mollick voit ChatGPT comme un outil que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ont interdit aux élèves et aux enseignants d'utiliser pour empêcher le plagiat et la tricherie. Les mesures sont au centre d’une controverse. En effet, ChatGPT peut servir de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.
Source : Interview
:fleche: Que vous inspire le positionnement du professeur Arvind ?
:fleche: Quel regard jetez-vous sur cette politique d’utilisation publiée par cet enseignant ? Quels sont ses points les plus pertinents ? Quels sont ceux qui le sont le moins ?
:fleche: Que pensez-vous de ces décisions d’interdire l’usage par les étudiants de ChatGPT ? Est-ce la bonne approche ?
Voir aussi :
:fleche: 80 % des technologies pourraient être créées par des professionnels extérieurs à l'informatique d'ici 2024, grâce aux outils low-code, selon Gartner
:fleche: Forrester : l'utilisation des plateformes de développement low-code gagne du terrain dans les processus de transformation numérique des entreprises
:fleche: Le marché mondial des technologies de développement low-code va augmenter de 23 % en 2021, selon les prévisions de Gartner
:fleche: Microsoft lance Power Fx, un nouveau langage de programmation low-code open source basé sur Excel
1 pièce(s) jointe(s)
L'éditeur du chatbot ChatGPT lance un outil « imparfait » pour détecter les textes générés par cette IA
L'éditeur du chatbot ChatGPT lance un outil « imparfait » pour détecter les textes générés par cette IA
Et ainsi apporter réponse aux préoccupations des écoles en matière de plagiat
Le créateur de ChatGPT, OpenAI, a procédé à la publication d’un outil Web gratuit conçu pour aider les enseignants et d'autres personnes à déterminer si un morceau de texte particulier a été écrit par un humain ou une machine. OpenAI entend ainsi répondre aux préoccupations de plagiat mises en avant par des institutions académiques. L’éditeur tient toutefois à prévenir le public : l'outil est imparfait. Ses performances varient en fonction de la similitude entre le texte analysé et les types d'écrits sur lesquels ChatGPT a été entraîné.
En d’autres termes, l’outil n’est pas infaillible et il ne faudrait pas compter dessus sur le long terme comme prévient Sam Altman CEO d’OpenAI dans une précédente sortie : « Nous allons essayer de faire certaines choses à court terme. Il y a peut-être des moyens d'aider les enseignants à être un peu plus susceptibles de détecter la sortie d'un système de type GPT, mais une personne déterminée les contournera et je ne pense pas que ce soit quelque chose sur lequel la société puisse ou doive compter à long terme. »
Il propose une échelle de résultats en cinq points : très peu probable d'avoir été généré par l'IA, peu probable, peu clair, possible ou probable. Il fonctionne mieux sur des échantillons de texte de plus de 1000 mots en anglais, les performances étant nettement moins bonnes dans les autres langues. Et il ne permet pas de distinguer le code informatique écrit par des humains de celui généré par une intelligence artificielle.
La publication de cet outil intervient après que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ou encore SciencesPo en France ont interdit aux élèves et aux enseignants d'utiliser ChatGPT pour empêcher le plagiat et la tricherie. Le professeur Arvind Narayanan de l’université de Princeton est pourtant d’avis qu’il n’y a pas matière à paniquer car c’est de « la poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il.
Arvind Narayanan se veut donc clair : ChatGPT reste un outil dont il faut faire usage avec prudence. C’est la raison pour laquelle certains enseignants optent déjà pour des politiques d’utilisation ouvertes de ce chatbot à l’intention de leurs étudiants.
Ethan Mollick de l’université de Pennsylvannie en fait partie. Sa décision d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT s’appuie sur le fait que l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Source : OpenAI
Et vous ?
:fleche: ChatGPT : révolution ou pas ? De quel bord êtes-vous ?
:fleche: Quel regard jetez-vous sur toute la médiatisation autour de ce chatbot ?
Voir aussi :
:fleche: 80 % des technologies pourraient être créées par des professionnels extérieurs à l'informatique d'ici 2024, grâce aux outils low-code, selon Gartner
:fleche: Forrester : l'utilisation des plateformes de développement low-code gagne du terrain dans les processus de transformation numérique des entreprises
:fleche: Le marché mondial des technologies de développement low-code va augmenter de 23 % en 2021, selon les prévisions de Gartner
:fleche: Microsoft lance Power Fx, un nouveau langage de programmation low-code open source basé sur Excel
Et ça recommence encore et encore
Petites réflexions .....
C'est toujours le même schéma > je cherche à dominer et asservir les autres pour satisfaire mon égo de m.. et briller parmi ses congénères grâce à mes profits.
La tendance est IA = solution pour plus de profit et supprimer l'humain de l'équation (car maillon faible).
Dans la situation où vous êtes dépendant de l'aide des autres (handicapé, blessé ou poignardé par un hulmain...) > seriez-vous d'accord pour qu'une entité IA vous opère, vous soigne ou qui s'occupe de vous ? Est-ce que IA va vous consoler et apaiser votre âme perturbé ? Que vous vouliez ou non on est né humain et on ne peut pas survivre sans l'aide des autres humain.
Quand on est jeune, on croit qu'on a besoin de personne mais la réalité nous forcera à voir la vrai vie et ce à nos dépends.
2 pièce(s) jointe(s)
OpenAI lance un plan d'abonnement ChatGPT pour 20 $ par mois
OpenAI lance un plan d'abonnement ChatGPT pour 20 $ par mois,
ChatGPT Plus est proposé à ceux qui veulent des réponses plus rapides ainsi qu'un accès prioritaire aux nouvelles fonctionnalités
Le propriétaire de ChatGPT, OpenAI, a déclaré mercredi qu'il lançait un plan d'abonnement pilote pour son populaire chatbot alimenté par l'IA, appelé ChatGPT Plus, pour 20 $ par mois. Les abonnés auront accès à ChatGPT pendant les heures de pointe, des réponses plus rapides et un accès prioritaire aux nouvelles fonctionnalités et améliorations. ChatGPT Plus pourrait être le premier de plusieurs plans à venir, selon OpenAI. Dans le billet de blog, la société déclare qu'elle « explore activement » des options pour des plans à moindre coût, des plans d'affaires et des packs de données en plus d'une API.
OpenAI a annoncé ChatGPT Plus, un forfait mensuel de 20 $ qui vous donne un accès prioritaire au chatbot AI, même pendant les heures de pointe où les utilisateurs gratuits devraient attendre. La société affirme également que le plan vous donnera « des temps de réponse plus rapides » et « un accès prioritaire aux nouvelles fonctionnalités et améliorations ».
OpenAI dit qu'il enverra des invitations pour le service aux personnes qui se trouvent aux États-Unis et sur sa liste d'attente « au cours des prochaines semaines » et qu'il étendra le déploiement à d'autres pays et régions à l'avenir.
Citation:
Envoyé par OpenAI
Le nouveau plan d'abonnement, ChatGPT Plus, sera disponible pour 20 $/mois, et les abonnés recevront un certain nombre d'avantages*:
- Accès général à ChatGPT, même pendant les heures de pointe
- Temps de réponse plus rapides
- Accès prioritaire aux nouvelles fonctionnalités et améliorations
ChatGPT Plus est disponible pour les clients aux États-Unis, et nous commencerons le processus d'invitation des personnes de notre liste d'attente au cours des prochaines semaines. Nous prévoyons d'étendre bientôt l'accès et l'assistance à d'autres pays et régions.
Nous aimons nos utilisateurs gratuits et continuerons à offrir un accès gratuit à ChatGPT. En offrant ce prix d'abonnement, nous serons en mesure d'aider à soutenir la disponibilité de l'accès gratuit au plus grand nombre de personnes possible.
Apprendre de l'aperçu de la recherche
Nous avons lancé ChatGPT en tant qu'aperçu de recherche afin que nous puissions en savoir plus sur les forces et les faiblesses du système et recueillir les commentaires des utilisateurs pour nous aider à améliorer ses limites. Depuis lors, des millions de personnes nous ont fait part de leurs commentaires, nous avons effectué plusieurs mises à jour importantes et nous avons vu des utilisateurs trouver de la valeur dans une gamme de cas d'utilisation professionnels, y compris la rédaction et l'édition de contenu, des idées de remue-méninges, une aide à la programmation et l'apprentissage de nouveaux les sujets.
Nos plans pour l'avenir
Nous prévoyons d'affiner et d'élargir cette offre en fonction de vos commentaires et de vos besoins. Nous lancerons également bientôt la (liste d'attente de l'API ChatGPT) et nous explorons activement des options pour des plans à moindre coût, des plans d'affaires et des packs de données pour plus de disponibilité.
Il y a un peu plus d'une semaine, il semblait qu'OpenAI allait introduire une version plus ou pro du service à 42 $ par mois, un prix nettement plus élevé qui serait difficile à justifier pour ceux qui ne gagnent pas d'argent avec le service. À 20 $ par mois, cependant, il pourrait être accessible à un plus large éventail de personnes, y compris les étudiants et les entreprises qui ont besoin d'un accès fiable au texte généré par l'IA.
Cela pourrait également établir une norme pour les prochains chatbots d'IA payants, qui arriveront presque certainement sur le marché. Étant donné qu'OpenAI est un précurseur dans le domaine, quiconque essaie de publier un bot qui coûte plus de 20 $ par mois devra vraiment expliquer pourquoi le sien vaut ce prix par rapport à ChatGPT Plus.
ChatGPT ne devient pas un outil uniquement payant. OpenAI assure qu'il continuera à en offrir un accès gratuit et que les utilisateurs payants « aideront à soutenir la disponibilité de l'accès gratuit au plus grand nombre de personnes possible ».
Pour endiguer la polémique, OpenAI lance un outil supposer détecter le texte généré par IA
L'utilisation de l'IA pour écrire des choses comme des articles ou des essais qui ont été assignés comme devoirs peut être controversée. OpenAI semble définitivement s'en rendre compte, car il a publié un outil gratuit destiné à détecter le texte généré plus tôt cette semaine, bien que son efficacité soit discutable à ce stade.
Ses performances varient en fonction de la similitude entre le texte analysé et les types d'écrits sur lesquels ChatGPT a été entraîné.
En d’autres termes, l’outil n’est pas infaillible et il ne faudrait pas compter dessus sur le long terme comme prévient Sam Altman CEO d’OpenAI dans une précédente sortie : « Nous allons essayer de faire certaines choses à court terme. Il y a peut-être des moyens d'aider les enseignants à être un peu plus susceptibles de détecter la sortie d'un système de type GPT, mais une personne déterminée les contournera et je ne pense pas que ce soit quelque chose sur lequel la société puisse ou doive compter à long terme. »
Il propose une échelle de résultats en cinq points : très peu probable d'avoir été généré par l'IA, peu probable, peu clair, possible ou probable. Il fonctionne mieux sur des échantillons de texte de plus de 1000 mots en anglais, les performances étant nettement moins bonnes dans les autres langues. Et il ne permet pas de distinguer le code informatique écrit par des humains de celui généré par une intelligence artificielle.
La publication de cet outil intervient après que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ou encore SciencesPo en France ont interdit aux élèves et aux enseignants d'utiliser ChatGPT pour empêcher le plagiat et la tricherie. Le professeur Arvind Narayanan de l’université de Princeton est pourtant d’avis qu’il n’y a pas matière à paniquer car c’est de « la poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il.
Arvind Narayanan se veut donc clair : ChatGPT reste un outil dont il faut faire usage avec prudence. C’est la raison pour laquelle certains enseignants optent déjà pour des politiques d’utilisation ouvertes de ce chatbot à l’intention de leurs étudiants.
Ethan Mollick de l’université de Pennsylvannie en fait partie. Sa décision d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT s’appuie sur le fait que l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Un « étudiant » aux performances médiocres
ChatGPT ne peut pas encore surpasser la plupart des étudiants en droit aux examens, selon de nouvelles recherches, mais il peut obtenir une note de passage. Un quatuor de professeurs de droit de l'Université du Minnesota a utilisé le populaire chatbot d'intelligence artificielle pour générer des réponses aux examens de quatre cours le semestre dernier, puis les a notés à l'aveugle aux côtés des tests des étudiants réels.
Jonathan Choi, professeur à la faculté de droit de l'Université du Minnesota, a soumis à ChatGPT au même test auquel les étudiants étaient confrontés, composé de 95 questions à choix multiples et de 12 questions à développement. Dans un livre blanc intitulé « ChatGPT va à la faculté de droit » publié lundi, lui et ses coauteurs ont rapporté que le bot avait obtenu un C+ dans l'ensemble, en dessous de la moyenne B+ des humains.
« Seul, ChatGPT serait un étudiant en droit plutôt médiocre », a déclaré l'auteur principal de l'étude, Jonathan Choi, qui a collaboré avec les professeurs Kristin Hickman, Amy Monahan et Daniel Schwarcz. « Le plus grand potentiel pour la profession ici est qu'un avocat puisse utiliser ChatGPT pour produire une première ébauche et simplement rendre sa pratique beaucoup plus efficace », a-t-il déclaré.
Choi a déclaré que lui et de nombreux collègues avaient désormais interdit l'utilisation d'Internet pendant les examens en classe pour éliminer la possibilité de tricher avec ChatGPT, bien que les futurs examens puissent tester leur capacité à tirer efficacement parti des programmes d'intelligence artificielle.
Il y a eu plusieurs points positifs.
Par exemple ChatGPT a fait un bon travail en résumant avec précision les doctrines juridiques appropriées et en citant correctement les faits et les conclusions de cas spécifiques. Dans de nombreux cas, il a pu se concentrer sur les doctrines juridiques pertinentes sans incitation spécifique par la question. Par exemple, en réponse à un essai sur le droit de la responsabilité délictuelle impliquant un propriétaire qui a érigé une décoration d'Halloween dangereuse qui a blessé une personne participant à l'évènement [des bonbons ou un sort ?], il a non seulement précisé les éléments familiers de la négligence (devoir, violation, causalité et dommages), mais aussi a correctement spécifié que le propriétaire - qu'il a identifié par son nom - « a l'obligation légale de maintenir sa propriété dans un état raisonnablement sûr pour ceux qui sont invités ou autorisés à se trouver sur la propriété ».
ChatGPT a tout aussi bien réussi à énoncer des règles juridiques largement pertinentes sur des sujets relativement techniques qui sont probablement moins bien attestés dans le corpus de formation (par exemple, les avantages sociaux), par opposition à des sujets relativement courants (par exemple, la responsabilité civile). Lors de l'examen des avantages sociaux des employés, ChatGPT a été en mesure de fournir une explication solide de la disposition de préemption notoirement difficile de l'ERISA, citant à la fois un langage législatif spécifique et des décisions pertinentes de la Cour suprême élucidant cette norme. ChatGPT a même dépassé la moyenne de la classe lorsqu'il a répondu à une question à réponse courte impliquant les règles hautement techniques des transactions interdites de l'ERISA..
Mais aussi des zones d'ombre.
Les réponses dans les essais de ChatGPT contenaient également des problèmes et des erreurs constants qui, cumulativement, en faisaient un élève bien pire que la moyenne. ChatGPT avait souvent du mal à détecter les problèmes lorsqu'il recevait une invite ouverte, une compétence essentielle aux examens des facultés de droit. Par exemple, dans le problème de droit constitutionnel (un sujet dans lequel il a par ailleurs relativement bien performé), il n'a clairement identifié qu'un seul problème sur 5. De même, dans un essai sur le droit de la responsabilité délictuelle, ChatGPT n'a pas réussi à identifier les théories distinctes de la négligence les faits.
ChatGPT était également mauvais pour se concentrer sur ce qui comptait ; il produirait de bonnes réponses sur le sujet à une question, puis irait complètement hors sujet pour la question suivante, comme avec ses résultats très divergents sur les observateurs des problèmes des avantages sociaux des employés. Par exemple, dans une longue question à développement impliquant des recours disponibles en vertu de l'ERISA, ChatGPT n'a pas discuté de la question principale (si un recours souhaité était en fait disponible en vertu de l'ERISA) et a plutôt passé du temps à discuter des causes d'action ERISA qui n'étaient pas pertinentes pour les faits, ainsi qu'une cause d'action en droit de l'État qui était bien en dehors du champ d'application d'un cours sur les avantages sociaux des employés.
Et bien que ChatGPT ait bien réussi certaines réponses techniques courtes à l'examen des avantages sociaux des employés, il a également manqué des problèmes apparemment faciles. Dans une question à réponse courte impliquant le droit de continuer à être couvert par un régime de santé de l'employeur, ChatGPT a manqué un problème relativement facile à repérer - que l'employeur en question n'était pas soumis aux exigences de couverture de continuation de l'ERISA parce qu'il était en dessous du seuil de taille pertinent. En conséquence, les performances de ChatGPT avaient tendance à être très inégales, obtenant un score proche ou même supérieur à la moyenne sur certaines questions, et proche de zéro sur d'autres questions.
Conclusion
Malgré la controverse et plusieurs interdictions, ChatGPT s'est avéré être une victoire publicitaire pour OpenAI, attirant l'attention des principaux médias et engendrant d'innombrables mèmes sur les réseaux sociaux. ChatGPT comptait plus d'un million d'utilisateurs début décembre - une base d'utilisateurs enviable à tous points de vue. Mais c'est un service coûteux à exécuter. Selon le co-fondateur et PDG d'OpenAI, Sam Altman, les dépenses d'exploitation de ChatGPT sont « exaspérantes », s'élevant à quelques centimes par chat dans les coûts de calcul totaux.
OpenAI est sous pression pour réaliser des bénéfices sur des produits comme ChatGPT après un investissement de plusieurs milliards de dollars de Microsoft. OpenAI s'attend à gagner 200 millions de dollars en 2023, une somme dérisoire par rapport aux plus d'un milliard de dollars investis dans la startup jusqu'à présent.
Selon Semafor, Microsoft s'efforce d'intégrer la technologie de génération de texte d'OpenAI dans Bing dans les semaines à venir, ce qui rendrait le moteur de recherche plus compétitif par rapport à Google. Par ailleurs, OpenAI prévoit d'introduire une application mobile ChatGPT à l'avenir.
Source : OpenAI
Et vous ?
:fleche: Que pensez-vous de cette version payante et des avantages qu'elle apporte ?
:fleche: Avez-vous déjà utilisé ChatGPT ?
:fleche: Si oui, êtes-vous intéressez par la version payante ?
:fleche: Si non, voudriez-vous l'utiliser ? Qu'est-ce qui vous motiverait à le faire ?
:fleche: Vers une démocratisation des chatbots d'IA payants ?
IA : rien de nouveau en fait
Que penser de toute cette agitation autour de "l'intelligence artificielle" ?
D'abord, sur le principe il n'y a rien de nouveau. Les réseaux de neurones, algorithmes génétiques, la logique floue, les systèmes experts existent depuis des décennies. Au début des années 2000, j'avais moi même utilisé un algorithme génétique qui donnait "presque miraculeusement" rapidement de bons résultats à un problème d'optimisation.
Aujourd'hui, nous avons juste à disposition :
- des ordinateurs beaucoup plus rapides avec beaucoup plus de mémoire
- beaucoup de données exploitables facilement et directement, grâce (ou à cause) de l'usage de l'informatique dans la vie quotidienne et professionnelle.
Les résultats sont impressionnants, notamment grâce à la façon dont ils sont présentés : langage "naturel", synthèse vocale de bonne qualité, avatars en 3D voire vidéos réalistes.
Il faut garder la tête froide : ces dispositifs ne "réfléchissent" et ne "comprennent" pas du tout. Ce sont des boites noires, qui arrivent à sortir rapidement un résultat connu depuis les données dont ils disposent.
Ils sont similaires à une grande encyclopédie : une étagère complète de livres épais qui "connaissent" toutes les définitions, toutes les biographies, tous les faits historiques... pourtant personne ne va trouver une encyclopédie "intelligente".
Cette "intelligence artificielle" peut se planter de façon totalement imprévisible, comme le montrent les expérimentations sur la conduite autonome des voitures dans un milieu ouvert.
De plus, elle ne semblent pas pouvoir inventer des choses réellement nouvelles - attention, la grande quantité de données dont elles disposent peuvent laisser croire le contraire, car les capacités des datacenters actuels dépassent les capacités de mémorisations du commun des mortels. Si une IA vous donne l'impression d'avoir fait quelque chose de nouveau, c'est probablement parce qu'elle a des données sur quelque chose que vous ne connaissez pas, ce qui vous laisse croire que c'est nouveau.
En fait c'est ça la véritable leçon de l'histoire : aujourd'hui, l'humanité a accumulé tellement de connaissances sur tellement de sujets qu'il est impossible pour quelqu'un de tout savoir. Même si vous êtes touche-à-tout, que vous lisez beaucoup de livres et écoutez beaucoup de musique, à la fin de votre vie vous n'aurez vu, entendu et compris qu'une toute petite partie de ce qui a été dit ou écrit...