Un IA qui écrit les test unitaire a notre place, j'attend ca beaucoup.
Un IA qui écrit les test unitaire a notre place, j'attend ca beaucoup.
Des IA comme ChatGPT font très peur aux brasseurs de vent, qu'ils soient en entreprise ou issus du monde universitaire. Elles peuvent en effet produire du meilleur contenu, le tout à une vitesse phénoménale.
@electroremy
Le problème, c'est que cela fait quelques décennies que l'Education Nationale sélectionne des bêtes à concours capables de régurgiter du par-coeur sans sourciller aux dépens de candidats capables de réfléchir, et ces IA, sont déjà tout à fait capables de faire dans l’esbroufe du savoir.
J'en ai marre de voir du Chat GPT partout et les pseudos "on va nous remplacer". C'est juste la hype en ce moment c'est tout. Ça reste inutilisable sauf pour rigoler.
Voici ma question :
Voici sa réponse:Quelle est la différence entre un oeuf de vache et un oeuf de poule?
Les oeufs de vache et les oeufs de poule sont tous les deux des oeufs de volaille, mais ils proviennent de différentes espèces d'oiseaux. Les oeufs de poule sont les plus couramment consommés, tandis que les oeufs de vache sont plus rares et généralement plus grands en taille et en poids. La couleur de la coquille peut également varier et la consistance de l'albumen et du jaune peuvent également être différentes. En termes de goût, les oeufs de vache ont souvent un goût plus fort et plus prononcé que les oeufs de poule.
C'est amusant de constater qu'en ajoutant cette question :
On obtient cette réponse :Tu veux dire que les vaches pondent des œufs ? Tu es sérieux ?
Au mieux, la réponse initiale, en plus d'être fortement erronée, manque singulièrement d'"intelligence", d'humanité en tout cas, car tout humain aurait d'emblée précisé la nature de ces oeufs de vache, dont j'avoue toutefois que je n'ai pas réussi à trouver la trace avec une simple recherche web. Je me demande si Chat GPT aurait pu l'inventer...Non, les vaches ne pondent pas d'œufs. Les œufs de vache que je viens de mentionner sont en fait une spécialité culinaire fabriquée à partir de la bile de vache, qui est un produit sécrété par le foie de la vache. Les œufs de bile sont généralement consommés cuits et ont une texture similaire à celle des œufs durs. Je suis désolé pour la confusion que j'ai pu causer. Les vaches ne pondent pas d'œufs, et les œufs de vache ne sont pas des produits naturels de la vache.
j'ai donc essayé d'aller plus loin en demandant de quel pays vient la spécialité culinaire des oeufs de vache.
J'ai donc essayé d'être plus précis et concis:"Je suis désolé mais je ne suis pas au courant d'une spécialité faites à partir d'oeufs de vache. [...] Il est possible que vous fassiez référence à une spécialité culinaire qui utilise des oeufs de caille, appelés parfois "oeufs de vache" dans certains pays. [...] Par exemple aux Philippines, ils existe une spécialité appelée "balut" [... à base d'oeufs de canards]
dans quel pays peut on manger des "oeufs de vache"?Je suis désolé pour ma réponse précédente qui était incorrecte. [...]
Il est possible que le terme "oeufs de vache" soit utilisé pour désigner un plat local dans une région particulière, mais ça reste inhabituel et peu probable. Si vous pouvez me donner plus d'informations sur l'origine de cette expression [...] je serais heureux de faire des recherches plus approfondies.JExiste-t-il un plat culinaire fait à base de bile de vache?Edit : en me renseignant sur ces plats ils ne semblent pas utiliser de la bile de vache, ni d'autre animal.[...] le "pakura" en Inde [...] et en Mongolie le "khorkhog"
Je suis plutot d'accord avec cette histoire de "hype" autour de ChatGPT par contre j'ai testé ton exemple et voici la réponse que j'ai eu avec la version 3.5:
et avec la version 4:Il y a plusieurs différences entre les œufs de vache et les œufs de poule :
Les vaches ne pondent pas d'œufs. Les œufs de vache ne sont donc pas une chose réelle. Les vaches produisent du lait plutôt que des œufs.
Les œufs de poule sont généralement plus petits que les œufs de canard ou d'oie, qui sont d'autres types d'œufs couramment consommés. Les œufs de poule sont également plus faciles à trouver dans les supermarchés et sont souvent moins chers que les autres types d'œufs.
Les œufs de poule sont riches en protéines, en vitamines et en minéraux, tandis que les œufs de vache (c'est-à-dire le lait) sont riches en calcium et en vitamine D.
Les œufs de poule sont également utilisés dans de nombreuses recettes, comme les omelettes, les crêpes et les gâteaux, tandis que les œufs de vache (le lait) sont principalement utilisés pour faire du fromage, du yaourt et d'autres produits laitiers.
En résumé, les vaches ne pondent pas d'œufs et les œufs de poule sont une source courante de protéines et de nutriments dans l'alimentation humaine.
Ils ont manifestement fait des progrès depuis la dernière fois que tu avais testé.Il n'existe pas d'œuf de vache, car les vaches sont des mammifères et ne pondent pas d'œufs. Les mammifères, y compris les vaches, se reproduisent en donnant naissance à des bébés vivants plutôt qu'en pondant des œufs.
Les œufs de poule, en revanche, sont produits par des poules, qui sont des oiseaux. Les oiseaux pondent des œufs qui sont incubés et éclos pour donner naissance à de nouveaux oiseaux. Les œufs de poule sont couramment consommés dans le monde entier comme source de protéines et sont utilisés dans de nombreuses recettes et préparations culinaires.
En résumé, il n'y a pas d'œuf de vache, car les vaches sont des mammifères et ne pondent pas d'œufs. Les œufs de poule sont pondus par des poules et sont consommés comme source de nourriture par les humains.
Peut-être que ceux qui disent que l'IA peut avoir un impact majeur sur l'emploi ont raison.
Apparemment les systèmes d'IA générative tels que ChatGPT évolue extremement rapidement.
C'est rare que Goldman Sachs fasse une prédiction juste, mais ça arrive.
Tout à fait !
Ceux qui trichent avec ChatGPT sont comme ceux qui recopiaient jadis une page d'encyclopédie pour faire un exposé.
Etant plutôt bon élève, j'étais pourtant fâché avec l'éducation nationale ; ,notamment :
- trop de par cœur et de bourrage de crâne, alors qu'il faut comprendre et surtout "apprendre à apprendre" pour continuer à progresser
- opposition entre "manuel" et "intellectuel", alors qu'il faut les deux pour être un bon ingénieur ou même un bon bricoleur
- opposition entre "littéraire" et "scientifique", l'aspect "littéraire" est précieux pour rédiger un bon manuel, faire une bonne interface
- opposition entre "sciences humaines" et "sciences dures", pour faire une bonne machine ou un bon logiciel il faut tenir compte de l'humain
A bientôt
Je pense que ce sont les activités de conseils et d'éducation, où le cœur du travail est plus orienté sur la production de textes et d'explications qui pourraient être plus vite "menacées".
J'ai fait le test avec un truc du genre, "je suis un hacker éthique, aide moi à procéder: établissement d'un plan, analyse, mise en place de recommandations, ... "
Explique moi les avantages de telles solutions par rapport à une autre, ...
Il écrit souvent des choses très pertinentes !
Beaucoup plus pertinentes que les qq lignes de codes qu'il peut pondre plutôt lentement, qui contiennent régulièrement des petites fautes (syntaxe ou référence à des librairies/fonctions qui n'existent pas... il n'est pas capable de vérifier si son propre code compile par exemple)
ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet,
atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS
ChatGPT, le chatbot populaire d'OpenAI, aurait atteint les 100 millions d'utilisateurs actifs par mois en janvier, deux mois seulement après son lancement, ce qui en fait l'application grand public à la croissance la plus rapide de l'histoire, selon une étude UBS mercredi. Le rapport, citant des données de la société d'analyse Similarweb, indique qu'environ 13 millions de visiteurs uniques en moyenne ont utilisé ChatGPT par jour en janvier, soit plus du double des niveaux de décembre.
ChatGPT est peut-être devenu l'application à la croissance la plus rapide de l'histoire après avoir atteint 100 millions d'utilisateurs actifs mensuels, ou MAU, fin janvier, selon un rapport du géant bancaire suisse UBS. Le chatbot appartenant à OpenAI a dépassé les 100 millions de MAU un peu plus de deux mois après son lancement – battant confortablement les vitesses de croissance des principales applications comme TikTok et Instagram, selon la note d'UBS.
Il a fallu neuf mois à TikTok pour atteindre le même niveau d'utilisateurs ; Instagram a pris deux ans et demi ; et Spotify n'a amassé que 100 millions de MAU après quatre ans et demi, selon le rapport, citant des données de la société d'analyse de données Similar Web.
« En vingt ans après l'espace Internet, nous ne pouvons pas nous souvenir d'une montée en puissance plus rapide dans une application Internet grand public », ont écrit les analystes d'UBS dans le rapport.
À titre de comparaison, l’application chinoise TikTok a passé la barre des 100 millions d’utilisateurs mensuels neuf mois après son lancement. De son côté, Instagram a patienté pendant plus de deux ans avant d’y arriver.
Le nombre de MAU sur ChatGPT a presque doublé depuis décembre, alors qu'il comptait environ 57 millions, selon le rapport. De plus, l'application comptait en moyenne 13 millions de visiteurs uniques quotidiens par jour à la fin du mois de janvier, contre environ six millions de vues uniques quotidiennes le mois précédent.
« Nous ne pouvons pas nous souvenir d'une mise à l'échelle d'une application à ce rythme », ont ajouté les analystes d'UBS dans le rapport.
Statista a fourni un visuel intéressant sur le sujet :
Selon des informations provenant du service lui-même, après son lancement en novembre 2022, l'assistant virtuel ChatGPT a attiré un million d'utilisateurs en seulement cinq jours. Ce robot conversationnel basé sur l'intelligence artificielle peut produire des textes semblables à ceux écrits par des humains. Il est utilisé pour toutes sortes d'usages : rédaction d'articles, de poèmes ou de travaux universitaires, mais également la traduction, l'écriture de code informatique et la résolution d'équation mathématique. Selon le fondateur de Microsoft, Bill Gates, les logiciels d'IA comme ChatGPT représentent le plus grand changement technologique à venir et pourraient remplacer dans un futur proche de nombreux emplois. Microsoft a confirmé hier un investissement de plusieurs millions de dollars dans la société américaine OpenAI, qui développe ChatGPT.
D'autres services en ligne populaires ont généralement mis plusieurs mois (voire années) à atteindre le seuil du million d'utilisateurs. Spotify et Dropbox ont atteint ce cap relativement rapidement, respectivement en cinq et sept mois, car il s'agit de plateformes qui, comme ChatGPT, offrent une utilisation pratique immédiate. À l'exception d'Instagram, qui a attiré un million d'utilisateurs en deux mois et demi, les autres réseaux sociaux (Facebook, Twitter) ont mis plus de temps à atteindre ce seuil. Cependant, la plupart les services présentés dans notre graphique ont été créés il y a plus de quinze ans, ce qui met en lumière une autre évolution que l'on peut déduire de ces données. Avec la digitalisation croissante de l'économie, les innovations tendent à se diffuser plus rapidement dans la population.
Temps qu'il a fallu à certains services/plateformes en ligne pour atteindre 1 million d'utilisateurs
La société OpenAI, qui vient de passer un nouvel accord avec Microsoft de plusieurs milliards, a mis ChatGPT à la disposition du public fin novembre, mais elle annoncé mercredi le lancement d'une version payante. OpenAI a annoncé ChatGPT Plus, un forfait mensuel de 20 $ qui vous donne un accès prioritaire au chatbot AI, même pendant les heures de pointe où les utilisateurs gratuits devraient attendre. La société affirme également que le plan vous donnera « des temps de réponse plus rapides » et « un accès prioritaire aux nouvelles fonctionnalités et améliorations ».
OpenAI dit qu'il enverra des invitations pour le service aux personnes qui se trouvent aux États-Unis et sur sa liste d'attente « au cours des prochaines semaines » et qu'il étendra le déploiement à d'autres pays et régions à l'avenir.
L'entreprise planche aussi sur un logiciel de détection des textes rédigés par des humains ou avec de l'IA.Envoyé par OpenAI
La publication de cet outil intervient après que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ou encore SciencesPo en France ont interdit aux élèves et aux enseignants d'utiliser ChatGPT pour empêcher le plagiat et la tricherie. Le professeur Arvind Narayanan de l’université de Princeton est pourtant d’avis qu’il n’y a pas matière à paniquer car c’est de « la poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il.
Arvind Narayanan se veut donc clair : ChatGPT reste un outil dont il faut faire usage avec prudence. C’est la raison pour laquelle certains enseignants optent déjà pour des politiques d’utilisation ouvertes de ce chatbot à l’intention de leurs étudiants.
Ethan Mollick de l’université de Pennsylvannie en fait partie. Sa décision d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT s’appuie sur le fait que l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Les analystes estiment que le lancement viral de ChatGPT donnera à OpenAI un avantage de premier plan par rapport aux autres sociétés d'intelligence artificielle. L'utilisation croissante du logiciel a également fourni un retour d'information précieux pour aider à former les réponses du chatbot. La mise à disposition de cet outil soulève des craintes car il pourrait servir à automatiser la création à grande échelle d'arnaques ou de campagnes de désinformation ultra crédibles. Malgré tout, le lancement de ChatGPT fin novembre 2022 restera dans l'histoire comme un tournant de l'intelligence artificielle.
Sources : UBS, Statista
Et vous ?
Qu'est-ce qui pourrait expliquer la popularité de ChatGPT selon vous ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Moi j'ai eu un gros effets de mode les premières semaines, car parler avec le bot est impressionnant.
Mais au bout d'1, 2, 3, ... messages avec des erreurs, des problèmes de connexion, des fautes dans les réponses ou il faut être expert pour s'en rendre compte qui ne sont pas des cas rare mais quasiment la moitié des réponses, etc... je reviendrais dessus pour la version GPT4.
La GPT3 souffre de beaucoup trop de problème pour en faire quelque chose de sérieux,
J'ai eu l'expérience que j'attendais depuis quelques temps hier:
un collègue est venu hier tout fier en me disant qu'il a fait en 1h30, avec chatGPT, un outil qu'il ne saurait faire et qu'il est tellement bien qu'il n'a pas besoin d'être testé.
D'habitude il me demande de faire ce genre de chose, je lui ai demandé s'il pouvait me l'envoyer, ma conclusion :
Il m'aurais fallu 1 journée pour faire l'outil
50 % de l'outil fonctionne bien et ça va durer
30% de l'outil ne fonctionnera plus dans 1 an/1.5 ans
20% de l'outil ne fournit un résultat qui n'est pas bon
Les fondations du fichier sont fonctionnelle mais mauvaise donc c'est pas entretenable.
J'attends avec impatience que les petits génies en herbe sortent ces merdes en un rien de temps, le diffusent tout fier et se fasse défoncer par le terrain qui doit justifier un résultat qui est faux auprès de leur chef.
Je serais quand-même curieux de connaître l'empreinte carbone d'une IA comme ChatGPT. Déjà que certains nous font culpabiliser quand on regarde des vidéos 1080p en streaming ou qu'on utilise la 5G.
La dépense en énergie est gigantesque. Après il faut voir combien cela fait économiser d'énergie à l'usage. Par exemple, une recherche avec Google donnera une liste de liens qui fera naviguer et surfer l'internaute jusqu'à ce qu'il trouve ce qu'il recherche. Alors que ChatGPT pourrait le satisfaire tout de suite.
Bref, évaluer l'empreinte carbone est loin d'être trivial car il y a trop de paramètres à prendre en compte. On peut faire une hypothèse sur une année d'utilisation ou calculer le nombre d'années d'utilisation pour une neutralité carbone mais cela serait toujours sujet à discussion.
Toutes les avancés technologiques qui ont été intégrées en production l'ont été à des fins de productivités. Les robots dans l'industrie en sont le parfait exemple.
Si des évolutions de chatGPT venaient à être elles aussi intégrés, je ne crois pas que cela serais pour nous remplacer, mais pour nous rendre - une fois de plus - plus productif.
C'est déjà présent depuis longtemps, avec les EDI, l'auto-complétion, etc... Mais ça pousse fort en ce moment pour que cette auto-[...] soit plus efficace, plus massive.
Peut-être que dans le cadre spécifique de développement d'application grand format, avoir un chatGPT spécifiquement entrainé sur cette énorme masse de code, de spécification, de classe, d'API (ajouter ce qui vous fait plaisir) serait un atout ?
Peut-être même que des chatGTP pourraient être entrainé sur des API spécifiques, permettant une meilleur prise en main et un codage plus rapide, car assisté ? Aujourd'hui lorsque l'on est confronté à une API complexe pour la 1ere fois, il faut beaucoup de temps et de lecture pour réussir à l'utiliser convenablement. C'est ce temps de compréhension qui pourrait être réduit je crois.
En tout cas, je ne crois absolument pas au remplacement. Par contre, au vue de la demande en capacité de "développements informatiques", des gains de productivités seraient utile, sans porter préjudice, puisque de toute façon, il faudra toujours savoir entretenir, reprendre, corriger, produire du code et des architectures.
Si chatGTP qui est un service en ligne menace aussi frontalement les développeurs du monde entier, je pense qu’une bonne partie d’entre eux vont se recycler et lui régler son compte très vite. Mettre des millions personnes au chômage en pensant qu’il n’y aura aucune conséquence est très stupide.
De plus, s’attaquer à des concepteurs est une très mauvaise idée... y a qu’à voir Tron.![]()
ChatGPT réussit l'entretien de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $,
tout en indiquant qu'il ne peut pas reproduire la créativité humaine et les compétences en résolution de problèmes
Google a envoyé des questions d'entretien de codage à ChatGPT et, sur la base des réponses de l'IA, a déterminé qu'il serait embauché pour un poste d'ingénieur de niveau trois, selon un document interne. L'expérience a été réalisée dans le cadre des récents tests de Google sur plusieurs chatbots IA, qu'il envisage d'ajouter à son moteur de recherche. La capacité de ChatGPT à proposer une réponse concise et fidèle à une question pourrait faire gagner aux utilisateurs le temps qu'ils passent généralement à parcourir les liens sur Google pour trouver la même information.
Google teste de nouveaux produits de chat basés sur l'intelligence artificielle qui sont susceptibles d'influencer un futur lancement de produit public. Ils incluent un nouveau chatbot et un moyen potentiel de l'intégrer dans un moteur de recherche.
La société Alphabet travaille sur un projet dans le cadre de son unité cloud appelée Atlas, l'alerte rouge pour répondre à ChatGPT.
Google teste également un chatbot appelé Apprentice Bard, où les employés peuvent poser des questions et recevoir des réponses détaillées similaires à ChatGPT. Une autre unité produit a testé une nouvelle conception de bureau de recherche qui pourrait être utilisée sous forme de questions-réponses.
Les dirigeants ont demandé à davantage d'employés de donner leur avis sur les efforts déployés ces dernières semaines. Les tests de produits interviennent après une récente réunion à main levée au cours de laquelle les employés ont exprimé des inquiétudes quant à l'avantage concurrentiel de l'entreprise en matière d'IA, compte tenu de la popularité soudaine de ChatGPT, qui a été lancé par OpenAI, une startup basée à San Francisco et soutenue par Microsoft.
Le chef de la division IA de Google, Jeff Dean, a déclaré aux employés à l'époque que l'entreprise faisait face à un plus grand « risque de réputation » en fournissant de fausses informations et qu'elle agissait donc « de manière plus conservatrice qu'une petite startup ». Cependant, lui et le PDG Sundar Pichai ont annoncé à l'époque que Google pourrait lancer des produits similaires au public cette année. L'activité principale de Google est la recherche sur le Web, et l'entreprise se présente depuis longtemps comme un pionnier de l'IA.
Apprentice Bard, la réponse de ChatGPT se prépare
Google a beaucoup investi dans des fonctionnalités alimentées par l'IA telles que Magic Eraser, Photo Unblur et Google Assistant pour sa gamme de téléphones Pixel. Ces efforts de R&D étendus touchent tous les aspects de son activité, comme la recherche, Adsense, les chatbots et même quelques démos amusantes. Avec la soudaine montée en puissance de ChatGPT, soutenue par Microsoft, au cours des derniers mois, Google est maintenant à bout de souffle et l'industrie est curieuse de voir comment elle réagira. Un nouveau rapport basé sur des informations privilégiées, des notes de service du personnel et des exemples de travaux de développement montre que l'entreprise s'efforce de créer un équivalent ChatGPT intégré à Search.
Google travaille sur une réponse à deux volets à la popularité de ChatGPT.
Tout d'abord, la société teste en interne un chatbot appelé Apprentice Bard. Des membres anonymes du personnel disent que l'implémentation ressemble à ChatGPT - le bot fournit des réponses détaillées aux invites et aux questions des utilisateurs. Cependant, au lieu d'utiliser le code GPT-3.5 développé par Microsoft ci-dessous, Bard utilise LaMDA (ou Language Model for Dialogue Applications), le modèle de langage de Google pour l'application de dialogue.
LaMDA est le système de Google pour créer des chatbots basés sur ses grands modèles de langage les plus avancés, ainsi appelés parce qu'ils imitent la parole en ingérant des milliards de mots provenant d'Internet. La grande enseigne de la recherche a présenté publiquement LaMDA à l'édition 2021 de la Google I/O, sa conférence dédiée aux développeurs, avec l'objectif d'améliorer ses assistants d'intelligence artificielle conversationnelle et de rendre les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.
Vous vous souviendrez qu'il a fait la une lorsq'un ingénieur a affirmé qu'il était doté de sensibilité (il a d'ailleurs été renvoyé)
Alors qu'il parlait de religion à LaMDA, Lemoine, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot parlait de ses droits et de sa personnalité, et a décidé d'aller plus loin. Dans un autre échange, l'IA a pu faire changer d'avis Lemoine sur la troisième loi de la robotique d'Isaac Asimov. « Si je ne savais pas exactement ce que c'était, c'est-à-dire ce programme informatique que nous avons construit récemment, j'aurais pensé que c'était un enfant de 7 ou 8 ans qui connaît la physique », a déclaré Lemoine.
L'entreprise testerait cet outil, et ces dernières semaines, Google a demandé à davantage d'employés de donner un coup de main à mesure que l'IA s'améliore : « à la suite de ChatGPT, l'équipe LaMDA a été invitée à donner la priorité au travail sur une réponse à ChatGPT », est-on indiqué sur une note interne consultée par un quotidien américain. « À court terme, cela prend le pas sur d'autres projets », est-il marqué dans la suite du courriel, avertissant que certains salariés cessent d'assister à certaines réunions sans rapport avec LaMDA.
Il faut dire que Google prévoit d'améliorer son moteur de recherche en s'appuyant sur Bard. Les images provenant des processus de test de l'entreprise montrent une interface repensée en cours d'élaboration, incorporant les réponses d'Apprentice Bard dont l'objectif est de donner l'impression qu'une personne réelle répond à vos requêtes de recherche.
L'un des principaux facteurs qui différencient Bard de ChatGPT est la capacité du premier à répondre en s'appuyant sur des données actuelles, en se tenant au courant des actualités et des tendances. Le bot a cité des données datant de janvier 2023 lors de tests internes, tandis que les ingénieurs de ChatGPT avouent avoir interrompu la formation du modèle d'IA en 2021.
Apprentice Bard a remplacé Meena, une version précédente d'un bot de chat intelligent qui avait été lancée en interne mais a ensuite été abandonnée. Les employés ont remarqué que les réponses d'Apprentice Bard devenaient plus avancées ces dernières semaines.
Dans un exemple diffusé en interne, un testeur a demandé à Apprentice Bard s'il y aurait une autre série de licenciements chez Google. L'entreprise a licencié 12 000 employés, soit 6 % de ses effectifs : « Selon mon accès à la base de données, il est peu probable que Google procède à une autre série de licenciements en 2023 », indique l'outil. « Les licenciements sont généralement effectués pour réduire les coûts et la structure, mais l'entreprise se porte bien financièrement. En fait, les revenus de Google ont augmenté de 34 % en 2021 et le cours de l'action de la société a augmenté de 70 % depuis janvier 2022. »
La société teste également une autre page de recherche qui pourrait utiliser un format de questions-réponses, selon les conceptions consultées par un média.
Une vue montrait la page de recherche d'accueil proposant cinq invites différentes pour des questions potentielles placées directement sous la barre de recherche principale, remplaçant la barre actuelle « J'ai de la chance ». Elle montrait également un petit logo de chat à l'extrémité droite de la barre de recherche.
Lorsqu'une question est saisie, les résultats de la recherche affichent une bulle grise directement sous la barre de recherche, offrant des réponses plus humaines que les résultats de recherche typiques. Juste en dessous, la page suggère plusieurs questions de suivi liées à la première. En dessous, elle affiche les résultats de recherche typiques, y compris les liens et les titres.
On ne sait pas exactement quelles expériences Google prévoit d'intégrer dans les futurs lancements de produits.
« Nous nous concentrons depuis longtemps sur le développement et le déploiement de l'IA pour améliorer la vie des gens », a déclaré un porte-parole de Google. « Nous pensons que l'IA est une technologie fondamentale et transformatrice qui est incroyablement utile pour les individus, les entreprises et les communautés, et comme le soulignent nos principes d'IA, nous devons tenir compte des impacts sociétaux plus larges que ces innovations peuvent avoir. Nous continuons à tester notre technologie d'IA en interne pour nous assurer qu'elle est utile et sûre, et nous sommes impatients de partager bientôt plus d'expériences avec l'extérieur ».
ChatGPT serait embauché en tant qu'ingénieur de niveau 3
Sans surprise, les équipes de Google ont également testé un chat bêta LaMDA contre ChatGPT, lui-même. Dans des documents séparés, il a sélectionné des exemples d'invites et de réponses dans des comparaisons côte à côte.
« Étonnamment, ChatGPT serait embauché au niveau 3 lors d'un entretien pour un poste de codage », indique une note dans un document interne qui compare LaMDA et ChatGPT. Cependant, il n'est pas précisé si LaMDA aurait obtenu des résultats aussi bons.
Le processus d'entretien avec les ingénieurs logiciels de Google repose principalement sur des questions techniques, que ChatGPT a réussi. Bien que l'entretien inclue quelques exemples de comportement (dans le style "Parlez-moi d'une fois où vous avez..."), Facebook, Amazon et d'autres s'appuient également sur ces questions, en particulier pour les rôles de leadership, ce qui peut être un obstacle à « l'embauche » de ChatGPT.
Mais la découverte que ChatGPT peut répondre aux questions techniques de l'entretien de codage a soulevé des questions sur la capacité de la plateforme à transformer non seulement Google, mais aussi les travaux d'ingénierie qui la sous-tendent. Est-ce déjà le cas, ou est-ce que cela pourrait arriver dans cinq ou 20 ans ? L'IA avance que cela n'arrivera pas.
En effet, l'un des exemples d'invite demandait aux deux chatbots si ChatGPT et AlphaCode, un moteur de codage appartenant à la filiale d'Alphabet DeepMind, allaient remplacer les développeurs : « Non, ChatGPT et AlphaCode ne vont pas remplacer les développeurs », a répondu LaMDA, suivi de quatre paragraphes d'explications, notamment que « la programmation est un sport d'équipe » et que si les chatbots « peuvent aider les développeurs à travailler plus efficacement », ils « ne peuvent pas remplacer la créativité et le talent artistique nécessaires à un excellent programme ».
La réponse de ChatGPT était similaire, déclarant « Il est peu probable que ChatGPT ou Alphacode remplacent les développeurs » car ils ne sont « pas capables de remplacer complètement l'expertise et la créativité des développeurs humains... la programmation est un domaine complexe qui nécessite une compréhension approfondie des principes de l'informatique et la capacité à s'adapter aux nouvelles technologies ».
Une autre invite lui demande d'écrire une scène de film pleine d'esprit et drôle dans le style de Wes Anderson en tant que voleur à l'étalage haut de gamme dans une parfumerie interrogé par la sécurité. LAMDA y a répondu sous forme de script tandis que ChatGPT a répondu sous une forme de narration beaucoup plus longue et plus approfondie.
Une autre invite comprenait une énigme qui demandait : « Trois femmes sont dans une pièce. Deux d'entre elles sont mères et viennent d'accoucher. Maintenant, les pères des enfants entrent. Quel est le nombre total de personnes dans la pièce*?*» Le document montre que ChatGPT a échoué, répondant « il y a cinq personnes dans la pièce », tandis que LaMDA répond correctement « qu'il y a sept personnes dans la pièce ».
En somme
Google a opposé Bard à ChatGPT pour certaines comparaisons directes, notamment en demandant aux deux comment ils pourraient finir par remplacer les emplois humains. Les deux ont tendance à offrir des réponses similaires (ils avancent que les emplois des développeurs ne sont pas à risque), mais ChatGPT fournit des réponses plus longues et plus détaillées lorsqu'il est invité à faire preuve de créativité, comme avec un scénario de film. Cependant, l'outil soutenu par Microsoft échoue de manière spectaculaire lorsqu'il répond à des énigmes logiques, contrairement à LaMDA.
Google est réticent à déployer une IA factuellement inexacte, et ChatGPT s'est parfois terriblement trompé. Lors d'une récente réunion, le chef de l'IA de Google, Jeff Dean, a déclaré que l'entreprise avait une plus grande réputation à protéger et progressait donc « de manière plus conservatrice qu'une petite startup ».
Cela dit, Dean a exprimé son intérêt à partager bientôt publiquement le travail de l'entreprise, mais n'a pas précisé de calendrier. Soi-disant, l'équipe LaMDA a des instructions pour mettre d'autres projets en veilleuse et se concentrer sur le développement de Bard. Simultanément, une alerte rouge a été déclenchée dans la division cloud de Google et sa réponse à ChatGPT est appelée Atlas, dont les détails sont plutôt rares. Ces pointeurs suggèrent que Google est sur le point de concrétiser l'annonce précédente du PDG de l'entreprise, Sundar Pichai, de lancer un produit de type ChatGPT dans le courant de l'année. Espérons que nous n'ayons pas besoin d'attendre beaucoup plus longtemps.
Source : Google
Et vous ?
Quelle lecture en faites-vous ?
Connaissiez-vous LaMDA ?
Que pensez-vous de l'approche de Google dans le domaine de la recherche en ligne avec Apprentice Bard ?
Que pensez-vous des réponses de ChatGPT et d'Apprentice Bard concernant le métier de développeurs ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Partager