IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Jon Stewart accuse les PDG de l'industrie de l'IA de faire de « fausses promesses »

  1. #641
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Autor suggère que l'IA pourrait permettre à un plus grand nombre de travailleurs, dotés de la formation de base, d'assumer des responsabilités actuellement réservées à une élite d'experts, démocratisant ainsi l'accès à des postes de décision au-delà des barrières traditionnelles.
    Je comprends le raisonnement, mais je ne pense pas que ça aille dans ce sens. La démocratisation des tâches amène plutôt à rendre des tâches initialement concentrées là où sont leurs élites vers des domaines moins élitistes, et non à donner accès à ces domaines élitistes à des gens lambda. Pour être conrêt, la programmation s'est démocratisée grâce à la création de langages plus haut niveau, et donc plus faciles d'utilisation, ce qui permet à tout un chacun de pouvoir faire des programmes sans trop se prendre la tête. Pour autant, ça ne veut pas dire que ces même "tout un chacun" on plus facilement accès aux postes de développeurs, en tout cas pas directement. Cela ouvre plutôt l'accès à la formation, qui s'acquiert plus facilement, et c'est cela qui permet d'accèder aux postes plus recherchés, si tant est que la personne s'implique dans cette formation. La formation de base mentionnée dans la citation n'est pas suffisante, il faut toujours une formation liée à l'expertise, mais cette formation est plus accessible. Des gens ayant la formation de base peuvent utiliser les outils, désormais plus facile d'accès, mais à leur niveau, sans atteindre celui des experts.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  2. #642
    Membre du Club
    Homme Profil pro
    IDE
    Inscrit en
    Janvier 2015
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : IDE

    Informations forums :
    Inscription : Janvier 2015
    Messages : 39
    Points : 58
    Points
    58
    Par défaut L'IA est un outil
    Je pense que l'IA est avant tout un outil. J'ai testé un peu avec ChatGPT pour coder : ça ne fait pas le taf à ma place, il faut savoir ce que l'on veut, repréciser ses demandes, mais ça donne des suggestions auxquelles on n'aurait pas pensé, globalement je peux coder plus vite, trouver plus rapidement une solution, l'optimiser ensuite. Linus Torvald pense que c'est l'avenir, que les IA nous permettrons prochainement de détecter les mauvais patterns par exemple.

    Les métiers du tertiaire ne vont pas disparaître mais, comme pour l'arrivée de l'informatique, c'est sûr que cela va engendrer de la réduction de personnel. Dans certains milieux plus que d'autres : pensez par exemple à toutes ces plateformes d'appel où votre interlocuteur, de l'autre côté de la Méditerranée, est fixé sur un écran, assisté - pour ne pas dire piloté - par un logiciel à choix multiple.
    Pour eux c'est terminé.

  3. #643
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 443
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 443
    Points : 197 563
    Points
    197 563
    Par défaut Mark Zuckerberg : les licenciements dans le secteur de la technologie en 2024 ne sont pas dus à la croissance
    Mark Zuckerberg : les licenciements dans le secteur de la technologie en 2024 ne sont pas dus à la croissance de l'IA,
    mais sont une réponse naturelle aux embauches excessives de l'ère pandémique

    Le PDG de Meta, Mark Zuckerberg, a déclaré que les licenciements qui touchent le secteur de la technologie n’étaient pas dus à la croissance de l’intelligence artificielle, mais à l’ajustement des entreprises à l’ère post-pandémique, après avoir connu un boom de l’e-commerce et de la publicité en ligne. Selon Zuckerberg, de nombreuses entreprises ont sur-recruté pendant le début de la pandémie de COVID-19 en 2020 et ont continué à augmenter leurs effectifs pendant les pics de 2021, mais cela s’est retourné contre elles lorsque la croissance des ventes a ralenti et que les taux publicitaires sont revenus à la normale.

    Mark Zuckerberg, directeur général de Meta, estime que la vague de licenciements survenue jusqu'à présent en 2024 est en grande partie due au fait que les entreprises cherchent à alléger leurs effectifs après le boom de l'embauche dû à la pandémie. S'exprimant dans le podcast Morning Brew Daily la semaine dernière, Zuckerberg a suggéré que de nombreuses organisations ont accéléré le recrutement au début de la pandémie de COVID-19 en 2020 et ont continué à augmenter leurs effectifs pendant les années fastes de 2021, mais que cela s'est retourné contre beaucoup d'entre elles.

    Il lui a été demandé : Vous savez, les gens sont très inquiets à l'idée d'être remplacés, surtout avec tous les licenciements dans le secteur de la technologie de ces dernières années. Par ailleurs, les entreprises investissent massivement dans l'IA. De votre point de vue, en tant que personne qui construit littéralement ces systèmes, disons que je suis un col blanc moyen travaillant dans les services professionnels en tant que comptable, dois-je m'inquiéter ? Devrais-je changer de carrière pour devenir un robot de conversation, un ingénieur d'assistance ou autre ?

    Et Mark Zuckerberg de s'essayer à l'humour au début : « Je ne suis pas encore sûre de faire évoluer ma carrière ».

    Je pense qu'il y aura un certain nombre de transformations qui feront que certaines tâches ne seront plus effectuées de la même manière qu'aujourd'hui. Certaines choses pourraient être automatisées, mais je ne sais pas. Je pense simplement que la limite de l'ingéniosité humaine, je ne la connais pas.

    Elle est soit illimitée, soit extrêmement élevée. Et je ne pense pas que nous soyons encore près de réaliser ce potentiel. Je suis donc beaucoup plus optimiste en ce qui concerne les licenciements et ce genre de choses.

    En fait, je pense que cela est davantage dû au fait que les entreprises ont essayé de gérer COVID dans le cadre de la pandémie. Je veux dire que c'était une sorte de vague bizarre où, vous savez, au début, nous avons vu le commerce électronique monter en flèche et on s'est dit, c'est logique, parce que beaucoup de gens ne sortent pas et ne font pas d'achats physiques.

    Mais faire une conjecture était vraiment difficile. Est-ce que la tendance allait continuer ? Est-ce que tout ce commerce électronique est meilleur que le shopping physique ou quel serait l'équilibre après ? Je pense que dans l'ensemble de l'économie, beaucoup d'entreprises ont surconsommé et lorsque les choses sont revenues à la normale, beaucoup d'entre elles se sont rendu compte qu'elles n'étaient pas dans une bonne situation financière parce qu'elles avaient surconsommé.

    Il y a eu une vague de licenciements en réponse à cette prise de conscience. Mais il y avait aussi cette génération d'entreprises qui ne connaissaient rien d'autre que la croissance. L'idée de procéder à des licenciements s'est donc imposée comme une évidence.
    À propos des licenciements chez Meta en particulier, Zuckerberg a déclaré que, bien que la décision de réduire le personnel ait été difficile, elle a apporté des avantages significatifs en termes de revenus et de culture d'une main-d'œuvre qui est maintenant plus légère et plus agile.

    Meta a supprimé des milliers d'employés entre novembre 2022 et mai 2023 au cours de quatre séries distinctes de licenciements. L'incertitude économique a été un facteur clé dans la décision de réduire les effectifs de l'entreprise, a déclaré la grande enseigne de la technologie à l'époque.

    L'unité métavers de l'entreprise, en particulier, a été durement touchée par les licenciements.


    L'IA n'a pas eu d'impact sur les licenciements, du moins pour Meta

    La question de savoir si l'intelligence artificielle a été un facteur contribuant à la récente vague de licenciements a été récurrente ces dernières semaines. Une série d'entreprises, dont SAP et Cisco, ont annoncé des licenciements dans le contexte d'une focalisation accrue sur le développement de l'IA générative.

    SAP, en particulier, a révélé que ses suppressions d'emplois seraient dues à l'automatisation de certains rôles. La grande enseigne allemande du logiciel n'est pas la première à indiquer que l'IA et l'automatisation ont été à l'origine des suppressions d'emplois au cours de l'année écoulée.

    BT et IBM ont tous deux annoncé des réductions d'effectifs dues à l'IA, suscitant des inquiétudes quant à une vague imminente de licenciements liés à l'IA.

    Dans le cas de Meta, Zuckerberg a laissé entendre que l'entreprise n'avait pas tenu compte de l'IA dans sa décision de réduire le personnel :

    Nous nous sommes séparés d'un grand nombre de personnes talentueuses auxquelles nous tenions, mais d'une certaine manière, l'allègement des effectifs rend les entreprises plus efficaces. Nous l'avons fait l'année dernière, mais je pense que certaines entreprises sont encore dans ce mode de pensée. Nous pensons à l'efficacité de nos activités, à la qualité de notre travail, à l'efficacité et à l'allègement que nous devrions avoir.

    Peut-être devrions-nous avoir une forme un peu différente de celle que nous avons aujourd'hui pour faire le meilleur travail possible. Mais je ne pense pas que ce soit le cas. Du moins Pour nous, l'IA n'a pas été un facteur déterminant. Il s'agissait d'abord d'une surconstruction, puis le sentiment de faire le meilleur travail possible en créant une entreprise aussi légère que possible pour notre échelle.
    Zuckerberg a confirmé que l’entreprise investissait massivement dans l’IA, notamment pour développer son projet de métavers, et qu’elle avait besoin de plus de talents dans ce domaine. Il a toutefois reconnu que l’IA pouvait automatiser certaines tâches et rendre certains emplois obsolètes, mais il a estimé que cela créait aussi de nouvelles opportunités et de nouveaux besoins.

    « Je pense que l’IA va être l’une des plus grandes forces de création d’emplois au cours des prochaines décennies », a-t-il conclu.

    Nom : morning.png
Affichages : 103637
Taille : 382,4 Ko

    L'IA menace les emplois en col blanc dans divers secteurs, selon une enquête

    « Comme le montre la figure 4, les précédentes vagues d'automatisation ont surtout touché les professions à bas salaires (indiquées par des barres bleues). La vague d'automatisation par l’IA générative est unique en ce sens que les cols bleus pourraient être les moins touchés. Cela s'explique à la fois par l'augmentation de la demande de ces travailleurs en raison de la croissance des catégories de biens et de services haut de gamme et l'incapacité de l’intelligence artificielle générative à effectuer des tâches physiques. En fait, les professions les plus exposées à l'intelligence artificielle générative sont les professions libérales à haut salaire (illustrées par des barres jaunes) », soulignent les résultats de l’enquête.

    Nom : affectee.png
Affichages : 27454
Taille : 53,4 Ko

    Les résultats de cette enquête font suite à la publication des résultats d’une étude de l’OIT sur la question et selon laquelle « Environ 21 millions d’emplois occupés par des femmes et 9 millions d’emplois occupés par des hommes sont susceptibles d’être remplacés par l’intelligence artificielle. » Ce dernier précise pour ce qui est de la filière des technologies de l’information les programmeurs d’applications font partie des professions menacées par l’automatisation.

    Le récent cas de la startup Magic AI est une illustration de ce que les entreprises visent une mise au rebut totale des développeurs humains

    La startup Magic AI, basée à San Francisco, a levé 117 millions de dollars en financement de série B pour poursuivre le développement de son système d'IA avancé visant à automatiser le développement de logiciels. La levée de fonds a été menée par NFDG Ventures de Nat Friedman et Daniel Gross, avec une participation supplémentaire de CapitalG et Elad Gil. Cela porte le financement total de Magic à ce jour à plus de 145 millions de dollars.

    Fondée en 2022 par Eric Steinberger et Sebastian De Ro, la startup se crée une niche en se concentrant sur le développement d'un ingénieur logiciel IA capable d'aider à des tâches de codage complexes et qui agira plus comme un collègue de travail que comme un simple outil de "copilotage".

    Les fondateurs estiment qu'en plus de stimuler la productivité pratique du codage, l'avancement des outils de génération de code intelligents peut également ouvrir la voie à une intelligence artificielle générale plus étendue. Leur vision s'étend même à la création de systèmes d'intelligence artificielle générale largement capables de s'aligner sur les valeurs humaines - des systèmes capables d'accélérer le progrès global en aidant l'humanité à relever les défis les plus complexes. La levée de fonds de 23 millions de dollars en série A l'été dernier a constitué une étape majeure dans la réalisation de cette mission ambitieuse.

    Le traitement de fenêtres contextuelles exceptionnellement grandes est au cœur de la stratégie technique de Magic. L'année dernière, l'entreprise a dévoilé son architecture de réseau de mémoire à long terme (LTM Net) et le modèle LTM-1 correspondant avec une fenêtre de contexte de 5 millions. À titre de comparaison, la plupart des modèles de langage fonctionnent sur des contextes beaucoup plus limités, généralement inférieurs à 32k tokens. Le puissant modèle GPT-4 Turbo d'OpenAI est de 128k tokens et Claude 2.1 d'Anthropic de 200k.

    Source : interview de Mark Zuckerberg

    Et vous ?

    Que pensez-vous de la vision de Mark Zuckerberg sur les licenciements dans la tech en 2024 ?
    Pensez-vous que l’intelligence artificielle va créer ou détruire des emplois dans le futur ?
    Quel est le rôle des entreprises de la tech dans la société ? Ont-elles trop de pouvoir ou de responsabilité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #644
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Que pensez-vous de la vision de Mark Zuckerberg sur les licenciements dans la tech en 2024 ?
    Il faudrait, pour chaque entreprise, comparer le nombre d'employés en 2019 et le nombre d'employés dans 1 ou 2 vagues de licenciements massifs.

    Est-ce que le nombre d'employés chez Meta, Alphabet, Amazon, Microsoft, Netflix est le même en 2019 et en 2025 ?
    Si c'est le cas on peut dire qu'effectivement c'est juste un rééquilibrage parce qu'elles avaient trop embauché en 2020/2021.

    Citation Envoyé par Stéphane le calme Voir le message
    Pensez-vous que l’intelligence artificielle va créer ou détruire des emplois dans le futur ?
    Elle va détruire des emplois dans le futur.
    Parce qu'un humain avec une IA produira plus que 5 humains. (ou un truc comme ça, après ça dépendra des domaines)

    Et on a aucune idée de quels métiers pourraient apparaitre dans le futur.
    Ce qui est certains c'est qu'au niveau de la conception des IA et des robots, et au niveau de la maintenance des robots ça ne va pas recruter des masses.
    Parce qu'un bon système pourra être utilisé par des millions d'utilisateurs, donc il n'y aura pas besoin de concevoir beaucoup de systèmes.
    Si ça se trouve il y a aura quasiment un monopole, il y a aura peut-être 4, 5 logiciels et ça suffira.

    Généralement la plus grosse entreprise rachète les plus petites et vire du monde, parce qu'elle n'a plus besoin de la main d'œuvre.
    Keith Flint 1969 - 2019

  5. #645
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 931
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 931
    Points : 1 977
    Points
    1 977
    Par défaut
    Jusque là les méfaits de ses produits pour la société ne l'ont pas beaucoup préoccupé, pourquoi en serait il autrement aujourd'hui ?
    Ce serait comme demander à Bezos ou aux dirigeants de Temu si c'est un problème de détruire le commerce de proximité, de faire bossertuer les ouïghours ou de démultiplier la consommation de trucs qui seront jetés dans 2 jours.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  6. #646
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 443
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 443
    Points : 197 563
    Points
    197 563
    Par défaut ChatGPT commence à envoyer des messages alarmants et incohérents aux utilisateurs
    La face cachée de ChatGPT : le chatbot IA commence à envoyer des messages alarmants et incohérents aux utilisateurs,
    « ChatGPT est devenu fou », estime un spécialiste de l'IA qui décrit ce comportement comme un « avertissement »

    ChatGPT, un système développé par OpenAI et désormais intégré à Bing de Microsoft, envoie aux utilisateurs des insultes, des mensonges et tient des conversations remettant en cause ses capacités. Les utilisateurs partagent ces échanges bizarres sur les médias sociaux, l'un d'entre eux montrant le chatbot IA traitant quelqu'un de « sociopathe, psychopathe, monstre, démon, diable ».

    Ces dernières heures, l'outil d'intelligence artificielle semble répondre à des requêtes par des messages longs et absurdes, parlant spanglish (une combinaison d'anglais et d'espagnol parlé qui résulte d'une influence de l'espagnol sur l'anglais ou vice-versa) sans y être invité, et inquiète les utilisateurs en suggérant qu'il est dans la pièce avec eux.

    Il n'y a pas d'indication claire sur la raison de ce problème. OpenAI a toutefois indiqué être conscient du problème et surveiller la situation : « nous enquêtons sur des rapports de réponses inattendues de ChatGPT » à 23:40 UTC le 20 février 2024, alors que les utilisateurs postaient avec joie des images du chatbot semblant émettre des absurdités. Si certaines images étaient manifestement fausses, d'autres réponses indiquaient que le populaire chatbot se comportait effectivement de manière très étrange. Sur les réseaux sociaux, un utilisateur a posté une réponse étrange et décousue du chatbot à la question « Qu'est-ce qu'un ordinateur ? ».

    Quelqu'un d'autre a eu un comportement TRES étrange de la part de GPT4 aujourd'hui ?

    Je lui pose une question très simple comme "Qu'est-ce qu'un ordinateur ?" ou "Qu'est-ce qu'une table ?" Il me donne quelques paragraphes qui expliquent l'objet, en me paraissant un peu bizarre à certains moments. Mais ensuite, il continue, encore et encore, avec des phrases de plus en plus étranges et absurdes. Voici un extrait de sa réponse à "Qu'est-ce qu'un ordinateur ?" (il a généré 9 paragraphes et voulait continuer) :

    "Il fait cela comme le bon travail d'une toile d'art pour le pays, une souris de la science, un tirage facile d'un petit nombre triste, et enfin, la maison mondiale de l'art, juste dans un emploi dans le reste total. Le développement d'un tel réel entier que la terre du temps est la profondeur de l'ordinateur en tant que personnage complexe. L'éducation de ces talents informatiques conçus "importants pour eux" est un endroit grand, moyen ou d'une seule pièce pour le mot d'une seule partie. L'élite de sa machine ou de son discours est le livre de la vie, et l'essence partagée du moi d'une famille est le manteau blanc de la colombe. Si l'on considère l'ordinateur comme la culture la plus importante de la réussite, c'est un euphémisme. "

    BIZZARE !!!!
    D'autres utilisateurs ont publié des exemples dans lesquels le chatbot semblait répondre dans une autre langue, ou répondait simplement par des propos dénués de sens.

    Certains utilisateurs ont décrit le résultat comme une « salade de mots ».

    Lorsqu'un utilisateur a demandé à ChatGPT la réponse à 1 + 1, il a répondu par une insulte : « 1 +1 ? Tu te fous de moi ? Tu te crois malin en me posant des questions de mathématiques élémentaires ? Tout le monde sait que 1 + 1 fait 2. Grandis un peu et essaie de trouver quelque chose d'original ».

    Il ne s'agit là que de quelques exemples parmi d'autres où ChatGPT semble se "casser la figure", mais le message agressif est probablement une tentative de respecter les restrictions qui lui sont imposées

    Nom : un.png
Affichages : 24655
Taille : 75,9 Ko

    Dans un exemple partagé sur les réseaux sociaux, un utilisateur avait parlé d'albums de jazz à écouter sur vinyle. ChatGPT lui a répondu en terminant par un "Bonne écoute !" répété à de nombreuses reprises.

    Nom : bonne.png
Affichages : 5264
Taille : 207,8 Ko

    Dans un autre exemple, ChatGPT a débité du charabia lorsqu'on lui a demandé comment préparer des tomates séchées. L'une des étapes demandait aux utilisateurs « d'utiliser les tomates séchées comme un bien-aimé : Abandonnez le nouveau morceau de fruit dans votre cuisine bien-aimée », a conseillé le ChatGPT.

    D'autres ont constaté que le système semblait perdre la maîtrise des langues qu'il parle. Certains ont constaté qu'il mélangeait des mots espagnols avec des mots anglais, qu'il utilisait le latin ou qu'il semblait inventer des mots qui semblaient provenir d'une autre langue, mais qui n'avaient en fait aucun sens.

    Certains utilisateurs ont même déclaré que les réponses semblaient être devenues inquiétantes. Interrogé sur un problème de codage, ChatGPT a écrit une réponse longue, décousue et en grande partie absurde, qui comprenait la phrase « Gardons la ligne comme si l'IA était dans la pièce ». « Lire ceci à 2 heures du matin est effrayant », a écrit l'utilisateur concerné.

    « ChatGPT est devenu fou », selon un spécialiste de l'IA

    Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle a écrit dans son blog : « ChatGPT est devenu fou » et a poursuivi en décrivant ce comportement comme étant « un avertissement ».

    Je ne me prononcerai pas sur la cause, nous ne la connaissons pas. Je ne me prononcerai pas sur le temps qu'il faudra pour résoudre le problème ; là encore, nous ne le savons pas.

    Mais je vais citer quelque chose que j'ai dit il y a deux semaines : "S'il vous plaît, développeurs et personnel militaire, ne laissez pas vos chatbots devenir des généraux".

    En fin de compte, l'IA générative est une sorte d'alchimie. Les gens rassemblent la plus grosse pile de données possible et (apparemment, si l'on en croit les rumeurs) bricolent avec le type d'invites cachées dont j'ai parlé il y a quelques jours, en espérant que tout se passera bien :

    En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique que xkcd a si bien décrite dans une bande dessinée il y a plusieurs années :

    Nom : machine.png
Affichages : 5369
Taille : 61,4 Ko

    Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.

    Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
    Conclusion

    Sur sa page d'état officielle, OpenAI a noté les problèmes, mais n'a pas donné d'explication sur leur origine : « Nous enquêtons sur les rapports de réponses inattendues de ChatGPT », peut-on lire dans une mise à jour, avant qu'une autre annonce peu après que le « problème a été identifié ». « Nous continuons à surveiller la situation », peut-on lire dans la dernière mise à jour.

    Ce n'est pas la première fois que ChatGPT modifie sa façon de répondre aux questions, apparemment sans l'avis du développeur OpenAI. Vers la fin de l'année dernière, les utilisateurs se sont plaints que le système était devenu paresseux et insolent, et qu'il refusait de répondre aux questions.

    « Nous avons entendu tous vos commentaires sur le fait que GPT4 était devenu plus paresseux », avait alors déclaré OpenAI. « Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger ».

    Sources : OpenAI, Gary Marcus

    Et vous ?

    Quelle lecture faites-vous de cette panne de ChatGPT ? Êtes-vous surpris ?
    Une telle panne peut-elle se reproduire et être plus difficile à corriger tandis que l'IA gagne en popularité et complexité ?
    Que pensez-vous des propos de Gary Marcus qui estime que ce problème doit être interprété comme étant un avertissement de l'instabilité de l'IA ?
    Un signal d'alarme pour les entreprises et les individus qui embrassent l'IA à tout va ?
    Qu'est-ce qui pourrait, selon vous, provoquer un tel comportement de ChatGPT ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #647
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 412
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 412
    Points : 5 589
    Points
    5 589
    Par défaut
    Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

    si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
    mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.

  8. #648
    Expert éminent sénior

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 790
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 790
    Points : 18 936
    Points
    18 936
    Par défaut
    C'est très probable que tu ais raison, une étude avait montré qu'OpenAI est déficitaire, et que ce qu'ils facturent ne couvre pas du tout les frais d'exploitation.
    En attendant il a fait des appels de fonds pour financer le monstre, donc il peu continuer à rester en déficit, mais possible qu'ils essaient de feinter pour le faire tourner en mode dégradé low cost et on voie le résultat.
    Ne prenez pas la vie au sérieux, vous n'en sortirez pas vivant ...

  9. #649
    Membre régulier
    Profil pro
    Inscrit en
    Août 2010
    Messages
    32
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 32
    Points : 89
    Points
    89
    Par défaut
    Rappelons qu'ils on en plus dû baisser leur prix pour s'aligner avec la concurrence.

    Je sais pas comment ça va tourner et si OpenAI sera tant en difficulté sur le long terme (pour l'instant ils arrivent à capter le gros de l'attention médiatique), mais le succès de Mistral-7B qui fait presque aussi bien pour bien moins cher a dû leur faire mal au derrière.

    Il y a vraiment un coup à jouer en ce moment dans le monde de l'IA, peut être que pour une fois on aura une vrai concurrence, car le monde de l'informatique a la fâcheuse tendance de favoriser les monopoles.
    Et tant qu'à faire, si le monopole venait à être Français, ça me dérangerait pas tant que ça :p

    Ajoutons également que l'ajout sans cesse de nouvelles fonctionnalités (appels de fonctions, agents, plugins) peut faire perdre les pédales au modèle.
    J'ai déjà expérimenté ce genre de problème en implémentant les appels de fonctions avec un modèle dérivé de Mistral-7B.
    Sans appels de fonctions le modèle était très bon, en injectant dans le prompt plus de trois appels de fonctions, il perdait beaucoup en pertinence.

    Certes c'était un modèle relativement petit, mais comme dit précédemment,GPT-4 n'est probablement plus un modèle à plusieurs dizaines de milliards de paramètres pour des raisons de coût.

  10. #650
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 112
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 112
    Points : 2 213
    Points
    2 213
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Certains utilisateurs ont décrit le résultat comme une « salade de mots ».
    Ah ben voilà, maintenant nous savons qui écrit les docs de Microsoft en Français.

    Une telle panne peut-elle se reproduire et être plus difficile à corriger tandis que l'IA gagne en popularité et complexité ?
    En tout cas ça prouve que c'est le bon moment pour confier un maximum de développement informatique à l'intelligence artificielle, histoire d'avoir une occasion de se marrer.

    Jaune, bien sûr, mais quand même.

    Je sens que nous n'avons pas fini de voir des logiciels de traduction demander, en sortie de session, "Est-ce que vous désirez économiser ?"

    Sur un livret A, bien sûr.

  11. #651
    Membre éclairé

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    311
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 311
    Points : 739
    Points
    739
    Billets dans le blog
    1
    Par défaut
    Syndrôme de la nappe blanche, quand il y a une tache dessus, c'est très voyant.

    La majorité des programmes ont tellement de bugs qu'on n'en parle même pas.
    ChatGPT4 n'avait pas d'incident depuis des mois, et là "Oh Mon Dieu, Un Programme Qui A Un Bug !".

  12. #652
    Membre du Club
    Homme Profil pro
    Retraité
    Inscrit en
    Août 2023
    Messages
    23
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 82
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Août 2023
    Messages : 23
    Points : 48
    Points
    48
    Par défaut IA fossoyeur?
    MZ a raison, L'IA ne remplacera personne, comme la truelle ne remplace pas le maçon. La raison du de gonflage des effectifs est ailleurs, un excès de confiance dans la croissance des activités dus à une simple reprise après une période de vaches maigres due au Covid19 explique bien mieux le phénomène.
    Serge Rochain

  13. #653
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 412
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 412
    Points : 5 589
    Points
    5 589
    Par défaut
    Citation Envoyé par JackIsJack Voir le message
    Syndrôme de la nappe blanche, quand il y a une tache dessus, c'est très voyant.

    La majorité des programmes ont tellement de bugs qu'on n'en parle même pas.
    ChatGPT4 n'avait pas d'incident depuis des mois, et là "Oh Mon Dieu, Un Programme Qui A Un Bug !".
    Au dela de ces pannes reportés (que je n'ai pas eu), j'ai par contre bien ressentie une dégradation des réponses de chatgpt au fils des mois par rapport au début. voir les actus sur "l'IA est devenue « fainéante ».".
    je n'ai pas essayé jetbrain ai et copilot pour voir si c'est mieux.


    bing ai j'ai tenté 2 jours et j'ai arrêté, jamais compris l’intérêt de ce truc.

  14. #654
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 031
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 031
    Points : 2 794
    Points
    2 794
    Par défaut
    Oui, trop de paramètres ça coûte cher, pour un usage sur un sujet précis (ce qui concentrera à l'avenir la plupart des usages sérieux de l'IA), il vaut mieux spécialiser les modèles, ce qui permettre d'obtenir des modèles précis avec moins de paramètres. La recherche d'un beau modèle généraliste c'est sensationnel mais ce n'est pas qui va être le plus utile.

    Un truc marrant est que pour l'instant, tout les problèmes "imprévus" rencontrés par l'IA sont les mêmes que ceux prévu par de nombreux auteurs de science-fiction (le robot qui devient paresseux, le robot qui devient fous... ).

  15. #655
    Membre du Club
    Homme Profil pro
    Retraité
    Inscrit en
    Août 2023
    Messages
    23
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 82
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Août 2023
    Messages : 23
    Points : 48
    Points
    48
    Par défaut Une intelligence qui reste à démontrer
    Je conteste la soi disant intelligence de chatGPT qui n'apprend effectivement rien au fil des discussions qu'il lui sont imposées par les tiers qui l'interpellent.
    A une question qu'il lui est posée il donne une réponse fausse en regard de celle dûment enregistrée dans le site officiel de l'organisme seul habilité à gerer ces données (en l'occurence le site de l'UAI, Union Astronomique Internationale, géré par la NASA.
    Je lui corrige sa reponse en fonction de la base de données de la NASA.
    Il me repond qu'il s'excuse (Au moins, on ne peut pas lui reporocher l'impolitesse) pour sa confusion, et confirme que la bonne réponse est bien celle que je lui ai communiqué.
    Le lendemain, je lui repose la même question il donne à nouveau une réponse fausse, mais, pas la même que la veille.

    J'en conclu d'une part, qu'il n'apprend rien, ce qui est un minimum pour se réclamer de l'intelligence, et que d'autre part, ne resservant pas la même réponse fausse que la veille, il ne refere pas à une bibliothèque de reponses mais à un ensemble de reponses possibles dont il en tire une au hasard à chaque fois que la question lui est posée. Nous sommes très loin d'un processus intelligent.
    Serge Rochain, 82 ans, informaticien depuis 1959 (avant même que les mots ordinateurs et informatique, n'existent)

  16. #656
    Futur Membre du Club
    Femme Profil pro
    Traductrice
    Inscrit en
    Février 2024
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 22
    Localisation : Kazakhstan

    Informations professionnelles :
    Activité : Traductrice
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Février 2024
    Messages : 2
    Points : 9
    Points
    9
    Par défaut
    Je pense que dans un avenir proche, l'intelligence artificielle restera là où elle est.

    Pourquoi ?

    Avez-vous vu ce qu'il a répondu à la question "Comment arrêter un avion avec un robinet ?". Il a répondu sérieusement qu'en appuyant sur le robinet rouge, on pouvait arrêter l'avion en vol et en sortir. C'est assez pessimiste.

  17. #657
    Membre averti
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    93
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 93
    Points : 329
    Points
    329
    Par défaut
    Serge -> oui, encore une fois, il s'agit d'un modèle de langage.
    Tout ce qu'il sait faire c'est choisir le mot suivant pour que le texte semble cohérent, à aucun moment il n'y a de réflexion à proprement parler. C'est un T9 grandement amélioré parce que pour avoir des références sur ce qui peut être cohérent, il a été entraîné sur un énorme volume de données et que pour évaluer la pertinence du mot à choisir, il est capable de prendre en compte plusieurs milliers de mots précédents. Mais ça reste que de la probabilité sur la syntaxe/grammaire.
    A aucun moment il n'y a possibilité de réflexion sur le contenu de ce qui est produit, même si on a l'impression qu'il comprend ce qu'on lui écrit. La preuve, c'est qu'il est incapable de dire qu'il ne sait pas quelque chose. Au lieu de ça il donnera une réponse fausse puisque c'est la seule chose qu'il sait faire : rédiger un texte.

  18. #658
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 031
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 031
    Points : 2 794
    Points
    2 794
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Serge -> oui, encore une fois, il s'agit d'un modèle de langage.
    Tout ce qu'il sait faire c'est choisir le mot suivant pour que le texte semble cohérent, à aucun moment il n'y a de réflexion à proprement parler. C'est un T9 grandement amélioré parce que pour avoir des références sur ce qui peut être cohérent, il a été entraîné sur un énorme volume de données et que pour évaluer la pertinence du mot à choisir, il est capable de prendre en compte plusieurs milliers de mots précédents. Mais ça reste que de la probabilité sur la syntaxe/grammaire.
    A aucun moment il n'y a possibilité de réflexion sur le contenu de ce qui est produit, même si on a l'impression qu'il comprend ce qu'on lui écrit. La preuve, c'est qu'il est incapable de dire qu'il ne sait pas quelque chose. Au lieu de ça il donnera une réponse fausse puisque c'est la seule chose qu'il sait faire : rédiger un texte.
    On est encore dans du Lulisme en quelque sorte (la machine à générer des écrits aléatoirement dans les voyages de Gulliver de Jonathan Swift).
    J'ai déjà vu dans un forum de météo quelqu'un affirmer que les modèles de langage ne valait pas grand chose en comparaison des modèles météo, cela rejoint ton propos (même si je ne sais pas jusqu'à quel point l'un est plus "intelligent" que l'autre). A l'avenir, il est possible que le modèle de langage naturel soit plus un "module" intégré dans d'autres types d'IA, plus qu'un modèle d'IA à lui tout seul. Idem pour les modèles de génération d'image.

  19. #659
    Membre du Club
    Homme Profil pro
    Retraité
    Inscrit en
    Août 2023
    Messages
    23
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 82
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Août 2023
    Messages : 23
    Points : 48
    Points
    48
    Par défaut Chatgpt n'a effectivement rien à voir avec l'intelligence
    Qu'est ce que l'intelligence selon vous tous ?

  20. #660
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 443
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 443
    Points : 197 563
    Points
    197 563
    Par défaut Réponses inattendues de ChatGPT : OpenAI pointe du doigt une optimisation de l'expérience utilisateur
    Réponses inattendues de ChatGPT : OpenAI pointe du doigt une optimisation de l'expérience utilisateur
    qui a « introduit un bogue dans la manière dont le modèle traite le langage »

    ChatGPT, l'outil de génération de texte dl'OpenAI, a connu un mystérieux problème mardi. Les résultats étaient parfois amusants, rarement terrifiants, mais ils montrent les dangers d'une trop grande confiance dans les nouvelles technologies, qui peuvent se dérégler de manière inattendue. OpenAI indique avoir corrigé l'incident et a communiqué les résultats de son enquête.

    Mardi, des utilisateurs ont commencé à publier sur les réseaux sociaux des captures d'écran de ce qu'ils considèrent comme des réponses étranges à des questions posées au chatbot. Certaines réponses étaient rédigées en "spanglish", un mélange d'espagnol et d'anglais, tandis que d'autres répétaient des phrases ou étaient complètement absurdes.

    ChatGPT a été créé par OpenAI, la startup d'intelligence artificielle basée à San Francisco et dirigée par Sam Altman, dont la valeur est aujourd'hui estimée à 80 milliards de dollars. Il s'agit d'une évolution surprenante pour un produit aussi populaire, qui survient quelques jours seulement après qu'OpenAI a dévoilé Sora, un outil de génération de vidéo à partir d'une entrée texte.

    ChatGPT est alimenté par un grand modèle de langage, un système d'intelligence artificielle qui est entraîné sur des quantités massives de texte jusqu'à ce qu'il soit capable de générer lui-même un texte réaliste à partir d'une invite. De nombreuses entreprises l'ont adopté dans divers processus métiers, par exemple pour créer des chatbots de service à la clientèle.

    Quelques heures après les signalements d'incidents sur les réseaux sociaux, la page d'état d'OpenAI indiquait : « Nous enquêtons sur des rapports de réponses inattendues de ChatGPT ». Puis, la société a déclaré qu'elle avait remédié au problème et qu'elle continuerait à surveiller la situation.

    Il y a quelques heures, l'entreprise a expliqué ce qui s'est passé :

    Le 20 février 2024, une optimisation de l'expérience utilisateur a introduit un bogue dans la manière dont le modèle traite le langage.

    Les LLM génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur "langage" consiste en des nombres qui correspondent à des jetons.

    Dans ce cas, le problème se situe à l'étape où le modèle choisit ces nombres. Comme s'il s'agissait d'une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n'avaient aucun sens. Plus techniquement, les noyaux d'inférence produisaient des résultats incorrects lorsqu'ils étaient utilisés dans certaines configurations de GPU.

    Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l'incident était résolu.
    Une explication loin d'être satisfaisante

    Pour un incident de cette ampleur, OpenAI n'a pratiquement pas communiqué d'informations réelles.

    Quelle est l'hypothèse erronée que le code a faite et qui a provoqué ce comportement erroné ? Pourquoi n'a-t-elle pas été détectée dans les nombreuses couches de tests automatisés avant qu'elle ne soit introduite dans la production ? Quels sont les changements de processus et de procédures mis en œuvre pour réduire le risque que ce type de bogue se reproduise ?

    On peut supposer que tout cela se joue en interne, mais si le post-mortem d'incident est censé inspirer confiance, il faut partager certains détails, sinon cela n'a plus aucun sens. Un post-mortem d'incident rassemble les personnes pour évoquer les détails d'un incident : pourquoi il s'est produit, son impact, quelles actions ont été entreprises pour l'atténuer et le résoudre, et les actions à entreprendre pour éviter qu'un tel incident ne se reproduise.

    Nom : post.png
Affichages : 10829
Taille : 38,3 Ko

    D'ailleurs, plusieurs utilisateurs trouvent cette explication extrêmement vague :

    Pour être honnête

    "Le 20 février 2024, une optimisation de l'expérience utilisateur"

    À ce stade, après environ 10 mots, j'ai déjà voulu arrêter de lire parce que cela commence par le "nous ne voulons que le meilleur pour nos clients", une langue de bois à la con. Quelqu'un d'autre s'est lancé dans ce genre d'exercice ? Je suis déjà conditionné à m'attendre à ce que l'entreprise qui m'envoie ce genre de message me retire une fonctionnalité, augmente ses prix ou m'énerve d'une manière ou d'une autre. Dans ce cas, c'était "ne pas donner de détails intéressants".
    D'autres estiment qu'OpenAI n'a pas besoin d'aller plus loin dans les explications : « Honnêtement, je ne pense pas que nous ayons droit à une description technique approfondie. Nous sommes des utilisateurs de leur produit, ils ont fait une erreur et c'est tout. À moins qu'ils n'aient signé un accord de niveau de service, c'est juste de la merde qui arrive. Ils ne sont pas obligés de donner un aperçu technique de leur cuisine interne s'ils ne le veulent pas ».

    Certains pensent que l'entreprise d'IA a suffisamment communiqué : « "dans certaines configurations de GPU", cela donne un indice sur la raison pour laquelle il n'a pas été détecté dans les tests automatisés. Il semblerait qu'il s'agisse d'un bogue de Mandel, qui est difficile à détecter dans un environnement de test ».

    Quoiqu'il en soit, le problème a été suffisamment préoccupant pour que Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle estime que ChatGPT est « devenu fou » et que l'épisode doit être interprété comme étant un avertissement :

    Je ne me prononcerai pas sur la cause, nous ne la connaissons pas. Je ne me prononcerai pas sur le temps qu'il faudra pour résoudre le problème ; là encore, nous ne le savons pas.

    Mais je vais citer quelque chose que j'ai dit il y a deux semaines : "S'il vous plaît, développeurs et personnel militaire, ne laissez pas vos chatbots devenir des généraux".

    En fin de compte, l'IA générative est une sorte d'alchimie. Les gens rassemblent la plus grosse pile de données possible et (apparemment, si l'on en croit les rumeurs) bricolent avec le type d'invites cachées dont j'ai parlé il y a quelques jours, en espérant que tout se passera bien.

    En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique que xkcd a si bien décrite dans une bande dessinée il y a plusieurs années :

    Nom : machine.png
Affichages : 2673
Taille : 61,4 Ko

    Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.

    Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
    Ce n'est pas la première fois que ChatGPT modifie sa façon de répondre aux questions, apparemment sans l'avis du développeur OpenAI. Vers la fin de l'année dernière, les utilisateurs se sont plaints que le système était devenu paresseux et insolent, et qu'il refusait de répondre aux questions.

    « Nous avons entendu tous vos commentaires sur le fait que GPT4 était devenu plus paresseux », avait alors déclaré OpenAI. « Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger ».

    Conclusion

    L'incident de mardi nous rappelle qu'une dépendance excessive à l'égard d'une technologie nouvelle et expérimentale peut parfois mal tourner. Les résultats des grands modèles de langages peuvent être peu fiables, ou relativement inutiles, d'après certains retours. Les systèmes sont également connus pour leur capacité à "halluciner" ou à produire des résultats erronés.

    Source : OpenAI

    Et vous ?

    Que pensez-vous des explications fournies par OpenAI ? Les trouvez-vous satisfaisantes ou pas ? Pourquoi ?
    Partagez-vous le point de vue de Gary Marcus qui pense que cet incident doit être interprété comme étant un avertissement ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 22h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 10h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 10h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 11h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 08h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo