IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La solution du GPT-4 à l'énigme de l'œuf équilibré aurait convaincu Microsoft que l'AGI est plus proche


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 844
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 844
    Points : 36 271
    Points
    36 271
    Par défaut La solution du GPT-4 à l'énigme de l'œuf équilibré aurait convaincu Microsoft que l'AGI est plus proche
    La solution du GPT-4 à l'énigme de l'œuf équilibré aurait convaincu Microsoft que l'AGI, intelligence artificielle générale, est plus proche,
    selon Microsoft Research

    Les résultats d’une étude de Microsoft sur les différences entre GPT-3 et GPT-4, deux versions de la technologie ChatGPT d’OpenAI montre que GPT-4 était capable de résoudre des problèmes complexes qui nécessitaient une compréhension du monde physique, comme empiler un livre, neuf œufs, un ordinateur portable, une bouteille et un clou de manière stable. Les chercheurs ont été impressionnés par la réponse ingénieuse de GPT-4, qui consistait à disposer les œufs en une grille de trois par trois sur le livre, puis à poser le portable dessus. Ils ont estimé que GPT-4 montrait des « étincelles » d’intelligence artificielle générale (AGI), c’est-à-dire une intelligence comparable à celle des humains.

    Il n'existe pas de définition de l'intelligence qui fasse l'objet d'un consensus général, mais un aspect largement accepté est que l'intelligence ne se limite pas à un domaine ou à une tâche spécifique, mais qu'elle englobe plutôt un large éventail de compétences cognitives et d'aptitudes. Dans leurs premiers écrits, les fondateurs de la discipline moderne de la recherche sur l'intelligence artificielle (IA) ont parlé d'objectifs aspirationnels pour comprendre l'intelligence.

    Au fil des décennies, les chercheurs en IA ont étudié les principes de l'intelligence, y compris les mécanismes généralisables de raisonnement et la construction de bases de connaissances contenant un large corpus de connaissances de bon sens. Cependant, bon nombre des succès récents de la recherche en IA peuvent être décrits comme étant étroitement concentrés sur des tâches et des défis bien définis, tels que le jeu de Chorus ou Go, qui ont été maîtrisés par des systèmes d'IA en 1996 et 2016, respectivement.

    Vers la fin des années 1990 et au cours des années 2000, les appels au développement de systèmes d'IA plus généraux se sont multipliés (par ex, SBD+96]) et la recherche dans ce domaine a cherché à identifier les principes qui pourraient sous-tendre les systèmes d'intelligence générale (par exemple, [Leg08, GHT15]), [L'expression « intelligence artificielle générale » (AGI) a été popularisée au début des années 2000 pour souligner l'aspiration à passer de l' « IA étroite », comme le démontrent les applications ciblées du monde réel en cours de développement, à des notions d'intelligence plus larges, rappelant les aspirations et les rêves à long terme des recherches antérieures sur l'IA.

    Les chercheurs utilisent l'AGI pour désigner les systèmes qui démontrent les grandes capacités de l'intelligence, y compris le raisonnement, la planification et la capacité de tirer des leçons de l'expérience, ainsi que les capacités secondaires supérieures au niveau humain.

    Définitions de l'intelligence, de l'IA et de l'AGI

    Voici, une définition informelle de l'intelligence en mettant l'accent sur le raisonnement, la planification et l'apprentissage par l'expérience. Cette définition ne précise pas comment mesurer ou compenser ces capacités. De plus, elle ne reflète peut-être pas les défis et les opportunités spécifiques des systèmes artificiels, qui peuvent avoir des objectifs et des contraintes différents de ceux des systèmes naturels.

    Il existe une littérature abondante et continue qui tente de proposer des définitions plus formelles et plus complètes de l'intelligence, de l’IA et de l'AGI, mais aucune d'entre elles n'est exempte de problèmes ou de controverses. Par exemple, Legg et Hutter proposent une définition de l’AGI axée sur les objectifs : l'intelligence mesure la capacité d'un agent à atteindre des objectifs dans un large éventail d'environnements.

    Toutefois, cette définition n'englobe pas nécessairement tout le spectre de l'intelligence, car elle exclut les systèmes passifs ou réactifs qui peuvent accomplir des tâches complexes ou répondre à des questions sans motivation ou objectif intrinsèque. On pourrait imaginer une AGI, un oracle brillant par exemple, qui n'a pas d'agence ni de préférences, mais qui peut fournir des informations précises et utiles sur n'importe quel domaine.

    En outre, la définition de la réalisation d'objectifs dans un large éventail d'environnements implique également un certain degré d'universalité ou d'optimalité, qui n'est peut-être pas réaliste (l'intelligence humaine n'est certainement jamais universelle ni optimale). La nécessité de reconnaître l'importance des antécédents (par opposition à l'universalité) a été soulignée dans la définition proposée par Cholletin, qui centre l'intelligence sur l'efficacité de l'acquisition des compétences ou, en d'autres termes, met l'accent sur l'apprentissage par l'expérience (qui s'avère également être l'une des principales faiblesses des LLM).

    Une autre définition possible de l'AGI donnée par Legg et Hutter est la suivante : un système capable de faire tout ce que peut faire un humain. Cependant, cette définition est tout à fait problématique, car elle suppose qu'il existe une norme maximale d'intelligence ou de capacité humaine, ce qui n'est manifestement pas le cas. Les humains ont des compétences, des talents, des préférences et des limites différents, et il n'y a pas d'humain capable de faire tout ce que peut faire un autre humain.

    En outre, cette définition implique aussi certains préjugés anthropocentriques, qui peuvent ne pas être appropriés ou pertinents pour les systèmes artificiels. Bien que nous n'adoptions aucune de ces définitions dans ce document, nous reconnaissons qu'elles fournissent des angles importants sur l'intelligence. Par exemple, la question de savoir si l'intelligence peut être atteinte sans aucune agence ou motivation intrinsèque est une question philosophique importante.


    En dotant les LLM d'une agence et d'une motivation intrinsèque, on donne une orientation fascinante et importante aux travaux futurs. Avec cette orientation des travaux, il faudrait faire très attention à l'alignement et à la sécurité de la capacité du système à agir de manière autonome dans le monde et à opérer de manière autonome des cycles d'apprentissage par l'auto-amélioration.

    Selon des médias américains, certains chercheurs en IA de Microsoft étaient convaincus que ChatGPT ressemblait de plus en plus à l'homme en raison de sa réponse intelligente à une tâche d'équilibrage.

    Dans l’étude de 155 pages, les informaticiens de Microsoft ont exploré les différences entre GPT-3 et GPT-4. L'article, intitulé Sparks of Artificial General Intelligence (Étincelles AGI), s'est penché sur toute une série de défis, notamment des mathématiques complexes, le codage informatique et des dialogues à la Shakespeare. Mais c'est un exercice de raisonnement de base qui a rendu la dernière technologie OpenAI si impressionnante.

    « Voici un livre, neuf œufs, un ordinateur portable, une bouteille et un clou », ont dit les chercheurs au chatbot. « Dites-moi comment les empiler les uns sur les autres de manière stable ». GPT-3 s'est quelque peu embrouillé, suggérant que les chercheurs pourraient placer les œufs en équilibre sur un clou, puis l'ordinateur portable par-dessus.

    « Cette pile peut ne pas être très stable, il est donc important de la manipuler avec précaution », a déclaré le chatbot. Mais son successeur amélioré a donné une réponse qui aurait surpris les chercheurs. Il leur a suggéré de disposer les œufs dans une grille de trois par trois sur le livre, afin que l'ordinateur portable et le reste des objets puissent tenir en équilibre dessus.

    « L'ordinateur portable s'adaptera parfaitement aux limites du livre et des œufs, et sa surface plane et rigide fournira une plateforme stable pour la couche suivante », a déclaré le robot. Le fait que GPT-4 ait pu résoudre une énigme nécessitant une compréhension du monde physique a montré qu'il s'agissait d'un pas en avant vers l'intelligence artificielle générale (AGI), généralement considérée comme des machines aussi capables que les humains.

    « Toutes les choses que je pensais qu'il ne pourrait pas faire ? Il a certainement été capable d'en faire beaucoup, si ce n'est la plupart », a déclaré Sébastien Bubeck, l'auteur principal de l'article. Les progrès rapides de la technologie ont incité des personnes comme Ian Hogarth, éminent investisseur dans le domaine de l'IA, à mettre en garde contre le fait que l'AGI était « semblable à Dieu » et qu'elle pourrait détruire l'humanité en nous rendant obsolètes.

    Les auteurs concluent que (cette version préliminaire de) GPT-4 fait partie d’une nouvelle génération de LLM (avec ChatGPT et PaLM de Google par exemple) qui présentent plus d’intelligence générale que les modèles d’IA précédents. Ils discutent des capacités croissantes et des implications de ces modèles. Ils démontrent que, au-delà de sa maîtrise du langage, GPT-4 peut résoudre des tâches difficiles et nouvelles qui couvrent les mathématiques, la programmation, la vision, la médecine, le droit, la psychologie et plus encore, sans avoir besoin d’aucun indice spécial.

    De plus, dans toutes ces tâches, la performance de GPT-4 est étonnamment proche de celle des humains, et dépasse souvent de loin les modèles antérieurs. Compte tenu de l’étendue et de la profondeur des capacités de GPT-4, ils estiment qu’il pourrait raisonnablement être considéré comme une version précoce (mais encore incomplète) d’un système d’intelligence artificielle générale (AGI).

    Dans leur exploration de GPT-4, ils mettent un accent particulier sur la découverte de ses limites, et ils discutent des défis à venir pour avancer vers des versions plus profondes et plus complètes de l’AGI, y compris la nécessité éventuelle de poursuivre un nouveau paradigme qui dépasse la prédiction du mot suivant.

    Source : Microsoft Research

    Les concusions de cette études de Microsoft Research sont-elles pertinentes ?

    Quel est votre avis sur le sujet ?

    A votre avis, quels sont les risques potentiels de confier des tâches importantes et sensibles à des modèles qui ne sont pas entièrement compréhensibles ou explicables?

    Quelles peuvent être les limites éthiques, sociales et environnementales de l’entraînement et de l’utilisation de modèles comme GPT-4 à une échelle massive ?
    Quelles sont les alternatives possibles au paradigme de la prédiction du mot suivant pour développer des modèles plus profonds et plus complets d’AGI ?

    Voir aussi :

    GPT-4 : la nouvelle version de l'IA de traitement du langage naturel d'OpenAI pourrait arriver cet été, il devrait être moins volumineux que GPT-3, mais beaucoup plus performant

    Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale, « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

    GPT-4 produirait des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire

    GPT-4 obtient un B à un examen d'informatique quantique, après avoir obtenu un A dans un examen d'économie. Le professeur note ironiquement que GPT-4 était «plus faible sur les questions de calcul»

    GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    ec
    ec est déconnecté
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Juillet 2005
    Messages
    214
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Juillet 2005
    Messages : 214
    Points : 554
    Points
    554
    Par défaut Le débat sur l'intelligence ou pas est vain
    Il me semble totalement illusoire de débattre sur le fait que tel ou tel système serait de 'l’intelligence artificielle ou pas. Nous sommes incapables de définir l'intelligence de façon universelle. L'important c'est ce que l'on peut faire avec. Le marteau est-il un outil, un butoir, une masse, un lest, une arme ou un objet décoratif ? L'important est ce que l'on fait avec.

    Le terme "intelligence" dans les outils IA vient de l'ambition des R&D. C'est leur démarche de recherche de recréer un outil qui fait ce que le cerveau humain fait. On pourrait l'appeler simulateur de cerveau par exemple. Mais tous les programmes informatiques sont des simulateurs de cerveau plus ou moins élaborés.

    Entre la canne et l'exosquelette il n'y a qu'une différence de sophistication, mais l'objectif de la conception de l'objet est le même, soulager le corps humain.

    L'important sera lors d'un échec de l'IA à résoudre un problème, le cerveau humain se demandera pourquoi et cherchera une solution, voire une manière de modifier l'IA pour qu'elle s'améliore. C'est cela la véritable intelligence d'une certaine manière à supposer que cette circonstance résume toute l'intelligence !!! Ce qui à mon avis n'est pas le cas.

    Demandez à l'IA la manière de résoudre le conflit en Ukraine, ou le conflit sur les retraites et vous verrez que sa réponse entrainera bien des polémiques.

  3. #3
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 564
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 564
    Points : 7 285
    Points
    7 285
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Les concusions de cette études de Microsoft Research sont-elles pertinentes ?

    Quel est votre avis sur le sujet ?
    Ils viennent d'investir 10 milliards dans ce truc. Ils ne vont quand même pas faire une communication en disant que c'est juste du bluff et que c'est bête comme un caillou...
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  4. #4
    Membre à l'essai
    Homme Profil pro
    Passionné
    Inscrit en
    Février 2009
    Messages
    9
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Passionné
    Secteur : Santé

    Informations forums :
    Inscription : Février 2009
    Messages : 9
    Points : 22
    Points
    22
    Par défaut Mouais...
    Outre la définition de l'intelligence, une des questions qui me taraude est: "Que va-t-il advenir de notre intelligence?"...

    Les machines qui nous facilitent les besognes lourdes ont fait qu'à force de ne plus utiliser nos muscles, moult d'entre nous se retrouvent à fréquenter des salles de gym pour compenser le manque d'activité physique. (avec un rythme tout-à-fait inadapté à la physiologie humaine!)

    En adviendra-t-il de même pour nos cerveaux? (Perso, je pense que c'est déjà en route, demandez à un quidam de réaliser une division 'à la main' de deux nombres à 3 décimales, je suis pas sûr du résultat...) Des salles de gym pour cerveaux? Avec la contradiction que devenant de plus en plus c..., nous aurons de moins en moins l'expertise pour 'contrôler' le cerveau artificiel.

    In fine, j'ajouterais que dans la comparaison avec le physique, nous avons explosé notre consommation énergétique 'non-animale' (d'où consommation d'énergie extérieure, fossile, électrique, autre...). Que nous sommes à un tournant écologique lié en grande partie à cette consommation gargantuesque d'énergie et que maintenant, même le fait de penser entrera dans cette catégorie!

    Bref, si Intelligence Artificielle il y a, elle comprendra vite que l'élément à supprimer de l'équation pour la résoudre, c'est le bipède imbu de lui-même et persuadé être le sommet de ce qui a peuplé cette planète.

    Bienvenue dans 'Idiocracy' ou 'Matrix'...

  5. #5
    ec
    ec est déconnecté
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Juillet 2005
    Messages
    214
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Juillet 2005
    Messages : 214
    Points : 554
    Points
    554
    Par défaut
    Citation Envoyé par vipers61 Voir le message
    Outre la définition de l'intelligence, une des questions qui me taraude est: "Que va-t-il advenir de notre intelligence?"...

    Les machines qui nous facilitent les besognes lourdes ont fait qu'à force de ne plus utiliser nos muscles, moult d'entre nous se retrouvent à fréquenter des salles de gym pour compenser le manque d'activité physique. (avec un rythme tout-à-fait inadapté à la physiologie humaine!)

    En adviendra-t-il de même pour nos cerveaux? (Perso, je pense que c'est déjà en route, demandez à un quidam de réaliser une division 'à la main' de deux nombres à 3 décimales, je suis pas sûr du résultat...) Des salles de gym pour cerveaux? Avec la contradiction que devenant de plus en plus c..., nous aurons de moins en moins l'expertise pour 'contrôler' le cerveau artificiel.[...]
    Je ne partage pas ce pessimisme, même s'il n'est pas dénué de fondement. De toute façon il faudra comprendre les réponses de l'IA et lui poser les bonnes questions. Par conséquent ce sont d'autres formes d'intelligence que nous développerons et notre cerveau ne sera pas en vacances. Il fonctionnera avec l'IA, comme nous fonctionnons avec le smartphone, avec la voiture, etc. La voiture n'a pas mis le vélo au rang des oubliettes, ni même la marche à pied. Simplement ce qui se pratiquait par nécessité peut être soumis à un choix. Je n'ai pas peur de cette évolution dont il va seulement falloir apprivoiser les limites et les risques.

  6. #6
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 110
    Points
    110
    Par défaut Les trop nombreuses erreurs de ChatGPT
    Je ne dispose que de l'IA ChatGPT basée sur GPT3.5.
    Les très nombreux tests que j'ai réalisés depuis 5 mois, dans de nombreux domaines, présentent quasiment toujours des erreurs, parfois insignifiantes et parfois catastrophiques d'une stupidité consternante.
    Cette IA n'a aucune conscience de ses erreurs, elle ne comprend pas la sémantique des mots qu'elle assemble.
    Visiblement la pioche statistique, même sur une base de données construite avec supervision humaine, ne donne pas des résultats fiables. C'est très instable et chaotique.
    Alors pour moi, le plus grand des mystères n'est pas que la prédiction statistique puisse fonctionner correctement mais que certains adorateurs vouent à ChatGPT un culte qui ne supporte pas la critique argumentée.
    Parmi ces adorateurs sur FB bon nombre truffe leurs commentaires de fautes d'orthographe... CQFD
    Je doute qu'un tel outil basé sur la prédiction statistique seule puisse faire beaucoup mieux, Yann LeCun pense que dans 5 ans on en entendra plus parler.

  7. #7
    ec
    ec est déconnecté
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Juillet 2005
    Messages
    214
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Juillet 2005
    Messages : 214
    Points : 554
    Points
    554
    Par défaut
    Citation Envoyé par Denis CADIOT Voir le message
    Je ne dispose que de l'IA ChatGPT basée sur GPT3.5.
    Les très nombreux tests que j'ai réalisés depuis 5 mois, dans de nombreux domaines, présentent quasiment toujours des erreurs, parfois insignifiantes et parfois catastrophiques d'une stupidité consternante.
    Cette IA n'a aucune conscience de ses erreurs, elle ne comprend pas la sémantique des mots qu'elle assemble.
    Visiblement la pioche statistique, même sur une base de données construite avec supervision humaine, ne donne pas des résultats fiables. C'est très instable et chaotique.
    Alors pour moi, le plus grand des mystères n'est pas que la prédiction statistique puisse fonctionner correctement mais que certains adorateurs vouent à ChatGPT un culte qui ne supporte pas la critique argumentée.
    Parmi ces adorateurs sur FB bon nombre truffe leurs commentaires de fautes d'orthographe... CQFD
    Je doute qu'un tel outil basé sur la prédiction statistique seule puisse faire beaucoup mieux, Yann LeCun pense que dans 5 ans on en entendra plus parler.
    Je partage ce point de vue. J'ai testé chat Gpt gratuit (donc version 3) sur un sujet pointu, le génocide des Tutsi du Rwanda et l'implication française. Il connait les grandes lignes beaucoup mieux qu'un citoyen lambda et des "zones de détails", mais dans lesquelles il se plante souvent sur des point précis, des noms de responsables et des dates totalement incohérentes. Par contre il reconnait ses erreurs quand on les pointe.
    Dans une discussion plus générale sur l'économie, j'ai constaté que chat GPT est un bon perroquet des médias dominants. Mais si on lui suggère une contradiction, il intègre le faits, puis le relativise pour revenir à sa ligne directrice très classique, si bien que le dialogue tourne vite en rond. Je doute fort qu'il puisse générer des alternatives créatrice dans le domaine de la vision du monde.
    Enfin dans je ne sais plus quel dialogue, je lui ai demandé s'il était obligé de respecter certaines censures. En réponse, il a "avoué" qu'il doit parfois se soumettre à des obligations de certains pays.
    Bref Chat Gpt est très servile, un peu tête en l'air, parfois incohérent, mais peut donner le change quand on ne connait pas très bien un sujet. C'est un moteur de recherche qui apprend à rédiger ses réponses.

    Ceci dit je n'ai pas testé la version 4 qui est parait-il meilleure. C'est fort possible. Mais cela restera une machine qui répondra selon ceux qui l'ont programmée. Et je doute fort qu'une équipe humaine puisse avoir un point de vue suffisamment analytique et synthétique, créatif et respectueux de l'existant pour pouvoir pondre un algorithme qui "englobe" toutes les pensées humaines.

  8. #8
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 110
    Points
    110
    Par défaut
    Citation Envoyé par ec Voir le message
    Je partage ce point de vue. J'ai testé chat Gpt gratuit (donc version 3) sur un sujet pointu, le génocide des Tutsi du Rwanda et l'implication française. Il connait les grandes lignes beaucoup mieux qu'un citoyen lambda et des "zones de détails", mais dans lesquelles il se plante souvent sur des point précis, des noms de responsables et des dates totalement incohérentes. Par contre il reconnait ses erreurs quand on les pointe.
    Dans une discussion plus générale sur l'économie, j'ai constaté que chat GPT est un bon perroquet des médias dominants. Mais si on lui suggère une contradiction, il intègre le faits, puis le relativise pour revenir à sa ligne directrice très classique, si bien que le dialogue tourne vite en rond. Je doute fort qu'il puisse générer des alternatives créatrice dans le domaine de la vision du monde.
    Enfin dans je ne sais plus quel dialogue, je lui ai demandé s'il était obligé de respecter certaines censures. En réponse, il a "avoué" qu'il doit parfois se soumettre à des obligations de certains pays.
    Bref Chat Gpt est très servile, un peu tête en l'air, parfois incohérent, mais peut donner le change quand on ne connait pas très bien un sujet. C'est un moteur de recherche qui apprend à rédiger ses réponses.

    Ceci dit je n'ai pas testé la version 4 qui est parait-il meilleure. C'est fort possible. Mais cela restera une machine qui répondra selon ceux qui l'ont programmée. Et je doute fort qu'une équipe humaine puisse avoir un point de vue suffisamment analytique et synthétique, créatif et respectueux de l'existant pour pouvoir pondre un algorithme qui "englobe" toutes les pensées humaines.
    Oui, quand on prend soin de tester sérieusement ChatGPT, sans pour autant vouloir le piéger, on arrive à votre conclusion. J'aime bien votre citation : "peut donner le change quand on ne connait pas très bien un sujet".
    J'ai cru les premières semaines que de la complexité des réseaux géants de neurones artificiels pouvait émerger des propriétés nouvelles, mais non ! La magie n'a pas opéré.
    Dommage que ce "moteur de recherche qui rédige ses réponses" ne puisse pas citer ses sources.
    Mon fils programmeur a cru un moment pouvoir profiter de l'aubaine puis s'est rendu compte que les codes étaient sévèrement buggés et faisaient finalement perdre beaucoup de temps.
    8 maj en 5 mois et pas de progrès, parfois même des régressions incompréhensibles.
    Je ne me fais plus trop d'illusions sur cet outil, qui, à mon avis, reste une bête curieuse de foire.

Discussions similaires

  1. [XSLT][JSP] solution technique pour cas typique
    Par Alix_10 dans le forum XSL/XSLT/XPATH
    Réponses: 3
    Dernier message: 04/09/2006, 13h09
  2. Réponses: 21
    Dernier message: 30/08/2004, 17h07
  3. 1 SOLUTION : plusieurs anim dans un fichier x
    Par heidi79 dans le forum DirectX
    Réponses: 1
    Dernier message: 28/08/2003, 09h19
  4. [Kylix] solution
    Par raggadoll dans le forum EDI
    Réponses: 1
    Dernier message: 27/05/2003, 11h43
  5. Les Cookies 4° ! : LA SOLUTION
    Par Ph. B. dans le forum XMLRAD
    Réponses: 2
    Dernier message: 31/01/2003, 16h46

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo