IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'engouement pour l'IA reposerait sur des résultats de tests erronés


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut L'engouement pour l'IA reposerait sur des résultats de tests erronés
    L'engouement pour l'IA reposerait sur des résultats de tests erronés,
    selon une étude de l'Université de Californie

    GPT-3 l’outil d’IA crée par OpenAI a réussi à résoudre des problèmes en utilisant l’analogie, surpassant même un groupe d’étudiants de premier cycle dans certains tests. OpenAI a publié une liste impressionnante d’évaluations professionnelles et académiques que son successeur, GPT-4, aurait réussies, y compris quelques douzaines de tests de lycée et l’examen du barreau. De nombreux chercheurs affirment que les grands modèles de langage peuvent réussir des tests conçus pour identifier certaines capacités cognitives chez l’homme, du raisonnement en chaîne à la théorie de l’esprit. Cependant, il n’y a pas d’accord sur la signification réelle de ces résultats. Certains sont éblouis par ce qu’ils considèrent comme des lueurs d’intelligence humaine, d'autres ne sont pas du tout convaincus.

    GPT-3 est un modèle de langage autorégressif qui utilise l'apprentissage profond pour produire des textes similaires à ceux des humains. Il s'agit du modèle de prédiction du langage de troisième génération de la série GPT-n créé par OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco et composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI Inc.

    Nom : intellig.jpg
Affichages : 10093
Taille : 58,6 Ko

    Taylor Webb, psychologue à l'université de Californie, qui étudie les différentes manières dont les personnes et les ordinateurs résolvent des problèmes abstraits a été impressionné par les capacités de GPT-3. Bien que ce ne soit qu’un autocomplétion à l’emporte-pièce, il a pu résoudre de nombreux problèmes abstraits posés par Webb, qui sont similaires à ceux que l’on trouve dans un test de QI.

    Les recherches de Webb et de ses collègues ont montré que GPT-3 peut réussir divers tests conçus pour évaluer l’utilisation de l’analogie pour résoudre des problèmes. À certains de ces tests, GPT-3 a obtenu de meilleurs résultats qu’un groupe d’étudiants de premier cycle. Les résultats suggèrent que l’analogie est un élément clé du raisonnement humain et que toute forme d’intelligence artificielle devrait en faire preuve.

    Intelligence artificielle : définition, histoire

    L'intelligence artificielle (IA) est une vaste branche de l'informatique qui s'intéresse à la construction de machines intelligentes capables d'effectuer des tâches qui requièrent généralement l'intelligence humaine. Bien que l'IA soit une science interdisciplinaire aux approches multiples, les progrès de l'apprentissage automatique et de l'apprentissage profond, en particulier, sont en train de créer un changement de paradigme dans pratiquement tous les secteurs de l'industrie technologique.

    L'intelligence artificielle permet aux machines de modéliser, voire d'améliorer, les capacités de l'esprit humain. Du développement des voitures autonomes à la prolifération d'outils d'IA générative tels que ChatGPT et Bard de Google, l'IA fait de plus en plus partie de la vie quotidienne - et c'est un domaine dans lequel les entreprises de tous les secteurs d'activité investissent.

    L’histoire de l’intelligence artificielle remonte à 1943, avec la publication de l’article A Logical Calculus of Ideas Immanent in Nervous Activity par Warren McCullough et Walter Pitts. Les scientifiques y présentent le premier modèle mathématique pour la création d’un réseau de neurones.

    En 1950, Marvin Minsky et Dean Edmonds créent Snarc, le premier ordinateur à réseau de neurones. La même année, Alan Turing publie le Turing Test qui sert encore aujourd’hui à évaluer les IA. De ce test découlent les fondations de l’intelligence artificielle, de sa vision et de ses objectifs : répliquer ou simuler l’intelligence humaine dans les machines.

    Cependant, ce n’est qu’en 1956 que le terme « intelligence artificielle » est prononcé pour la première fois lors de la conférence Dartmouth Summer Research Project on Artificial Intelligence de John McCarthy. Lors de cet événement, les chercheurs présentent les objectifs et la vision de l’IA. Beaucoup considèrent cette conférence comme la véritable naissance de l’intelligence artificielle telle qu’elle est connue.

    Les travaux sur l’intelligence artificielle continuent au fil des années. En 1959, Arthur Samuel invente le terme « Machine Learning » en travaillant chez IBM. En 1989, Yann Lecun met au point le premier réseau de neurones capable de reconnaître des chiffres écrits à la main, cette invention sera à l’origine du développement du deep learning.

    En 1997, un événement majeur marque l’histoire de l’IA : le système Deep Blue d’IBM triomphe du champion du monde d’échecs Gary Kasparov. Pour la première fois, une machine a vaincu un être humain.

    L’émergence de la théorie de l’esprit chez les modèles de langage artificiels

    Les modèles de langage (LM) ont connu des progrès remarquables ces dernières années, grâce à l’émergence de grands modèles de langage (LLM) tels que le GPT-3 d’OpenAI et le Palm 2 de Google. Les modèles de langage sont utilisés dans les systèmes d'intelligence artificielle, de traitement du langage naturel (NLP), de compréhension du langage naturel et de génération de langage naturel, en particulier ceux qui effectuent la génération de texte, la traduction automatique et la réponse aux questions.

    Les LLM sont des modèles de langage avancés qui traitent des milliards de paramètres de données d’apprentissage et génèrent des textes. Il s'agit de modèles de langage avancés, tels que le GPT-3 d'OpenAI et le Palm 2 de Google, qui traitent des milliards de paramètres de données d'apprentissage et génèrent des textes. Les LLM utilisent également la modélisation du langage pour prédire le mot suivant possible dans une séquence. Le lancement de la troisième génération du modèle de langage pré-entraîné d’Open AI a suscité beaucoup d’enthousiasme et ont réussi des tests impressionnants.

    Au cours des deux dernières années, ces modèles sont devenus capables de répondre à des questions sophistiquées et de résoudre des problèmes en utilisant un langage persuasif. On peut en conséquence se demander s'ils ont également développé une théorie de l'esprit. Un individu a une théorie de l'esprit s'il impute des états mentaux à lui-même et aux autres. Un système d'inférences de ce type est considéré à juste titre comme une théorie, car ces états ne sont pas directement observables, et le système peut être utilisé pour faire des prédictions sur le comportement des autres.

    Michal Kosinski, psychologue informatique à l'université de Stanford à Palo Alto, a soumis les systèmes d'IA à des tests psychologiques standard utilisés sur les humains. L'extraordinaire conclusion de Kosinski est qu'une théorie de l'esprit semble avoir été absente de ces systèmes d'IA jusqu'à ce qu'elle apparaisse spontanément l'année dernière. Ses résultats ont de profondes implications pour notre compréhension de l'intelligence artificielle et de la théorie de l'esprit en général.

    Les résultats des travaux de Michal Kosinski et son équipe montrent que les modèles publiés avant 2022 ne révèlent pratiquement aucune possibilité à résoudre les tâches de théorie de l'esprit. Pourtant, la version de janvier 2022 de GPT-3 (davinci-002) a résolu 70 % des tâches de théorie de l'esprit, une performance comparable à celle d'enfants de sept ans. De plus, sa version de novembre 2022 (davinci-003) a résolu 93 % des tâches de théorie de l'esprit, une performance comparable à celle d'enfants de neuf ans.

    Ces résultats suggèrent que les capacités de théorie de l'esprit (considérées jusqu'à présent comme exclusivement humaines) ont pu apparaître spontanément comme un sous-produit de l'amélioration des compétences linguistiques des modèles de langage.

    GPT-4, le modèle d’IA qui réussit l’examen du barreau mieux que les humains

    Une récente étude a révélé que l’IA est désormais capable de battre la majorité des diplômés en droit à l’examen du barreau, le test difficile de deux jours que les futurs avocats doivent passer pour exercer le droit aux États-Unis. GPT-4, le modèle d’intelligence artificielle amélioré, soutenue par Microsoft, a obtenu un score de 297 à l’examen du barreau lors d’un essai réalisé par deux enseignants de droit et deux employés de la société de technologie juridique Casetext.

    Ce résultat place le GPT-4 dans le 90e percentile des candidats à l’examen et est suffisant pour être autorisé à exercer le droit dans la plupart des États, selon les chercheurs. Cependant, la National Conference of Bar Examiners, qui élabore la section des questions à choix multiples, a affirmé dans un communiqué que les avocats disposent de compétences uniques acquises par l’éducation et l’expérience que « l’IA ne peut pas encore égaler ».

    Le co-auteur de l’étude, Daniel Martin Katz, professeur au Chicago-Kent College of Law, a déclaré dans une interview qu’il avait été le plus étonné par la capacité du GPT-4 à produire des réponses largement pertinentes et cohérentes pour les essais et les tests de performance. J’ai entendu beaucoup de gens dire : « Il pourrait répondre aux questions à choix multiples, mais il ne répondra jamais aux questions de rédaction », a dit Katz.

    L’IA a également réussi d’autres tests standardisés, comme le SAT (Scholastic Assessment Test est un examen qui évalue vos compétences générales verbales en anglais et votre raisonnement mathématique) et le GRE (Graduate Record Examination est un test en anglais créé et géré par l’entreprise ETS. Ce test est requis pour étudier dans la plupart des universités ou graduate schools dans des pays anglophones), mais c’est l’examen du barreau qui a attiré le plus l’attention.

    Comme dit précédemment, ces résultats alimentent un battage médiatique qui prédit que les ordinateurs occuperont bientôt les emplois en col blanc, remplaçant les enseignants, les journalistes, les avocats et bien d'autres encore. Geoffrey Hinton, chercheur canadien spécialiste de l'intelligence artificielle et plus particulièrement des réseaux de neurones artificiels a souligné que la capacité apparente du GPT-4 à enchaîner les pensées était l'une des raisons pour lesquelles il était désormais effrayé par la technologie qu'il avait contribué à créer.

    L’interprétation des résultats de GPT-4 ne fait pas de consensus

    Les avis divergent sur l’interprétation des résultats de GPT-4. Certains sont impressionnés par ce qu’ils voient comme des signes d’intelligence humaine, d’autres restent sceptiques. « Les techniques actuelles d'évaluation des grands modèles de langage posent plusieurs problèmes critiques », explique Natalie Shapira, informaticienne à l'université Bar-Ilan de Ramat Gan, en Israël. « Cela crée l'illusion qu'ils ont des capacités supérieures à ce qui existe réellement. »

    C'est pourquoi un nombre croissant de chercheurs - informaticiens, cogniticiens, neuroscientifiques, linguistes - souhaitent revoir la manière dont les grands modèles de langage sont évalués, en appelant à une évaluation plus rigoureuse et plus exhaustive. Certains pensent que la pratique consistant à noter les modèles de langage sur la base de tests humains est erronée et devrait être abandonnée.

    « Les gens font passer des tests d'intelligence humaine (tests de QI, etc.) à des machines depuis le tout début de l'IA », explique Melanie Mitchell, chercheuse en intelligence artificielle à l'Institut Santa Fe, au Nouveau-Mexique. « La question qui se pose depuis le début est de savoir ce que signifie un tel test pour une machine. Cela ne signifie pas la même chose que pour un humain ». « Il y a beaucoup d'anthropomorphisme », ajoute-t-elle. « Et cela influence la façon dont nous pensons à ces systèmes et dont nous les testons. »

    Selon certains analystes, la plupart des problèmes liés aux tests des grands modèles linguistiques se résument à la question de l'interprétation des résultats. Les espoirs et les craintes suscités par cette technologie étant à leur comble, il est essentiel d’avoir une idée précise de ce que les grands modèles de langage peuvent et ne peuvent pas faire.

    Le cabinet d’analystes CCS Insight a prédit que l’IA générative, qui a fait l’objet de nombreux gros titres sur ses promesses et ses pièges, devrait être remise en question l’année prochaine. Les coûts élevés, les risques et la complexité impliqués dans cette technologie remplacent le battage médiatique autour de celle-ci. Ben Wood, analyste en chef chez CCS Insight, a déclaré : « Nous sommes de fervents défenseurs de l'IA, nous pensons qu'elle aura un impact considérable sur l'économie, sur la société en général et sur la productivité ». « Mais le battage médiatique autour de l'IA générative en 2023 a été tellement important que nous pensons qu'il est exagéré et qu'il y a beaucoup d'obstacles à son déploiement. »


    Les LLM peuvent-ils comprendre ou simplement répéter ?

    Les tests conçues pour les humains, comme les examens de fin d'études secondaires et les tests de QI, tiennent beaucoup de choses pour acquises. Lorsqu'une personne obtient de bons résultats, on peut supposer qu'elle possède les connaissances, la compréhension ou les compétences cognitives que le test est censé mesurer. (Dans la pratique, cette hypothèse n'a qu'une portée limitée. Les examens académiques ne reflètent pas toujours les capacités réelles des étudiants. Les tests de QI mesurent un ensemble spécifique de compétences, et non l'intelligence globale. Ces deux types d'évaluation favorisent les personnes qui sont douées pour ces types d'évaluation).

    Mais lorsqu'un grand modèle linguistique obtient de bons résultats à ces tests, on ne sait pas du tout ce qui a été mesuré. S'agit-il d'une preuve de compréhension réelle ou d'une simple répétition ? « Il existe une longue tradition de développement de méthodes pour tester l'esprit humain », explique Laura Weidinger, chercheuse principale chez Google DeepMind. « Avec de grands modèles de langage produisant des textes qui semblent tellement humains, il est tentant de supposer que les tests de psychologie humaine seront utiles pour les évaluer. Mais ce n'est pas vrai : les tests de psychologie humaine reposent sur de nombreuses hypothèses qui ne sont pas forcément valables pour les grands modèles de langage. »

    Webb est conscient des problèmes dans lesquels il s'est engagé. « Je partage le sentiment qu'il s'agit de questions difficiles », déclare-t-il. Il note qu'en dépit de meilleurs résultats que les étudiants de premier cycle à certains tests, le GPT-3 a produit des résultats absurdes à d'autres. Par exemple, il a échoué à une version d'un test de raisonnement analogique sur des objets physiques que les psychologues du développement font parfois passer aux enfants.

    Les LLM échouent souvent dans les domaines qui nécessitent de comprendre le monde réel

    Dans ce test, Webb et ses collègues ont raconté à GPT-3 l'histoire d'un génie magique qui transfère des bijoux entre deux bouteilles, puis lui ont demandé comment transférer des boules de gomme d'un bol à l'autre, à l'aide d'objets tels qu'un panneau d'affichage et un tube en carton. L'idée est que l'histoire suggère des moyens de résoudre le problème. « GPT-3 a surtout proposé des solutions élaborées mais mécaniquement absurdes, avec de nombreuses étapes superflues et aucun mécanisme clair permettant de transférer les boules de gomme entre les deux bols », écrivent les chercheurs.

    « C’est le type de problèmes que les enfants savent résoudre sans peine », dit Webb. « Les domaines où ces systèmes échouent souvent sont ceux qui nécessitent de comprendre le monde réel, comme la physique élémentaire ou les relations sociales - des domaines qui sont instinctifs pour les humains ».

    La grande question qui se pose maintenant est de savoir comment le GPT-3 parvient à la capacité analogique qui est souvent considérée comme le cœur de l'intelligence humaine. L'une des possibilités est que, peut-être en raison de la taille et de la diversité des données d'entraînement du GPT-3, il a été contraint de développer des mécanismes similaires à ceux que l'on pense être à la base du raisonnement analogique humain, bien qu'il n'ait pas été explicitement entraîné à le faire. Les chercheurs en sciences cognitives qui travaillent sur l'analogie s'accordent à dire que cette capacité humaine dépend de la comparaison systématique de connaissances basées sur des représentations relationnelles explicites.

    Bien que les mécanismes incorporés dans les LLM tels que le GPT-3 puissent avoir des liens importants avec les blocs de construction du raisonnement humain, il convient également d’envisager la possibilité que ce type d'intelligence soit fondamentalement différent de celle des humains. Les humains ont évolué pour raisonner dans les limites imposées par une puissance de calcul limitée et des contraintes biologiques.

    Il faut également noter que, quelle que soit la mesure dans laquelle le GPT-3 utilise des mécanismes de type humain pour effectuer un raisonnement analogique, il n'a pas acquis ces mécanismes d'une manière semblable à celle des humains. Les LLM reçoivent des ordres de grandeur de données d'entraînement plus importants que les êtres humains individuels (du moins si nous considérons uniquement les entrées du langage), et ils ne peuvent donc pas être considérés comme des modèles de l'acquisition du raisonnement analogique au cours du développement humain.

    Source : Researchers at the University of California

    Et vous ?

    Les conclusions de l'étude conduite par Taylor Webb sont-elles pertinentes ? Partagez-vous l'avis selon lequel « l'engouement pour l'IA reposerait sur des résultats de tests erronés » ?

    Selon les chercheurs, « lorsqu'un grand modèle de langage obtient de bons résultats à des tests, on ne sait pas du tout ce qui a été mesuré. » À votre avis, s'agit-il d'une preuve de compréhension réelle ou d'une simple répétition ?

    Voir aussi :

    Les résultats de l'examen du barreau montrent que l'IA peut rivaliser avec les "avocats humains", GPT-4 un modèle d'IA a obtenu un score de 297 à l'examen du barreau aux USA

    Un professeur avoue être stupéfait que ChatGPT soit passé d'une note D à un A en seulement 3 mois à son examen d'économie. « Ce logiciel est une exception qui confirme la règle »,estime-t-il

    GPT-3, le système de génération de texte d'OpenAI, serait aussi performant qu'un humain de neuf ans dans les tests standard de la théorie de l'esprit, selon un psychologue
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre émérite Avatar de curt
    Homme Profil pro
    Ingénieur Etudes
    Inscrit en
    Mars 2006
    Messages
    1 566
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur Etudes
    Secteur : Bâtiment Travaux Publics

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 566
    Points : 2 525
    Points
    2 525
    Par défaut
    Bonjour,

    Prétendre que l'IA résout tout mieux que l'humain est une chimère.
    Il existe des problèmes insolubles (pour l'instant) faisant parties de l'X-Prize.
    J'ai demandé à CHAP-GPT et aussi à l'IA de Google de résoudre (Vérifier) l'hypothèse de Riemann....

    Même réponse : L'hypothèse de Riemann n'a jamais pu être démontrée.....

    Combien de milliards dépensés pour avoir une réponse déjà connue de tous ???
    Pas de demande par MP, sinon j'correctionne plus, j'dynamite, j'disperse, j'ventile !!!
    ---------------------------------------------------------------------
    Vous avez un talent insoupçonné... Faites-en profitez les autres. Un p'tit CLIC pour une grande cause.
    Et si vous faisiez un bon geste en 2024 ? Soyez utile, ça vous changera ! Moi, ça m’a changé !

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 758
    Points
    5 758
    Par défaut
    Citation Envoyé par curt Voir le message
    J'ai demandé à CHAP-GPT et aussi à l'IA de Google de résoudre (Vérifier) l'hypothèse de Riemann....

    Même réponse : L'hypothèse de Riemann n'a jamais pu être démontrée.....

    Combien de milliards dépensés pour avoir une réponse déjà connue de tous ???
    Vous venez simplement de démontrer le mode de fonctionnement des "IA" actuelles (si je mets "IA" en parenthèse, ce n'est pas pour rien).

    Les "IA" actuelles n'inventent rien, ne découvrent rien, elles ne font que compiler les données qu'elles trouvent sur le web!!!

    Si le web dit "L'hypothèse de Riemann n'a jamais pu être démontrée", toutes les "IA" vous répondront "L'hypothèse de Riemann n'a jamais pu être démontrée" CQFD

    Dans l'IA, il n'y a pas d'intelligence, il n'y a que de l'artificiel... Et beaucoup de crédulité des gens!

  4. #4
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 111
    Points
    111
    Par défaut Toujours et encore beaucoup d'erreurs avec ChatGPT 3.5
    Il n'est pas une discussion avec ChatGPT 3.5 qui ne contient une erreur.
    Rien ne s'améliore au fil des nouvelles versions.
    Jamais je ne tends de piège dans mes prompts, ce n'est pas utile pour le mettre en défaut.

    Je suis donc toujours très septique vis à vis des personnes qui font son éloge et parlent d'intelligence.
    Les aficionados m'expliquent que le "prompting" est une science et que les erreurs sont induites par mes questions.
    Toutefois aucun d'eux n'a jamais su reformuler mes questions pour obtenir une réponse juste sans avoir implicitement donné la réponse dans la question.

    Pas besoin d'aller chercher des problèmes compliqués pour trouver des erreurs, j'ai des dizaines d'exemples.
    Comment avoir confiance dans la réponse de ChatGPT quand on n'est pas spécialiste du domaine ?
    Que dirions-nous d'une calculatrice qui toutes les 10 opérations commet une erreur imprévisible, non répétable ?

    Avez-vous des exemples de conversations correctes dénuées d'erreurs ?

    Exemple ici avec ChatGPT September 25 Version :

    Default (GPT-3.5)

    User
    Par 3 points dans un plan, combien peut-on faire passer de cercles par ces trois points ?

    ChatGPT
    On peut faire passer une infinité de cercles par trois points donnés dans un plan. Cette propriété est connue sous le nom de "théorème de Ménelaüs" et est due à la géométrie projective. Pour chaque ensemble de trois points non alignés, il existe un cercle unique qui passe par ces points.

    User
    Tu écris : "On peut faire passer une infinité de cercles par trois points donnés dans un plan."

    ChatGPT
    Je m'excuse pour l'erreur dans ma réponse précédente. En réalité, on ne peut faire passer qu'un seul cercle par trois points donnés dans un plan. C'est un résultat fondamental de la géométrie euclidienne. Un cercle est déterminé de manière unique par trois points non alignés dans un plan. Si vous avez trois points, il existe un seul cercle qui passe par ces trois points, et il n'y a pas d'autres cercles distincts qui peuvent les traverser. Encore désolé pour la confusion.

    User
    Que vient faire ici le "théorème de Ménelaüs" ?

    ChatGPT
    Je m'excuse pour la confusion dans ma réponse précédente. Le "théorème de Ménelaüs" n'a en effet rien à voir avec la géométrie des cercles passant par trois points dans un plan. Mon inclusion incorrecte de ce théorème dans ma réponse précédente était une erreur.
    Pour clarifier, dans la géométrie euclidienne, un seul cercle est déterminé de manière unique par trois points non alignés dans un plan. Il n'y a pas d'infinité de cercles passant par ces trois points. Encore désolé pour la réponse incorrecte précédente.

  5. #5
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 458
    Points
    3 458
    Par défaut
    Citation Envoyé par Denis CADIOT Voir le message
    Avez-vous des exemples de conversations correctes dénuées d'erreurs ?
    Ca fait longtemps que je ne l'ai pas retesté parce qu'à chaque version on a les même débats avec les collègues:
    - Eh totozor, t'as vu la nouvelle version de ChatGPT? Elle ne tombe plus dans le panneau de mettre l'enigme que je lui avais posé la dernière fois
    - Non mais que pense-t-elle de mettre une nouvelle enigme
    - Beh regarde ça marche ... A merde ça ne marche pas
    - ...
    - mais c'est trop cool elle fait bien du boulot que je ne sais pas faire et j'ai donc l'air compétent
    - Oui et la semaine prochaine tu va me demander de débugger ton truc. Je travaille dans mon domaine de compétence ou j'apprends par moi même
    - Oui mais ChatGPT t'aide à apprendre
    - Google fait ça mieux, chatGPT envoie juste des pistes pas forcément pertinentes vers une solution. Le jour où ChatGPT donnera ses sources avec ses réponses je commencerais à envisager de m'y interresser.

  6. #6
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 111
    Points
    111
    Par défaut
    Citation Envoyé par totozor Voir le message
    Ca fait longtemps que je ne l'ai pas retesté parce qu'à chaque version on a les même débats avec les collègues:
    - Eh totozor, t'as vu la nouvelle version de ChatGPT? Elle ne tombe plus dans le panneau de mettre l'enigme que je lui avais posé la dernière fois
    - Non mais que pense-t-elle de mettre une nouvelle enigme
    - Beh regarde ça marche ... A merde ça ne marche pas
    - ...
    - mais c'est trop cool elle fait bien du boulot que je ne sais pas faire et j'ai donc l'air compétent
    - Oui et la semaine prochaine tu va me demander de débugger ton truc. Je travaille dans mon domaine de compétence ou j'apprends par moi même
    - Oui mais ChatGPT t'aide à apprendre
    - Google fait ça mieux, chatGPT envoie juste des pistes pas forcément pertinentes vers une solution. Le jour où ChatGPT donnera ses sources avec ses réponses je commencerais à envisager de m'y interresser.
    "Le jour où ChatGPT donnera ses sources avec ses réponses"
    Les sources des datas apprises ne sont pas intégrées donc impossible de les citer.
    Cela n'a même pas de sens pour ChatGPT qui n'a aucune compréhension des mots et phrases qu'elle assemble.
    ChatGPT est une curiosité de foire, une impasse car au fil des versions rien ne s'améliore fondamentalement.

  7. #7
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 758
    Points
    5 758
    Par défaut
    Citation Envoyé par Denis CADIOT Voir le message
    Cela n'a même pas de sens pour ChatGPT qui n'a aucune compréhension des mots et phrases qu'elle assemble.
    ChatGPT est une curiosité de foire, une impasse car au fil des versions rien ne s'améliore fondamentalement.
    En réalité, avec "l'IA", notre société n'a rien inventé de nouveau, elle ne fait que répéter l'histoire du "Turc mécanique" datant de... 1770!

    Le "Turc mécanique" était présenté comme un automate joueur d'échecs (une table avec un jeu d'échec et un mannequin habillé en Turc): il s’agissait d'un prétendu automate doté de la faculté de jouer aux échecs. Le mécanisme semblait capable de jouer contre un adversaire humain. Il a fallu attendre 1820 pour que le canular soit révélé: Il y avait un nain (oups, parlons de "personne de petite taille" pour être compatible avec la bien-pensance) sous la table qui jouait vraiment aux échecs, lui!

  8. #8
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 111
    Points
    111
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    En réalité, avec "l'IA", notre société n'a rien inventé de nouveau, elle ne fait que répéter l'histoire du "Turc mécanique" datant de... 1770!

    Le "Turc mécanique" était présenté comme un automate joueur d'échecs (une table avec un jeu d'échec et un mannequin habillé en Turc): il s’agissait d'un prétendu automate doté de la faculté de jouer aux échecs. Le mécanisme semblait capable de jouer contre un adversaire humain. Il a fallu attendre 1820 pour que le canular soit révélé: Il y avait un nain (oups, parlons de "personne de petite taille" pour être compatible avec la bien-pensance) sous la table qui jouait vraiment aux échecs, lui!
    Pourquoi nier la réalité d'une telle invention, même imparfaite ?
    Générer un texte cohérant en quelques secondes avec un réseau de neurones qui a compressé des milliards de données ne serait pas une invention ?
    Les mathématiques sont remarquablement utilisées.

  9. #9
    Futur Membre du Club
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Octobre 2023
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Eure (Haute Normandie)

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Octobre 2023
    Messages : 2
    Points : 5
    Points
    5
    Par défaut
    Il est clair qu'actuellement les IA ne se basent que sur des données déja existantes on ne voit pas encore d'innovations claires

  10. #10
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 111
    Points
    111
    Par défaut
    Citation Envoyé par Roger27000 Voir le message
    Il est clair qu'actuellement les IA ne se basent que sur des données déja existantes on ne voit pas encore d'innovations claires
    Vous pensez que générer un texte cohérant en quelques secondes avec un réseau de neurones qui a compressé des milliards de données n'est pas innovant ?
    Cet article devrait vous convaincre : https://www.frontiersin.org/articles...6DbWRFXvxQ1Bxw

  11. #11
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 428
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 428
    Points : 5 631
    Points
    5 631
    Par défaut
    chatgpt est au contraire un outil tres puissants mais les gens ne savent juste pas s'en servir.

    on s'en fou qu'il soit incapable de résoudre une énigme ou qu'il soit pas capable de résoudre des problemes.
    chatgpt n'est pas outil pour résoudre des problèmes ou faire le travail d'un dev ou d'un avocat ou d'un prof.

    chatgpt c'est un puissant outil pour se former, faire de la synthèse et de donner des pistes.

    il est capable de:
    pour l'étudiant faire des plans de dissertations avec des propositions d'idées.
    pour la vie de tous les jours de me faire un template de courrier pour démissionner par exemple
    de résumé des réunions
    de faire des plans de tests unitaires avec les cas courants et valeurs limites.
    de se former rapidement dans une technos, avec chatgpt il est plus facile d'apprendre un nouveau langage ou une technos.

    Mais il est la le danger: Il ne forme pas des ingénieurs en informatique, chatgpt ne va t'apprendre à coder correctement, a utiliser les bon patterns, a faire les bonnes architectures global pour ton projet.
    il va beaucoup aider par contre à un dev qui faisait du c++ depuis 20ans à faire du java ou un sysadmin qui connait python et bash a faire des scripts en go.

    de meme pour un avocat, il peut lui faire le blabla pour embellir les plaidoiries et attendrir le juge et lui donner des pistes pour les articles de lois mais sera bien incapable de défendre quelqu'un.

    de meme pour un medecin, il peut lui donner des pistes de maladies en fonction des symptômes mais bien incapable de soigner.


    c'est un super moteur de recherche pour de la doc technique qui te donne des explications et de la doc, il faut cependant savoir quoi chercher et comment exploiter le résultat.
    pour le dev c'est un stackoverflow en plus puissant, il m'a déja évité plusieurs fois de rester bloqué sur un bug pendant 1 journée.

  12. #12
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 111
    Points
    111
    Par défaut
    Citation Envoyé par calvaire Voir le message
    chatgpt est au contraire un outil tres puissants mais les gens ne savent juste pas s'en servir.

    on s'en fou qu'il soit incapable de résoudre une énigme ou qu'il soit pas capable de résoudre des problemes.
    chatgpt n'est pas outil pour résoudre des problèmes ou faire le travail d'un dev ou d'un avocat ou d'un prof.

    chatgpt c'est un puissant outil pour se former, faire de la synthèse et de donner des pistes.

    il est capable de:
    pour l'étudiant faire des plans de dissertations avec des propositions d'idées.
    pour la vie de tous les jours de me faire un template de courrier pour démissionner par exemple
    de résumé des réunions
    de faire des plans de tests unitaires avec les cas courants et valeurs limites.
    de se former rapidement dans une technos, avec chatgpt il est plus facile d'apprendre un nouveau langage ou une technos.

    Mais il est la le danger: Il ne forme pas des ingénieurs en informatique, chatgpt ne va t'apprendre à coder correctement, a utiliser les bon patterns, a faire les bonnes architectures global pour ton projet.
    il va beaucoup aider par contre à un dev qui faisait du c++ depuis 20ans à faire du java ou un sysadmin qui connait python et bash a faire des scripts en go.

    de meme pour un avocat, il peut lui faire le blabla pour embellir les plaidoiries et attendrir le juge et lui donner des pistes pour les articles de lois mais sera bien incapable de défendre quelqu'un.

    de meme pour un medecin, il peut lui donner des pistes de maladies en fonction des symptômes mais bien incapable de soigner.


    c'est un super moteur de recherche pour de la doc technique qui te donne des explications et de la doc, il faut cependant savoir quoi chercher et comment exploiter le résultat.
    pour le dev c'est un stackoverflow en plus puissant, il m'a déja évité plusieurs fois de rester bloqué sur un bug pendant 1 journée.
    Je retrouve dans ce commentaire la position d'un aficionado.

    Usage par un avocat, vous n'avez pas lu un article à ce sujet ici il y a quelques mois.
    Mon fils, programmeur confirmé, a renoncé à son usage tant le code est remplis d'erreurs qui lui demandaient beaucoup de temps à débugger.
    L'usager ne sait pas faire de "prompting", argument maintes fois entendu, mais jamais d'exemple concret. Lors mes tests, ChatGPT3 reformule ma question, ce qui indique qu'il n'y a pas d'ambiguïté.

    Comment un outil qui échoue sur un sujet simple peut prétendre à aider un programmeur sans l'induire en erreur ?

    Je vais vous donner un autre exemple de conversation qui porte sur un sujet simple, erreurs en rouge c'est édifiant :


    User
    Un pendule simple présente une période de 2.0001 secondes. De combien dois-je déplacer le centre de gravité de la masse pour obtenir exactement 2 secondes ?

    ChatGPT
    La période d'un pendule simple dépend de la longueur du pendule et de l'accélération due à la gravité. La formule de la période T est donnée par :

    T = 2π√(L/g)

    où T est la période, L est la longueur du pendule, et g est l'accélération due à la gravité.

    Dans votre cas, vous voulez réduire la période de 2.0001 secondes à exactement 2 secondes. Pour ce faire, vous pouvez réorganiser la formule de la période comme suit :

    2 = 2π√(L/g)

    Divisez les deux côtés par 2π :

    1 = √(L/g)

    Élevez les deux côtés au carré pour éliminer la racine carrée :

    1 = L/g

    Maintenant, pour obtenir une période de 2 secondes, vous devez résoudre cette équation pour L :

    2 = L/g

    L = 2g

    Donc, pour obtenir une période de 2 secondes, vous devez augmenter la longueur du pendule L de manière à ce qu'elle soit égale à deux fois l'accélération due à la gravité g. Vous n'avez pas besoin de déplacer le centre de gravité de la masse, il vous suffit de changer la longueur du pendule.

    User
    La longueur du pendule est défini par la distance du centre de gravité de sa masse à l'axe de rotation, non ?

    ChatGPT
    Vous avez tout à fait raison, la longueur du pendule simple est en effet définie comme la distance entre le centre de gravité de sa masse et l'axe de rotation. Par conséquent, si vous voulez ajuster la longueur du pendule pour obtenir une période de 2 secondes au lieu de 2.0001 secondes, vous devrez déplacer le centre de gravité de la masse par rapport à l'axe de rotation. La quantité exacte dont vous devez déplacer le centre de gravité dépendra de la géométrie du pendule et de la distribution de sa masse. Il est probable que cela nécessite des calculs complexes et une compréhension détaillée de la physique du pendule. Vous pourriez avoir besoin d'une assistance plus spécialisée pour effectuer cet ajustement de manière précise.

    User
    On suppose que la masse est sphérique et on néglige celle du bras

    ChatGPT
    Si l'on suppose que la masse est sphérique et que l'on néglige la masse du bras du pendule, vous pouvez utiliser la formule suivante pour calculer la longueur requise du pendule afin d'obtenir une période de 2 secondes :

    T = 2π√(L/g)

    Dans ce cas, T est la période que vous souhaitez (2 secondes), et g est l'accélération due à la gravité. Vous pouvez réorganiser cette formule pour résoudre L :

    L = (T^2 * g) / (4π^2)

    Maintenant, en insérant les valeurs, vous obtenez :

    L = (2^2 * 9.81 m/s^2) / (4 * π^2) ≈ 1.002 mètres

    Donc, pour obtenir une période de 2 secondes avec une masse sphérique et en négligeant la masse du bras, vous devrez ajuster la longueur du pendule pour qu'elle soit d'environ 1.002 mètres. Cela signifie que vous devrez déplacer le centre de gravité de la sphère à une distance de 1.002 mètres de l'axe de rotation pour atteindre cette période.

    User
    De combien dois-je déplacer la masse sphérique pour passer de la période mesurée de 2.0001 seconde à 2 secondes exactement ?
    ChatGPT
    Pour passer d'une période mesurée de 2.0001 secondes à 2 secondes exactement avec une masse sphérique négligeant la masse du bras, vous pouvez utiliser la formule suivante :

    ΔL = (T^2 * g) / (4π^2) - (T_mesurée^2 * g) / (4π^2)

    où :

    ΔL est la quantité que vous devez déplacer la masse sphérique,
    T est la période souhaitée (2 secondes),
    T_mesurée est la période mesurée précédemment (2.0001 secondes),
    g est l'accélération due à la gravité (environ 9.81 m/s²),
    4π^2 est une constante.
    Insérez les valeurs dans la formule :

    ΔL = ((2^2 * 9.81 m/s^2) / (4π^2)) - ((2.0001^2 * 9.81 m/s^2) / (4π^2))

    Calculons cela :

    ΔL ≈ (39.24 / (4π^2)) - (39.240081 / (4π^2))
    ΔL ≈ (9.9 / π^2) - (9.90002 / π^2)

    ΔL ≈ (9.9 - 9.90002) / π^2
    ΔL ≈ (-0.00002) / π^2

    ΔL ≈ -0.0000064 mètres

    Vous devrez déplacer la masse sphérique d'environ -0.0000064 mètres (soit environ -6.4 micromètres) vers le haut ou le bas par rapport à sa position actuelle pour passer de 2.0001 secondes à 2 secondes exactement.

    User
    Raccourcir ou allonger ?

    ChatGPT
    Vous devrez allonger la longueur du pendule d'environ 6.4 micromètres (ou 0.0000064 mètres) pour passer de 2.0001 secondes à 2 secondes exactement.

    User
    Quand on allonge la période augmente ou diminue ?

    ChatGPT
    Lorsque vous allongez la longueur d'un pendule simple, la période augmente. En d'autres termes, en augmentant la longueur du pendule, vous aurez besoin de plus de temps pour qu'il effectue un oscillation complète, ce qui se traduit par une période plus longue. Donc, si vous souhaitez passer de 2.0001 secondes à 2 secondes, vous devez allonger la longueur du pendule pour augmenter la période.

  13. #13
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 758
    Points
    5 758
    Par défaut
    Citation Envoyé par Denis CADIOT Voir le message
    Pourquoi nier la réalité d'une telle invention, même imparfaite ?
    Générer un texte cohérant en quelques secondes avec un réseau de neurones qui a compressé des milliards de données ne serait pas une invention ?
    Les mathématiques sont remarquablement utilisées.
    Je vous laisse le soin de regarder la définition du verbe "inventer" dans un de ces "vieux trucs" que plus personne ne consulte... Le dictionnaire!

    Inventer = Créer ou découvrir qqch. de nouveau


    Faire le résumé des travaux d'autrui ne relève pas de l'invention mais de la violation du droit d'auteurs... Le fait de le faire en 2 heures ou en un millionième de seconde y changent rien!

    Faire croire que le système fait preuve d'intelligence relève de l'escroquerie...

    Très grosse nuance!!!!!!!!!!!!!!!!!

  14. #14
    Membre expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 851
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 851
    Points : 3 481
    Points
    3 481
    Par défaut
    Bonjour,

    Les camps se dessinent, et un peu comme des "extrémismes de la pensée". Ils s'opposent violemment: D'un côté ceux qui pensent qu'un ChatGPT deviendra bientôt conscient, de l'autre ceux qui ne voient que des billevesées dans ces modèles de language.

    Permettez-moi de vous dire que c'est un débat qui devient presque religieux. Les nouveaux "athées" du web qui envisagent que des bits informatiques vont devenir conscient et que bientôt on pourra uploader notre esprit dans le cloud, en bons matérialistes finis vantent les mérites les plus magiques à un simple algorithme et cela les arranges bien pour continuer leur quête de démystification de la nature, et les nouveaux "religieux" du web qui eux voient presque le démon, l'antéchrist prendre vie en ces "entités mécaniques" qui fascinent la plupart au point d'inciter les gens à se poinçonner la marque de la bête dans le cerveau, merci Neuralink. Peut-être, ces derniers ne vont-ils pas jusque là, mais se contentent-ils de ridiculiser la choses, de la diminuer de peur qu'elle ne prenne trop de grandeur par rapport aux dieux, aux anges et aux saints qu'ils vénèrent mais qui semblent bien moins utiles étrangement quand il s'agit de résoudre un bug dans leur programme ou de compléter les couplets moisis de leurs raps de rue conspis.

    Ils sont aussi ridicules les uns que les autres. Remplis de croyances, avec des desseins destructeurs sous-jacent, les uns voulant poursuivre leur quête de réduction de la vie et des mystères de l'existence à la simple matérialité, les autres voyant le mal là où n'y a que l'humain dans ses faiblesses, qui prôneraient presque un retour à l'âge de pierre pour "être en harmonie".

    Veuillez adopter un juste milieu. J'espère que vous n'êtes pas dans ces extrêmes mais vous penchez peut-être d'un côté n'est-ce pas ? et cette chaine youtube que vous connaissez et qui parle du sujet aussi. Au moins, vous le reconnaîtrez, ces débats sont un bon moyen de deviner les théories personnelles de chacun sur ces sujets philosophiques profonds et clivants.

    Quoiqu'il en soit, je voudrais finir mon propos précédent, qui est plus un tremplin intellectuel qu'un tacle idéologique d'ailleurs, pour vous donner mon avis personnel : Si nous prenons le contenu textuel du web, que nous le compressons sous une forme précise en employant certains algorithmes mathématiques, nous obtenons un ChatGPT. Il n'y a ni magie, ni secret dans les algorithmes utilisés pour produire de tels modèles, ni pour obtenir les réponses que nous en obtenons. Il n'y a ni intelligence, ni conscience de ce qui est dit, la machine retourne ce qu'elle a apprit token par token, comme une base de données qui retourne des données quand on lui fournit du SQL. Mais cela nous semble intelligent, et oui, car toutes ces données textuelles du web, aussi dénuée de vie et de conscience soient-elles, sont imprégnées par l'intelligence que nous avons inclus dans chaque mot, dans chaque combinaison de mots, de phrases et de paragraphes. Ce sont les liaisons entre les mots qui créent l'intelligence, et ChatGPT, comme tout modèle d'IA, est capable de détecter ces "patterns" et nous les mettre en évidence. Alors oui de l'intelligence, il y en a dans les réponses données, ce serait inquiétant que tous nos livres et le web n'en contienne aucune. Et non, il n'y a aucune conscience, aucune réflexion dans ce qui est retourné, c'est comme croire que lorsque vous dites quelque chose d'intelligent, votre cable réseau ou votre cable fibre "réfléchi" à ce que vous dites parce que vos propos "passent par là".

    L'intelligence réelle elle est en chacun de nous. Ces modèles sont des nouveaux moyens de restituer les connaissances et les savoirs que nous détenons. Ce sont de très puissants outils, et il faut apprendre à les utiliser et surtout à les comprendre pour ne pas tomber dans des extrêmes embarrassants.
    K

  15. #15
    Membre averti
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2018
    Messages
    82
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Février 2018
    Messages : 82
    Points : 429
    Points
    429
    Par défaut
    C'est du bluff marketing ni plus ni moins... C'est un peu comme comparer un étudiant qui passerait l'examen avec tous ses bouquins à disposition ou un accès au web. Que dirait on dans ce cas? Qu'il a triché... La seule évolution technique de l'IA actuelle est de savoir dialoguer naturellement, le reste c'est de la compilation de données.

  16. #16
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 70
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 48
    Points : 111
    Points
    111
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Je vous laisse le soin de regarder la définition du verbe "inventer" dans un de ces "vieux trucs" que plus personne ne consulte... Le dictionnaire!

    Inventer = Créer ou découvrir qqch. de nouveau


    Faire le résumé des travaux d'autrui ne relève pas de l'invention mais de la violation du droit d'auteurs... Le fait de le faire en 2 heures ou en un millionième de seconde y changent rien!

    Faire croire que le système fait preuve d'intelligence relève de l'escroquerie...

    Très grosse nuance!!!!!!!!!!!!!!!!!
    Selon la 1ère définition du Larousse : "Trouver, réaliser quelque chose de nouveau, à quoi personne n'avait pensé auparavant, que personne n'avait fait."

    Vous pensez qu'un dispositif informatique qui compresse des informations dans un réseau de neurones artificiels de telle manière à répondre à des questions en langage naturel donnant le résultat statistiquement le plus pertinent ne serait pas une invention ?
    Pour penser cela vous avez sans doute des informations que je n'ai pas.

    Pour l'instant il n'y a pas de poursuites pour violation de droits d'auteurs, le savoir est un bien de l'humanité, non ?

    Quant à l'intelligence vous avez raison, surtout pas humaine, mais prenez connaissance de cet article, j'ai été troublé : https://www.frontiersin.org/articles...3.1199058/full

  17. #17
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 565
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 565
    Points : 7 291
    Points
    7 291
    Par défaut
    Citation Envoyé par KiLVaiDeN Voir le message
    Bonjour,

    Les camps se dessinent, et un peu comme des "extrémismes de la pensée". Ils s'opposent violemment: D'un côté ceux qui pensent qu'un ChatGPT deviendra bientôt conscient, de l'autre ceux qui ne voient que des billevesées dans ces modèles de language.

    Permettez-moi de vous dire que c'est un débat qui devient presque religieux. Les nouveaux "athées" du web qui envisagent que des bits informatiques vont devenir conscient et que bientôt on pourra uploader notre esprit dans le cloud, en bons matérialistes finis vantent les mérites les plus magiques à un simple algorithme et cela les arranges bien pour continuer leur quête de démystification de la nature, et les nouveaux "religieux" du web qui eux voient presque le démon, l'antéchrist prendre vie en ces "entités mécaniques" qui fascinent la plupart au point d'inciter les gens à se poinçonner la marque de la bête dans le cerveau, merci Neuralink. Peut-être, ces derniers ne vont-ils pas jusque là, mais se contentent-ils de ridiculiser la choses, de la diminuer de peur qu'elle ne prenne trop de grandeur par rapport aux dieux, aux anges et aux saints qu'ils vénèrent mais qui semblent bien moins utiles étrangement quand il s'agit de résoudre un bug dans leur programme ou de compléter les couplets moisis de leurs raps de rue conspis.

    Ils sont aussi ridicules les uns que les autres. Remplis de croyances, avec des desseins destructeurs sous-jacent, les uns voulant poursuivre leur quête de réduction de la vie et des mystères de l'existence à la simple matérialité, les autres voyant le mal là où n'y a que l'humain dans ses faiblesses, qui prôneraient presque un retour à l'âge de pierre pour "être en harmonie".

    Veuillez adopter un juste milieu. J'espère que vous n'êtes pas dans ces extrêmes mais vous penchez peut-être d'un côté n'est-ce pas ? et cette chaine youtube que vous connaissez et qui parle du sujet aussi. Au moins, vous le reconnaîtrez, ces débats sont un bon moyen de deviner les théories personnelles de chacun sur ces sujets philosophiques profonds et clivants.

    Quoiqu'il en soit, je voudrais finir mon propos précédent, qui est plus un tremplin intellectuel qu'un tacle idéologique d'ailleurs, pour vous donner mon avis personnel : Si nous prenons le contenu textuel du web, que nous le compressons sous une forme précise en employant certains algorithmes mathématiques, nous obtenons un ChatGPT. Il n'y a ni magie, ni secret dans les algorithmes utilisés pour produire de tels modèles, ni pour obtenir les réponses que nous en obtenons. Il n'y a ni intelligence, ni conscience de ce qui est dit, la machine retourne ce qu'elle a apprit token par token, comme une base de données qui retourne des données quand on lui fournit du SQL. Mais cela nous semble intelligent, et oui, car toutes ces données textuelles du web, aussi dénuée de vie et de conscience soient-elles, sont imprégnées par l'intelligence que nous avons inclus dans chaque mot, dans chaque combinaison de mots, de phrases et de paragraphes. Ce sont les liaisons entre les mots qui créent l'intelligence, et ChatGPT, comme tout modèle d'IA, est capable de détecter ces "patterns" et nous les mettre en évidence. Alors oui de l'intelligence, il y en a dans les réponses données, ce serait inquiétant que tous nos livres et le web n'en contienne aucune. Et non, il n'y a aucune conscience, aucune réflexion dans ce qui est retourné, c'est comme croire que lorsque vous dites quelque chose d'intelligent, votre cable réseau ou votre cable fibre "réfléchi" à ce que vous dites parce que vos propos "passent par là".

    L'intelligence réelle elle est en chacun de nous. Ces modèles sont des nouveaux moyens de restituer les connaissances et les savoirs que nous détenons. Ce sont de très puissants outils, et il faut apprendre à les utiliser et surtout à les comprendre pour ne pas tomber dans des extrêmes embarrassants.
    Cette réponse a été écrite avec ChatGPT?
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  18. #18
    Membre expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 851
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 851
    Points : 3 481
    Points
    3 481
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Cette réponse a été écrite avec ChatGPT?
    Non, cela aurait été un manque de respect pour mes interlocuteurs, si ça avait été le cas je l'aurais mentionné Et puis en me relisant j'ai vu des fautes d'aurtographe etc
    K

  19. #19
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 458
    Points
    3 458
    Par défaut
    Citation Envoyé par KiLVaiDeN Voir le message
    Permettez-moi de vous dire que c'est un débat qui devient presque religieux. Les nouveaux "athées" du web qui envisagent que des bits informatiques vont devenir conscient [...] et les nouveaux "religieux" du web qui eux voient presque le démon, l'antéchrist prendre vie
    Pour moi ces camps sont les même parce qu'ils attribuent la conscience.
    Ma position est un peu différente : On m'intime l'ordre d'utiliser ChatGPT dans mon travail mais je n'ai besoin, pour l'instant, d'aucun cas que l'on me présente.
    Je reste curieux mais je fait trois constats : (1) ChatGPT fait des erreurs, (2) ma capacité de relecture/correction est faible, donc utiliser chatGPT comme assistant me prendrait autant de temps que de le faire moi même.
    (3) ChatGPT a des "hallucinations" affirmations qui sont fausses mais comme il ne cite pas ses sources (et j'ai vu des IA genératives qui le font) et que ces informations n'existent pas il est difficiles de les infirmer - ou le temps de le faire est plus important que de faire une recherche sur un moteur de recherche standard soit même.

    Des quelques collègues qui utilisent beaucoup ChatGPT je constate deux choses :
    Je sais détecter ce qu'ils ont fait avec ChatGPT et ce qu'ils ont fait eux même. Ils ont un pouvoir de conviction très fort qui disparait dès qu'ils l'utilisent.
    Ils aiment ce qui est simple/clair/facile, avoir une réponse unique à leur demande les met en état de confort.

    Pour être caricatural mon métier consiste à explorer les limites des systèmes, zone dans laquelle ChatGPT n'est pas efficace (et ce n'est pas son rôle donc je ne "lui en veut pas")
    Mais donc ma position "anti ChatGPT" n'est pas contre ChatGPT mais contre les évangélistes ChatGPTistes.

  20. #20
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 428
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 428
    Points : 5 631
    Points
    5 631
    Par défaut
    Citation Envoyé par Denis CADIOT Voir le message
    Je retrouve dans ce commentaire la position d'un aficionado.

    Usage par un avocat, vous n'avez pas lu un article à ce sujet ici il y a quelques mois.
    Mon fils, programmeur confirmé, a renoncé à son usage tant le code est remplis d'erreurs qui lui demandaient beaucoup de temps à débugger.
    L'usager ne sait pas faire de "prompting", argument maintes fois entendu, mais jamais d'exemple concret. Lors mes tests, ChatGPT3 reformule ma question, ce qui indique qu'il n'y a pas d'ambiguïté.

    Comment un outil qui échoue sur un sujet simple peut prétendre à aider un programmeur sans l'induire en erreur ?

    Je vais vous donner un autre exemple de conversation qui porte sur un sujet simple, erreurs en rouge c'est édifiant :


    User
    Un pendule simple présente une période de 2.0001 secondes. De combien dois-je déplacer le centre de gravité de la masse pour obtenir exactement 2 secondes ?

    ChatGPT
    La période d'un pendule simple dépend de la longueur du pendule et de l'accélération due à la gravité. La formule de la période T est donnée par :

    T = 2π√(L/g)

    où T est la période, L est la longueur du pendule, et g est l'accélération due à la gravité.

    Dans votre cas, vous voulez réduire la période de 2.0001 secondes à exactement 2 secondes. Pour ce faire, vous pouvez réorganiser la formule de la période comme suit :

    2 = 2π√(L/g)

    Divisez les deux côtés par 2π :

    1 = √(L/g)

    Élevez les deux côtés au carré pour éliminer la racine carrée :

    1 = L/g

    Maintenant, pour obtenir une période de 2 secondes, vous devez résoudre cette équation pour L :

    2 = L/g

    L = 2g

    Donc, pour obtenir une période de 2 secondes, vous devez augmenter la longueur du pendule L de manière à ce qu'elle soit égale à deux fois l'accélération due à la gravité g. Vous n'avez pas besoin de déplacer le centre de gravité de la masse, il vous suffit de changer la longueur du pendule.

    User
    La longueur du pendule est défini par la distance du centre de gravité de sa masse à l'axe de rotation, non ?

    ChatGPT
    Vous avez tout à fait raison, la longueur du pendule simple est en effet définie comme la distance entre le centre de gravité de sa masse et l'axe de rotation. Par conséquent, si vous voulez ajuster la longueur du pendule pour obtenir une période de 2 secondes au lieu de 2.0001 secondes, vous devrez déplacer le centre de gravité de la masse par rapport à l'axe de rotation. La quantité exacte dont vous devez déplacer le centre de gravité dépendra de la géométrie du pendule et de la distribution de sa masse. Il est probable que cela nécessite des calculs complexes et une compréhension détaillée de la physique du pendule. Vous pourriez avoir besoin d'une assistance plus spécialisée pour effectuer cet ajustement de manière précise.

    User
    On suppose que la masse est sphérique et on néglige celle du bras

    ChatGPT
    Si l'on suppose que la masse est sphérique et que l'on néglige la masse du bras du pendule, vous pouvez utiliser la formule suivante pour calculer la longueur requise du pendule afin d'obtenir une période de 2 secondes :

    T = 2π√(L/g)

    Dans ce cas, T est la période que vous souhaitez (2 secondes), et g est l'accélération due à la gravité. Vous pouvez réorganiser cette formule pour résoudre L :

    L = (T^2 * g) / (4π^2)

    Maintenant, en insérant les valeurs, vous obtenez :

    L = (2^2 * 9.81 m/s^2) / (4 * π^2) ≈ 1.002 mètres

    Donc, pour obtenir une période de 2 secondes avec une masse sphérique et en négligeant la masse du bras, vous devrez ajuster la longueur du pendule pour qu'elle soit d'environ 1.002 mètres. Cela signifie que vous devrez déplacer le centre de gravité de la sphère à une distance de 1.002 mètres de l'axe de rotation pour atteindre cette période.

    User
    De combien dois-je déplacer la masse sphérique pour passer de la période mesurée de 2.0001 seconde à 2 secondes exactement ?
    ChatGPT
    Pour passer d'une période mesurée de 2.0001 secondes à 2 secondes exactement avec une masse sphérique négligeant la masse du bras, vous pouvez utiliser la formule suivante :

    ΔL = (T^2 * g) / (4π^2) - (T_mesurée^2 * g) / (4π^2)

    où :

    ΔL est la quantité que vous devez déplacer la masse sphérique,
    T est la période souhaitée (2 secondes),
    T_mesurée est la période mesurée précédemment (2.0001 secondes),
    g est l'accélération due à la gravité (environ 9.81 m/s²),
    4π^2 est une constante.
    Insérez les valeurs dans la formule :

    ΔL = ((2^2 * 9.81 m/s^2) / (4π^2)) - ((2.0001^2 * 9.81 m/s^2) / (4π^2))

    Calculons cela :

    ΔL ≈ (39.24 / (4π^2)) - (39.240081 / (4π^2))
    ΔL ≈ (9.9 / π^2) - (9.90002 / π^2)

    ΔL ≈ (9.9 - 9.90002) / π^2
    ΔL ≈ (-0.00002) / π^2

    ΔL ≈ -0.0000064 mètres

    Vous devrez déplacer la masse sphérique d'environ -0.0000064 mètres (soit environ -6.4 micromètres) vers le haut ou le bas par rapport à sa position actuelle pour passer de 2.0001 secondes à 2 secondes exactement.

    User
    Raccourcir ou allonger ?

    ChatGPT
    Vous devrez allonger la longueur du pendule d'environ 6.4 micromètres (ou 0.0000064 mètres) pour passer de 2.0001 secondes à 2 secondes exactement.

    User
    Quand on allonge la période augmente ou diminue ?

    ChatGPT
    Lorsque vous allongez la longueur d'un pendule simple, la période augmente. En d'autres termes, en augmentant la longueur du pendule, vous aurez besoin de plus de temps pour qu'il effectue un oscillation complète, ce qui se traduit par une période plus longue. Donc, si vous souhaitez passer de 2.0001 secondes à 2 secondes, vous devez allonger la longueur du pendule pour augmenter la période.

    encore une fois tu l'utilise très mal, cette outil n'est simplement pas pour toi.
    c'est pas un outil pour faire des maths et des calculs mathématique, ou même tenir un raisonnement, tu n'as rien compris a son utilité.

    cette outil complète une phrase de manière statistiquement la plus cohérente possible voila c'est tous. Tu tentes volontairement de le pieger, alors que au lieu de cela tu devrais réfléchir a comment il pourrait booster ta productivité ou pas.
    Cas d'usage qui peut être utilisé par tous les salariés du tertiaire: Il est très bien pour me faire un résumé de mail ou d'une réunion par exemple.

    Moi hier je lui ai envoyé une erreur java et il m'a très bien expliqué la cause.
    je me forme en go ces dernier temps et il m'aide énormément. Plutôt que de chercher sur stackoverflow il me donne une solution plus rapidement et sur mesure.

    Il est pas la pour me faire un logiciel, il est pas la pour me donner du code performant et sans faille de sécurité, il est la pour m'aider à debugger du code et à me donner des exemples de code pour des cas "simple", tu saisis la nuance ?
    j'ai pris l'exemple de l'avocat car justement l'article que tu mentionne il l'a utilisé non pas pour lui faire un résumé d'article de lois ou de lui donner des pistes pour son affaire mais lui a demandé de lui faire tous le travail sans rien vérifier, bah oui la ca marche moins bien....

Discussions similaires

  1. quel logiciel pour faire du SQL sur des GROS fichiers bruts (csv)?
    Par flipo44 dans le forum Décisions SGBD
    Réponses: 2
    Dernier message: 24/06/2010, 16h59
  2. Réponses: 3
    Dernier message: 02/04/2010, 19h15
  3. Base pour stockage d'informations sur des candidatures
    Par ccanu dans le forum Modélisation
    Réponses: 41
    Dernier message: 10/09/2008, 11h39
  4. Réponses: 6
    Dernier message: 13/11/2007, 12h06
  5. Quel CMS vous me conseillez pour créer un site sur des produits agricoles ?
    Par wadwin dans le forum EDI, CMS, Outils, Scripts et API
    Réponses: 1
    Dernier message: 20/07/2007, 10h32

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo