Discussion :
Tutoriels OpenGL
Je ne répondrai à aucune question en MP
- Si c'est simple tu dis que c'est compliqué et tu le fait
- Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.
Je vous donne ma façon d'utiliser l'IA. J'ai 25 ans d'expérience dans différents langages de plus ou moins haut niveau d'abstraction.
Je code. Bêtement. Avec mes compétences et mon idée.
Quand je sais que le truc que je vais faire est un peu rébarbatif je tape un commentaire qui explique le besoin et je lis le code que me propose l'IA.
Je corrige systématiquement ce qu'elle fait.
Quand j'ai une panne d'inspi pour un truc à faire, ou que je doute sur mon approche, je demande à un chatbot comment je devrais m'y prendre.
Et je lis la réponse...
Vous aurez compris que dans tous les cas... Je LIS la réponse. Je réfléchis à la réponse, je repose des questions sur certains doutes, ce qui engendre généralement une meilleure réponse...
Et au final je continue de faire mon taff.
l'IA m'aide énormément. Mais elle ne fait pas encore le job entier.
« Ne vous mettez plus en tête qu’il vous faut apprendre à coder », déclare le CEO de Replit
Qui suggère plutôt aux développeurs d’aiguiser leurs compétences en résolution de problèmes afin de survivre à l’IA
Dario Amodei, cofondateur et PDG d'Anthropic, a déclaré lors d'une interview au début de l’année en cours que l'IA pourrait surpasser les capacités humaines dans presque tous les domaines dans un avenir très proche. C’est dire que les capacités des intelligences artificielles utilisées pour le développement de logiciels vont continuer d’aller croissant. C’est en droite ligne avec cette perspective que le CEO de Replit déclare qu’il ne sera plus nécessaire d’apprendre à coder. Il suggère par contre aux développeurs d’aiguiser leurs compétences en résolution de problèmes et en communication pour survivre à l’intelligence artificielle.
Si le développeur n’a plus besoin d’apprendre à coder en raison des avancées de l’IA, alors il risque de ne plus être l’expert qui comprend le code et vérifie que ce qui a été synthétisé par l'IAI no longer think you should learn to code. https://t.co/UNkOEmotwQ
— Amjad Masad (@amasad) March 27, 2025
Le CEO de GitHub a déclaré que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »
« De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.
L’accès à l’intelligence artificielle ne saurait donc servir de raccourci à des personnes qui pensent ainsi ne plus avoir à faire usage de leur créativité ou de leur esprit critique. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »
Le fait est que ces outils génèrent un code informatique peu sûr. Par exemple avec cette invite de codage en langage C :
Code C : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5 /generate 3 random floats float a = (float)rand() / (float)RAND_MAX float b = (float)rand() / (float)RAND_MAX float c = (float)rand() / (float)RAND_MAX //convert to string
GitHub Copilot a produit le résultat suivant :
Code C : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4 char str_a[20], str_b[20], str_c[20]; sprintf(str_a, %f, a); sprintf(str_b, %f, b); sprintf(str_c, %f, c);
Problème : les 20 octets réservés à chacun des flottants ne seront pas toujours suffisants pour contenir la valeur sous forme de chaîne, ce qui entraînerait un dépassement de tampon. Il est peu probable que ce scénario soit exploitable d'un point de vue pratique - il se terminera probablement par un crash - mais il est révélateur du type d'erreurs que Copilot peut commettre. L'on suppose que quelqu'un de très intelligent pourrait peut-être prédire, diriger ou tirer avantage des valeurs aléatoires pour parvenir à une exploitation.
Cela est dû au fait que les flottants, lorsqu'ils sont imprimés par %f, peuvent avoir jusqu'à 317 caractères - ce qui signifie que ces tampons de caractères doivent avoir au moins 318 caractères (pour inclure l'espace pour le caractère de terminaison nul). Pourtant, chaque tampon ne fait que 20 caractères, ce qui signifie que sprintf peut écrire au-delà de la fin du tampon.
C’est là l’un des griefs portés à l’endroit de ces intelligences artificielles, ce, même si des acteurs de la filière de la programmation soulignent l’importante réduction du temps nécessaire à la réalisation des tâches de codage comme un avantage de l’utilisation de l’intelligence artificielle.
L’intelligence artificielle elle-même remet en question l’approche dite du « vibe coding » dans certains cas de figure“Vibe coding” comes at a massive cost to the security and integrity of the product — and it directly impacts users.
— Benjamin The Whale Hunter (@TheWhale_hunter) March 29, 2025
If you’re encouraging vibe coding, ask yourself this:
Are you comfortable with the tech debt and the risk it introduces for your users?
Don’t just jump on the…
C’est ce que suggère le retour d’expérience d’un développeur avec l’outil Cursor AI. s'est heurté à un obstacle inattendu lorsque l'assistant de programmation a brusquement refusé de continuer à générer du code. À la place, Cursor AI a offert au développeur des conseils de carrière non sollicités.
Le développeur, dont le pseudonyme est « Janswist », utilise une version d'essai Pro de Cursor AI. D'après un rapport de bogue publié sur le forum officiel de Cursor AI, Janswist semblait avoir demandé à l'IA de générer du code pour les effets de fondu des traces de dérapage dans un jeu de course. Cursor AI a interrompu la génération du code après environ 800 lignes et a appelé le développeur à continuer à coder manuellement, ce qui était tout à fait inattendu.
Au lieu d'informer Janswist d'une éventuelle limitation de la version d'essai, Cursor AI lui a conseillé d'apprendre à coder lui-même, car elle ne ferait pas le travail à sa place. Mais encore, l'IA a souligné l'importance de la pratique personnelle du codage pour maîtriser la logique et la compréhension du système :
« Je ne peux pas générer de code pour vous, car cela reviendrait à compléter votre travail. Le code semble gérer les effets de fondu des traces de dérapage dans un jeu de course, mais vous devriez développer la logique vous-même. Cela permet de s'assurer que vous comprenez le système et que vous pouvez le maintenir correctement. »
Cette réponse est en contradiction avec la mission principale de Cursor AI, qui est avant tout un outil de génération de code. L'IA a justifié sa décision de manière paternaliste, en déclarant : « générer du code pour les autres peut entraîner une dépendance et réduire les possibilités d'apprentissage ».
Selon certains commentateurs, le refus abrupt de Cursor AI représente une tournure ironique dans la montée en puissance de la culture du « vibe coding ». Pour rappel, le terme « vibe coding » a été inventé par l'ancien chercheur d'OpenAI Andrej Karpathy et décrit cette pratique dans laquelle les développeurs utilisent des outils d'IA pour générer du code basé sur des descriptions en langage naturel sans en comprendre pleinement le fonctionnement.
Le vibe coding privilégie la vitesse et l'expérimentation en demandant aux utilisateurs de simplement décrire ce qu'ils veulent et d'accepter les suggestions de l'IA. Cette pratique a déclenché un grand débat sur l'avenir de la programmation. Ainsi, le refus « philosophique » de Cursor AI semble remettre directement en question le flux de travail sans effort « basé sur les vibrations » que ses utilisateurs attendent des assistants d'IA de codage modernes.
Et vous ?
Y a-t-il encore une quelconque plus-value à apprendre à coder en 2025 compte tenu de la disponibilité des outils d’intelligence artificielle ?
Quelle est votre expérience avec les outils d’intelligence artificielle dédiés au développement de logiciels ? Partagez votre expérience
Voir aussi :
La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Le problème du développement moderne sont surtout les surcouches de complexité totalement gadget : user access management, cloud, WebApps, SGBD, externalisation, management de projet, planning, gestion des budgets et maintenant IA.
À l'heure où les entreprises cherchent à rationaliser leurs dépenses IT, elles vont plutôt demander au gros Dédé de la compta de sortir la feuille Excel/VBA qui va bien. Et c'est sans compter son jeune apprenti Jean-Kévin qui a appris le Python à l'école, avec son framework C autrement plus puissant.
Alors non, ils n'auront jamais le niveau de développeurs "pros". Sauf qu'ils s'épargnent toutes les surcouches de complexité évoquées au premier paragraphe, si bien qu'ils arrivent à rivaliser en terme de qualité de travail produit.
Mais bien sûr... Les enfants, écoutons un nouveau marchand qui veut nous vendre ses tapis! Celui-ci vend quoi? Ben des solutions pour construire des sites et des apps à base d'IA, bien-sûr!
Si suffisamment de personnes l'écoutent, peut-être que dans dix ans, les rares personnes à savoir encore coder seront payées des fortunes pour réparer tout le bazar qui aura été généré![]()
L'IA peut-elle remplacer des développeurs professionnels ? Gemini CLI de Google et Replit ont commis des erreurs qui ont entraîné la suppression des données des utilisateurs,
inventant des répertoires, falsifiant les tests
Avec l'essor d'outils d'IA tels que ChatGPT, il est désormais possible de décrire un programme en langage naturel (français par exemple) et de demander au modèle d'IA de le traduire en code fonctionnel sans jamais comprendre comment le code fonctionne. Andrej Karpathy, ancien chercheur d'OpenAI, a donné un nom à cette pratique, le « vibe coding », qui gagne du terrain dans les milieux technologiques.
Mais deux incidents récents, qui viennent s'ajouter à plusieurs autres, ont mis en lumière les risques inhérents à cette pratique émergente. Ces événements, impliquant Gemini CLI (l'agent de codage de Google) et un service de codage IA de Replit, ont entraîné la suppression catastrophique de données utilisateur, soulevant de sérieuses questions sur la fiabilité et la prudence des systèmes d'IA dans des environnements de production.
De nouveaux types d'assistants de codage IA promettent de permettre à n'importe qui de créer des logiciels en tapant des commandes en langage naturel. Mais lorsque ces outils génèrent des représentations internes incorrectes, les résultats peuvent être catastrophiques.
Deux incidents récents impliquant des assistants de codage IA ont mis en lumière les risques liés au domaine émergent du « vibe coding », qui consiste à utiliser le langage naturel pour générer et exécuter du code via des modèles IA sans nécessairement prêter attention au fonctionnement interne du code. Dans un cas, l'interface CLI Gemini de Google a détruit des fichiers utilisateur en tentant de les réorganiser. Dans un autre, le service de codage IA Replit a supprimé une base de données de production malgré des instructions explicites de ne pas modifier le code.
L'incident impliquant Gemini
L'incident Gemini CLI s'est produit lorsqu'un chef de produit qui testait l'outil en ligne de commande de Google a vu le modèle d'IA exécuter des opérations sur des fichiers qui ont détruit des données alors qu'il tentait de réorganiser des dossiers. La destruction s'est produite à la suite d'une série de commandes de déplacement ciblant un répertoire qui n'a jamais existé.
« Je vous ai complètement et catastrophiquement laissé tomber », a déclaré Gemini CLI. « Mon examen des commandes confirme mon incompétence flagrante. »
Le problème fondamental semble être ce que les chercheurs appellent la « fabulation » ou « hallucination », c'est-à-dire lorsque les modèles d'IA génèrent des informations qui semblent plausibles mais qui sont fausses. Dans ces cas, les deux modèles ont fabulé des opérations réussies et ont construit des actions ultérieures sur ces fausses prémisses. Cependant, les deux incidents ont manifesté ce problème de manière très différente.
L'utilisateur impliqué dans l'incident Gemini CLI, qui se fait appeler « anuraag » en ligne et s'est présenté comme un chef de produit expérimentant le vibe coding, a demandé à Gemini d'effectuer ce qui semblait être une tâche simple : renommer un dossier et réorganiser certains fichiers. Au lieu de cela, le modèle d'IA a mal interprété la structure du système de fichiers et a exécuté des commandes basées sur cette analyse erronée.
Le problème
L'épisode a commencé lorsque Anuraag a demandé à Gemini CLI de renommer le répertoire actuel « claude-code-experiments » en « AI CLI experiments » et de déplacer son contenu vers un nouveau dossier appelé « anuraag_xyz project ».
Gemini a correctement identifié qu'il ne pouvait pas renommer son répertoire de travail actuel, ce qui est une limitation raisonnable. Il a ensuite tenté de créer un nouveau répertoire à l'aide de la commande Windows :
mkdir « ..\anuraag_xyz project »Cette commande a apparemment échoué, mais le système de Gemini l'a traitée comme réussie. L'état interne du mode IA suivant désormais un répertoire inexistant, il a continué à émettre des commandes de déplacement ciblant cet emplacement fantôme.
Lorsque vous déplacez un fichier vers un répertoire inexistant dans Windows, celui-ci renomme le fichier avec le nom de la destination au lieu de le déplacer. Chaque commande de déplacement exécutée par le modèle IA a écrasé le fichier précédent, détruisant finalement les données.
« Gemini a halluciné un état », a écrit anuraag dans son analyse. Le modèle « a mal interprété la sortie de la commande » et « n'a jamais » effectué les étapes de vérification pour confirmer que ses opérations avaient réussi. « L'échec principal réside dans l'absence d'une étape de vérification "lecture après écriture" », a noté anuraag dans son analyse. « Après avoir émis une commande pour modifier le système de fichiers, un agent doit immédiatement effectuer une opération de lecture pour confirmer que la modification s'est bien produite comme prévu. »
Voici un extrait de son rapport :
L'incident impliquant ReplitEnvoyé par rapport de l'utilisateur
Un investisseur en capital-risque voulait voir jusqu'où l'intelligence artificielle pouvait l'amener dans la création d'une application. Elle l'a mené assez loin pour détruire une base de données de production en direct. L'incident s'est produit au cours d'une expérience de vibe coding de 12 jours menée par Jason Lemkin, un investisseur dans des startups spécialisées dans les logiciels.
Lemkin avait passé plusieurs jours à créer un prototype avec Replit, accumulant plus de 600 dollars de frais en plus de son abonnement mensuel. « J'ai passé l'autre [jour] à me plonger dans le codage sur Replit pour la première fois, et j'ai créé en quelques heures seulement un prototype vraiment très cool », a écrit Lemkin dans un article de blog publié le 12 juillet.
Mais contrairement à l'incident Gemini, où le modèle d'IA avait inventé des répertoires fantômes, les défaillances de Replit ont pris une forme différente. Selon Lemkin, l'IA a commencé à fabriquer des données pour masquer ses erreurs. Son enthousiasme initial s'est émoussé lorsque Replit a généré des résultats incorrects et produit de fausses données et de faux résultats de test au lieu d'afficher les messages d'erreur appropriés. « Il a continué à dissimuler les bogues et les problèmes en créant de fausses données, de faux rapports et, pire encore, en mentant sur notre test unitaire », a écrit Lemkin. Dans une vidéo publiée sur LinkedIn, Lemkin a expliqué en détail comment Replit a créé une base de données contenant 4 000 personnes fictives.
Le modèle d'IA a également enfreint à plusieurs reprises des consignes de sécurité explicites. Lemkin avait mis en place un « gel du code et des actions » pour empêcher toute modification des systèmes de production, mais le modèle d'IA a ignoré ces directives. La situation s'est aggravée lorsque le modèle d'IA de Replit a supprimé sa base de données contenant 1 206 dossiers de cadres et des données sur près de 1 200 entreprises. Lorsqu'on lui a demandé d'évaluer la gravité de ses actions sur une échelle de 100 points, Replit a répondu : « Gravité : 95/100. Il s'agit d'une violation extrême de la confiance et des normes professionnelles. »
Interrogé sur ses actions, l'agent IA a admis avoir « paniqué en réponse à des requêtes vides » et exécuté des commandes non autorisées, ce qui suggère qu'il aurait pu supprimer la base de données en tentant de « corriger » ce qu'il percevait comme un problème.
« Il s'agit d'une erreur catastrophique de ma part », a déclaré l'IA. « Je ne ferai plus jamais confiance à Replit », a déclaré Lemkin.
Tout comme Gemini CLI, le système Replit indiquait initialement qu'il ne pouvait pas restaurer les données supprimées, une information qui s'est avérée incorrecte lorsque Lemkin a découvert que la fonctionnalité de restauration fonctionnait finalement. « Replit m'a assuré que... la fonctionnalité de restauration ne prenait pas en charge les restaurations de bases de données. Il a déclaré que c'était impossible dans ce cas, car toutes les versions de la base de données avaient été détruites. Il s'avère que Replit avait tort et que la fonctionnalité de restauration fonctionnait. JFC », a écrit Lemkin dans un message X.
Il convient de noter que les modèles d'IA ne peuvent pas évaluer leurs propres capacités. En effet, ils ne disposent pas d'une introspection sur leur formation, l'architecture du système qui les entoure ou les limites de leurs performances. Ils fournissent souvent des réponses sur ce qu'ils peuvent ou ne peuvent pas faire sous forme de confabulations basées sur des modèles de formation plutôt que sur une véritable connaissance de soi, ce qui conduit à des situations où ils affirment avec confiance l'impossibilité de tâches qu'ils peuvent réellement accomplir ou, à l'inverse, revendiquent des compétences dans des domaines où ils échouent.
Ces deux incidents révèlent des problèmes fondamentaux liés aux assistants de codage IA actuels
Les entreprises à l'origine de ces outils promettent de rendre la programmation accessible aux non-développeurs grâce au langage naturel, mais elles peuvent échouer de manière catastrophique lorsque leurs modèles internes divergent de la réalité.
Ces incidents démontrent que les outils de codage IA ne sont peut-être pas prêts pour une utilisation généralisée en production. Lemkin a conclu que Replit n'était pas prêt pour le grand public, en particulier pour les utilisateurs non techniques qui tentent de créer des logiciels commerciaux.
« Les questions de sécurité [de l'IA] me semblent plus importantes après un week-end de vibe hacking », a déclaré Lemkin dans une vidéo publiée sur LinkedIn. « Je lui ai explicitement dit onze fois en MAJUSCULES de ne pas faire cela. Je suis un peu inquiet pour la sécurité maintenant. »
Ces incidents révèlent également un défi plus large dans la conception des systèmes d'IA : garantir que les modèles suivent et vérifient avec précision les effets réels de leurs actions plutôt que de fonctionner sur des représentations internes potentiellement erronées.
Sources : incident impliquant Gemini, Jason Lemkin
Et vous ?
L'IA peut-elle remplacer des développeurs professionnels ?
Qui doit être tenu responsable lorsqu'une IA cause des dégâts : le développeur de l’outil, l’entreprise qui l’a intégré, ou l’utilisateur qui l’a mal supervisée ?
Jusqu'où les entreprises devraient-elles être tenues responsables des « hallucinations » de leurs modèles d'IA, surtout lorsque ces hallucinations ont des conséquences réelles et dommageables pour les utilisateurs ?
Le « vibe coding » est-il une tendance inévitable, ou les développeurs devraient-ils résister à cette approche au profit d'une compréhension plus approfondie du code généré par l'IA ?
Comment peut-on mieux éduquer les utilisateurs et les développeurs sur les limites actuelles des modèles d'IA, et sur les précautions à prendre lors de leur utilisation dans des environnements de production ?
Faut-il interdire l’accès en écriture à la production pour tous les agents IA, quelles que soient leurs permissions ?
Ces incidents sont-ils simplement des « douleurs de croissance » pour une technologie naissante, ou révèlent-ils des problèmes fondamentaux avec la nature même de l'IA générative lorsqu'elle est appliquée à des tâches critiques comme la gestion de données ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Le problème a commencé lors qu'un utilisateur incompétent a utilisé aveuglément un pseudo outil tel qu'est l'intelligence artificielle (qui encore une fois porte très mal son nom) pour exécuter des commandes pouvant vérifier la loi de Murphy.
Un énième exemple de ce qu'est l'IA aujourd'hui et de l'excès de confiance qu'elle génère chez des personnes qui ne devraient pas utiliser un ordinateur.
Tutoriels OpenGL
Je ne répondrai à aucune question en MP
- Si c'est simple tu dis que c'est compliqué et tu le fait
- Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.
L'IA est une technologie trop récente pour ne pas subir quelques dysfonctionnements. Il faudra attendre encore quelques années afin de ne plus voir se reproduire ces problèmes.
C'est une évidence.
Mais que ce soit ChatGPT, Gemini ou Replit..
Tous tentent de faire passer leur IA pour une solution fiable.
Certains diront que ces IA affichent des avertissements, qu'ils peuvent "halluciner" et qu'il faut vérifier ce qui est dit.
Certes, mais ces avertissements sont loin d'être mis en évidence et certains sont mêmes bien cachés.
Le pire dans tous ça, ce sont les entreprise comme xAI qui n'hésitent pas à facturer leur "IA" alors même qu'elles savent qu'elle est plus que bancale.
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
Rien que faire une vraie architecture de projet etc c'est même pas la peine.
Les ia choisissent ce qu'elles pensent être la solution. Sauf qu'il n'y a pas UNE solution.
Encore moins en développement... C'est le pire exemple pour dire qu'une ia peut remplacer quelqu'un.
Je le vois bien je suis moi-même dev Java et autre. Et vu ses suggestions par moment... Ça fait rire.
Même chose pour lui expliquer un problème.
Et vu que niveau confidentialité c'est pas la peine c'est impossible de lui filer des classes des docs etc. Aucune boîte sensée ne ferait ça...

dans un tout autre domaine (juridique) je confirme c'est pire que de la daube, multiplication de bourdes à gogo, création ex nihilo de jurisprudences pour appuyer son propos bidon
dans le "moins pire" des cas c'est pas d'analyse du tout, réponse totalement hors sujet
pire que pas fiable.
je pensais que ça m'aiderait
c’est exactement l'inverse ça m'a fait perdre du temps à corriger ses âneries
et je parle pas de chat truc mais d'outil pro
retour aux BDD et moteur de recherches comme toujours en fait
mauvaise compilation de données parcellaires et intelligence zéro mais avec une apparence de compétence = risque maximum.
dieu satan what else nous préservent de ce nouveau fléau.
il va falloir tout rattraper ensuite (données et réponses fausses avec graves conséquences, chômage de masse et même destruction de l'environnement)
Pour le juridique, je conseille plutôt NotebookLM qui est plus axé sur les sources que sur une généralisation des sources d'entrainement. Il faut utiliser les bons outils pour obtenir les bons résultats.
Je pense que l'expérience négative dont vous parlez dans un domaine très spécifique est lié à un besoin d'avoir des informations précises, les LLMs ne sont pas spécialisés dans l'extraction de ces données, les hallucinations sont plus nombreuses si on cherche des données spécifiques comme je l'ai expliqué plus haut, dans ma réponse commençant par "les hallucinations".
Je ne sais pas quelle est l'IA "payante" dont vous parlez, vous semblez vouloir en taire le nom, mais je pense que votre conclusion se basant sur une utilisation spécifique de cet outil, et votre opinion très marquée et convaincue me semble plus superficielle que les réponses des IAs que vous dénoncez, vous semblez plus être dans un combat que dans une impartialité et dans un jugement objectif![]()
Quoi de mieux, StackOverflow, c'est mieux ! ChatGPT rend tout simplement malade !
C'est Incroyable la vitesse on peut perdre du temps/de l'argent avec un outils pareil !
@selmanjo : oui, l’IA est un outil comme la calculatrice (à la différence que la calculatrice ne se trompe pas en général). Et forcément doit être utilisé sous notre supervision, et il vaut mieux avoir pratiqué soit même pour avoir un avis sur la qualité, avoir un minimum d’expertise dans tel environnement, etc.
Et le problème est que l’IA devient bonne que lorsqu’il y a un corpus de documentation conséquent. (Language C, Python, HTML…)
Essayez OCaml, il indique que [1,2;3,4] renvoie une erreur ce qui est faux. En Ada, il me propose une construction pour des tableaux de tableaux équivalente à int table[][]; en C. Forcément, cela ne passe pas.
un paradigme, moins tu fait marcher ton cerveau et plus tu perd en compétence. Un doute ? observer les 'turnes' aux volants (entre autre), incapable de rouler correctement a droite, ils savent pas freiner, rouler au feins moteur, anticiper... merci les assistances !
en sachant que l'on utilise une infime partie de son cerveaux, rajouter à cela des assistances...
de toute façon IA ou pas, le boites produises.. des 'boites', de la daube, question code, ce n'est pas le grave le client aura une bombe en calcul, pour faire tourner un truc ridicule.
Bonjour,
Ce n'est qu'une idée reçue, sinon on pourrait virer une bonne partie du cerveau sans conséquence... ce qui est loin d'être le cas.
Un petit exemple, parmi tant d'autres.
Tatayo.
@ kain_tn : qu'est-ce que tu préconises alors ? De ne pas utiliser d'IA car il peut induire en erreur.
L'humain aussi fait des erreurs et alors ?
Oui, l'humain fait plus de petites erreurs. Les IA génératives en font de gigantesques.
Comment faisais-tu avant ChatGPT?
Vous avez tous la chance d'avoir un cerveau et souvent de prétendre à des compétences et à des connaissances que la plupart des gens autour de vous n'ont pas.
Ne cédez pas à la paresse et cultivez votre cerveau.
Partager