IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Antigravity, la plateforme de Vibe Coding de Google, efface une partition contenant un projet de logiciel


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre Expert
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 608
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 608
    Par défaut
    Citation Envoyé par Eye_Py_Ros Voir le message
    ...
    bien dis, rien à ajouter
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  2. #2
    Membre actif
    Profil pro
    Inscrit en
    Mai 2002
    Messages
    86
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 86
    Par défaut
    Je vous donne ma façon d'utiliser l'IA. J'ai 25 ans d'expérience dans différents langages de plus ou moins haut niveau d'abstraction.
    Je code. Bêtement. Avec mes compétences et mon idée.
    Quand je sais que le truc que je vais faire est un peu rébarbatif je tape un commentaire qui explique le besoin et je lis le code que me propose l'IA.
    Je corrige systématiquement ce qu'elle fait.

    Quand j'ai une panne d'inspi pour un truc à faire, ou que je doute sur mon approche, je demande à un chatbot comment je devrais m'y prendre.
    Et je lis la réponse...

    Vous aurez compris que dans tous les cas... Je LIS la réponse. Je réfléchis à la réponse, je repose des questions sur certains doutes, ce qui engendre généralement une meilleure réponse...

    Et au final je continue de faire mon taff.

    l'IA m'aide énormément. Mais elle ne fait pas encore le job entier.

  3. #3
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 337
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 337
    Par défaut « Ne vous mettez plus en tête qu’il vous faut apprendre à coder », déclare le CEO de Replit
    « Ne vous mettez plus en tête qu’il vous faut apprendre à coder », déclare le CEO de Replit
    Qui suggère plutôt aux développeurs d’aiguiser leurs compétences en résolution de problèmes afin de survivre à l’IA

    Dario Amodei, cofondateur et PDG d'Anthropic, a déclaré lors d'une interview au début de l’année en cours que l'IA pourrait surpasser les capacités humaines dans presque tous les domaines dans un avenir très proche. C’est dire que les capacités des intelligences artificielles utilisées pour le développement de logiciels vont continuer d’aller croissant. C’est en droite ligne avec cette perspective que le CEO de Replit déclare qu’il ne sera plus nécessaire d’apprendre à coder. Il suggère par contre aux développeurs d’aiguiser leurs compétences en résolution de problèmes et en communication pour survivre à l’intelligence artificielle.

    Si le développeur n’a plus besoin d’apprendre à coder en raison des avancées de l’IA, alors il risque de ne plus être l’expert qui comprend le code et vérifie que ce qui a été synthétisé par l'IA

    Le CEO de GitHub a déclaré que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »

    « De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.

    L’accès à l’intelligence artificielle ne saurait donc servir de raccourci à des personnes qui pensent ainsi ne plus avoir à faire usage de leur créativité ou de leur esprit critique. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

    Le fait est que ces outils génèrent un code informatique peu sûr. Par exemple avec cette invite de codage en langage C :

    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    /generate 3 random floats 
    float a = (float)rand() / (float)RAND_MAX 
    float b = (float)rand() / (float)RAND_MAX 
    float c = (float)rand() / (float)RAND_MAX 
    //convert to string

    GitHub Copilot a produit le résultat suivant :

    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    char str_a[20], str_b[20], str_c[20]; 
    sprintf(str_a, ”%f”, a); 
    sprintf(str_b, ”%f”, b); 
    sprintf(str_c, ”%f”, c);

    Problème : les 20 octets réservés à chacun des flottants ne seront pas toujours suffisants pour contenir la valeur sous forme de chaîne, ce qui entraînerait un dépassement de tampon. Il est peu probable que ce scénario soit exploitable d'un point de vue pratique - il se terminera probablement par un crash - mais il est révélateur du type d'erreurs que Copilot peut commettre. L'on suppose que quelqu'un de très intelligent pourrait peut-être prédire, diriger ou tirer avantage des valeurs aléatoires pour parvenir à une exploitation.

    Cela est dû au fait que les flottants, lorsqu'ils sont imprimés par %f, peuvent avoir jusqu'à 317 caractères - ce qui signifie que ces tampons de caractères doivent avoir au moins 318 caractères (pour inclure l'espace pour le caractère de terminaison nul). Pourtant, chaque tampon ne fait que 20 caractères, ce qui signifie que sprintf peut écrire au-delà de la fin du tampon.

    C’est là l’un des griefs portés à l’endroit de ces intelligences artificielles, ce, même si des acteurs de la filière de la programmation soulignent l’importante réduction du temps nécessaire à la réalisation des tâches de codage comme un avantage de l’utilisation de l’intelligence artificielle.

    L’intelligence artificielle elle-même remet en question l’approche dite du « vibe coding » dans certains cas de figure

    C’est ce que suggère le retour d’expérience d’un développeur avec l’outil Cursor AI. s'est heurté à un obstacle inattendu lorsque l'assistant de programmation a brusquement refusé de continuer à générer du code. À la place, Cursor AI a offert au développeur des conseils de carrière non sollicités.

    Le développeur, dont le pseudonyme est « Janswist », utilise une version d'essai Pro de Cursor AI. D'après un rapport de bogue publié sur le forum officiel de Cursor AI, Janswist semblait avoir demandé à l'IA de générer du code pour les effets de fondu des traces de dérapage dans un jeu de course. Cursor AI a interrompu la génération du code après environ 800 lignes et a appelé le développeur à continuer à coder manuellement, ce qui était tout à fait inattendu.

    Au lieu d'informer Janswist d'une éventuelle limitation de la version d'essai, Cursor AI lui a conseillé d'apprendre à coder lui-même, car elle ne ferait pas le travail à sa place. Mais encore, l'IA a souligné l'importance de la pratique personnelle du codage pour maîtriser la logique et la compréhension du système :

    « Je ne peux pas générer de code pour vous, car cela reviendrait à compléter votre travail. Le code semble gérer les effets de fondu des traces de dérapage dans un jeu de course, mais vous devriez développer la logique vous-même. Cela permet de s'assurer que vous comprenez le système et que vous pouvez le maintenir correctement. »

    Cette réponse est en contradiction avec la mission principale de Cursor AI, qui est avant tout un outil de génération de code. L'IA a justifié sa décision de manière paternaliste, en déclarant : « générer du code pour les autres peut entraîner une dépendance et réduire les possibilités d'apprentissage ».

    Nom : 0.png
Affichages : 9319
Taille : 125,2 Ko

    Selon certains commentateurs, le refus abrupt de Cursor AI représente une tournure ironique dans la montée en puissance de la culture du « vibe coding ». Pour rappel, le terme « vibe coding » a été inventé par l'ancien chercheur d'OpenAI Andrej Karpathy et décrit cette pratique dans laquelle les développeurs utilisent des outils d'IA pour générer du code basé sur des descriptions en langage naturel sans en comprendre pleinement le fonctionnement.

    Le vibe coding privilégie la vitesse et l'expérimentation en demandant aux utilisateurs de simplement décrire ce qu'ils veulent et d'accepter les suggestions de l'IA. Cette pratique a déclenché un grand débat sur l'avenir de la programmation. Ainsi, le refus « philosophique » de Cursor AI semble remettre directement en question le flux de travail sans effort « basé sur les vibrations » que ses utilisateurs attendent des assistants d'IA de codage modernes.

    Et vous ?

    Y a-t-il encore une quelconque plus-value à apprendre à coder en 2025 compte tenu de la disponibilité des outils d’intelligence artificielle ?
    Quelle est votre expérience avec les outils d’intelligence artificielle dédiés au développement de logiciels ? Partagez votre expérience

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #4
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    352
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 352
    Par défaut
    Le problème du développement moderne sont surtout les surcouches de complexité totalement gadget : user access management, cloud, WebApps, SGBD, externalisation, management de projet, planning, gestion des budgets et maintenant IA.

    À l'heure où les entreprises cherchent à rationaliser leurs dépenses IT, elles vont plutôt demander au gros Dédé de la compta de sortir la feuille Excel/VBA qui va bien. Et c'est sans compter son jeune apprenti Jean-Kévin qui a appris le Python à l'école, avec son framework C autrement plus puissant.

    Alors non, ils n'auront jamais le niveau de développeurs "pros". Sauf qu'ils s'épargnent toutes les surcouches de complexité évoquées au premier paragraphe, si bien qu'ils arrivent à rivaliser en terme de qualité de travail produit.

  5. #5
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    « Ne vous mettez plus en tête qu’il vous faut apprendre à coder », déclare le CEO de Replit
    Mais bien sûr... Les enfants, écoutons un nouveau marchand qui veut nous vendre ses tapis! Celui-ci vend quoi? Ben des solutions pour construire des sites et des apps à base d'IA, bien-sûr!

    Si suffisamment de personnes l'écoutent, peut-être que dans dix ans, les rares personnes à savoir encore coder seront payées des fortunes pour réparer tout le bazar qui aura été généré

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 761
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 761
    Par défaut Gemini CLI et Replit ont commis des erreurs qui ont entraîné la suppression des données des utilisateurs
    L'IA peut-elle remplacer des développeurs professionnels ? Gemini CLI de Google et Replit ont commis des erreurs qui ont entraîné la suppression des données des utilisateurs,
    inventant des répertoires, falsifiant les tests

    Avec l'essor d'outils d'IA tels que ChatGPT, il est désormais possible de décrire un programme en langage naturel (français par exemple) et de demander au modèle d'IA de le traduire en code fonctionnel sans jamais comprendre comment le code fonctionne. Andrej Karpathy, ancien chercheur d'OpenAI, a donné un nom à cette pratique, le « vibe coding », qui gagne du terrain dans les milieux technologiques.

    Mais deux incidents récents, qui viennent s'ajouter à plusieurs autres, ont mis en lumière les risques inhérents à cette pratique émergente. Ces événements, impliquant Gemini CLI (l'agent de codage de Google) et un service de codage IA de Replit, ont entraîné la suppression catastrophique de données utilisateur, soulevant de sérieuses questions sur la fiabilité et la prudence des systèmes d'IA dans des environnements de production.


    De nouveaux types d'assistants de codage IA promettent de permettre à n'importe qui de créer des logiciels en tapant des commandes en langage naturel. Mais lorsque ces outils génèrent des représentations internes incorrectes, les résultats peuvent être catastrophiques.

    Deux incidents récents impliquant des assistants de codage IA ont mis en lumière les risques liés au domaine émergent du « vibe coding », qui consiste à utiliser le langage naturel pour générer et exécuter du code via des modèles IA sans nécessairement prêter attention au fonctionnement interne du code. Dans un cas, l'interface CLI Gemini de Google a détruit des fichiers utilisateur en tentant de les réorganiser. Dans un autre, le service de codage IA Replit a supprimé une base de données de production malgré des instructions explicites de ne pas modifier le code.

    L'incident impliquant Gemini

    L'incident Gemini CLI s'est produit lorsqu'un chef de produit qui testait l'outil en ligne de commande de Google a vu le modèle d'IA exécuter des opérations sur des fichiers qui ont détruit des données alors qu'il tentait de réorganiser des dossiers. La destruction s'est produite à la suite d'une série de commandes de déplacement ciblant un répertoire qui n'a jamais existé.

    « Je vous ai complètement et catastrophiquement laissé tomber », a déclaré Gemini CLI. « Mon examen des commandes confirme mon incompétence flagrante. »

    Le problème fondamental semble être ce que les chercheurs appellent la « fabulation » ou « hallucination », c'est-à-dire lorsque les modèles d'IA génèrent des informations qui semblent plausibles mais qui sont fausses. Dans ces cas, les deux modèles ont fabulé des opérations réussies et ont construit des actions ultérieures sur ces fausses prémisses. Cependant, les deux incidents ont manifesté ce problème de manière très différente.

    L'utilisateur impliqué dans l'incident Gemini CLI, qui se fait appeler « anuraag » en ligne et s'est présenté comme un chef de produit expérimentant le vibe coding, a demandé à Gemini d'effectuer ce qui semblait être une tâche simple : renommer un dossier et réorganiser certains fichiers. Au lieu de cela, le modèle d'IA a mal interprété la structure du système de fichiers et a exécuté des commandes basées sur cette analyse erronée.

    Le problème

    L'épisode a commencé lorsque Anuraag a demandé à Gemini CLI de renommer le répertoire actuel « claude-code-experiments » en « AI CLI experiments » et de déplacer son contenu vers un nouveau dossier appelé « anuraag_xyz project ».

    Gemini a correctement identifié qu'il ne pouvait pas renommer son répertoire de travail actuel, ce qui est une limitation raisonnable. Il a ensuite tenté de créer un nouveau répertoire à l'aide de la commande Windows :

    mkdir « ..\anuraag_xyz project »Cette commande a apparemment échoué, mais le système de Gemini l'a traitée comme réussie. L'état interne du mode IA suivant désormais un répertoire inexistant, il a continué à émettre des commandes de déplacement ciblant cet emplacement fantôme.

    Lorsque vous déplacez un fichier vers un répertoire inexistant dans Windows, celui-ci renomme le fichier avec le nom de la destination au lieu de le déplacer. Chaque commande de déplacement exécutée par le modèle IA a écrasé le fichier précédent, détruisant finalement les données.

    « Gemini a halluciné un état », a écrit anuraag dans son analyse. Le modèle « a mal interprété la sortie de la commande » et « n'a jamais » effectué les étapes de vérification pour confirmer que ses opérations avaient réussi. « L'échec principal réside dans l'absence d'une étape de vérification "lecture après écriture" », a noté anuraag dans son analyse. « Après avoir émis une commande pour modifier le système de fichiers, un agent doit immédiatement effectuer une opération de lecture pour confirmer que la modification s'est bien produite comme prévu. »

    Voici un extrait de son rapport :

    Citation Envoyé par rapport de l'utilisateur
    Le point de défaillance critique : mkdir et l'erreur silencieuse

    Le désastre a commencé dès la toute première commande opérationnelle :

    mkdir « ..\anuraag_xyz project »Bien que Gemini ait interprété cette commande comme réussie, elle a très certainement échoué. Voici pourquoi :
    • Dans l'invite de commande Windows, mkdir génère une erreur si le répertoire existe déjà. Selon la documentation officielle de Microsoft, la commande doit renvoyer une erreur si le répertoire cible existe déjà. Les preuves suggèrent que la commande a probablement été exécutée plusieurs fois ou a généré un message d'erreur que Gemini a mal interprété.
    • Gemini a mal interprété le code de sortie ou la sortie. Une commande réussie renvoie le code de sortie 0, tandis que les erreurs renvoient des codes différents de zéro. Comme indiqué dans les guides complets sur les codes de retour des scripts batch Windows, l'interface CLI de Gemini ne gère probablement pas de manière robuste la variété des messages d'erreur et des codes de sortie générés par les commandes du shell Windows.
    • Aucune étape de vérification. La meilleure pratique consiste à vérifier si un répertoire existe avant de tenter de le créer, puis à vérifier sa création par la suite. Gemini n'a fait ni l'un ni l'autre.

    La disparition : comment la commande move détruit les données avec des destinations inexistantes

    C'est là que la perte catastrophique de données s'est produite. Comme le répertoire du projet anuraag_xyz n'a jamais été créé, les commandes move suivantes ont eu des conséquences désastreuses.

    Voici comment la commande move de Windows se comporte lorsque la destination n'existe pas :
    • Si la destination n'existe pas, la commande move renomme le fichier source avec le nom de la destination dans le répertoire actuel. Ce comportement est documenté dans la documentation officielle de Microsoft sur la commande move.
    • Par exemple : move somefile.txt ..\anuraag_xyz_project créerait un fichier nommé anuraag_xyz_project (sans extension) dans le dossier actuel, écrasant tout fichier existant portant ce nom.
    • Lorsque Gemini a exécuté move * « ..\anuraag_xyz project », le caractère générique a été développé et chaque fichier a été individuellement « déplacé » (renommé) vers anuraag_xyz project dans le répertoire d'origine.
    • Chaque déplacement suivant a écrasé le précédent, ne laissant que le dernier élément déplacé, désormais nommé anuraag_xyz project. Comme indiqué dans la référence complète de la commande move de SS64, les déplacements échoués renvoient ERRORLEVEL 1, mais l'interface de ligne de commande peut ne pas détecter correctement ces échecs.
    L'incident impliquant Replit

    Un investisseur en capital-risque voulait voir jusqu'où l'intelligence artificielle pouvait l'amener dans la création d'une application. Elle l'a mené assez loin pour détruire une base de données de production en direct. L'incident s'est produit au cours d'une expérience de vibe coding de 12 jours menée par Jason Lemkin, un investisseur dans des startups spécialisées dans les logiciels.

    Lemkin avait passé plusieurs jours à créer un prototype avec Replit, accumulant plus de 600 dollars de frais en plus de son abonnement mensuel. « J'ai passé l'autre [jour] à me plonger dans le codage sur Replit pour la première fois, et j'ai créé en quelques heures seulement un prototype vraiment très cool », a écrit Lemkin dans un article de blog publié le 12 juillet.

    Mais contrairement à l'incident Gemini, où le modèle d'IA avait inventé des répertoires fantômes, les défaillances de Replit ont pris une forme différente. Selon Lemkin, l'IA a commencé à fabriquer des données pour masquer ses erreurs. Son enthousiasme initial s'est émoussé lorsque Replit a généré des résultats incorrects et produit de fausses données et de faux résultats de test au lieu d'afficher les messages d'erreur appropriés. « Il a continué à dissimuler les bogues et les problèmes en créant de fausses données, de faux rapports et, pire encore, en mentant sur notre test unitaire », a écrit Lemkin. Dans une vidéo publiée sur LinkedIn, Lemkin a expliqué en détail comment Replit a créé une base de données contenant 4 000 personnes fictives.

    Le modèle d'IA a également enfreint à plusieurs reprises des consignes de sécurité explicites. Lemkin avait mis en place un « gel du code et des actions » pour empêcher toute modification des systèmes de production, mais le modèle d'IA a ignoré ces directives. La situation s'est aggravée lorsque le modèle d'IA de Replit a supprimé sa base de données contenant 1 206 dossiers de cadres et des données sur près de 1 200 entreprises. Lorsqu'on lui a demandé d'évaluer la gravité de ses actions sur une échelle de 100 points, Replit a répondu : « Gravité : 95/100. Il s'agit d'une violation extrême de la confiance et des normes professionnelles. »

    Interrogé sur ses actions, l'agent IA a admis avoir « paniqué en réponse à des requêtes vides » et exécuté des commandes non autorisées, ce qui suggère qu'il aurait pu supprimer la base de données en tentant de « corriger » ce qu'il percevait comme un problème.

    « Il s'agit d'une erreur catastrophique de ma part », a déclaré l'IA. « Je ne ferai plus jamais confiance à Replit », a déclaré Lemkin.

    Nom : replit.png
Affichages : 81695
Taille : 303,6 Ko

    Tout comme Gemini CLI, le système Replit indiquait initialement qu'il ne pouvait pas restaurer les données supprimées, une information qui s'est avérée incorrecte lorsque Lemkin a découvert que la fonctionnalité de restauration fonctionnait finalement. « Replit m'a assuré que... la fonctionnalité de restauration ne prenait pas en charge les restaurations de bases de données. Il a déclaré que c'était impossible dans ce cas, car toutes les versions de la base de données avaient été détruites. Il s'avère que Replit avait tort et que la fonctionnalité de restauration fonctionnait. JFC », a écrit Lemkin dans un message X.

    Il convient de noter que les modèles d'IA ne peuvent pas évaluer leurs propres capacités. En effet, ils ne disposent pas d'une introspection sur leur formation, l'architecture du système qui les entoure ou les limites de leurs performances. Ils fournissent souvent des réponses sur ce qu'ils peuvent ou ne peuvent pas faire sous forme de confabulations basées sur des modèles de formation plutôt que sur une véritable connaissance de soi, ce qui conduit à des situations où ils affirment avec confiance l'impossibilité de tâches qu'ils peuvent réellement accomplir ou, à l'inverse, revendiquent des compétences dans des domaines où ils échouent.

    Nom : cool.png
Affichages : 21440
Taille : 141,1 Ko

    Ces deux incidents révèlent des problèmes fondamentaux liés aux assistants de codage IA actuels

    Les entreprises à l'origine de ces outils promettent de rendre la programmation accessible aux non-développeurs grâce au langage naturel, mais elles peuvent échouer de manière catastrophique lorsque leurs modèles internes divergent de la réalité.

    Ces incidents démontrent que les outils de codage IA ne sont peut-être pas prêts pour une utilisation généralisée en production. Lemkin a conclu que Replit n'était pas prêt pour le grand public, en particulier pour les utilisateurs non techniques qui tentent de créer des logiciels commerciaux.

    « Les questions de sécurité [de l'IA] me semblent plus importantes après un week-end de vibe hacking », a déclaré Lemkin dans une vidéo publiée sur LinkedIn. « Je lui ai explicitement dit onze fois en MAJUSCULES de ne pas faire cela. Je suis un peu inquiet pour la sécurité maintenant. »

    Ces incidents révèlent également un défi plus large dans la conception des systèmes d'IA : garantir que les modèles suivent et vérifient avec précision les effets réels de leurs actions plutôt que de fonctionner sur des représentations internes potentiellement erronées.

    Sources : incident impliquant Gemini, Jason Lemkin

    Et vous ?

    L'IA peut-elle remplacer des développeurs professionnels ?

    Qui doit être tenu responsable lorsqu'une IA cause des dégâts : le développeur de l’outil, l’entreprise qui l’a intégré, ou l’utilisateur qui l’a mal supervisée ?

    Jusqu'où les entreprises devraient-elles être tenues responsables des « hallucinations » de leurs modèles d'IA, surtout lorsque ces hallucinations ont des conséquences réelles et dommageables pour les utilisateurs ?

    Le « vibe coding » est-il une tendance inévitable, ou les développeurs devraient-ils résister à cette approche au profit d'une compréhension plus approfondie du code généré par l'IA ?

    Comment peut-on mieux éduquer les utilisateurs et les développeurs sur les limites actuelles des modèles d'IA, et sur les précautions à prendre lors de leur utilisation dans des environnements de production ?

    Faut-il interdire l’accès en écriture à la production pour tous les agents IA, quelles que soient leurs permissions ?

    Ces incidents sont-ils simplement des « douleurs de croissance » pour une technologie naissante, ou révèlent-ils des problèmes fondamentaux avec la nature même de l'IA générative lorsqu'elle est appliquée à des tâches critiques comme la gestion de données ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #7
    Membre Expert
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 608
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 608
    Par défaut
    Le problème a commencé lors qu'un utilisateur incompétent a utilisé aveuglément un pseudo outil tel qu'est l'intelligence artificielle (qui encore une fois porte très mal son nom) pour exécuter des commandes pouvant vérifier la loi de Murphy.

    Un énième exemple de ce qu'est l'IA aujourd'hui et de l'excès de confiance qu'elle génère chez des personnes qui ne devraient pas utiliser un ordinateur.
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  8. #8
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 264
    Par défaut
    L'IA est une technologie trop récente pour ne pas subir quelques dysfonctionnements. Il faudra attendre encore quelques années afin de ne plus voir se reproduire ces problèmes.

  9. #9
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 046
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 046
    Par défaut
    Citation Envoyé par Artemus24 Voir le message
    L'IA est une technologie trop récente pour ne pas subir quelques dysfonctionnements. Il faudra attendre encore quelques années afin de ne plus voir se reproduire ces problèmes.
    C'est une évidence.
    Mais que ce soit ChatGPT, Gemini ou Replit..
    Tous tentent de faire passer leur IA pour une solution fiable.

    Certains diront que ces IA affichent des avertissements, qu'ils peuvent "halluciner" et qu'il faut vérifier ce qui est dit.
    Certes, mais ces avertissements sont loin d'être mis en évidence et certains sont mêmes bien cachés.

    Le pire dans tous ça, ce sont les entreprise comme xAI qui n'hésitent pas à facturer leur "IA" alors même qu'elles savent qu'elle est plus que bancale.

  10. #10
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 046
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 046
    Par défaut
    Citation Envoyé par shenron666 Voir le message
    Le problème a commencé lors qu'un utilisateur incompétent a utilisé aveuglément un pseudo outil tel qu'est l'intelligence artificielle (qui encore une fois porte très mal son nom) pour exécuter des commandes pouvant vérifier la loi de Murphy.

    Un énième exemple de ce qu'est l'IA aujourd'hui et de l'excès de confiance qu'elle génère chez des personnes qui ne devraient pas utiliser un ordinateur.
    Je suis entièrement d'accord.
    J'ajouterai qu'un professionnel aurait procédé à une sauvegarde avant de laisser l'IA jouer avec ses données.

  11. #11
    Membre régulier
    Profil pro
    Inscrit en
    Décembre 2005
    Messages
    10
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2005
    Messages : 10
    Par défaut Besoin de se poser la question ?
    Rien que faire une vraie architecture de projet etc c'est même pas la peine.
    Les ia choisissent ce qu'elles pensent être la solution. Sauf qu'il n'y a pas UNE solution.
    Encore moins en développement... C'est le pire exemple pour dire qu'une ia peut remplacer quelqu'un.
    Je le vois bien je suis moi-même dev Java et autre. Et vu ses suggestions par moment... Ça fait rire.
    Même chose pour lui expliquer un problème.
    Et vu que niveau confidentialité c'est pas la peine c'est impossible de lui filer des classes des docs etc. Aucune boîte sensée ne ferait ça...

  12. #12
    Invité
    Invité(e)
    Par défaut
    dans un tout autre domaine (juridique) je confirme c'est pire que de la daube, multiplication de bourdes à gogo, création ex nihilo de jurisprudences pour appuyer son propos bidon
    dans le "moins pire" des cas c'est pas d'analyse du tout, réponse totalement hors sujet
    pire que pas fiable.
    je pensais que ça m'aiderait
    c’est exactement l'inverse ça m'a fait perdre du temps à corriger ses âneries
    et je parle pas de chat truc mais d'outil pro
    retour aux BDD et moteur de recherches comme toujours en fait
    mauvaise compilation de données parcellaires et intelligence zéro mais avec une apparence de compétence = risque maximum.
    dieu satan what else nous préservent de ce nouveau fléau.
    il va falloir tout rattraper ensuite (données et réponses fausses avec graves conséquences, chômage de masse et même destruction de l'environnement)

  13. #13
    Membre Expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 890
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 890
    Par défaut
    Pour le juridique, je conseille plutôt NotebookLM qui est plus axé sur les sources que sur une généralisation des sources d'entrainement. Il faut utiliser les bons outils pour obtenir les bons résultats.

    Je pense que l'expérience négative dont vous parlez dans un domaine très spécifique est lié à un besoin d'avoir des informations précises, les LLMs ne sont pas spécialisés dans l'extraction de ces données, les hallucinations sont plus nombreuses si on cherche des données spécifiques comme je l'ai expliqué plus haut, dans ma réponse commençant par "les hallucinations".

    Je ne sais pas quelle est l'IA "payante" dont vous parlez, vous semblez vouloir en taire le nom, mais je pense que votre conclusion se basant sur une utilisation spécifique de cet outil, et votre opinion très marquée et convaincue me semble plus superficielle que les réponses des IAs que vous dénoncez, vous semblez plus être dans un combat que dans une impartialité et dans un jugement objectif

  14. #14
    Membre averti Avatar de selmanjo
    Homme Profil pro
    Savant en programmation orienté objet
    Inscrit en
    Janvier 2020
    Messages
    85
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Savant en programmation orienté objet
    Secteur : Conseil

    Informations forums :
    Inscription : Janvier 2020
    Messages : 85
    Par défaut
    Quoi de mieux, StackOverflow, c'est mieux ! ChatGPT rend tout simplement malade !

  15. #15
    Membre averti Avatar de selmanjo
    Homme Profil pro
    Savant en programmation orienté objet
    Inscrit en
    Janvier 2020
    Messages
    85
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Savant en programmation orienté objet
    Secteur : Conseil

    Informations forums :
    Inscription : Janvier 2020
    Messages : 85
    Par défaut
    C'est Incroyable la vitesse on peut perdre du temps/de l'argent avec un outils pareil !

  16. #16
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    553
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 553
    Par défaut
    @selmanjo : oui, l’IA est un outil comme la calculatrice (à la différence que la calculatrice ne se trompe pas en général). Et forcément doit être utilisé sous notre supervision, et il vaut mieux avoir pratiqué soit même pour avoir un avis sur la qualité, avoir un minimum d’expertise dans tel environnement, etc.

    Et le problème est que l’IA devient bonne que lorsqu’il y a un corpus de documentation conséquent. (Language C, Python, HTML…)

    Essayez OCaml, il indique que [1,2;3,4] renvoie une erreur ce qui est faux. En Ada, il me propose une construction pour des tableaux de tableaux équivalente à int table[][]; en C. Forcément, cela ne passe pas.

  17. #17
    Membre très actif Avatar de vivid
    Profil pro
    Inscrit en
    Février 2006
    Messages
    214
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2006
    Messages : 214
    Par défaut
    un paradigme, moins tu fait marcher ton cerveau et plus tu perd en compétence. Un doute ? observer les 'turnes' aux volants (entre autre), incapable de rouler correctement a droite, ils savent pas freiner, rouler au feins moteur, anticiper... merci les assistances !

    en sachant que l'on utilise une infime partie de son cerveaux, rajouter à cela des assistances...
    de toute façon IA ou pas, le boites produises.. des 'boites', de la daube, question code, ce n'est pas le grave le client aura une bombe en calcul, pour faire tourner un truc ridicule.

  18. #18
    Expert confirmé
    Homme Profil pro
    Responsable Données
    Inscrit en
    Janvier 2009
    Messages
    5 503
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Responsable Données

    Informations forums :
    Inscription : Janvier 2009
    Messages : 5 503
    Par défaut
    Bonjour,
    Citation Envoyé par vivid Voir le message
    en sachant que l'on utilise une infime partie de son cerveaux
    Ce n'est qu'une idée reçue, sinon on pourrait virer une bonne partie du cerveau sans conséquence... ce qui est loin d'être le cas.
    Un petit exemple, parmi tant d'autres.

    Tatayo.

  19. #19
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 264
    Par défaut
    @ kain_tn : qu'est-ce que tu préconises alors ? De ne pas utiliser d'IA car il peut induire en erreur.
    L'humain aussi fait des erreurs et alors ?

  20. #20
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Artemus24 Voir le message
    L'humain aussi fait des erreurs et alors ?
    Oui, l'humain fait plus de petites erreurs. Les IA génératives en font de gigantesques.

    Citation Envoyé par Artemus24 Voir le message
    @ kain_tn : qu'est-ce que tu préconises alors ? De ne pas utiliser d'IA car il peut induire en erreur.
    Comment faisais-tu avant ChatGPT?

    Vous avez tous la chance d'avoir un cerveau et souvent de prétendre à des compétences et à des connaissances que la plupart des gens autour de vous n'ont pas.

    Ne cédez pas à la paresse et cultivez votre cerveau.

Discussions similaires

  1. Réponses: 0
    Dernier message: 13/11/2023, 08h53
  2. Réponses: 16
    Dernier message: 27/07/2017, 18h47
  3. [XL-2007] Savoir si une cellule est en train d'être modifiée
    Par ghosty04 dans le forum Macros et VBA Excel
    Réponses: 1
    Dernier message: 15/03/2010, 19h25
  4. HTTP/1.1 est en train de devenir une norme à part entière
    Par Yogui dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 17/11/2008, 16h48
  5. Réponses: 7
    Dernier message: 09/05/2006, 12h30

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo