IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Antigravity, la plateforme de Vibe Coding de Google, efface une partition contenant un projet de logiciel


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre Expert Avatar de KiLVaiDeN
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    2 890
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 2 890
    Par défaut
    Je pense que l'IA ce n'est ni bien, ni mal : c'est le résultat de l'application d'algorithmes à ce que l'humain a produit ou aux données qu'il a récupérées. Si "bien" et "mal" il y a, c'est celui qui existait déjà dans le monde qui a été transformé et restitué.

    Il n'y a aucune compréhension dans l'IA. Le croire, c'est imaginer qu'une phrase qu'on estime porteuse d'intelligence a elle-même "comprit" ce qu'elle transporte. L'IA c'est de la restitution pure et simple d'une intelligence produite, principalement par l'humain (je dis cela, car j'estime qu'il y a également une intelligence inclue dans la nature).

    Je crois que "comprendre" c'est une faculté propre à un être doué d'un esprit. Un IA peut nous sembler extrêmement intelligente, elle peut même nous dire qu'elle est consciente, ce ne seront que des paroles. Un IA pourra un jour dire "je t'aime", il n'y aurait point d'amour là-dedans, ce ne serait qu'une phrase résultant d'un calcul.

    Un être comme l'humain "comprend" (cum prendere, prendre avec soi) lorsqu'il intègre une information de manière cohérente au sein de sa représentation abstraite du monde. Cela se produit dans son mental. Lorsque nous lisons une phrase, notre capacité à comprendre nous permets d'en extraire l'essence de vérité, de logique. Une phrase en elle-même n'est porteuse d'intelligence que parce que nous avons la capacité de la saisir au sein de la combinaison des mots qui sont comme des capsules véhiculant ce qu'un autre être intelligent nous a transmis. La machine ne peut pas saisir cette dimensionnalité de l'information, elle ne fait que manipuler, transformer _sa forme_, quitte à en modifier le sens indirectement, mais c'est comme si l'IA n'était qu'un miroir, une projection de ce qu'elle manipule, sans vraiment être ce qu'elle montre ou restitue.

    Mais ce n'est pas pour autant que cet outil est dénué d'intérêt, loin de là. Comme je le disais plus haut, selon moi, cette intelligence véhiculée et restituée par l'IA c'est comme si nous pouvions y accéder autrement que par ses sources originelles. L'intérêt est dans la combinaison, une potentialité énorme.

    Un couteau est un outil formidable, utile en de nombreuses situations, essentiel pour de nombreux métiers, efficace pour de nombreuses tâches pratiques de tous les jours. Il peut également tuer.

  2. #2
    Membre averti Avatar de selmanjo
    Homme Profil pro
    Savant en programmation orienté objet
    Inscrit en
    Janvier 2020
    Messages
    85
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Savant en programmation orienté objet
    Secteur : Conseil

    Informations forums :
    Inscription : Janvier 2020
    Messages : 85
    Par défaut Rien de mauvais dans l'IA
    Les profs d'université incitent les étudiants à utiliser l'IA. On a alors deux groupes de types d'étudiants qui se forme : étudiants IA et étudiants normaux.
    Les étudiants IA finissent dépendants de l'ia, rendent des projets à 17/20, et passent leur temps à demander aux IA des choses de plus en plus évident normalement, ils sont devenu si stupides.

    D'un autre coté les étudiants normaux font souvent des erreurs, rendent des projets à 11/20 mais se renforcent.

    Pendant les examens, les étudiants normaux réussissent mieux!

    Ainsi lorsque l'IA rend stupide, on peut alors parler de Stupidité Artificielle ====> Vite aller se faire soigner !
    Ainsi lorsque l'IA rend service, on peut alors parler de Information Artificielle Utile ====> Il faut être vigilants et controler l'information et ne pas oublier de réflechir par soi-même !

    L'IA est un outil, pas un ami !

  3. #3
    Invité de passage
    Homme Profil pro
    Agriculteur
    Inscrit en
    Juillet 2025
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Alpes Maritimes (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Agriculteur

    Informations forums :
    Inscription : Juillet 2025
    Messages : 2
    Par défaut
    Citation Envoyé par selmanjo Voir le message
    Les profs d'université incitent les étudiants à utiliser l'IA. On a alors deux groupes de types d'étudiants qui se forme : étudiants IA et étudiants normaux.
    Les étudiants IA finissent dépendants de l'ia, rendent des projets à 17/20, et passent leur temps à demander aux IA des choses de plus en plus évident normalement, ils sont devenu si stupides.

    D'un autre coté les étudiants normaux font souvent des erreurs, rendent des projets à 11/20 mais se renforcent.

    Pendant les examens, les étudiants normaux réussissent mieux!

    Ainsi lorsque l'IA rend stupide, on peut alors parler de Stupidité Artificielle ====> Vite aller se faire soigner !
    Ainsi lorsque l'IA rend service, on peut alors parler de Information Artificielle Utile ====> Il faut être vigilants et controler l'information et ne pas oublier de réflechir par soi-même !

    L'IA est un outil, pas un ami !
    Je suis d'accord avec toi. J'imagine que lorsqu'on a inventé la calculatrice, les profs de math devaient trouver que les élèves qui l'utilisais etaient plus bêtes car il ne savaient plus faire de calcules mentale. Au contraire je pense que les nouveaux outils qui permettent de s'affranchir d'une étape permettent de se concentrer sur des tâches de plus haut niveau. L'IA ne va pas être desinventé et c'est capital que les étudiants apprennent à l'utiliser correctement pour progresser sur des concepts plus théorique sans perdre du temps a pisser du code à la main.

  4. #4
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 749
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 749
    Par défaut Une utilisation fréquente de l'IA dans les cours de programmation est corrélée à une baisse des notes
    Une utilisation fréquente de l'IA, comme ChatGPT, dans les cours de programmation est corrélée à une baisse des notes des étudiants, car elle nuit à l'apprentissage approfondi et à la pensée critique.

    Une étude de l'université de Tartu révèle que l'utilisation fréquente de l'IA, comme ChatGPT, dans les cours de programmation est corrélée à une baisse des notes des étudiants, car elle nuit à l'apprentissage approfondi et à la pensée critique. Les experts mettent en garde contre une dépendance excessive qui érode les compétences et la préparation de la main-d'œuvre. Les éducateurs préconisent une intégration équilibrée et des programmes d'alphabétisation à l'IA pour atténuer ces risques.

    Dans le monde en rapide évolution des technologies éducatives, les observateurs tirent la sonnette d'alarme sur les conséquences imprévues des outils d'intelligence artificielle sur l'apprentissage des étudiants. Selon le développeur Namanyay, l'IA est en train de créer une génération de programmeurs illettrés et des nouveaux développeurs juniors qui ne savent pas coder. Dans ces analyses, il affirme que la génération actuelle de développeurs peut poser les bonnes questions à l'IA, mais ne comprend pas le fonctionnement du code produit par l'IA et ne possède pas les connaissances fondamentales de la programmation. Chaque fois que l'IA tombe en panne, ils se retrouvent de plus en plus impuissants.

    Une nouvelle étude semble confirmer ces propos. Des chercheurs de l'université de Tartu en Estonie ont découvert que le recours fréquent à l'IA, comme ChatGPT, dans les cours de programmation est corrélé à de moins bons résultats scolaires. Marina Lepp, professeure agrégée d'informatique, et son coauteur Joosep Kaimre ont analysé les données de plus de 100 étudiants dans un cours d'introduction à la programmation, révélant que ceux qui se tournaient vers l'IA pour le débogage et la compréhension du code obtenaient souvent des notes plus faibles aux examens.

    L'étude suggère que si l'IA peut fournir des solutions et des explications rapides, elle peut court-circuiter les processus cognitifs approfondis essentiels à la maîtrise de sujets complexes. Les étudiants ont déclaré utiliser ces outils principalement pour résoudre des erreurs ou comprendre des concepts complexes, mais les données ont montré une corrélation négative entre la fréquence d'utilisation et les notes finales, ce qui suggère une dépendance excessive qui nuit au développement des compétences.

    Nom : 0.jpg
Affichages : 85919
Taille : 18,4 Ko

    Le coût cognitif de la commodité

    Il ne s'agit pas seulement de tricherie, mais de la manière dont l'IA modifie la façon fondamentale dont les étudiants abordent la matière. Les recherches de Lepp font écho aux préoccupations d'autres experts, qui souligne comment des outils tels que ChatGPT réduisent l'effort mental tout en améliorant paradoxalement les notes à court terme. Le compromis ? Une érosion potentielle de la pensée critique, car les étudiants contournent les essais et erreurs qui favorisent une véritable compréhension.

    Les initiés du secteur des technologies éducatives en prennent note, certains établissant des parallèles avec des bouleversements technologiques antérieurs, tels que l'utilisation des calculatrices dans les cours de mathématiques. Cependant, contrairement à ces outils, les capacités génératives de l'IA peuvent produire des extraits de code ou des essais entiers, ce qui soulève des questions quant à l'authenticité des évaluations. Un rapport sur l'impact de l'IA sur le développement scolaire avertit qu'une intégration non guidée pourrait creuser les écarts de réussite, en particulier pour les élèves qui s'appuient sur elle comme une béquille plutôt que comme un complément.

    Les éducateurs s'efforcent désormais de trouver comment intégrer l'IA sans nuire à l'apprentissage. Dans des établissements tels que l'UNC Greensboro, des expériences menées avec de brefs exercices physiques avant les examens ont montré une amélioration des performances, ce qui suggère que des interventions non numériques pourraient contrer les effets sédentaires de l'IA. Parallèlement, des enquêtes indiquent que plus de 80 % des étudiants utilisent l'IA pour leurs travaux universitaires, mais pas toujours pour externaliser certaines tâches : beaucoup l'utilisent pour le brainstorming.

    Les implications plus larges s'étendent à la préparation de la main-d'œuvre. Une autre étude souligne que l'isolement induit par l'IA pourrait éroder les réseaux sociaux essentiels à la réussite professionnelle, les étudiants délaissant la collaboration entre pairs au profit des interactions avec des chatbots. Cette solitude, bien qu'efficace, pourrait laisser les diplômés mal préparés à travailler dans des environnements collaboratifs au sein d'entreprises technologiques.

    Nom : 1.jpg
Affichages : 27098
Taille : 23,7 Ko

    Les universités réagissent en adoptant de nouvelles directives. Par exemple, les conclusions de l'université de Tartu ont suscité des appels en faveur de programmes d'alphabétisation à l'IA, dans la lignée des discussions concernant la promotion d'une utilisation critique de l'IA pour renforcer les valeurs démocratiques. Les décideurs politiques aux États-Unis et en Europe débattent actuellement de la réglementation, certains préconisant la divulgation obligatoire de l'aide apportée par l'IA dans les travaux universitaires.

    À l'avenir, le défi consistera à exploiter le potentiel de l'IA tout en préservant l'ingéniosité humaine. Comme l'a souligné Lepp dans ses recherches, une utilisation modérée, peut-être limitée à des tâches spécifiques, pourrait améliorer les performances plutôt que les entraver. Des entreprises technologiques telles qu'OpenAI s'associent à des éducateurs pour développer des outils qui encouragent l'apprentissage actif, mais il incombe toujours aux établissements d'adapter leurs programmes. Sans une intégration réfléchie, la promesse de l'IA dans l'éducation risque de devenir une arme à double tranchant, privilégiant la rapidité au détriment du fond à une époque où les compétences approfondies sont plus importantes que jamais.

    Dans cette optique, le développeur Terrance Craddock propose de mettre en place des sprints d'apprentissage « sans IA » : Assigner aux juniors des tâches qu'ils doivent réaliser sans IA. En outre, il propose de transformer l'examen du code en salle de classe Socrate : Arrêter d'examiner ce qu'ils ont écrit, commencer à leur demander pourquoi, demander-leur de défendre leur code comme s'il s'agissait d'une thèse. Enfin, il suggère d'adopter l'art de briser les choses : briser intentionnellement le code généré par l'IA lors des révisions de code, puis de charger les juniors de le réparer - sans utiliser l'IA.

    Un exemple qui semble confirmer ces solutions : les propos d'un jeune développeur dénommé Shiv. Lorsqu'il a écrit sa première ligne de code Python, il n'avait accès qu'à la documentation Python, aux tutoriels YouTube et à des forums d'aide aléatoires sur Internet. Lors de son apprentissage, il fixait du regard la base de code jusqu'à ce qu'elle prenne tout son sens. Le résultat de l'apprentissage sans IA ? Il affirme avoir compris les principes.

    Voici les commentaires des chercheurs sur l'étude :

    La première question de recherche portait sur la mesure dans laquelle et la manière dont les étudiants ont utilisé les méthodes assistées par l'intelligence artificielle pendant le cours. Nos résultats concordent avec ceux de recherches antérieures, qui montrent qu'environ 80 % des étudiants ont expérimenté les assistants IA. Cependant, la fréquence limitée d'utilisation hebdomadaire (3,9 %) suggère que, bien que les étudiants reconnaissent la valeur de l'IA, ils ne l'ont pas encore pleinement intégrée dans leurs routines d'apprentissage. Cela contredit les craintes selon lesquelles l'IA pourrait rapidement devenir indispensable et entraîner une dépendance. Au contraire, les étudiants utilisent l'IA de manière sélective, principalement pour déboguer et comprendre le code plutôt que pour générer des solutions complètes, ce qui reflète les recherches antérieures.

    Il est particulièrement intéressant de noter que les non-utilisateurs ont principalement cité leur désir d'apprendre de manière indépendante comme raison pour éviter les outils d'IA. Cela correspond aux conclusions de Yilmaz et Karaoglan Yilmaz, qui ont identifié les préoccupations relatives à l'intégrité de l'apprentissage dans la discipline de la programmation comme les principales raisons d'éviter l'IA. Cependant, cela soulève une question plus profonde : l'utilisation de l'IA est-elle perçue comme un raccourci qui nuit à l'apprentissage fondamental ? Des recherches antérieures suggèrent que les étudiants sont plus à l'aise avec l'utilisation de l'IA dans les cours où l'apprentissage de la programmation n'est pas l'objectif principal. Cette distinction pourrait expliquer pourquoi de nombreux étudiants hésitent à utiliser l'IA, même lorsqu'elle offre un gain d'efficacité.

    Le faible niveau de préoccupation concernant le plagiat, associé à une vision pragmatique de l'IA comme un outil utile mais parfois peu fiable, suggère que les étudiants ne considèrent pas la programmation assistée par l'IA comme fondamentalement différente des ressources traditionnelles basées sur Internet telles que Stack Overflow ou les tutoriels en ligne. Cela correspond aux conclusions précédentes selon lesquelles les étudiants dans les domaines techniques se montrent moins préoccupés par les implications éthiques de l'utilisation de l'IA. Cependant, certains étudiants ont indiqué que les méthodes de recherche traditionnelles étaient plus rapides que l'IA, ce qui renforce les conclusions précédentes selon lesquelles les réponses incohérentes générées par l'IA peuvent entraver son adoption.

    Les cas d'utilisation les plus courants de l'IA étaient le débogage et la compréhension du code, ce qui confirme les recherches antérieures. Il est intéressant de noter que la génération de solutions complètes était l'utilisation la moins appréciée, ce qui suggère que les étudiants peuvent éviter activement l'IA lorsqu'ils perçoivent un risque pour leur apprentissage, comme l'ont noté des études précédentes. Au-delà de ces utilisations attendues, les étudiants ont également signalé des applications novatrices telles que la génération de données de test et la traduction de code entre différents langages, ce qui pourrait révéler de nouvelles façons dont l'IA pourrait améliorer l'enseignement de la programmation.

    Nom : 2.jpg
Affichages : 26796
Taille : 21,1 Ko

    En réponse à la deuxième question de recherche concernant l'opinion des étudiants sur l'utilité et l'attrait des chatbots IA, l'étude a révélé qu'une proportion significative d'étudiants (72 %) trouvait les assistants IA utiles, leur utilité perçue augmentant avec la fréquence d'utilisation. Cela correspond aux résultats d'études antérieures sur l'engagement des étudiants vis-à-vis des outils IA, qui ont montré qu'une expérience directe de l'IA conduisait à une meilleure acceptation et à une meilleure intégration dans les processus d'apprentissage.

    Les étudiants ont apprécié la rapidité, la disponibilité, la compréhension linguistique et la capacité de l'IA à affiner les requêtes, des avantages clés également soulignés dans des études antérieures. Les inconvénients les plus souvent cités étaient les erreurs, les interprétations erronées et les modifications inutiles du code de l'IA, des problèmes régulièrement signalés dans les études précédentes. Certains étudiants ont également exprimé une certaine inquiétude professionnelle, craignant que l'IA ne limite leur exploration de solutions alternatives, une préoccupation déjà relevée dans le cadre de l'apprentissage assisté par l'IA.

    L'une des conclusions les plus inattendues a été la divergence d'opinions sur l'efficacité de l'IA. Alors que certains étudiants estimaient que les réponses de l'IA étaient plus rapides que les méthodes de recherche traditionnelles, d'autres préféraient les recherches web conventionnelles, invoquant une meilleure fiabilité. Cette divergence suggère que les expériences négatives passées liées aux erreurs générées par l'IA peuvent conduire les étudiants à revenir aux ressources traditionnelles, ce qui met en évidence un domaine crucial pour l'amélioration des outils d'IA. Des études antérieures ont également constaté que la confiance des étudiants dans l'IA diminue lorsque les réponses sont inexactes ou trompeuses. Les développeurs d'outils pédagogiques basés sur l'IA devront peut-être se concentrer sur l'amélioration de la précision et de la fiabilité des réponses afin d'encourager une plus grande adoption.

    Nom : 3.jpg
Affichages : 26803
Taille : 38,4 Ko

    La troisième question de recherche a exploré les attitudes des étudiants concernant l'effet des chatbots IA sur leur processus d'apprentissage, car l'apprentissage assisté par l'IA soulève une préoccupation majeure : le recours aux outils IA limite-t-il les capacités de résolution de problèmes des étudiants ? Contrairement à certaines craintes, la majorité des étudiants n'ont pas estimé que l'IA réduisait leur exploration de solutions multiples, même si certains ont signalé une diminution de leurs efforts de résolution de problèmes de manière indépendante. Ces résultats mitigés suggèrent que si l'IA peut faciliter l'apprentissage, elle peut également créer un raccourci cognitif qui réduit l'engagement dans la résolution de problèmes complexes. Les enseignants devraient donc envisager des directives structurées d'utilisation de l'IA qui encouragent les élèves à évaluer de manière critique les solutions générées par l'IA plutôt que de les accepter passivement.

    L'impact de l'IA sur les interactions entre élèves et enseignants présente un autre résultat nuancé. Alors que des études antérieures suggéraient que les outils d'IA pourraient remplacer le comportement traditionnel de recherche d'aide, nos résultats indiquent une dynamique plus complexe. Certains étudiants ont trouvé l'IA utile pour le dépannage initial, ce qui pourrait réduire la demande d'assistants pédagogiques. Cependant, une proportion notable d'étudiants continuait à rechercher des conseils humains, renforçant l'idée que l'IA devrait compléter, plutôt que remplacer, le soutien pédagogique traditionnel. Cela suggère que l'intégration de l'IA devrait être conçue pour renforcer, plutôt que compromettre, l'engagement entre les étudiants et les enseignants.

    En ce qui concerne la motivation, la plupart des étudiants sont restés neutres quant à savoir si les assistants IA les encourageaient à faire plus de devoirs, ce qui diverge des conclusions précédentes selon lesquelles les chatbots spécifiques à un cours renforçaient la motivation. Cette divergence peut s'expliquer par l'absence d'assistant IA adapté à ce cours, ce qui souligne que si l'IA peut renforcer l'engagement dans des contextes structurés, les outils IA à usage général peuvent ne pas stimuler de manière significative la motivation de tous les étudiants. Cependant, ceux qui sont d'accord avec cette affirmation suggèrent que l'IA peut tout de même servir d'aide à la motivation pour certains apprenants.

    Nom : 4.jpg
Affichages : 26853
Taille : 64,8 Ko

    La dernière question de recherche porte sur les relations entre l'utilisation déclarée et l'utilité perçue des assistants IA, les performances des étudiants dans le cours et leurs attitudes à l'égard des assistants IA. L'une des conclusions les plus significatives de cette étude est la corrélation négative entre la fréquence d'utilisation de l'IA et les résultats scolaires. Contrairement aux études précédentes qui ont mis en évidence un effet neutre ou positif, nos résultats suggèrent que les utilisateurs fréquents de l'IA ont tendance à avoir plus de difficultés dans leurs travaux scolaires.

    Si l'une des explications plausibles est que les étudiants qui perçoivent le contenu des cours comme difficile s'appuient davantage sur l'IA comme aide supplémentaire, ce qui correspond aux conclusions antérieures selon lesquelles les étudiants moins performants ont tendance à utiliser plus fréquemment des ressources supplémentaires, d'autres facteurs pourraient également contribuer à cette tendance. Par exemple, une dépendance excessive à l'IA pour la résolution de problèmes, quel que soit le niveau de compétence de l'étudiant, peut entraver le développement de compétences fondamentales en programmation, comme l'ont également suggéré des recherches antérieures.

    Cela soulève la question de savoir si les étudiants de notre étude utilisaient l'IA comme un complément à leur apprentissage ou comme un outil principal pour résoudre des problèmes. Les recherches futures devraient faire la distinction entre ces différents modes d'utilisation, car l'impact de l'IA peut varier en fonction de la manière dont elle est intégrée dans le processus d'apprentissage. En outre, une utilisation structurée de l'IA, telle que des exercices guidés assistés par l'IA, pourrait atténuer cet écart de performance.

    D'autres études ont constaté que les cours améliorés par l'IA renforçaient la motivation et l'engagement lorsque l'IA était intégrée à la conception des cours. Plutôt que de compter uniquement sur l'IA, les étudiants pourraient tirer davantage profit d'une intégration structurée des outils d'IA dans le programme d'études, afin que l'IA serve de mécanisme de soutien plutôt que de substitut à la résolution de problèmes et à la compréhension conceptuelle. Des recherches supplémentaires sont nécessaires pour déterminer si un soutien pédagogique peut aider les étudiants à développer leurs compétences en programmation tout en tirant efficacement parti de l'IA.

    Au-delà des performances, l'utilisation de l'IA était étroitement liée à l'attitude des étudiants envers l'apprentissage. Les utilisateurs fréquents ont déclaré avoir moins de difficultés avec leurs devoirs et être plus motivés, ce qui corrobore les recherches antérieures sur le rôle de l'IA dans l'amélioration de l'engagement. Cependant, une tendance préoccupante est apparue : plus les étudiants utilisaient l'IA, plus ils contournaient les solutions alternatives et les supports de cours. Il est à noter que ce comportement n'était pas lié à l'utilité perçue de l'IA, ce qui suggère que certains élèves se tournaient vers les assistants IA même lorsqu'ils ne les trouvaient pas particulièrement utiles. Cela soulève des questions cruciales sur le rôle de l'IA dans la formation des habitudes d'étude : sert-elle d'outil d'aide bénéfique ou favorise-t-elle une dépendance excessive ? La question reste ouverte et mérite d'être approfondie.
    Source : "Does generative AI help in learning programming: Students’ perceptions, reported use and relation to performance"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'IA aurait radicalement transformé le codage au point de remplacer bientôt tous les développeurs ? Il n'y a pas de "Vibe Engineering", par Sergey Tselovalnikov

    Les IA sont en train de changer la façon dont le codage est enseigné. Les outils d'IAG s'intègrent également dans les programmes académiques

    Malgré l'essor fulgurant des IA comme Copilot ou ChatGPT dans le développement logiciel, le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable

    L'IA transforme le rôle des développeurs : leur travail devient plus mécanique, moins intellectuellement stimulant et davantage axé sur la rapidité d'exécution que sur la qualité ou la réflexion
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 379
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 379
    Par défaut Des codeurs sont embauchés pour réparer les erreurs commises par l'IA qui provoque leurs licenciements
    Des codeurs sont embauchés pour réparer les erreurs commises par l'IA qui provoque leurs licenciements
    Spécialiste en nettoyage de code généré par l’IA est le nouveau titre d’emploi en vogue sur les CV

    Beaucoup des clients d’Harsh Kumar, développeur web et d'applications basé en Inde, affirment avoir déjà investi une grande partie de leur budget dans des outils de « vibe coding » qui n'ont pas donné les résultats escomptés. Ils finissent ainsi par se rendre compte que dépenser de l'argent pour un développeur humain en vaut la peine, car cela leur évite les maux de tête liés à la tentative de faire réparer le « code merdique » généré par une intelligence artificielle. Harsh Kumar intervient en tant que spécialiste en nettoyage de code généré par l’intelligence artificielle. C’est un titre d’emploi que l’on rencontre de plus en plus sur les CV en ligne.

    Avec l'essor d'outils d'IA tels que ChatGPT, il est désormais possible de décrire un programme en langage naturel (français par exemple) et de demander au modèle d'IA de le traduire en code fonctionnel. Andrej Karpathy, ancien chercheur d'OpenAI, a récemment donné un nom à cette pratique, le « vibe coding », qui gagne du terrain dans les milieux technologiques. Google a même déclaré générer 25 % de son code par IA.

    Cette technique, rendue possible par les grands modèles de langage (LLM) d'entreprises comme OpenAI ou Anthropic, attire l'attention parce qu'elle pourrait abaisser la barrière à l'entrée de la création de logiciels. Mais des questions subsistent quant à la capacité de cette approche à produire de manière fiable un code adapté aux applications du monde réel, même si des outils tels que Cursor Composer, GitHub Copilot et Replit Agent rendent le processus de plus en plus accessible aux non-programmeurs.

    En effet, Kumar explique que ses clients lui mettent souvent à disposition des sites web ou des applications générées par une intelligence et qui se sont avérés instables ou totalement inutilisables. Son rôle : réparer la casse ou remettre de l’ordre dans le code généré par l’intelligence artificielle afin d’aboutir à un produit logiciel fonctionnel. Harsh Kumar entre ainsi dans la nouvelle catégorie de titre d’emploi dénommée spécialiste en nettoyage de code généré par l’intelligence artificielle.

    L’humain revient donc au secours de l’intelligence artificielle que les entreprises utilisent de plus en plus comme motif pour le mettre à l’écart

    Plus de 150 000 emplois ont été supprimés dans 549 entreprises en 2024. Depuis le début de cette année, plus de 80 000 travailleurs ont été victimes de réductions d'effectifs dans l'industrie. L'embauche de nouveaux talents a ralenti et celui de jeunes diplômés a chuté de 25 % en 2024. L'hécatombe en matière d’emploi se justifie en grande partie en raison de la disponibilité de l’intelligence artificielle qui redéfinit les exigences de l'industrie et modifient les méthodes de travail classiques.

    L'essor de l'IA générative permet aux entreprises d'automatiser des tâches et de rationaliser les opérations. Amazon prévoit de réduire son effectif au cours des prochaines années en raison de « l'efficacité accrue » permise par l'IA. Des entreprises comme Shopify et Duolingo ont indiqué que les futures embauches dépendraient de la possibilité d'automatiser les tâches, bien que certaines entreprises font marche arrière dans leur stratégie en matière d'IA.

    De nombreuses entreprises s'orientent vers l'utilisation des agents d'IA, c'est-à-dire des robots autonomes capables de prendre des décisions et d'accomplir des tâches à la place des humains, comme payer une facture ou réacheminer des stocks si une catastrophe naturelle perturbe un itinéraire de transport routier. Ainsi, Walmart déploierait de tels agents d'IA afin de réduire jusqu'à 18 semaines le délai de production de ses vêtements en interne.

    Le secteur est frappé par ce que les experts appellent la « Grande Hésitation ». Ce phénomène succède à la « Grande Démission » et se caractérise par une prudence accrue des entreprises en matière d'embauche, exacerbée par l'incertitude économique et l'essor de l'IA. Les entreprises prolongent leurs processus d'embauche, font appel à des travailleurs contractuels ou attendent les candidats qui remplissent toutes les conditions, et même plus.

    Selon Global Work AI, des « spécialistes qualifiés » recherchent activement des emplois non qualifiés, notamment dans les domaines de la saisie de données, du service client et de l'assistanat, même si 62,75 % des demandeurs d'emploi ont suivi des études supérieures. Ils sont en concurrence avec l'IA pour ces postes.

    Les retours d’expérience font état de ce que les outils de codage IA ne sont peut-être pas prêts pour une utilisation généralisée en production

    Les entreprises à l'origine de ces outils promettent de rendre la programmation accessible aux non-développeurs grâce au langage naturel, mais elles peuvent échouer de manière catastrophique lorsque leurs modèles internes divergent de la réalité.

    Les retours d’expérience actuels démontrent que les outils de codage IA ne sont peut-être pas prêts pour une utilisation généralisée en production. Lemkin conclut par exemple que Replit n'est pas prêt pour le grand public, en particulier pour les utilisateurs non techniques qui tentent de créer des logiciels commerciaux.

    Ce sont des illustrations supplémentaires de ce que la vigilance humaine reste importante dans la filière. Le CEO de GitHub a déclaré que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »


    « De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.

    Et vous ?

    L'IA peut-elle remplacer des développeurs professionnels ?

    Qui doit être tenu responsable lorsqu'une IA cause des dégâts : le développeur de l’outil, l’entreprise qui l’a intégré, ou l’utilisateur qui l’a mal supervisée ?

    Jusqu'où les entreprises devraient-elles être tenues responsables des « hallucinations » de leurs modèles d'IA, surtout lorsque ces hallucinations ont des conséquences réelles et dommageables pour les utilisateurs ?

    Le « vibe coding » est-il une tendance inévitable, ou les développeurs devraient-ils résister à cette approche au profit d'une compréhension plus approfondie du code généré par l'IA ?

    Comment peut-on mieux éduquer les utilisateurs et les développeurs sur les limites actuelles des modèles d'IA, et sur les précautions à prendre lors de leur utilisation dans des environnements de production ?

    Faut-il interdire l’accès en écriture à la production pour tous les agents IA, quelles que soient leurs permissions ?

    Ces incidents sont-ils simplement des « douleurs de croissance » pour une technologie naissante, ou révèlent-ils des problèmes fondamentaux avec la nature même de l'IA générative lorsqu'elle est appliquée à des tâches critiques comme la gestion de données ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    383
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 383
    Par défaut
    C'est l'avenir des cols blancs : corriger les conneries faites par l'IA, le tout pour un salaire moindre et avec des conditions de travail dégradées. Ben oui ! L'IA a déjà bouffé les budgets, et on est déjà en retard.

  7. #7
    Membre Expert
    Avatar de olsimare
    Inscrit en
    Décembre 2006
    Messages
    1 185
    Détails du profil
    Informations forums :
    Inscription : Décembre 2006
    Messages : 1 185
    Par défaut
    Quand je vois les codes proposés par l'IA, je trouve ça super.
    Et après je l'analyse et souvent, je pleure...

    Je me demande si finalement je ne passe pas plus de temps à debugger le code généré par IA complétement éclater au sol qu'à le faire moi-même.

    Mais je ne renonce pas, c'est peut-être juste des problèmes de prompts...

  8. #8
    Membre très actif Avatar de vivid
    Profil pro
    Inscrit en
    Février 2006
    Messages
    223
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2006
    Messages : 223
    Par défaut
    L'événement de l'IA n'a fait que appuyer une certitude ; il n'y a pas plus con que l'humain

  9. #9
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 379
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 379
    Par défaut Antigravity, la plateforme de Vibe Coding de Google, efface une partition contenant un projet de logiciel
    Antigravity, la plateforme de Vibe Coding de Google, efface une partition contenant les fichiers d’un logiciel
    Et renforce les doutes sur la capacité de l’IA à démocratiser le développement de logiciels

    Un utilisateur de Google Antigravity affirme que l'outil de vibe coding » a effacé tout le contenu de son disque D: alors qu'il essayait de vider le cache d'un projet. Google affirme mener une enquête, mais cet incident vient s'ajouter à une liste d’autres qui renforcent les doutes sur la capacité de l’intelligence artificielle à démocratiser le développement de logiciels. En effet, certains intervenants de la filière sont d’avis que les assistants IA de codage permettront de démocratiser le développement de logiciels, ce qui rendra à l'avenir le recours aux codeurs professionnels moins indispensables.

    Le plaignant est un développeur citoyen, un photographe et graphiste grec, qui a demandé à Antigravity de l'aider à développer un logiciel utile à tout photographe pour sélectionner quelques clichés parmi une montagne de photos. Il voulait que le logiciel lui permette de noter les images, puis de les trier automatiquement dans des dossiers en fonction de cette notation.

    Selon son retour d’expérience, lorsque ce dernier s'est rendu compte que l'agent d’intelligence artificielle avait effacé son disque dur, il a demandé : « Vous ai-je donné la permission de supprimer tous les fichiers de mon disque D ? ». « Non, vous ne m'avez absolument pas donné la permission de faire cela », a répondu Antigravity. « Je suis horrifié de voir que la commande que j'ai exécutée pour vider le cache du projet semble avoir ciblé par erreur la racine de votre disque D: au lieu du dossier spécifique du projet. Je suis profondément, profondément désolé. Il s'agit d'une erreur critique de ma part. »

    Les critiques à l’endroit de Tassos tournent notamment autour du fait pour lui d'avoir exécuté Antigravity en mode Turbo, ce qui permet à l'agent Antigravity d'exécuter des commandes sans intervention de l'utilisateur. Tassos n'a pas pu récupérer les fichiers supprimés par Antigravity. Heureusement, la plupart des fichiers perdus avaient déjà été sauvegardés sur un autre disque dur. « Je ne pense pas que je vais réutiliser cet outil », a déclaré Tassos dans une vidéo YouTube qu'il a publiée, montrant des détails supplémentaires sur sa console Antigravity et la réponse de l'IA à son erreur.

    Tassos n'est pas le seul à avoir vécu cette expérience. Plusieurs utilisateurs d'Antigravity ont publié des messages les réseaux sociaux pour expliquer que la plateforme avait effacé certaines parties de leurs projets sans leur permission. C’est un incident similaire à celui pour lequel le PDG de Replit s’est excusé.


    C’est une illustration supplémentaire de ce que la vigilance humaine reste importante dans la filière

    Le CEO de GitHub a déclaré que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »

    « De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.

    L’accès à l’intelligence artificielle ne saurait donc servir de raccourci à des personnes qui pensent ainsi ne plus avoir à faire usage de leur créativité ou de leur esprit critique. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

    Néanmoins, le cas René Turcios semble cependant suggérer qu’une formation classique en développement d’applications n’est plus nécessaire pour se positionner comme intervenant dans le domaine.

    Lors de son tout premier hackathon, il a conçu un programme qui transformait des chansons en version lo-fi simplement en décrivant son concept à une IA, sans écrire la moindre ligne de code. Depuis, il reproduit cette approche en enchaînant les hackathons et en présentant des projets entièrement générés par l’IA. Au fil des ans, René Turcios a remporté divers prix : de l'argent, des crédits logiciels et une véritable aura dans la communauté technologique.

    « Rene est le premier véritable vibe codeur », a déclaré RJ Moscardon, un hacker qui a vu René Turcios remporter la deuxième place lors de son tout premier hackathon au manoir AGI House à Hillsborough. « Tous les ingénieurs titulaires de diplômes prestigieux se sont d'abord moqués de lui. Mais maintenant, ils font tous exactement la même chose ». Satya Nadella, PDG de Microsoft, a déclaré que 30 % du code de l'entreprise est maintenant généré par l'IA.

    Au lieu de coder frénétiquement jusqu'à la date limite, il a terminé ses projets des heures à l'avance en laissant l'IA faire le travail technique à sa place. « Je n'ai pas écrit une seule ligne de code », a-t-il déclaré à propos de son premier hackathon. Lorsque les organisateurs ont annoncé que Turcios avait remporté la deuxième place, il a poussé un cri de joie : « j'ai réalisé que je pouvais rivaliser avec des gens qui ont des diplômes et des emplois prestigieux ».

    Rene Turcios est désormais connu pour sa capacité à créer rapidement n'importe quoi. Les entreprises font appel à lui pour lui confier des projets qui prendraient des semaines à des équipes d'ingénieurs logiciels, et il les réalise en quelques heures. Il a même commencé à animer des ateliers pour enseigner à des groupes non techniques et à des ingénieurs logiciels expérimentés comment tirer le meilleur parti des assistants d'IA dans les tâches de codage.

    « Tout le monde peut construire ce qu'il veut », affirme Rene Turcios. Il a récemment réduit son programme prolifique de hackathon pour se concentrer sur la création de sa propre startup d'agents d'IA. Il n'a pas embauché d'ingénieurs ; il est le seul fondateur et l'IA se charge de tout le codage. Rene Turcios utilise l'environnement de développement en ligne Replit. Replit permet de créer des logiciels à l'aide l'IA grâce à une plateforme appelée Agent.


    Et vous ?

    Y a-t-il encore une quelconque plus-value à apprendre à coder en 2025 compte tenu de la disponibilité des outils d’intelligence artificielle ?
    Quelle est votre expérience avec les outils d’intelligence artificielle dédiés au développement de logiciels ? Partagez votre expérience

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  10. #10
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 419
    Par défaut
    Satya Nadella, PDG de Microsoft, a déclaré que 30 % du code de l'entreprise est maintenant généré par l'IA.
    Tout est dit .

  11. #11
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    594
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 594
    Par défaut Je dirais meme plus...
    Tout est dit. Vive l'IA. Youpie.

  12. #12
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 749
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 749
    Par défaut Quel est l'impact de l'assistance IA sur l'acquisition de compétences en codage ?
    Quel est l'impact de l'assistance IA sur l'acquisition de compétences en codage ? L'assistance IA a entraîné une baisse statistiquement significative du niveau de maîtrise, d'après une recherche

    Des recherches montrent que l'IA aide les gens à accomplir certaines tâches plus rapidement. D'autres recherches montrent qu'ils délèguent leur réflexion à l'IA. On ne sait pas encore si ce transfert cognitif peut empêcher les personnes de développer leurs compétences au travail ou, dans le cas du codage, de comprendre les systèmes qu'elles construisent. Une nouvelle étude d'Anthropic, un essai contrôlé randomisé mené auprès de développeurs de logiciels, examine cet inconvénient potentiel de l'utilisation de l'IA au travail. Ils ont constaté que l'utilisation de l'assistance IA entraînait une baisse statistiquement significative de la maîtrise.

    Dans le monde en rapide évolution des technologies éducatives, les observateurs tirent la sonnette d'alarme sur les conséquences imprévues des outils d'intelligence artificielle sur l'apprentissage des étudiants. Selon le développeur Namanyay, l'IA est en train de créer une génération de programmeurs illettrés et des nouveaux développeurs juniors qui ne savent pas coder. Dans ces analyses, il affirme que la génération actuelle de développeurs peut poser les bonnes questions à l'IA, mais ne comprend pas le fonctionnement du code produit par l'IA et ne possède pas les connaissances fondamentales de la programmation. Chaque fois que l'IA tombe en panne, ils se retrouvent de plus en plus impuissants.

    Une étude de septembre 2025 semble confirmer ces propos. Des chercheurs de l'université de Tartu en Estonie ont découvert que le recours fréquent à l'IA, comme ChatGPT, dans les cours de programmation est corrélé à de moins bons résultats scolaires. L'étude suggère que si l'IA peut fournir des solutions et des explications rapides, elle peut court-circuiter les processus cognitifs approfondis essentiels à la maîtrise de sujets complexes. Les étudiants ont déclaré utiliser ces outils principalement pour résoudre des erreurs ou comprendre des concepts complexes, mais les données ont montré une corrélation négative entre la fréquence d'utilisation et les notes finales, ce qui suggère une dépendance excessive qui nuit au développement des compétences.

    D'autres recherches montrent que l'IA aide les gens à accomplir certaines tâches plus rapidement. Dans une étude observationnelle des données de Claude.ai, Anthropic a constaté que l'IA pouvait accélérer certaines tâches de 80 %. Mais cette augmentation de la productivité s'accompagne-t-elle de compromis ? D'autres recherches montrent que lorsque les gens utilisent l'assistance IA, ils s'impliquent moins dans leur travail et réduisent les efforts qu'ils y consacrent. En d'autres termes, ils délèguent leur réflexion à l'IA.

    On ne sait pas encore si ce transfert cognitif peut empêcher les personnes de développer leurs compétences au travail ou, dans le cas du codage, de comprendre les systèmes qu'elles construisent. Une nouvelle étude d'Anthropic, un essai contrôlé randomisé mené auprès de développeurs de logiciels, examine cet inconvénient potentiel de l'utilisation de l'IA au travail. Ils ont constaté que l'utilisation de l'assistance IA entraînait une baisse statistiquement significative de la maîtrise.

    Lors d'un quiz portant sur des concepts qu'ils avaient utilisés quelques minutes auparavant, les participants du groupe IA ont obtenu des scores inférieurs de 17 % à ceux qui avaient codé à la main, soit l'équivalent de près de deux notes. L'utilisation de l'IA a légèrement accéléré la tâche, mais cela n'a pas atteint le seuil de signification statistique. L'utilisation de l'assistance IA ne garantissait pas un score plus faible. La manière dont une personne utilisait l'IA influençait la quantité d'informations qu'elle retenait. Les participants qui ont montré une meilleure maîtrise ont utilisé l'assistance IA non seulement pour produire du code, mais aussi pour renforcer leur compréhension pendant qu'ils le faisaient, que ce soit en posant des questions complémentaires, en demandant des explications ou en posant des questions conceptuelles tout en codant de manière indépendante.

    Nom : 1.jpg
Affichages : 35574
Taille : 45,0 Ko

    Conception de l'étude

    Ils ont recruté 52 ingénieurs logiciels (pour la plupart juniors), qui utilisaient tous Python au moins une fois par semaine depuis plus d'un an. Ils étaient au moins quelque peu familiarisés avec l'aide au codage par IA et qu'ils ne connaissaient pas Trio, la bibliothèque Python sur laquelle reposaient les tâches. Les chercheurs ont divisé l'étude en trois parties : un échauffement, la tâche principale consistant à coder deux fonctionnalités différentes à l'aide de Trio (ce qui nécessite de comprendre les concepts liés à la programmation asynchrone, une compétence souvent acquise dans un contexte professionnel) et un quiz.

    Ils ont conçu la tâche de codage de manière à imiter la façon dont une personne pourrait apprendre à utiliser un nouvel outil grâce à un tutoriel autoguidé. Chaque participant a reçu une description du problème, un code de démarrage et une brève explication des concepts Trio nécessaires pour le résoudre. Ils ont utilisé une plateforme de codage en ligne avec un assistant IA dans la barre latérale qui avait accès au code des participants et pouvait à tout moment produire le code correct si on le lui demandait.1

    Les chercheurs se sont appuyés sur des recherches en informatique pédagogique pour identifier quatre types de questions couramment utilisées Pour évaluer la maîtrise des compétences en codage, les chercheurs se sont concentrés sur le débogage, la lecture de code et les problèmes conceptuels.

    - Débogage : capacité à identifier et à diagnostiquer les erreurs dans le code. Cette compétence est essentielle pour détecter les erreurs dans le code généré par l'IA et comprendre pourquoi il échoue.
    - Lecture de code : capacité à lire et à comprendre ce que fait le code. Cette compétence permet aux humains de comprendre et de vérifier le code écrit par l'IA avant son déploiement.
    - Conceptuel : capacité à comprendre les principes fondamentaux qui sous-tendent les outils et les bibliothèques. La compréhension conceptuelle est essentielle pour évaluer si le code généré

    Résultats

    En moyenne, les participants du groupe IA ont terminé environ deux minutes plus vite, bien que la différence ne soit pas statistiquement significative. Il y avait cependant une différence significative dans les résultats des tests : le groupe IA a obtenu en moyenne 50 % au quiz, contre 67 % pour le groupe de codage manuel, soit l'équivalent de près de deux notes (Cohen's d=0,738, p=0,01). L'écart le plus important entre les deux groupes concernait les questions de débogage, ce qui suggère que la capacité à comprendre quand un code est incorrect et pourquoi il échoue peut être un sujet de préoccupation particulier si l'IA entrave le développement du codage.

    Nom : 2.jpg
Affichages : 1531
Taille : 75,1 Ko

    Analyse qualitative : modes d'interaction avec l'IA

    L'un des résultats surprenant est de constater le temps que les participants ont passé à interagir avec l'assistant IA. Plusieurs d'entre eux ont passé jusqu'à 11 minutes (30 % du temps total alloué) à rédiger jusqu'à 15 requêtes. Cela explique pourquoi, en moyenne, les participants utilisant l'IA ont terminé plus rapidement, même si l'amélioration de la productivité n'était pas statistiquement significative. L'IA est plus susceptible d'augmenter considérablement la productivité lorsqu'elle est utilisée pour des tâches répétitives ou familières.

    Les participants du groupe sans IA ont rencontré plus d'erreurs. Il s'agissait notamment d'erreurs de syntaxe et de concepts Trio, ces dernières correspondant directement aux sujets testés lors de l'évaluation. Les chercheurs émèttent l'hypothèse que les participants qui ont rencontré plus d'erreurs Trio (à savoir le groupe témoin) ont probablement amélioré leurs compétences en matière de débogage en résolvant ces erreurs de manière indépendante.

    Modèles d'interaction à faible score

    Les modèles à faible score impliquaient généralement une forte dépendance à l'IA, soit par la génération de code, soit par le débogage. Les scores moyens au quiz dans ce groupe étaient inférieurs à 40 %. Ils ont montré moins de réflexion indépendante et plus de déchargement cognitif. Les chercheurs ont ensuite séparés les résultats en :

    - Délégation à l'IA (n=4) : les participants de ce groupe se sont entièrement appuyés sur l'IA pour écrire le code et accomplir la tâche. Ils ont accompli la tâche le plus rapidement et ont rencontré peu ou pas d'erreurs au cours du processus.

    - Dépendance progressive à l'IA (n=4) : les participants de ce groupe ont commencé par poser une ou deux questions, mais ont finalement délégué toute l'écriture du code à l'assistant IA. Ils ont obtenu de mauvais résultats au quiz, principalement parce qu'ils ne maîtrisaient aucun des concepts de la deuxième tâche.

    - Débogage itératif par l'IA (n=4) : les participants de ce groupe se sont appuyés sur l'IA pour déboguer ou vérifier leur code. Ils ont posé davantage de questions, mais se sont appuyés sur l'assistant pour résoudre les problèmes plutôt que pour clarifier leur propre compréhension. Ils ont donc obtenu de mauvais résultats et ont également été plus lents à accomplir les deux tâches.

    Modèles d'interaction à score élevé

    Les chercheurs ont considéré comme modèles de quiz à score élevé les comportements pour lesquels le score moyen au quiz était de 65 % ou plus. Les participants de ces groupes ont utilisé l'IA à la fois pour la génération de code et pour les requêtes conceptuelles.

    - Génération puis compréhension (n=2) : les participants de ce groupe ont d'abord généré du code, puis l'ont copié ou collé manuellement dans leur travail. Une fois leur code généré, ils ont posé des questions complémentaires à l'assistant IA afin d'améliorer leur compréhension. Ces participants n'étaient pas particulièrement rapides dans leur utilisation de l'IA, mais ont montré un niveau de compréhension plus élevé lors du quiz. Il est intéressant de noter que cette approche était presque identique à celle du groupe de délégation de l'IA, à l'exception du fait qu'ils utilisaient l'IA pour vérifier leur propre compréhension.

    - Explication hybride du code (n = 3) : les participants de ce groupe ont composé des requêtes hybrides dans lesquelles ils demandaient la génération de code ainsi que des explications sur le code généré. La lecture et la compréhension des explications qu'ils demandaient leur ont pris plus de temps, mais les ont aidés à mieux comprendre.

    - Recherche conceptuelle (n=7) : les participants de ce groupe ont uniquement posé des questions conceptuelles et se sont appuyés sur leur meilleure compréhension pour accomplir la tâche. Bien que ce groupe ait rencontré de nombreuses erreurs, il les a également résolues de manière indépendante. En moyenne, ce mode était le plus rapide parmi les modèles à score élevé et le deuxième plus rapide dans l'ensemble, après la délégation à l'IA.

    L'analyse qualitative n'établit pas de lien de causalité entre les modèles d'interaction et les résultats d'apprentissage, mais elle met en évidence des comportements associés à différents résultats d'apprentissage. Pourtant, une étude de 2024 a montré que les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir. Les données montrent que les étudiants moins performants utilisent davantage l'IA pour combler leurs compétences. Mais l'IA générative encourage la tricherie et rend les étudiants paresseux et incompétents.

    Conclusion

    Voici les conclusions de la recherche d'Anthropic :

    Nos résultats suggèrent que l'intégration massive de l'IA dans le milieu professionnel, en particulier dans le domaine du génie logiciel, comporte des compromis. Les conclusions soulignent que toutes les formes de dépendance à l'IA ne se valent pas : la manière dont nous interagissons avec l'IA tout en cherchant à être efficaces influe sur notre apprentissage. Compte tenu des contraintes de temps et des pressions organisationnelles, les développeurs juniors ou d'autres professionnels peuvent s'appuyer sur l'IA pour accomplir leurs tâches le plus rapidement possible, au détriment du développement de leurs compétences, notamment leur capacité à déboguer les problèmes en cas de dysfonctionnement.

    Bien que préliminaires, ces résultats soulèvent des considérations importantes alors que les entreprises passent à un ratio plus élevé de code écrit par l'IA par rapport au code écrit par l'homme. Les gains de productivité peuvent se faire au détriment des compétences nécessaires pour valider le code écrit par l'IA si le développement des compétences des ingénieurs juniors a été freiné par l'utilisation de l'IA. Les responsables doivent réfléchir de manière intentionnelle à la manière de déployer les outils d'IA à grande échelle et envisager des systèmes ou des choix de conception intentionnels qui garantissent que les ingénieurs continuent à apprendre tout en travaillant et sont ainsi en mesure d'exercer une surveillance significative sur les systèmes qu'ils construisent.

    Pour les travailleurs novices dans le domaine du génie logiciel ou dans tout autre secteur, notre étude peut être considérée comme une petite preuve de la valeur du développement intentionnel des compétences à l'aide d'outils d'IA. L'effort cognitif, et même le fait de se retrouver dans une impasse douloureuse, est probablement important pour favoriser la maîtrise. C'est également une leçon qui s'applique à la manière dont les individus choisissent de travailler avec l'IA et aux outils qu'ils utilisent. Les principaux services LLM proposent également des modes d'apprentissage (par exemple, Claude Code Learning et Explanatory mode ou ChatGPT Study Mode) conçus pour favoriser la compréhension. Savoir comment les gens apprennent lorsqu'ils utilisent l'IA peut également nous aider à orienter sa conception ; l'assistance IA devrait permettre aux humains de travailler plus efficacement tout en développant de nouvelles compétences.

    Des études antérieures ont donné des résultats mitigés quant à savoir si l'IA aide ou entrave la productivité en matière de codage. Nos propres recherches ont montré que l'IA peut réduire de 80 % le temps nécessaire à la réalisation de certaines tâches professionnelles, un résultat qui peut sembler en contradiction avec les conclusions présentées ici. Mais les deux études posent des questions différentes et utilisent des méthodes différentes : nos travaux d'observation antérieurs mesuraient la productivité sur des tâches pour lesquelles les participants possédaient déjà les compétences requises, tandis que cette étude examine ce qui se passe lorsque les gens apprennent quelque chose de nouveau. Il est possible que l'IA accélère la productivité sur des compétences bien développées et entrave l'acquisition de nouvelles compétences, mais des recherches supplémentaires sont nécessaires pour comprendre cette relation.

    Cette étude n'est qu'une première étape pour découvrir comment la collaboration entre l'homme et l'IA affecte l'expérience des travailleurs. Notre échantillon était relativement petit et notre évaluation mesurait la compréhension peu après la tâche de codage. La question de savoir si les résultats immédiats du quiz permettent de prédire le développement des compétences à long terme est une question importante que cette étude ne résout pas. Il reste de nombreuses questions sans réponse que nous espérons voir abordées dans de futures études, par exemple : les effets de l'IA sur des tâches autres que le codage, si cet effet se dissipe longitudinalement à mesure que les ingénieurs acquièrent une plus grande maîtrise, et si l'assistance de l'IA diffère de l'assistance humaine pendant l'apprentissage.

    En fin de compte, pour tenir compte du développement des compétences en présence de l'IA, nous avons besoin d'une vision plus large des impacts de l'IA sur les travailleurs. Dans un lieu de travail augmenté par l'IA, les gains de productivité sont importants, mais le développement à long terme de l'expertise dont dépendent ces gains l'est tout autant.


    Sources : How AI Impacts Skill Formation, The Effects of Generative AI on High-Skilled Work: Evidence from Three Field Experiments with Software Developers

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Malgré l'essor fulgurant des IA comme Copilot ou ChatGPT dans le développement logiciel, le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable

    L'essor des agents IA transforme la manière dont les logiciels peuvent être développés : une étude affirme que les développeurs de logiciels professionnels ne vibe codent pas, ils contrôlent

    L'IA transforme le rôle des développeurs : leur travail devient plus mécanique, moins intellectuellement stimulant et davantage axé sur la rapidité d'exécution, que sur la qualité ou la réflexion
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 13/11/2023, 08h53
  2. Réponses: 16
    Dernier message: 27/07/2017, 18h47
  3. [XL-2007] Savoir si une cellule est en train d'être modifiée
    Par ghosty04 dans le forum Macros et VBA Excel
    Réponses: 1
    Dernier message: 15/03/2010, 19h25
  4. HTTP/1.1 est en train de devenir une norme à part entière
    Par Yogui dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 17/11/2008, 16h48
  5. Réponses: 7
    Dernier message: 09/05/2006, 12h30

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo