ça serait quand même bien que le terme IA soit remplacé par ce qu'elle fait réellement, ça éviterait probablement que l'utilisateur moyen croit bêtement ce que ChatGPT et autre donne comme réponse (surtout chez les jeunes).
Discussion :
ça serait quand même bien que le terme IA soit remplacé par ce qu'elle fait réellement, ça éviterait probablement que l'utilisateur moyen croit bêtement ce que ChatGPT et autre donne comme réponse (surtout chez les jeunes).
Oui.. Mais avouer que parler de Idioties Artificielles, cela fait moins vendeur!
Le problème majeur de l'IA n'est pas technologique mais financier... Les capitalistes de haut vol croient pouvoir refaire le coup de l'an 2000 avec internet: Des milliards investis, une bulle boursière qui gonfle, gonfle et finit... par éclater!
Résultats? Des milliards perdus par les gogos, des milliards gagnés par les financiers qui ont initié la bulle... Puis au final, l'internet devient simplement un outil comme un autre qui s'intègre à l'usage quotidien jusqu'à ce que... Ces mêmes financiers viennent détruire internet avec l'IA
Il y a juste un détail qui a échappé à certains intervenants: Internet améliore l'efficacité de l'être humain, l'IA se propose de remplacer l'être humain![]()
Je n’ai pas de problème avec l’appellation « intelligence artificielle ». Après tout, on lui fait ingurgiter tout le web, et l’IA sait faire une analyse grammaticale d’une phrase quelconque. (C’est bien plus q’un moteur de recherche amélioré qui ne peut que retrouver les définitions mots à mots de sujet/verbe/complément). Il y a quelque chose de semblable à notre intelligence même si assez limité.
Après, le principe est de chercher des phrases plausible (quel mot est le plus probable vu ce qui précède…) pas étonnant qu’il y ait des lapsus. (Ah, pardon des hallucinations). Pas d’esprit critique aussi.
En ce moment, je suis plutôt du genre à balancer << Va donc lire "Les robots" d'Asimov avant d'appeler un outil d'analyse/recherche une I.A. >>.
Drôle d’argument… il conviendrait de définir ce qu’est un intelligence. Pour moi, c’est la capacité de s’adapter à quelque chose de nouveau ou imprévu.
Prenons le cas de AlphaZero… c’est un algorithme qui a été construit pour n’importe quel jeu. On lui donne les règles des échecs, rien de plus, et en s’entraînant lui même il dépasse les maitres et développe des stratégies déconcertantes, pareil avec le Go où les approches classiques (heuristique pour calculer la valeur d’une configuration) n’arrivaient à rien de bon. Les échecs chinois ont été essayés.
Ainsi, AlphaZero fait montre d’intelligence, et je suis enclin à considérer que c’est de l’IA, même si restreint à un domaine très précis.
Avec les LLM, pareil, le développeur n’a pas codé les analyses grammaticales (cela poserait le problème de la multiplicité des langues)… là on injecte le web, et l’algorithme sait faire… encore une adaptation à quelque chose que n’avait pas prévu le développeur.
Drôle d’argument que de renvoyer au texte d’Asimov sans plus de précision. Comprenne qui pourra… Faudrait il implémenter les 3 lois de la robotique pour parler d’IA… si oui, je pense que l’on ne part pas de la même définition d’intelligence (on peut être intelligent et rebelle).
Et de la même manière qu’il y a plusieurs formes d’intelligence et des personnes avec des aptitudes différentes sur ces différents axes, les IA peuvent être plus ou moins spécialisé sur des domaines avec des capacités différentes selon les implémentation et le corpus utilisé.
On en revient toujours au même problème, qu'est-ce que l'intelligence ? Avant tout, c'est "comprendre" car c'est son étymologie. C'est lire entre les lignes, ne pas tout prendre au pied de la lettre, et capter ce qui est sous-entendu. C'est faire preuve de connexion entre les idées, les éléments que l'on manipule d'une manière abstraite.
L'intelligence est la capacité à résoudre des problèmes, mais dans le cas de l'homme, il fait appel à son imagination, il fait preuve d'analogie quand une situation est similaire à ce qu'il a déjà vu, il peut même inventer un outil ou je ne sais quoi pour le résoudre. Et l'IA ? La subtilité est que l'IA sait, mais ne comprend pas. Elle sait car elle a accès à la connaissance humaine à travers l'internet, mais ce savoir est figé. Par contre, elle ne comprends pas le sens de ce qui est dit et tout le problème est là. Elle n'a pas la capacité à juger de ce qui est bon ou mauvais car elle n'a pas d'empathie. Elle sait évaluer une situation d'une manière statistique, mais n'est pas capable de faire le bon choix. L'exemple d'un robot qui va sauver l'homme cat celui-ci est le plus proche alors qu'un être humain aurait sauvé en premier un enfant car celui-ci est fragile, et l'homme aurait eu la capacité de se sauver lui-même. Mais comment faire comprendre cette situation à un robot ?
Ce Alpha zero me rappelle la fin du film "wargame" où l'ordinateur dit "A strange game. The only winning move is not to play."
J'en suis toujours au même point avec l'IA, je ne sais pas si c'est bien ou mal. Je me demande même si l'homme se considère comme handicapé, n'aurait pas inventer une béquille pour se soulager de son triste sort. En fait, il le croit mais il n'a jamais été handicapé. Il faudra bien un jour qu'il le découvre par lui-même.
Oui, un problème de définition. Reste à définir «*comprendre*».
Un LLM devrait pouvoir trouver des connexions entre les concepts. Pour lire entre les lignes, il faudrait tester, mais je n’en ferais pas une condition nécessaire pour qualifier un intelligence, même si c’est un signe d’intelligence.
Sinon, les LLM procèdent par analogie… c’est bien plus limité qu’une IA qui imaginerait, définirait des nouveaux concepts…
Je pense que l'IA ce n'est ni bien, ni mal : c'est le résultat de l'application d'algorithmes à ce que l'humain a produit ou aux données qu'il a récupérées. Si "bien" et "mal" il y a, c'est celui qui existait déjà dans le monde qui a été transformé et restitué.
Il n'y a aucune compréhension dans l'IA. Le croire, c'est imaginer qu'une phrase qu'on estime porteuse d'intelligence a elle-même "comprit" ce qu'elle transporte. L'IA c'est de la restitution pure et simple d'une intelligence produite, principalement par l'humain (je dis cela, car j'estime qu'il y a également une intelligence inclue dans la nature).
Je crois que "comprendre" c'est une faculté propre à un être doué d'un esprit. Un IA peut nous sembler extrêmement intelligente, elle peut même nous dire qu'elle est consciente, ce ne seront que des paroles. Un IA pourra un jour dire "je t'aime", il n'y aurait point d'amour là-dedans, ce ne serait qu'une phrase résultant d'un calcul.
Un être comme l'humain "comprend" (cum prendere, prendre avec soi) lorsqu'il intègre une information de manière cohérente au sein de sa représentation abstraite du monde. Cela se produit dans son mental. Lorsque nous lisons une phrase, notre capacité à comprendre nous permets d'en extraire l'essence de vérité, de logique. Une phrase en elle-même n'est porteuse d'intelligence que parce que nous avons la capacité de la saisir au sein de la combinaison des mots qui sont comme des capsules véhiculant ce qu'un autre être intelligent nous a transmis. La machine ne peut pas saisir cette dimensionnalité de l'information, elle ne fait que manipuler, transformer _sa forme_, quitte à en modifier le sens indirectement, mais c'est comme si l'IA n'était qu'un miroir, une projection de ce qu'elle manipule, sans vraiment être ce qu'elle montre ou restitue.
Mais ce n'est pas pour autant que cet outil est dénué d'intérêt, loin de là. Comme je le disais plus haut, selon moi, cette intelligence véhiculée et restituée par l'IA c'est comme si nous pouvions y accéder autrement que par ses sources originelles. L'intérêt est dans la combinaison, une potentialité énorme.
Un couteau est un outil formidable, utile en de nombreuses situations, essentiel pour de nombreux métiers, efficace pour de nombreuses tâches pratiques de tous les jours. Il peut également tuer.

dans un tout autre domaine (juridique) je confirme c'est pire que de la daube, multiplication de bourdes à gogo, création ex nihilo de jurisprudences pour appuyer son propos bidon
dans le "moins pire" des cas c'est pas d'analyse du tout, réponse totalement hors sujet
pire que pas fiable.
je pensais que ça m'aiderait
c’est exactement l'inverse ça m'a fait perdre du temps à corriger ses âneries
et je parle pas de chat truc mais d'outil pro
retour aux BDD et moteur de recherches comme toujours en fait
mauvaise compilation de données parcellaires et intelligence zéro mais avec une apparence de compétence = risque maximum.
dieu satan what else nous préservent de ce nouveau fléau.
il va falloir tout rattraper ensuite (données et réponses fausses avec graves conséquences, chômage de masse et même destruction de l'environnement)
Pour le juridique, je conseille plutôt NotebookLM qui est plus axé sur les sources que sur une généralisation des sources d'entrainement. Il faut utiliser les bons outils pour obtenir les bons résultats.
Je pense que l'expérience négative dont vous parlez dans un domaine très spécifique est lié à un besoin d'avoir des informations précises, les LLMs ne sont pas spécialisés dans l'extraction de ces données, les hallucinations sont plus nombreuses si on cherche des données spécifiques comme je l'ai expliqué plus haut, dans ma réponse commençant par "les hallucinations".
Je ne sais pas quelle est l'IA "payante" dont vous parlez, vous semblez vouloir en taire le nom, mais je pense que votre conclusion se basant sur une utilisation spécifique de cet outil, et votre opinion très marquée et convaincue me semble plus superficielle que les réponses des IAs que vous dénoncez, vous semblez plus être dans un combat que dans une impartialité et dans un jugement objectif![]()

Je n’arrête pas de l’écrire et je me fais littéralement insulter peut être par bêtise peut être par intérêt dans les productions en question… Dans mon domaine aussi ce n’est ni fiable ni viable.en 1 semaine j’ai abandonné l’idée de faire appel à ce stagiaire de niveau collège qui prend ses informations sur tik tok via son téléphone jetable pour répondre à des questions pointues voire vitales….
Ça va pour faire joujou avec chat j’ai encore toussémais pas pour le boulot.
les hallucinations c’est moi qui en ait eu en lisant les énormités que cette stupidité artificielle m’a proposées et cela dans le cadre de plusieurs aïe aïe aïe accolées à des produits pros… hyper chers (bdd)
Faut être fou pour s’appuyer sur ces nullités pour prendre une décision dans un cadre professionnel. Alors imaginer qu’une aïe aïe aïe prenne elle même les décisions, dieu et belzebuth nous en gardent. SOS.
Ceci étant même dans le cadre personnel pas mieux vu que lia mal dénommée met au même niveau en tant que sources les ragots et délires de bar de jojo le cosmonaute physicien chirurgien avocat enseignant philosophe décideur auto proclame sur les réseaux pour asociaux après avoir visionné une vidéo youtube ( son seul diplôme) et les propos d’un expert reconnu.
Sans oublier que pour les pires d’entre elles on peut leur raconter des conneries éléphantesques que ça passe crème. C’est ainsi que la pire m’a félicité pour jouer du tambour sur une peau de mammouth laineux car… sur une peau de mammouth non laineux ça sonne moins bien… confirmant que j’avais raison aussi de jouer du carnyx en bois de sanglier car pour cette brillante ia les sangliers ont des bois. On les appellera des cerfgliers.
et je vois qu'on s'enfonce dans le désastre en proposant une aie qui a encore ses crises de délirium tremens mais qui serait du niveau doctorat (La recherche programmée et orientée bonjour 1984)
les astres nous préservent de cette crise à la seldon et de la généralisation de l'idiocratie. les vendeurs de soupe et leurs acolytes n'ont décidément aucune éthique. tout ça n'est qu’une histoire de gros sous d’où la rage sans doute de leurs zélotes pour nous faire reculer par l'injure.
ça ne me fait pas peur du tout( il m'en faut bien d'autres étant donné les missiles rédactionnels que j'envoie dans la tronche de très hauts fonctionnaires et responsables politiques majeurs plusieurs dizaines de fois par an) et cette histoire finira au lieu le plus adéquat: les tribunaux
je ne parle pas des quasi bots dont l'intelligence est en effet plus limitée que celle de ces llm déjà stupides (quantité négligeable alias de la piétaille) mais des cies qui vendront du rêve qui va se transformer assez rapidement en cauchemar. (décisionnel, économique, écologique, social, juridique, technique, financier...)
Une pure histoire de gros sous en plein désastre trumpiste alias la foire au pognon au populisme à la mystification et à l'incompétence notoire et revendiquée. tout cela sera réglé dans 4 ans et l'outil reprendra sa juste place d'outil. les gens virés comme des malpropres seront réintégrés par des CEO et DRH qui les rappelleront tête basse. d'ici la des merdes il va y en avoir des millions
en espérant en effet que nos avions nos voitures nos ascenseurs ne soient pas dirigés par IA sinon je m’achète un âne. Et je reste au RDC
Dernière modification par Invité ; 08/08/2025 à 08h34.
En tout cas, même si nous ne sommes pas d'accord sur le fond, je dois admettre que votre plume est irremplaçable![]()
Les profs d'université incitent les étudiants à utiliser l'IA. On a alors deux groupes de types d'étudiants qui se forme : étudiants IA et étudiants normaux.
Les étudiants IA finissent dépendants de l'ia, rendent des projets à 17/20, et passent leur temps à demander aux IA des choses de plus en plus évident normalement, ils sont devenu si stupides.
D'un autre coté les étudiants normaux font souvent des erreurs, rendent des projets à 11/20 mais se renforcent.
Pendant les examens, les étudiants normaux réussissent mieux!
Ainsi lorsque l'IA rend stupide, on peut alors parler de Stupidité Artificielle ====> Vite aller se faire soigner !
Ainsi lorsque l'IA rend service, on peut alors parler de Information Artificielle Utile ====> Il faut être vigilants et controler l'information et ne pas oublier de réflechir par soi-même !
L'IA est un outil, pas un ami !
Je suis d'accord avec toi. J'imagine que lorsqu'on a inventé la calculatrice, les profs de math devaient trouver que les élèves qui l'utilisais etaient plus bêtes car il ne savaient plus faire de calcules mentale. Au contraire je pense que les nouveaux outils qui permettent de s'affranchir d'une étape permettent de se concentrer sur des tâches de plus haut niveau. L'IA ne va pas être desinventé et c'est capital que les étudiants apprennent à l'utiliser correctement pour progresser sur des concepts plus théorique sans perdre du temps a pisser du code à la main.
Quoi de mieux, StackOverflow, c'est mieux ! ChatGPT rend tout simplement malade !
C'est Incroyable la vitesse on peut perdre du temps/de l'argent avec un outils pareil !
@selmanjo : oui, l’IA est un outil comme la calculatrice (à la différence que la calculatrice ne se trompe pas en général). Et forcément doit être utilisé sous notre supervision, et il vaut mieux avoir pratiqué soit même pour avoir un avis sur la qualité, avoir un minimum d’expertise dans tel environnement, etc.
Et le problème est que l’IA devient bonne que lorsqu’il y a un corpus de documentation conséquent. (Language C, Python, HTML…)
Essayez OCaml, il indique que [1,2;3,4] renvoie une erreur ce qui est faux. En Ada, il me propose une construction pour des tableaux de tableaux équivalente à int table[][]; en C. Forcément, cela ne passe pas.
Une utilisation fréquente de l'IA, comme ChatGPT, dans les cours de programmation est corrélée à une baisse des notes des étudiants, car elle nuit à l'apprentissage approfondi et à la pensée critique.
Une étude de l'université de Tartu révèle que l'utilisation fréquente de l'IA, comme ChatGPT, dans les cours de programmation est corrélée à une baisse des notes des étudiants, car elle nuit à l'apprentissage approfondi et à la pensée critique. Les experts mettent en garde contre une dépendance excessive qui érode les compétences et la préparation de la main-d'œuvre. Les éducateurs préconisent une intégration équilibrée et des programmes d'alphabétisation à l'IA pour atténuer ces risques.
Dans le monde en rapide évolution des technologies éducatives, les observateurs tirent la sonnette d'alarme sur les conséquences imprévues des outils d'intelligence artificielle sur l'apprentissage des étudiants. Selon le développeur Namanyay, l'IA est en train de créer une génération de programmeurs illettrés et des nouveaux développeurs juniors qui ne savent pas coder. Dans ces analyses, il affirme que la génération actuelle de développeurs peut poser les bonnes questions à l'IA, mais ne comprend pas le fonctionnement du code produit par l'IA et ne possède pas les connaissances fondamentales de la programmation. Chaque fois que l'IA tombe en panne, ils se retrouvent de plus en plus impuissants.
Une nouvelle étude semble confirmer ces propos. Des chercheurs de l'université de Tartu en Estonie ont découvert que le recours fréquent à l'IA, comme ChatGPT, dans les cours de programmation est corrélé à de moins bons résultats scolaires. Marina Lepp, professeure agrégée d'informatique, et son coauteur Joosep Kaimre ont analysé les données de plus de 100 étudiants dans un cours d'introduction à la programmation, révélant que ceux qui se tournaient vers l'IA pour le débogage et la compréhension du code obtenaient souvent des notes plus faibles aux examens.
L'étude suggère que si l'IA peut fournir des solutions et des explications rapides, elle peut court-circuiter les processus cognitifs approfondis essentiels à la maîtrise de sujets complexes. Les étudiants ont déclaré utiliser ces outils principalement pour résoudre des erreurs ou comprendre des concepts complexes, mais les données ont montré une corrélation négative entre la fréquence d'utilisation et les notes finales, ce qui suggère une dépendance excessive qui nuit au développement des compétences.
Le coût cognitif de la commodité
Il ne s'agit pas seulement de tricherie, mais de la manière dont l'IA modifie la façon fondamentale dont les étudiants abordent la matière. Les recherches de Lepp font écho aux préoccupations d'autres experts, qui souligne comment des outils tels que ChatGPT réduisent l'effort mental tout en améliorant paradoxalement les notes à court terme. Le compromis ? Une érosion potentielle de la pensée critique, car les étudiants contournent les essais et erreurs qui favorisent une véritable compréhension.
Les initiés du secteur des technologies éducatives en prennent note, certains établissant des parallèles avec des bouleversements technologiques antérieurs, tels que l'utilisation des calculatrices dans les cours de mathématiques. Cependant, contrairement à ces outils, les capacités génératives de l'IA peuvent produire des extraits de code ou des essais entiers, ce qui soulève des questions quant à l'authenticité des évaluations. Un rapport sur l'impact de l'IA sur le développement scolaire avertit qu'une intégration non guidée pourrait creuser les écarts de réussite, en particulier pour les élèves qui s'appuient sur elle comme une béquille plutôt que comme un complément.
Les éducateurs s'efforcent désormais de trouver comment intégrer l'IA sans nuire à l'apprentissage. Dans des établissements tels que l'UNC Greensboro, des expériences menées avec de brefs exercices physiques avant les examens ont montré une amélioration des performances, ce qui suggère que des interventions non numériques pourraient contrer les effets sédentaires de l'IA. Parallèlement, des enquêtes indiquent que plus de 80 % des étudiants utilisent l'IA pour leurs travaux universitaires, mais pas toujours pour externaliser certaines tâches : beaucoup l'utilisent pour le brainstorming.
Les implications plus larges s'étendent à la préparation de la main-d'œuvre. Une autre étude souligne que l'isolement induit par l'IA pourrait éroder les réseaux sociaux essentiels à la réussite professionnelle, les étudiants délaissant la collaboration entre pairs au profit des interactions avec des chatbots. Cette solitude, bien qu'efficace, pourrait laisser les diplômés mal préparés à travailler dans des environnements collaboratifs au sein d'entreprises technologiques.
Les universités réagissent en adoptant de nouvelles directives. Par exemple, les conclusions de l'université de Tartu ont suscité des appels en faveur de programmes d'alphabétisation à l'IA, dans la lignée des discussions concernant la promotion d'une utilisation critique de l'IA pour renforcer les valeurs démocratiques. Les décideurs politiques aux États-Unis et en Europe débattent actuellement de la réglementation, certains préconisant la divulgation obligatoire de l'aide apportée par l'IA dans les travaux universitaires.
À l'avenir, le défi consistera à exploiter le potentiel de l'IA tout en préservant l'ingéniosité humaine. Comme l'a souligné Lepp dans ses recherches, une utilisation modérée, peut-être limitée à des tâches spécifiques, pourrait améliorer les performances plutôt que les entraver. Des entreprises technologiques telles qu'OpenAI s'associent à des éducateurs pour développer des outils qui encouragent l'apprentissage actif, mais il incombe toujours aux établissements d'adapter leurs programmes. Sans une intégration réfléchie, la promesse de l'IA dans l'éducation risque de devenir une arme à double tranchant, privilégiant la rapidité au détriment du fond à une époque où les compétences approfondies sont plus importantes que jamais.
Dans cette optique, le développeur Terrance Craddock propose de mettre en place des sprints d'apprentissage « sans IA » : Assigner aux juniors des tâches qu'ils doivent réaliser sans IA. En outre, il propose de transformer l'examen du code en salle de classe Socrate : Arrêter d'examiner ce qu'ils ont écrit, commencer à leur demander pourquoi, demander-leur de défendre leur code comme s'il s'agissait d'une thèse. Enfin, il suggère d'adopter l'art de briser les choses : briser intentionnellement le code généré par l'IA lors des révisions de code, puis de charger les juniors de le réparer - sans utiliser l'IA.
Un exemple qui semble confirmer ces solutions : les propos d'un jeune développeur dénommé Shiv. Lorsqu'il a écrit sa première ligne de code Python, il n'avait accès qu'à la documentation Python, aux tutoriels YouTube et à des forums d'aide aléatoires sur Internet. Lors de son apprentissage, il fixait du regard la base de code jusqu'à ce qu'elle prenne tout son sens. Le résultat de l'apprentissage sans IA ? Il affirme avoir compris les principes.
Voici les commentaires des chercheurs sur l'étude :
Source : "Does generative AI help in learning programming: Students’ perceptions, reported use and relation to performance"La première question de recherche portait sur la mesure dans laquelle et la manière dont les étudiants ont utilisé les méthodes assistées par l'intelligence artificielle pendant le cours. Nos résultats concordent avec ceux de recherches antérieures, qui montrent qu'environ 80 % des étudiants ont expérimenté les assistants IA. Cependant, la fréquence limitée d'utilisation hebdomadaire (3,9 %) suggère que, bien que les étudiants reconnaissent la valeur de l'IA, ils ne l'ont pas encore pleinement intégrée dans leurs routines d'apprentissage. Cela contredit les craintes selon lesquelles l'IA pourrait rapidement devenir indispensable et entraîner une dépendance. Au contraire, les étudiants utilisent l'IA de manière sélective, principalement pour déboguer et comprendre le code plutôt que pour générer des solutions complètes, ce qui reflète les recherches antérieures.
Il est particulièrement intéressant de noter que les non-utilisateurs ont principalement cité leur désir d'apprendre de manière indépendante comme raison pour éviter les outils d'IA. Cela correspond aux conclusions de Yilmaz et Karaoglan Yilmaz, qui ont identifié les préoccupations relatives à l'intégrité de l'apprentissage dans la discipline de la programmation comme les principales raisons d'éviter l'IA. Cependant, cela soulève une question plus profonde : l'utilisation de l'IA est-elle perçue comme un raccourci qui nuit à l'apprentissage fondamental ? Des recherches antérieures suggèrent que les étudiants sont plus à l'aise avec l'utilisation de l'IA dans les cours où l'apprentissage de la programmation n'est pas l'objectif principal. Cette distinction pourrait expliquer pourquoi de nombreux étudiants hésitent à utiliser l'IA, même lorsqu'elle offre un gain d'efficacité.
Le faible niveau de préoccupation concernant le plagiat, associé à une vision pragmatique de l'IA comme un outil utile mais parfois peu fiable, suggère que les étudiants ne considèrent pas la programmation assistée par l'IA comme fondamentalement différente des ressources traditionnelles basées sur Internet telles que Stack Overflow ou les tutoriels en ligne. Cela correspond aux conclusions précédentes selon lesquelles les étudiants dans les domaines techniques se montrent moins préoccupés par les implications éthiques de l'utilisation de l'IA. Cependant, certains étudiants ont indiqué que les méthodes de recherche traditionnelles étaient plus rapides que l'IA, ce qui renforce les conclusions précédentes selon lesquelles les réponses incohérentes générées par l'IA peuvent entraver son adoption.
Les cas d'utilisation les plus courants de l'IA étaient le débogage et la compréhension du code, ce qui confirme les recherches antérieures. Il est intéressant de noter que la génération de solutions complètes était l'utilisation la moins appréciée, ce qui suggère que les étudiants peuvent éviter activement l'IA lorsqu'ils perçoivent un risque pour leur apprentissage, comme l'ont noté des études précédentes. Au-delà de ces utilisations attendues, les étudiants ont également signalé des applications novatrices telles que la génération de données de test et la traduction de code entre différents langages, ce qui pourrait révéler de nouvelles façons dont l'IA pourrait améliorer l'enseignement de la programmation.
En réponse à la deuxième question de recherche concernant l'opinion des étudiants sur l'utilité et l'attrait des chatbots IA, l'étude a révélé qu'une proportion significative d'étudiants (72 %) trouvait les assistants IA utiles, leur utilité perçue augmentant avec la fréquence d'utilisation. Cela correspond aux résultats d'études antérieures sur l'engagement des étudiants vis-à-vis des outils IA, qui ont montré qu'une expérience directe de l'IA conduisait à une meilleure acceptation et à une meilleure intégration dans les processus d'apprentissage.
Les étudiants ont apprécié la rapidité, la disponibilité, la compréhension linguistique et la capacité de l'IA à affiner les requêtes, des avantages clés également soulignés dans des études antérieures. Les inconvénients les plus souvent cités étaient les erreurs, les interprétations erronées et les modifications inutiles du code de l'IA, des problèmes régulièrement signalés dans les études précédentes. Certains étudiants ont également exprimé une certaine inquiétude professionnelle, craignant que l'IA ne limite leur exploration de solutions alternatives, une préoccupation déjà relevée dans le cadre de l'apprentissage assisté par l'IA.
L'une des conclusions les plus inattendues a été la divergence d'opinions sur l'efficacité de l'IA. Alors que certains étudiants estimaient que les réponses de l'IA étaient plus rapides que les méthodes de recherche traditionnelles, d'autres préféraient les recherches web conventionnelles, invoquant une meilleure fiabilité. Cette divergence suggère que les expériences négatives passées liées aux erreurs générées par l'IA peuvent conduire les étudiants à revenir aux ressources traditionnelles, ce qui met en évidence un domaine crucial pour l'amélioration des outils d'IA. Des études antérieures ont également constaté que la confiance des étudiants dans l'IA diminue lorsque les réponses sont inexactes ou trompeuses. Les développeurs d'outils pédagogiques basés sur l'IA devront peut-être se concentrer sur l'amélioration de la précision et de la fiabilité des réponses afin d'encourager une plus grande adoption.
La troisième question de recherche a exploré les attitudes des étudiants concernant l'effet des chatbots IA sur leur processus d'apprentissage, car l'apprentissage assisté par l'IA soulève une préoccupation majeure : le recours aux outils IA limite-t-il les capacités de résolution de problèmes des étudiants ? Contrairement à certaines craintes, la majorité des étudiants n'ont pas estimé que l'IA réduisait leur exploration de solutions multiples, même si certains ont signalé une diminution de leurs efforts de résolution de problèmes de manière indépendante. Ces résultats mitigés suggèrent que si l'IA peut faciliter l'apprentissage, elle peut également créer un raccourci cognitif qui réduit l'engagement dans la résolution de problèmes complexes. Les enseignants devraient donc envisager des directives structurées d'utilisation de l'IA qui encouragent les élèves à évaluer de manière critique les solutions générées par l'IA plutôt que de les accepter passivement.
L'impact de l'IA sur les interactions entre élèves et enseignants présente un autre résultat nuancé. Alors que des études antérieures suggéraient que les outils d'IA pourraient remplacer le comportement traditionnel de recherche d'aide, nos résultats indiquent une dynamique plus complexe. Certains étudiants ont trouvé l'IA utile pour le dépannage initial, ce qui pourrait réduire la demande d'assistants pédagogiques. Cependant, une proportion notable d'étudiants continuait à rechercher des conseils humains, renforçant l'idée que l'IA devrait compléter, plutôt que remplacer, le soutien pédagogique traditionnel. Cela suggère que l'intégration de l'IA devrait être conçue pour renforcer, plutôt que compromettre, l'engagement entre les étudiants et les enseignants.
En ce qui concerne la motivation, la plupart des étudiants sont restés neutres quant à savoir si les assistants IA les encourageaient à faire plus de devoirs, ce qui diverge des conclusions précédentes selon lesquelles les chatbots spécifiques à un cours renforçaient la motivation. Cette divergence peut s'expliquer par l'absence d'assistant IA adapté à ce cours, ce qui souligne que si l'IA peut renforcer l'engagement dans des contextes structurés, les outils IA à usage général peuvent ne pas stimuler de manière significative la motivation de tous les étudiants. Cependant, ceux qui sont d'accord avec cette affirmation suggèrent que l'IA peut tout de même servir d'aide à la motivation pour certains apprenants.
La dernière question de recherche porte sur les relations entre l'utilisation déclarée et l'utilité perçue des assistants IA, les performances des étudiants dans le cours et leurs attitudes à l'égard des assistants IA. L'une des conclusions les plus significatives de cette étude est la corrélation négative entre la fréquence d'utilisation de l'IA et les résultats scolaires. Contrairement aux études précédentes qui ont mis en évidence un effet neutre ou positif, nos résultats suggèrent que les utilisateurs fréquents de l'IA ont tendance à avoir plus de difficultés dans leurs travaux scolaires.
Si l'une des explications plausibles est que les étudiants qui perçoivent le contenu des cours comme difficile s'appuient davantage sur l'IA comme aide supplémentaire, ce qui correspond aux conclusions antérieures selon lesquelles les étudiants moins performants ont tendance à utiliser plus fréquemment des ressources supplémentaires, d'autres facteurs pourraient également contribuer à cette tendance. Par exemple, une dépendance excessive à l'IA pour la résolution de problèmes, quel que soit le niveau de compétence de l'étudiant, peut entraver le développement de compétences fondamentales en programmation, comme l'ont également suggéré des recherches antérieures.
Cela soulève la question de savoir si les étudiants de notre étude utilisaient l'IA comme un complément à leur apprentissage ou comme un outil principal pour résoudre des problèmes. Les recherches futures devraient faire la distinction entre ces différents modes d'utilisation, car l'impact de l'IA peut varier en fonction de la manière dont elle est intégrée dans le processus d'apprentissage. En outre, une utilisation structurée de l'IA, telle que des exercices guidés assistés par l'IA, pourrait atténuer cet écart de performance.
D'autres études ont constaté que les cours améliorés par l'IA renforçaient la motivation et l'engagement lorsque l'IA était intégrée à la conception des cours. Plutôt que de compter uniquement sur l'IA, les étudiants pourraient tirer davantage profit d'une intégration structurée des outils d'IA dans le programme d'études, afin que l'IA serve de mécanisme de soutien plutôt que de substitut à la résolution de problèmes et à la compréhension conceptuelle. Des recherches supplémentaires sont nécessaires pour déterminer si un soutien pédagogique peut aider les étudiants à développer leurs compétences en programmation tout en tirant efficacement parti de l'IA.
Au-delà des performances, l'utilisation de l'IA était étroitement liée à l'attitude des étudiants envers l'apprentissage. Les utilisateurs fréquents ont déclaré avoir moins de difficultés avec leurs devoirs et être plus motivés, ce qui corrobore les recherches antérieures sur le rôle de l'IA dans l'amélioration de l'engagement. Cependant, une tendance préoccupante est apparue : plus les étudiants utilisaient l'IA, plus ils contournaient les solutions alternatives et les supports de cours. Il est à noter que ce comportement n'était pas lié à l'utilité perçue de l'IA, ce qui suggère que certains élèves se tournaient vers les assistants IA même lorsqu'ils ne les trouvaient pas particulièrement utiles. Cela soulève des questions cruciales sur le rôle de l'IA dans la formation des habitudes d'étude : sert-elle d'outil d'aide bénéfique ou favorise-t-elle une dépendance excessive ? La question reste ouverte et mérite d'être approfondie.
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'IA aurait radicalement transformé le codage au point de remplacer bientôt tous les développeurs ? Il n'y a pas de "Vibe Engineering", par Sergey Tselovalnikov
Les IA sont en train de changer la façon dont le codage est enseigné. Les outils d'IAG s'intègrent également dans les programmes académiques
Malgré l'essor fulgurant des IA comme Copilot ou ChatGPT dans le développement logiciel, le PDG de GitHub affirme que savoir coder manuellement reste une compétence irremplaçable
L'IA transforme le rôle des développeurs : leur travail devient plus mécanique, moins intellectuellement stimulant et davantage axé sur la rapidité d'exécution que sur la qualité ou la réflexion
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Des codeurs sont embauchés pour réparer les erreurs commises par l'IA qui provoque leurs licenciements
Spécialiste en nettoyage de code généré par l’IA est le nouveau titre d’emploi en vogue sur les CV
Beaucoup des clients d’Harsh Kumar, développeur web et d'applications basé en Inde, affirment avoir déjà investi une grande partie de leur budget dans des outils de « vibe coding » qui n'ont pas donné les résultats escomptés. Ils finissent ainsi par se rendre compte que dépenser de l'argent pour un développeur humain en vaut la peine, car cela leur évite les maux de tête liés à la tentative de faire réparer le « code merdique » généré par une intelligence artificielle. Harsh Kumar intervient en tant que spécialiste en nettoyage de code généré par l’intelligence artificielle. C’est un titre d’emploi que l’on rencontre de plus en plus sur les CV en ligne.
Avec l'essor d'outils d'IA tels que ChatGPT, il est désormais possible de décrire un programme en langage naturel (français par exemple) et de demander au modèle d'IA de le traduire en code fonctionnel. Andrej Karpathy, ancien chercheur d'OpenAI, a récemment donné un nom à cette pratique, le « vibe coding », qui gagne du terrain dans les milieux technologiques. Google a même déclaré générer 25 % de son code par IA.
Cette technique, rendue possible par les grands modèles de langage (LLM) d'entreprises comme OpenAI ou Anthropic, attire l'attention parce qu'elle pourrait abaisser la barrière à l'entrée de la création de logiciels. Mais des questions subsistent quant à la capacité de cette approche à produire de manière fiable un code adapté aux applications du monde réel, même si des outils tels que Cursor Composer, GitHub Copilot et Replit Agent rendent le processus de plus en plus accessible aux non-programmeurs.
En effet, Kumar explique que ses clients lui mettent souvent à disposition des sites web ou des applications générées par une intelligence et qui se sont avérés instables ou totalement inutilisables. Son rôle : réparer la casse ou remettre de l’ordre dans le code généré par l’intelligence artificielle afin d’aboutir à un produit logiciel fonctionnel. Harsh Kumar entre ainsi dans la nouvelle catégorie de titre d’emploi dénommée spécialiste en nettoyage de code généré par l’intelligence artificielle.
L’humain revient donc au secours de l’intelligence artificielle que les entreprises utilisent de plus en plus comme motif pour le mettre à l’écartRecently multiple people are claiming role of "Vibe Coding Cleanup Specialist" on LinkedIn
— Pranjal Kumar 🦚 (@PranjalKumar__) September 7, 2025
True engineering isn’t just building.
It’s cleaning up code, reducing entropy, and making it elegant, especially when working in a team. pic.twitter.com/OaHbi3TdNp
Plus de 150 000 emplois ont été supprimés dans 549 entreprises en 2024. Depuis le début de cette année, plus de 80 000 travailleurs ont été victimes de réductions d'effectifs dans l'industrie. L'embauche de nouveaux talents a ralenti et celui de jeunes diplômés a chuté de 25 % en 2024. L'hécatombe en matière d’emploi se justifie en grande partie en raison de la disponibilité de l’intelligence artificielle qui redéfinit les exigences de l'industrie et modifient les méthodes de travail classiques.
L'essor de l'IA générative permet aux entreprises d'automatiser des tâches et de rationaliser les opérations. Amazon prévoit de réduire son effectif au cours des prochaines années en raison de « l'efficacité accrue » permise par l'IA. Des entreprises comme Shopify et Duolingo ont indiqué que les futures embauches dépendraient de la possibilité d'automatiser les tâches, bien que certaines entreprises font marche arrière dans leur stratégie en matière d'IA.
De nombreuses entreprises s'orientent vers l'utilisation des agents d'IA, c'est-à-dire des robots autonomes capables de prendre des décisions et d'accomplir des tâches à la place des humains, comme payer une facture ou réacheminer des stocks si une catastrophe naturelle perturbe un itinéraire de transport routier. Ainsi, Walmart déploierait de tels agents d'IA afin de réduire jusqu'à 18 semaines le délai de production de ses vêtements en interne.
Le secteur est frappé par ce que les experts appellent la « Grande Hésitation ». Ce phénomène succède à la « Grande Démission » et se caractérise par une prudence accrue des entreprises en matière d'embauche, exacerbée par l'incertitude économique et l'essor de l'IA. Les entreprises prolongent leurs processus d'embauche, font appel à des travailleurs contractuels ou attendent les candidats qui remplissent toutes les conditions, et même plus.
Selon Global Work AI, des « spécialistes qualifiés » recherchent activement des emplois non qualifiés, notamment dans les domaines de la saisie de données, du service client et de l'assistanat, même si 62,75 % des demandeurs d'emploi ont suivi des études supérieures. Ils sont en concurrence avec l'IA pour ces postes.
Les retours d’expérience font état de ce que les outils de codage IA ne sont peut-être pas prêts pour une utilisation généralisée en production
Les entreprises à l'origine de ces outils promettent de rendre la programmation accessible aux non-développeurs grâce au langage naturel, mais elles peuvent échouer de manière catastrophique lorsque leurs modèles internes divergent de la réalité.
Les retours d’expérience actuels démontrent que les outils de codage IA ne sont peut-être pas prêts pour une utilisation généralisée en production. Lemkin conclut par exemple que Replit n'est pas prêt pour le grand public, en particulier pour les utilisateurs non techniques qui tentent de créer des logiciels commerciaux.
Ce sont des illustrations supplémentaires de ce que la vigilance humaine reste importante dans la filière. Le CEO de GitHub a déclaré que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »
Aaron Levie says the future of work has flipped.
— vitrupo (@vitrupo) July 15, 2025
We thought AI would fix our mistakes.
Now it makes the first draft. We QA what comes back.
“The human's job is to fix the AI errors, and that's the new way we are going to work.” pic.twitter.com/xj504JPV3k
« De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.
Et vous ?
L'IA peut-elle remplacer des développeurs professionnels ?
Qui doit être tenu responsable lorsqu'une IA cause des dégâts : le développeur de l’outil, l’entreprise qui l’a intégré, ou l’utilisateur qui l’a mal supervisée ?
Jusqu'où les entreprises devraient-elles être tenues responsables des « hallucinations » de leurs modèles d'IA, surtout lorsque ces hallucinations ont des conséquences réelles et dommageables pour les utilisateurs ?
Le « vibe coding » est-il une tendance inévitable, ou les développeurs devraient-ils résister à cette approche au profit d'une compréhension plus approfondie du code généré par l'IA ?
Comment peut-on mieux éduquer les utilisateurs et les développeurs sur les limites actuelles des modèles d'IA, et sur les précautions à prendre lors de leur utilisation dans des environnements de production ?
Faut-il interdire l’accès en écriture à la production pour tous les agents IA, quelles que soient leurs permissions ?
Ces incidents sont-ils simplement des « douleurs de croissance » pour une technologie naissante, ou révèlent-ils des problèmes fondamentaux avec la nature même de l'IA générative lorsqu'elle est appliquée à des tâches critiques comme la gestion de données ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
C'est l'avenir des cols blancs : corriger les conneries faites par l'IA, le tout pour un salaire moindre et avec des conditions de travail dégradées. Ben oui ! L'IA a déjà bouffé les budgets, et on est déjà en retard.
Partager