ExactLe PDG de Nvidia n'est pas de la filière: c'est un PDG, donc pour lui ça ne change rien si demain il doit lever des fonds pour vendre des carottes. Ses propos n'ont donc aucune autorité sur le sujet.
Discussion :
ExactLe PDG de Nvidia n'est pas de la filière: c'est un PDG, donc pour lui ça ne change rien si demain il doit lever des fonds pour vendre des carottes. Ses propos n'ont donc aucune autorité sur le sujet.
Mouais pas l'école, mon entreprise c'est full vibe développeur maintenant.![]()
Le piège de la facilité : une expérience du MIT révèle que l'usage intensif de ChatGPT peut nuire à la mémoire,
à la réflexion et à l’autonomie intellectuelle des étudiants, entrainant une « dette cognitive »
Trop d’IA tue-t-elle notre cerveau ? Une nouvelle étude menée par des chercheurs du MIT semble tirer la sonnette d’alarme : s’appuyer trop souvent sur ChatGPT pour écrire affaiblirait la mémoire, la concentration… et même la capacité de réflexion. Pendant qu’ils tapaient leurs textes, les scientifiques observaient leur activité cérébrale grâce à des casques d’électroencéphalographie (EEG). L'objectif était clair : comprendre comment le niveau d'assistance externe influence l'engagement cognitif et la qualité du travail produit. Explications.
Une histoire partagée sur X (ex-Twitter) par une enseignante montre à quel point l'utilisation de ChatGPT devient un problème épineux en milieu scolaire. Le premier devoir qu'elle a donné à ses apprenants à la rentrée consistait à se présenter brièvement en quelques lignes et à exprimer leurs attentes à l'égard de son cours d'éthique des technologies. Mais à son grand étonnement, elle s'est rendu compte que ses étudiants ont fait appel à ChatGPT pour faire ce devoir.
Ce type d'exercice permet généralement aux enseignants d'en savoir plus sur leurs étudiants et leurs perceptions du cours. Il s'agit d'un exercice personnel et il est souhaitable que l'apprenant le rédige lui-même, sans se faire aider d'une manière ou d'une autre. Mais les étudiants le confient désormais à ChatGPT.
L’expérience : écrire avec ou sans ChatGPT
L'intégration de l'intelligence artificielle dans nos vies quotidiennes est rapide et transformatrice. Mais à quel prix ? Une étude récente menée par le MIT Media Lab soulève des inquiétudes majeures concernant l'impact de l'écriture assistée par des outils comme ChatGPT sur nos fonctions cognitives, en particulier chez les jeunes esprits. Les résultats suggèrent qu'une dépendance croissante à ces assistants d'IA pourrait affaiblir la connectivité cérébrale et nuire à notre capacité de mémorisation.
Les chercheurs du MIT ont voulu tester une question simple : que se passe-t-il dans le cerveau d’un étudiant qui écrit un texte avec ou sans l’aide de ChatGPT ?Envoyé par chercheurs
L'étude, menée sur quatre mois avec 54 participants âgés de 18 à 39 ans, a utilisé des scans EEG (électroencéphalographie) pour surveiller l'engagement neuronal des participants pendant qu'ils rédigeaient des essais. Les participants ont été divisés en trois groupes :
- Certains ont écrit seuls, ne bénéficiant d'aucune assistance externe (le groupe de contrôle « cerveau seul »).
- D’autres ont utilisé un moteur de recherche traditionnel comme Google (le groupe Recherche).
- D’autres encore ont écrit avec ChatGPT (le groupe IA).
Résultat : le cerveau « travaille » moins avec ChatGPT, un impact sur la mémoire et la compréhension
Les résultats sont assez clairs : plus l’outil est « intelligent », moins le cerveau s’active.
- Les étudiants qui écrivaient sans aucune aide montraient une forte activité dans des zones liées à la mémoire, la logique et l’attention.
- Ceux qui utilisaient Google étaient un peu moins stimulés.
- Et ceux qui écrivaient avec ChatGPT montraient l’activité cérébrale la plus faible, surtout dans les zones liées à la concentration.
En résumé : le cerveau se repose quand l’IA fait (presque) tout le travail.
Autre observation inquiétante : les étudiants aidés par ChatGPT retenaient beaucoup moins bien ce qu’ils avaient écrit.
Lorsqu’on leur demandait de reformuler ou d’expliquer leur texte plus tard :
- Ceux qui avaient écrit sans aide s’en souvenaient bien.
- Ceux qui avaient utilisé ChatGPT avaient du mal à expliquer ce qu’ils avaient écrit… comme si ce n’était pas vraiment leur propre travail.
- Certains avouaient même ne pas se « reconnaître » dans leur propre texte.
Dans le détail, les scans EEG ont révélé des différences frappantes entre les groupes, pointant du doigt une forme de « dette cognitive » associée à l'utilisation de l'IA :
- Affaiblissement de la connectivité neuronale : le groupe utilisant ChatGPT a montré la connectivité neuronale la plus faible, notamment dans les bandes alpha et bêta, cruciales pour les fonctions exécutives et le traitement de la mémoire. En d'autres termes, leur cerveau travaillait moins et de manière moins interconnectée. À l'inverse, ceux qui écrivaient sans aide ont manifesté l'engagement cognitif le plus élevé, avec des réseaux neuronaux robustes et étendus. L'activité cérébrale diminuait proportionnellement à la dépendance vis-à-vis des outils externes.
- Perte de mémoire sidérante : peut-être la découverte la plus alarmante est l'impact sur la mémoire. Plus de 83 % des utilisateurs de ChatGPT étaient incapables de se souvenir ou de citer des détails spécifiques de leurs propres écrits quelques minutes seulement après les avoir produits. Comparez cela aux seulement 11 % du groupe contrôle. Cela suggère que confier la tâche de la pensée à l'IA entrave sérieusement les processus naturels d'apprentissage et de consolidation mémorielle.
- Le phénomène de « déchargement cognitif » : les participants du groupe IA ont rapporté une sensation d'effort mental réduit. Ils avaient tendance à copier-coller des blocs de texte plutôt que de les reformuler ou de les synthétiser. Leurs essais manquaient d'originalité et montraient une forte uniformité, les participants se sentant peu propriétaires de leur travail. Ce « déchargement cognitif » crée une « dette cognitive » : une dépendance précoce à l'IA mène à un encodage superficiel des informations et une piètre mémorisation.
- Effets à long terme : ce n'est pas qu'un effet passager. Même lorsque les utilisateurs de ChatGPT ont été invités à écrire sans aide par la suite, leur activité cérébrale est restée significativement plus faible. Cela indique que la sur-dépendance à l'IA pourrait potentiellement reconfigurer la manière dont notre cerveau traite l'information, diminuant sa capacité innée à encoder, récupérer et synthétiser.
Une « dette cognitive »
Les chercheurs parlent d’un nouveau risque : la « dette cognitive ». Cela signifie qu’à force de trop déléguer à l’IA, notre cerveau finit par perdre l’habitude de réfléchir par lui-même. On devient passif, on retient moins, on apprend moins.
Un peu comme si on prenait toujours l’ascenseur : on arrive au bon étage, mais les muscles ne travaillent plus. Sauf qu’ici, c’est le cerveau qui s’atrophie.
Que faut-il en conclure ?
Ces découvertes ont des implications significatives pour les étudiants, les éducateurs et les professionnels. Bien que les outils d'IA puissent offrir une commodité et une efficacité immédiates, la sur-dépendance peut entraîner une détérioration des compétences de pensée critique, de la créativité et de la capacité à former des arguments originaux.
Les chercheurs avertissent que l'IA, bien qu'étant un assistant puissant, doit être utilisée de manière délibérée et bien réglementée dans les environnements d'apprentissage. Ils suggèrent des approches où la rédaction des premières ébauches se fait manuellement avant d'affiner le texte avec l'aide de l'IA. Cela permettrait de maintenir l'activité cognitive tout en bénéficiant des avantages de l'efficacité.
Dit autrement, l'étude ne dit pas qu’il faut abandonner ChatGPT, mais elle invite à l’utiliser avec modération.
Voici quelques conseils simples :
- Écrivez d’abord par vous-même, puis utilisez l’IA pour corriger, améliorer ou s’inspirer.
- Ne vous reposez pas entièrement sur ChatGPT pour rédiger des textes importants.
- En classe ou à l’université, ne laissez pas l’IA réfléchir à votre place, surtout si vous voulez vraiment apprendre.
L'étude du MIT met en évidence un « coût cognitif » potentiel lié à l'utilisation excessive de l'IA pour les tâches quotidiennes. Elle nous invite à réfléchir à la manière dont nous intégrons ces technologies dans nos processus d'apprentissage et de travail afin de préserver et de renforcer nos propres capacités cognitives.
D'autres études allaient déjà dans ce sensEnvoyé par chercheurs
L'utilisation de ChatGPT ruine la mémoire et les performances scolaires, et rend les étudiants moins intelligents
Une étude publiée dans l'International Journal of Educational Technology in Higher Education a conclu que l'utilisation de ChatGPT rend les étudiants un peu moins intelligents. La recherche a examiné les causes et les conséquences de l'utilisation du ChatGPT chez les étudiants universitaires. Les résultats montrent que l'utilisation de ChatGPT est susceptible de développer des tendances à la procrastination et à la perte de mémoire et de diminuer les performances académiques des étudiants.
« Les étudiants qui utilisent l'IA comme béquille n'apprennent rien », d'après Ethan Mollick
Ethan Mollick, professeur à la Wharton School de l’Université de Pennsylvanie, a partagé ses réflexions sur ce sujet dans une interview. Mollick souligne que l’IA peut être un outil puissant pour augmenter nos capacités, mais elle ne doit pas devenir une béquille. Selon lui, les étudiants qui s’appuient trop sur l’IA risquent de ne pas développer les compétences critiques nécessaires à leur apprentissage. « Les étudiants qui utilisent l’IA comme béquille n’apprennent rien. Cela les empêche de réfléchir », affirme-t-il.
Source : étude
Et vous ?
Faut-il interdire l’usage de ChatGPT dans les devoirs scolaires pour préserver les capacités cognitives des élèves ?
Peut-on vraiment apprendre si l’on délègue systématiquement la réflexion à une intelligence artificielle ?
L’usage de l’IA à l’école doit-il être encadré comme une calculatrice : utile, mais pas à toutes les étapes ?
L’école doit-elle former les élèves à utiliser l’IA intelligemment, ou au contraire s’en méfier ?
Peut-on parler de triche si un élève rend un texte écrit à 90 % par ChatGPT, même s’il comprend ce qu’il a rendu ?
Au-delà de l'écriture, comment la généralisation de l'IA dans d'autres domaines (prise de décision, analyse d'informations, etc.) pourrait-elle influencer collectivement nos capacités cognitives en tant que société, et sommes-nous préparés à ces changements ?
Les outils comme ChatGPT rendent-ils vraiment "plus bêtes", ou est-ce qu’ils déplacent simplement l’effort cognitif ?
Peut-on comparer l’impact de ChatGPT sur le cerveau à celui de la voiture sur les jambes, ou de la calculette sur le calcul mental ?
Existe-t-il une « bonne dose » d’intelligence artificielle dans une activité intellectuelle ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Ben oui, l'IA peut rendre con et fainéant.Résultat : le cerveau « travaille » moins avec ChatGPT, un impact sur la mémoire et la compréhension
Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
Mon article sur le P2V, mon article sur le cloud
Consultez nos FAQ : Windows, Linux, Virtualisation
C'est la rançon du succès je crois. Toute machine intelligente vise à solliciter moins d'intelligence externe et donc à détériorer celle-ci par manque d'entrainement. Si ça rend les gens plus c*, c'est qu'elle fonctionne ! Tout comme les voitures ont tendance à rendre les gens plus gros.
Noooooooooooon?
Une étude sérieuse qui prouverait que l'être humain privilégie toujours le "en faire le moins possible"?
Je n'ose y croire à la lecture de la myriade d'intervenants sur ce site qui font la promotion du télétravail, matin, midi et soir, en jurant leur très grand dieu. que le travailleur en télétravail assis à 10 centimètres de sa console de jeu, est d'une productivité débordante et qu'il n'a de cesse de travailler "sang et eau" pour réaliser la tâche qui lui est confiée par un chef un minimum naïf![]()
Ça ne servirait à rien, les gens violent les règles et celle là est particulièrement simple à violer.
Il y a juste à réécrire soit même la réponse que donne l'IA et voilà...
T'ajoutes des fautes de grammaire et voilà, personne ne pensera que ça vient d'une IA.
Il faudrait plutôt interdire les devoirs scolaires. Y'en a qui disent que les devoirs à la maison contribue au creusement des inégalités sociales.
Les riches peuvent payer quelqu'un pour aider leurs enfants à faire leur devoir.
Normalement l'élève devrait faire ses devoirs tout seul.
Il ne faut pas totalement s'appuyer sur l'IA.
En principe, le jour de l'examen les élèves n'auront pas accès à l'IA. Donc il faut s'entrainer à travailler sans IA.
Les élèves n'ont pas besoin de l'école pour apprendre à utiliser ces outils.
Celui qui s'appuie trop sur l'IA apprendra moins.
Demander à une IA de réaliser l'intégralité d'une grosse tâche ça te fais moins réfléchir que de faire soit même la grosse tâche en demandant plusieurs microscopiques choses à l'IA.
Pour l'instant.
Il y a des gens qui pensent qu'en continuant d'injecter des milliards dans la recherche et le développement, dans quelque années ça deviendra quelque chose de réellement puissant.
Y'en a qui disent que l'IA pourrait progresser de manière exponentielle.
Ouais mais d'un autre côté, il y a l'histoire "tous les autres l'utilisent, si je ne l'utilise pas c'est comme si je me mettais un handicap".
C'est la même logique qui pousse les cyclistes amateurs à se doper. (dans beaucoup de sports il y a beaucoup de dopage, mais les cyclistes se font plus contrôler que les autres)
S'en méfier, ne signifie pas qu'il ne faut pas l'utiliser, mais le faire en connaissance de cause. Ça veut dire, relire et vérifier le résultat obtenu, avoir l'esprit critique sur la réponse et ne pas prendre pour argent comptant ce que crache une IA.
En fait, l'IA est comme tout le reste, un outil. Si on utilise un outil sans prendre connaissance des bonnes pratiques, et des risques encourus en cas de mauvais usage, on peut avoir de mauvaises surprises. Il en va de même avec l'IA.
C'est dans ce sens que je dis qu'apprendre à se servir de l'IA, s'est s'en méfier.
Quand on demande un truc, pas trop simpliste pour du code, ChatGPT est franchement à la ramasse…
On peut légitimement questionner la qualité des diplômes délivrés par des institutions type Sciences Po à ce point appeurées par ChatGPT.
Si les élèves de sciences Po, nos futurs politiciens demandent quoi faire à ChatGPT ça me fait flipper.On peut légitimement questionner la qualité des diplômes délivrés par des institutions type Sciences Po à ce point appeurées par ChatGPT.
D'un autre coté, vu le niveau des politiciens actuels, ChatGPT fera pas forcément pire.
L'IA est un outil, comme tout outil il doit être utilisé à bon escient et un bon outil ne fait pas un bon ouvrier.
Pour éviter la triche en cours, un examen sur papier et le prob. est réglé. Reste à surveiller comme avant, ChatGPT dans ce cas étant une antisèche 2.0. D'autre part, les universités disposent d'outils anti plagiat, qui doivent probablement utiliser l'IA maintenant.
Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
Mon article sur le P2V, mon article sur le cloud
Consultez nos FAQ : Windows, Linux, Virtualisation
Chatgpt est la plus grande plaie technologique depuis les réseaux sociaux. Je l’utilise en moteur de recherche et pour connaître la technologie mais c’est très loin d’être à la hauteur de ce qu’est censé être une «*intelligence*»: erreurs fréquentes, réponses génériques et simplistes voir inventées.
Si on d’intéresse aussi au ratio (consommation énergétique et nuisance sur la société / utilité) on comprend vite que l’ia est une bulle poussée par des marketeux et des financiers qui va finir par éclater. D’autant plus que ces IA n’existent que grâce au plus grand pillage organisé de données sans autorisation.
A court terme, l’appât du gain poussent les entreprises à remplacer massivement leurs salariés par des IA mais quand elles se feront battre par des concurrents préférant recourir à des gens compétents et des experts, je prédis un retour en arrière massif.
Geoffrey Hinton, chercheur en informatique souvent surnommé le « parrain de l'IA », a mis en avant un cas d'utilisation positive de l'IA : l'éducation est l'un des domaines les plus prometteurs
Geoffrey Hinton, chercheur en informatique souvent surnommé le « parrain de l'IA », a mis en avant un cas d'utilisation positive de l'intelligence artificielle (IA) : « les utilisations dans l'éducation ». Dans une récente interview, il a a cité l'exemple concret de l'Alpha School aux États-Unis pour illustrer le potentiel de l'IA à transformer l'apprentissage. Ce réseau d'écoles privées expérimente un modèle éducatif basé sur l'IA, ce qui permet aux élèves d'effectuer leurs travaux scolaires fondamentaux en deux heures par jour. Selon Geoffrey Hinton, cette approche permet aux enseignants de consacrer davantage d'attention au mentorat, à la collaboration et aux compétences pratiques, ce qui représente une utilisation plus efficace du temps passé en classe.
Geoffrey Everest Hinton est un chercheur en informatique anglo-canadien, spécialiste des sciences cognitives et psychologue cognitif connu pour ses travaux sur les réseaux de neurones artificiels, qui lui ont valu le titre de « parrain de l'IA ». Hinton est professeur émérite à l'Université de Toronto. De 2013 à 2023, il a partagé son temps entre Google Brain et l'université de Toronto avant d'annoncer publiquement son départ de Google en mai 2023, invoquant ses inquiétudes quant aux nombreux risques liés à la technologie d'IA. Hinton a reçu le prix Turing 2018 puis le prix Nobel de physique 2024 pour ses « découvertes et inventions fondamentales qui permettent l'apprentissage automatique grâce aux réseaux de neurones artificiels ».
Lors d'une récente interview accordée à BBC Newsnight, Geoffrey Hinton a été invité à citer un exemple d'utilisation réussie de l'IA qui le rend fier de son rôle dans le développement de l'IA générative. « Les utilisations dans l'éducation », a répondu Hinton, en mettant particulièrement en avant l'Alpha School aux États-Unis.
Ces déclarations interviennent alors que l’impact de l’IA générative sur l’éducation fait l’objet de discussions intenses. Plusieurs observateurs, dont Douglas Heaven du MIT Technology Review, estiment que les outils d'IA comme ChatGPT, Bard ou Claude sont appelés à transformer l'éducation, et non à la détruire, comme le pensent certains. Ce sujet divise toutefois les acteurs du secteur : si certains redoutent que ces technologies nuisent à l’apprentissage, d'autres estiment qu'interdire leur usage serait contre-productif.
Dans l'interview, Geoffrey Hinton a déclaré : « Un enseignant normal est en mode diffusion dans une salle de classe, où il donne aux enfants les réponses à des questions qu'ils ne se sont pas posées. Alors qu'avec un tuteur IA, celui-ci peut toujours vous donner les réponses aux questions que vous vous êtes posées, et vous apprenez beaucoup plus vite de cette façon. »
L'Alpha School est un réseau d'établissements privés qui proposent un apprentissage basé sur l'IA aux élèves de la maternelle à la terminale. Les écoles utilisent un modèle d'apprentissage de deux heures, dans lequel les élèves terminent leurs matières principales en seulement quelques heures à l'aide de l'IA, ce qui leur libère leurs après-midis pour travailler avec les enseignants sur des compétences de vie et des ateliers pratiques.
Geoffrey Hinton a déclaré que ce modèle, dans lequel les élèves apprennent avec l'IA au lieu d'assister à des cours magistraux, et où les enseignants consacrent leur temps aux élèves, aux projets et aux interactions sociales, constituait « une bien meilleure utilisation du temps des enseignants ».
Si le « parrain de l'IA » met en avant le potentiel transformateur de l'IA dans l'éducation, cette vision optimiste est loin de faire consensus parmi les professionnels de l'enseignement.
Selon une enquête publiée en 2024 par le Pew Research Center, un enseignant américain sur quatre estime que l'utilisation d'outils d'IA dans l'enseignement primaire et secondaire entraîne davantage d'inconvénients que d'avantages. À l'inverse, seuls 6 % d'entre eux pensent le contraire. Les préoccupations portent notamment sur le risque d'une baisse du niveau scolaire des apprenants et sur une possible déshumanisation de l'expérience pédagogique, ce qui alimente le scepticisme quant à la capacité réelle de l'IA à améliorer durablement l'apprentissage.
Cette réserve rejoint, de manière paradoxale, les avertissements plus généraux émis par Geoffrey Hinton lui-même concernant la trajectoire actuelle de l'IA. Le chercheur insiste en effet sur le fait que la question centrale ne réside pas uniquement dans les usages, mais dans la gouvernance et l'alignement des systèmes intelligents.
Dans une interview accordée à la BBC, il a qualifié de « plus grande erreur que les humains puissent commettre » le fait de ne pas investir suffisamment dans la recherche sur la coexistence entre humains et systèmes intelligents. « Si nous les créons de telle sorte qu'ils ne se soucient pas de nous, ils finiront probablement par nous anéantir », a-t-il déclaré.
Geoffrey Hinton a également exprimé une profonde inquiétude personnelle, se disant « très triste » d'avoir contribué au développement d'une technologie qu'il juge désormais extrêmement dangereuse, et déplorant que les risques qu'elle pose ne soient pas pris suffisamment au sérieux.
Source : Geoffrey Hinton dans une interview accordée à la BBC
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que les déclarations de Geoffrey Hinton concernant le rôle de l'IA dans l'éducation sont pertinentes et cohérentes ?
Voir aussi :
Geoffrey Hinton, « parrain de l'IA », déclare être « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA, comparant l'évolution de la technologie à élever un tigre sans cage
L'IA est susceptible de sonner le glas de l'école traditionnelle, d'après un expert de la filière et comme le montre l'utilisation d'un chatbot comme professeur d'informatique à Harvard
Faut-il craindre une génération d'élèves assistés par l'intelligence artificielle pour tricher ? L'IA gagne du terrain en milieu scolaire et la technologie suscite de vives inquiétudes chez les enseignants
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Je pense qu'un outil IA pourrait permettre à des élèves d'apprendre mieux et plus vite.
Ce serait comme avoir un professeur particulier.
- L'IA va demander à l'élève de résoudre le problème en détaillant toutes les étapes
- Dès qu'il y aura un truc faux ou beaucoup trop approximatif l'IA pourra faire travailler l'élève sur ce point précis
Il y a moyen de motiver l'élève, si tu lui dis "voici la liste des compétences à acquérir aujourd'hui, dès que j'aurais validé que tu les maîtrises toutes, tu seras libre".
L'IA pourra montrer des exemples, corriger l'élève en boucle, répéter des trucs en boucle, revoir les bases, sans jamais s'énerver, ça peut devenir le pédagogue parfait.
Moi je pense que dans le futur, le mode expert de Grok pourra faire un excellent professeur.
L'IA ne se laissera pas faire par l'utilisateur. (mais elle ne pourra pas mettre de claque pédagogique)
Il est probable que certains chatbot IA auront un mode spécial pour l'enseignement.
L'élève de CP dans une classe de 30 élèves ne peut pas poser des questions à son enseignant. Le gars va forcément répondre "Je m'en excuse mais je ne peux accéder à votre requête" et du coup l'élève va se sentir frustrer de ne pas pouvoir bénéficier d'un support personnalisé.
Le professeur doit respecter un programme, il y a un gros effectif, l'élève pose une question trop avancé par rapport au programme, c'est compliqué.
Ce qui est sûr c'est que l'IA a déjà fait ses preuves dans l'éducation: Permettre à tous les étudiants de réussir leur études en n'apprenant strictement rien à part utiliser l'IA pour faire leur travail à leur place et pour tricher!!!...a mis en avant un cas d'utilisation positive de l'IA : l'éducation est l'un des domaines les plus prometteurs![]()
Partager