Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour faire son devoir,
soutenant qu'elle ne disposait pas d'une politique claire concernant l'utilisation de l'IA, rendant la punition injustifiée
Un couple de parents au Massachusetts a intenté une action en justice contre une école après que leur fils a été puni pour avoir utilisé des outils d'intelligence artificielle pour un projet. Le lycéen avait utilisé l'IA pour aider à la recherche pour un devoir d'histoire, mais pas pour rédiger le devoir lui-même. Les parents affirment que l'école a injustement accusé leur fils de triche et a infligé une punition qui pourrait nuire à ses chances d'admission à l'université de Stanford et dans d'autres écoles d'élite. Ils soutiennent que le manuel des étudiants de l'école ne précise pas une politique claire concernant l'utilisation de l'IA, rendant ainsi la punition injustifiée.
Dans ce qui semble être la première affaire de ce type, du moins dans le Massachusetts, les parents d'un élève de la Hingham High School poursuivent les administrateurs de l'école et les enseignants de leur fils après qu'il a été sanctionné pour avoir utilisé l'intelligence artificielle dans le cadre d'un projet d'histoire.
Lorsque l'utilisation de l'IA par l'élève a été découverte, il a été mis en retenue et sa note a été affectée, selon la famille.
La plainte déposée devant le tribunal fédéral par Dale et Jennifer Harris indique que l'élève a subi une « notation arbitraire » et n'a pas été sélectionné pour la National Honor Society « en raison de cette prétendue violation de l'intégrité académique » (la National Honor Society est l'une des organisations étudiantes parascolaires les plus anciennes, les plus importantes et les plus reconnues dans les lycées américains, avec 1,4 million de membres).
La plainte accuse l'école d'avoir manqué de clarté dans ses règles concernant l'utilisation de l'intelligence artificielle
Selon la plainte, le manuel de l'école « n'a pas de règles, de politiques ou de procédures établies non seulement pour l'utilisation de l'intelligence artificielle, mais aussi pour ce que les administrateurs, les professeurs ou les étudiants doivent faire lorsqu'ils sont confrontés à cette utilisation ».
Une copie du manuel de l'école indique que « l'utilisation non autorisée de la technologie, y compris l'intelligence artificielle » peut être considérée comme un acte de tricherie ou de plagiat, mais ne donne pas plus de détails sur la manière dont elle peut ou ne peut pas être utilisée. Le manuel définit le plagiat comme « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur, y compris l'intelligence artificielle, et la représentation de ces éléments comme son propre travail ».
Un enseignant qui découvre des cas de tricherie doit « enregistrer une note insuffisante pour ce travail pour chaque élève impliqué » et informer les parents de l'élève, selon le manuel. L'enseignant doit également informer le directeur adjoint, « qui ajoutera l'information au dossier disciplinaire de l'élève » et « pourra prendre d'autres mesures s'il le juge nécessaire », précise le manuel.
Jennifer Harris a exhorté l'école à clarifier ses règles concernant l'utilisation de l'IA.
« J'aimerais également qu'ils mettent en place une politique en matière d'intelligence artificielle qui ait du sens, que les enseignants comprennent et qu'ils puissent ensuite expliquer aux élèves », a-t-elle déclaré.
La plainte demande également aux administrateurs scolaires de « suivre une formation sur l'utilisation et la mise en œuvre de l'intelligence artificielle dans les classes, les écoles et l'environnement éducatif, dispensée par une tierce partie dûment qualifiée qui n'est pas employée par le district ».
Les parents veulent que la note de l'élève soit relevée
Les parents demandent au tribunal d'ordonner à l'école de relever la note de l'élève en sciences sociales à « B » et de supprimer de son dossier toute sanction scolaire liée à l'utilisation de l'IA. Ils ne veulent pas non plus que son utilisation de l'IA soit qualifiée de « tricherie » ou de « malhonnêteté académique ».
« Les défendeurs ont poursuivi une politique omniprésente, destructrice et impitoyable de menaces, d'intimidation et de coercition afin d'influencer et de faire dérailler l'avenir [de notre fils] et son dossier exemplaire », affirme la famille Harris dans son action en justice, qui a d'abord été déposée auprès de la cour supérieure de l'État avant d'être renvoyée devant un tribunal fédéral de première instance.
« Il postule à des établissements d'enseignement supérieur et à des universités d'élite, compte tenu de son haut niveau de réussite scolaire et personnelle », indique l'action en justice. « En l'absence d'une injonction de la part de cette Cour, le lycéen subira un préjudice irréparable et imminent ».
« C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut », a déclaré sa mère, Jenifer Harris. « Il étudie certaines des meilleures écoles du pays et son meilleur établissement, son premier choix, est Stanford ».
Madame Harris est écrivaine et le père du garçon est enseignant. Dans l'un de ses cours de spécialisation, il a été associé à un autre étudiant. Ils devaient rédiger un article sur une personne célèbre et ses actions civiles. Lui et son partenaire ont choisi Kareem Abdul-Jabbar. Pendant le processus, ils ont utilisé l'IA pour prendre des notes et créer un plan, mais pas pour rédiger l'article lui-même.
Il a été demandé à madame Harris si elle pensait qu'il s'agissait d'une tricherie. « Absolument pas. Tout d'abord, l'école n'avait pas encore de politique en la matière », explique-t-elle. « Je sais que mon fils s'est défendu auprès de l'école en disant que l'IA n'est pas de la triche et qu'il ne s'agit pas de plagiat. Il a dit que, si vous vérifiez, il est bien établi que l'IA est la propriété de la personne qui l'a générée », a déclaré monsieur Harris.
En réponse, l'école a demandé aux deux lycéens de refaire le travail séparément et sur un autre sujet
« Nous avons découvert dans les documents du tribunal qu'ils n'allaient jamais lui donner une note supérieure à 65, ce qui est étrange car l'autre élève a obtenu 75 sur son devoir », poursuit madame Harris.
À la suite de cet incident, son fils n'a pas été en mesure de remplir les demandes d'inscription à l'université en raison de la nature non résolue de la situation. Cela l'a empêché de bénéficier d'une admission anticipée ou d'une admission par roulement dans les principales écoles.
Toutefois, le NHS est revenu sur sa décision : « Nous avons déjà obtenu quelque chose, à savoir son intégration dans la National Honors Society », a déclaré l'avocat de la famille, Peter Farrell.
Farrell a déclaré que l'organisation avait initialement refusé de l'admettre en raison de la situation de l'IA. Il a ajouté qu'une enquête avait montré que sept autres étudiants acceptés avaient fait l'objet de sanctions disciplinaires, notamment pour l'utilisation de l'IA. Depuis, l'organisation l'a autorisé à présenter une nouvelle demande.
L'action en justice désigne comme défendeurs le directeur général, les administrateurs de l'école, les professeurs d'études sociales et le comité de l'école de Hingham. Un porte-parole des écoles publiques de Hingham a déclaré que le district ne ferait aucun commentaire sur le procès « pour respecter la vie privée de l'élève concerné et en raison d'un litige en cours ».
Arguments des parents
Les avocats des parents ont souligné que l'intelligence artificielle représente une extension des outils technologiques déjà couramment acceptés dans l'éducation, comme les correcteurs grammaticaux ou les calculatrices avancées. Ils ont fait valoir que sanctionner l'utilisation de l'IA démontre une incompréhension de la part de l'établissement des avancées technologiques et de leur intégration bénéfique dans les pratiques éducatives modernes. En outre, les parents ont pointé du doigt l'absence de règlement clair au sein de l'école concernant l'usage des technologies d'IA, ce qui, selon eux, rend la sanction injustifiée.
Position de l'école
De son côté, l'administration de l'école affirme que leur manuel de l'étudiant interdit l'utilisation de « technologies non autorisées » et « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur et la représentation de ceux-ci comme son propre travail ».
Les responsables de l'établissement insistent sur l'importance de promouvoir des compétences individuelles et d'encourager un apprentissage autonome sans recours excessif à des technologies automatisées. Selon eux, l'intégrité académique et les valeurs d'apprentissage doivent primer sur l'utilisation de l'IA, surtout dans un contexte où ces outils peuvent potentiellement dénaturer les efforts personnels des élèves.
Dans une demande de rejet de cette affaire, ils ont estimé que la sanction administrée au fils des Harris était « relativement indulgente » et qu'une décision contraire « inviterait les parents et les élèves mécontents à contester la discipline quotidienne, voire le classement des élèves, devant les tribunaux de l'État et les tribunaux fédéraux ».
Enjeux et réflexions
Presque immédiatement après la publication de ChatGPT par OpenAI en 2022, les écoles ont reconnu la menace que les outils d'IA générative gratuits et facilement accessibles représentaient pour l'intégrité académique. Certains districts ont essayé d'interdire complètement la technologie aux élèves, puis ont fait marche arrière. Les ministères de l'éducation des États ont lentement mis en place des orientations pour les districts locaux, mais dans de nombreuses régions du pays, il n'y a pas de consensus clair sur la manière dont les étudiants devraient être autorisés à utiliser l'IA générative.
Une enquête nationale menée par le Center for Democracy and Technology a révélé que les écoles sanctionnent de plus en plus les élèves qui utilisent l'IA et a noté que les élèves historiquement marginalisés, notamment les élèves de couleur et les apprenants de la langue anglaise, ont tendance à être sanctionnés de manière disproportionnée pour avoir enfreint les règles de l'école,
Cette affaire pose des questions cruciales sur la manière dont le système éducatif doit s'adapter aux évolutions technologiques. Alors que certains voient dans l'IA une opportunité pour enrichir l'apprentissage et augmenter l'efficacité des études, d'autres craignent qu'elle ne remplace l'effort personnel et ne compromette l'intégrité académique. La question centrale est de savoir jusqu'où les établissements scolaires doivent aller pour encadrer l'utilisation de ces technologies tout en restant en phase avec les réalités contemporaines.
Perspectives futures
Il est probable que cette affaire poussera d'autres établissements scolaires à revoir leurs politiques concernant l'utilisation de l'IA et d'autres technologies avancées. Une approche équilibrée pourrait être de définir des directives claires sur l'utilisation de l'IA, en distinguant les situations où elle peut être utilisée comme un outil d'aide pédagogique et celles où elle pourrait constituer un abus. Les éducateurs devront également être formés pour comprendre les capacités et les limitations de ces technologies afin de mieux les intégrer dans les pratiques d'enseignement et d'évaluation.
En conclusion, cette situation met en lumière l'importance d'une réflexion approfondie et d'un dialogue ouvert sur l'équilibre entre technologie et éducation. Les établissements scolaires, les élèves et les parents devront collaborer pour trouver des solutions qui permettent de tirer parti des avantages des nouvelles technologies tout en préservant les valeurs fondamentales de l'apprentissage.
Sources : plainte des parents, demande de rejet, copie du manuel de l'école
Et vous ?
De quel côté penchez-vous ? De celui de l'établissement ou de celui des parents ? Pourquoi ?
Que pensez-vous de la décision des parents de porter plainte ? La trouvez-vous excessive ou la comprenez-vous ?
Selon vous, l'utilisation de l'intelligence artificielle dans l'éducation pourrait-elle améliorer ou détériorer la qualité de l'apprentissage ?
Quels outils technologiques devraient être autorisés pour les devoirs scolaires ? Devrait-on considérer l'utilisation de l'IA comme une simple aide éducative ou une forme de triche ?
L'IA devrait-elle être intégrée dans les méthodes d'enseignement dès le plus jeune âge ou réservée à un usage spécifique et limité ?
Comment les établissements scolaires devraient-ils équilibrer l'utilisation de la technologie et le développement des compétences individuelles ?
Quels seraient les avantages et les inconvénients de la mise en place de politiques claires concernant l'usage de l'IA dans les écoles ?
Pensez-vous que l'usage de l'IA dans les devoirs scolaires pourrait préparer les élèves aux défis du futur marché du travail ou les en détourner ?
Voir aussi :
Le pourcentage d'étudiants utilisant ChatGPT pour rédiger leurs devoirs et d'enseignants pour les corriger a augmenté selon un rapport, une situation qui provoque plusieurs interrogations
Les détecteurs d'IA obligent les étudiants à adopter un style d'écriture dépourvu d'originalité pour éviter d'être accusés de tricherie. L'essor de ces outils cause des problèmes inattendus
99% des étudiants utilisent les IA génératives pour diminuer leur temps de travail, et 51% constatent qu'ils auraient du mal à se passer de ChatGPT, mais est-ce une bonne chose ?
Les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir car l'IA générative encourage la tricherie et rend paresseux et incompétent, selon une étude
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Quel ramassis de débiles... Si l'école veut un devoir rédigé par IA, elle n'a pas besoin de le demander aux gamins. Non parce que sinon il va aussi falloir préciser que faire faire ses devoirs par quelqu'un d'autre ne fonctionne pas non-plus, parce que je suppose que ce n'est pas clairement indiqué dans la politique de l'école... Monde de débiles...
Non mais déjà ils peuvent oublier les écoles prestigieuses: si à son âge, le gamin n'arrive pas à faire ses devoirs tout seul, il n'est pas fait pour les études "prestigieuses"...
Ensuite, dans ce cas là, autant enlever les mauvaises notes des autres gamins puisqu'elles les empêchent aussi de pouvoir entrer dans des écoles prestigieuses...
Et il apprendra peut-être une leçon. Lui supprimer sa note revient à lui dire: "triche autant que tu veux partout, et vas pleurer au tribunal quand tu te feras prendre".
Ah ben oui, tiens. L'avis de sa propre mère est forcément un avis très objectif.
Très objectif de la part de maman.
Pour paraphraser :
Un jour mon fils, qui est bien au dessus de la moyenne et dont l'intelligence est bien supérieure à la votre et à celle de tout le corps enseignant réuni, sera président.
Et vous tous, bande d'incultes et de sous merdes, devrez vous soumettre au décisions que Chat GPT lui aura soufflé.
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
Terrible les problèmes de bourges.
« C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut »
Typiquement le genre de phrase et comportement de sa mère qui fera de ce garçon une raclure humaine.
Bref. Un peu du mal à comprendre en quoi c'est une news en rapport avec l'informatique. Et plus déprimant qu'autre chose quand on se dit que ce genre de gamin finira très probablement par faire parti de cette fameuse "élite" dirigeante.
Les détecteurs d'IA étiquettent mal les travaux des étudiants, ce qui donne lieu à de fausses accusations d'utilisation de l'intelligence artificielle pour soumettre des devoirs et des copies d'examen.
Les détecteurs d'IA étiquettent mal les travaux des étudiants, selon un rapport de Bloomberg. Ces résultats confirment que les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.
Avec l’essor des outils d’intelligence artificielle comme ChatGPT, les enseignants et les institutions éducatives se retrouvent face à un défi inédit : comment distinguer les travaux écrits par des étudiants de ceux générés par des machines. Cette situation a conduit à l’utilisation croissante de vérificateurs de texte IA, mais ces outils posent des problèmes inattendus.
Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.
Pourtant, de récents rapports confirment que les détecteurs d'IA "étiquettent mal les travaux des étudiants", ce qui donne lieu à de fausses accusations. Certains détecteurs d'IA accuseraient à tort des étudiants d'utiliser l'intelligence artificielle pour rendre des travaux et des copies d'examen. Selon des courriels consultés par Bloomberg Businessweek, une étudiante atteinte d'un trouble du spectre autistique a déclaré qu'elle avait tendance à écrire de manière formelle, ce qui a été interprété à tort comme étant généré par l'IA. Elle a donc reçu un avertissement écrit pour avoir prétendument plagié son travail.
Bloomberg a effectué un test sur 500 demandes d'admission à l'université Texas A&M avant la publication de ChatGPT, en utilisant des services de détection d'IA tels que Copyleaks et GPTZero. Ces services ont signalé 1 à 2 % de ces demandes comme étant "probablement" rédigées par l'IA, et certaines ont été étiquetées avec une certitude de 100 %. La précision des détecteurs d'IA a été mise en doute, car bon nombre de ces applications ont été écrites par des humains et ne font partie d'aucun ensemble de données utilisé pour former des modèles de langage.
Bien que l'échantillon testé soit petit, il met en évidence un problème plus large. Les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.
Par exemple, une étude réalisée en 2023 par l'université de Stanford a révélé que les détecteurs d'IA avaient identifié plus de la moitié des essais rédigés par des étudiants dont l'anglais n'était pas la langue maternelle comme étant générés par l'IA. Ethan Mollick, professeur de gestion à l'université de Pennsylvanie (Wharton), a critiqué ces outils sur le site X. Il a déclaré : "Il est moralement répréhensible d'utiliser des détecteurs d'IA lorsqu'ils produisent des faux positifs qui salissent les étudiants d'une manière qui leur fait du tort et pour laquelle ils ne peuvent jamais prouver leur innocence."
Le rapport cite également le cofondateur de Copyleaks, qui a reconnu qu'aucun système de détection n'est précis à 100 % et qu'il devrait être utilisé pour repérer des tendances, et non des réponses définitives. Alon Yamin a ajouté : "Nous expliquons clairement aux institutions universitaires que rien n'est sûr à 100 % et que le système doit être utilisé pour identifier les tendances dans les travaux des étudiants. Il s'agit en quelque sorte d'un signal d'alarme qu'ils doivent examiner et utiliser pour discuter avec les étudiants."
De même, le cofondateur de GPTZero, Edward Tian, a admis que les détecteurs d'IA ont des "angles morts", ajoutant que son entreprise a fait des progrès dans l'atténuation des résultats pour les étudiants d'anglais langue seconde en particulier. OpenAI a également déclaré récemment qu'elle s'était abstenue de publier un outil de détection de l'écriture par l'IA, craignant qu'il n'ait un impact disproportionné sur certains groupes, tels que les étudiants d'anglais langue seconde.
Alon Yamin, PDG et cofondateur de Copyleaks, a commenté le rapport :
La distinction entre le contenu créé par l’homme et celui généré par l’IA devient floue. Les détecteurs d’IA, conçus pour identifier les textes générés par l’IA, sont devenus des outils controversés. Des rédacteurs se retrouvent licenciés suite à des accusations erronées d’utilisation d’IA, soulevant des questions sur la fiabilité de ces technologies et leurs implications pour l’emploi.Chez Copyleaks, nous comprenons l'impact profond que de fausses accusations peuvent avoir sur la carrière universitaire d'un étudiant, et nous assumons cette responsabilité avec le plus grand sérieux. Bien que notre détecteur d'IA soit précis à plus de 99 %, avec un taux de faux positifs de 0,6 %, le plus bas du marché, aucune technologie n'est parfaite, quel que soit le secteur d'activité. En fait, de nombreux autres services utilisés quotidiennement présentent des taux de faux positifs plus élevés, qu'il s'agisse de technologies pour les diagnostics médicaux, de produits pharmaceutiques, de modèles de notation de crédit ou de systèmes de navigation, et pourtant nous continuons à les utiliser et à leur faire confiance.
Bien que le test de Bloomberg ait révélé un taux de faux positifs de 1 à 2 % dans la détection de textes générés par l'IA, il est important de noter qu'aucun outil de détection n'est infaillible, en particulier lorsqu'il s'agit de contenus antérieurs à ChatGPT. Nous améliorons continuellement notre précision grâce à l'apprentissage automatique. Néanmoins, quelle que soit la précision d'un outil, nous encouragerons toujours les éducateurs à utiliser ces outils comme un guide plutôt que comme un outil définitif de contrôle et de jugement. Notre objectif est de favoriser un dialogue ouvert entre les enseignants et les élèves lorsque l'utilisation potentielle de l'IA est signalée, offrant ainsi la possibilité de mieux comprendre le travail des élèves et les processus d'apprentissage. La détection de l'IA devrait être un outil de croissance, et non un obstacle, garantissant l'équité et la transparence du processus académique.
Source : Bloomberg Businessweek
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Les détecteurs d'IA sont biaisés par rapport aux rédacteurs dont l'anglais n'est pas la langue maternelle. Leur fiabilité est remise en question : le contenu de ChatGPT n'est pas détecté
Qui a utilisé ChatGPT, Claude, ou encore Bard pour ses créations ? Quelle est l'efficacité réelle des détecteurs de contenu IA ? Les réponses dans un sujet de recherche universitaire
Écriture académique à l'ère de l'IA : progrès ou problème ? Les étudiants rédigent probablement des millions d'articles à l'aide de l'IA, selon une étude menée par Turnitin
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Enseigner face à l’IA : De la transmission du savoir à la lutte contre la triche automatisée,
l’utilisation de l’IA par les étudiants menace-t-elle l’intégrité de l’apprentissage ?
L’émergence de l’intelligence artificielle (IA) dans le domaine éducatif, notamment avec des outils comme ChatGPT, a bouleversé les pratiques académiques traditionnelles. Ces technologies, comparables à un « sac magique » moderne, permettent aux étudiants de générer des dissertations en quelques secondes, sans effort intellectuel significatif. Si cette innovation semble répondre à un désir d’efficacité immédiate, elle soulève des questions profondes sur l’intégrité académique, la valeur de l’éducation et la préparation des étudiants aux défis du monde réel.
Dans un contexte où l’IA court-circuite le processus d’apprentissage, il devient urgent de réfléchir aux conséquences de cette tendance. Les étudiants qui recourent à ces outils risquent de se priver d’une véritable formation intellectuelle et éthique, essentielle dans des domaines comme la philosophie ou l’éthique médicale. Parallèlement, les enseignants sont confrontés à un dilemme : comment préserver l’intégrité des évaluations tout en continuant à inspirer et à éduquer leurs étudiants ?
Selon Troy Jollimore, auteur de quatre recueils de poésie et de trois ouvrages de philosophie, une nouvelle forme de « sac magique » a fait son apparition dans le monde réel. Enseignant la philosophie, notamment l’éthique, dans une université californienne, il dispense des cours en présentiel et en ligne, évaluant principalement ses étudiants à travers des dissertations. Cependant, avec l’avènement d’outils d’intelligence artificielle comme ChatGPT et Google Gemini, produire une dissertation est devenu aussi simple que de claquer des doigts. Ces technologies permettent désormais de générer des textes en quelques secondes, bouleversant ainsi les méthodes traditionnelles d’évaluation.
Il suffit de demander à l’un de ces chatbots une dissertation sur La République de Platon ou sur l’éthique de la vente d’organes, ou encore de saisir un sujet d’examen, pour obtenir un texte qui, pour beaucoup, ressemble à s’y méprendre à un travail humain. Si l’enseignant ne sait pas quoi chercher ou si l’IA utilisée est suffisamment performante, il est possible de donner l’illusion de maîtriser un sujet sans en avoir réellement acquis les connaissances. Cette facilité d’accès à des contenus générés par l’IA pose un défi majeur à l’intégrité académique et à la valeur même de l’apprentissage.
Cependant, les textes générés par l’IA, surtout les moins sophistiqués, ne sont pas impossibles à identifier – à condition de savoir où regarder. Ils partagent souvent des caractéristiques communes : un ton neutre, un style fade et une approche méthodique systématique. Ces textes développent généralement un cadre théorique avant de peser le pour et le contre pour aboutir à une conclusion équilibrée. Parfois, ils incluent des citations ou des références, mais celles-ci sont souvent erronées ou inventées. Bien que ces éléments soient relativement faciles à repérer, l’auteur reconnaît que certains travaux plus sophistiqués pourraient échapper à la vigilance des enseignants, soulignant ainsi la complexité croissante du problème.
Éducation à l’ère de l’IA : quand l’intelligence artificielle remplace la réflexion
L’intelligence artificielle est en train de transformer profondément le paysage éducatif, tant pour les étudiants que pour les enseignants. Selon une enquête du Higher Education Policy Institute (Hepi), plus de la moitié des étudiants de premier cycle au Royaume-Uni utilisent des outils d’IA comme ChatGPT ou Google Bard pour les aider à rédiger leurs dissertations. Parmi eux, 25 % s’en servent pour suggérer des sujets, tandis que 12 % génèrent directement du contenu. Cependant, seulement 5 % admettent avoir copié-collé des textes non modifiés produits par l’IA dans leurs travaux évalués. Parallèlement, les enseignants explorent également ces technologies pour alléger leur charge de travail, notamment en planifiant des cours ou en créant des supports pédagogiques.
Pourtant, cette adoption rapide de l’IA soulève des défis majeurs. Un tiers des étudiants utilisant ces outils ignorent qu’ils peuvent « halluciner », c’est-à-dire inventer des faits, des citations ou des données pour combler des lacunes. De plus, des initiatives comme celle de l’Education Endowment Foundation (EEF), qui teste l’IA pour générer des plans de cours et des examens, montrent que les enseignants cherchent à intégrer ces technologies tout en restant vigilants face à leurs limites.
Un exemple frappant de ces tensions est le projet Eightball, développé par trois étudiants de l’Université Emory. Cet outil, basé sur l’IA, permettait de générer des cartes mémoire (flashcards) à partir de documents téléchargés. Bien qu’initialement salué et financé par l’université, le projet a finalement conduit à la suspension des étudiants, illustrant les difficultés des institutions à encadrer l’innovation technologique tout en respectant leurs règles académiques.
Cependant, l’utilisation de l’IA dans l’éducation n’est pas sans conséquences. Une étude récente révèle que les étudiants qui recourent à ces outils sont souvent moins productifs et risquent de compromettre leur réussite future. Les élèves les moins performants ont tendance à utiliser l’IA pour compenser leurs lacunes, ce qui peut renforcer leur dépendance et réduire leur capacité à apprendre de manière autonome. Par ailleurs, les outils de détection de textes générés par l’IA, comme celui de Turnitin, bien qu’utiles, ne sont pas infaillibles et peuvent accuser à tort des étudiants de tricherie, créant ainsi des situations injustes et stressantes.
Une révolution qui interroge l’avenir de l’éducation
Malgré ces défis, l’IA offre également des opportunités. Par exemple, Diane Gayeski, professeure à l’Ithaca College, utilise ChatGPT pour fournir des retours constructifs sur les dissertations de ses étudiants, tout en les encourageant à réfléchir de manière critique aux suggestions de l’IA. Cette approche montre comment la technologie peut compléter l’enseignement traditionnel, à condition d’être utilisée de manière éthique et réfléchie.
Enfin, une enquête menée par Intelligent révèle que 85 % des étudiants et 96 % des parents considèrent ChatGPT comme plus efficace que le tutorat traditionnel. Cette perception a conduit à une adoption massive, avec 90 % des étudiants préférant étudier avec l’IA plutôt qu’avec un tuteur humain. Cependant, cette dépendance croissante soulève des questions sur l’équilibre entre innovation et préservation des compétences fondamentales, ainsi que sur la valeur réelle de l’éducation dans un monde où l’IA joue un rôle de plus en plus central.
En somme, l’IA générative représente à la fois une révolution prometteuse et un défi complexe pour l’éducation. Alors que les étudiants et les enseignants explorent ses potentialités, il est crucial de réfléchir à son impact à long terme sur l’apprentissage, l’intégrité académique et la préparation des étudiants aux défis du monde réel.
Troy Jollimore observe que, « à en juger par le nombre de travaux manifestement générés par l’IA que j’ai lus le semestre dernier, de nombreux étudiants semblent enthousiasmés par cette innovation. Cet enthousiasme ne semble pas diminué par des déclarations claires dans les programmes interdisant l’utilisation de l’IA, ni par des rappels réguliers de cette politique, accompagnés d’appels sincères à ce que les étudiants soient les véritables auteurs des travaux qu’ils soumettent. »
Il ajoute : « Les professeurs d’université en Amérique du Nord sont habitués à faire face à l’adversité. Notre société a toujours montré de fortes tendances anti-intellectuelles. (Dans le passé, cela était peut-être plus marqué aux États-Unis qu’au Canada, mais je ne sais pas si c’est encore le cas aujourd’hui.) Une idée répandue est que l’intelligence pratique, ou "l’intelligence de la rue", est plus précieuse que l’intellect théorique. Ceux qui valorisent la théorie, l’étude et l’érudité sont souvent perçus comme enfermés dans des tours d’ivoire, dotés d’une expertise largement, voire totalement, illusoire. »
Comment exploiter l’IA sans compromettre l’apprentissage
L’émergence de l’intelligence artificielle dans l’éducation, avec des outils comme ChatGPT, représente une révolution technologique aux implications profondes. Ces outils, comparables à un « sac magique » moderne, permettent aux étudiants de générer des dissertations en quelques secondes, sans effort intellectuel significatif. Si cette innovation répond à un désir d’efficacité immédiate, elle soulève des questions cruciales sur l’intégrité académique, la valeur de l’éducation et la préparation des étudiants aux défis du monde réel.
Tout d’abord, l’utilisation de l’IA par les étudiants risque de compromettre le processus d’apprentissage. En court-circuitant la réflexion critique et la construction personnelle du savoir, ces outils peuvent priver les étudiants d’une véritable formation intellectuelle et éthique. Par exemple, dans des domaines comme la philosophie ou l’éthique médicale, où la pensée critique et la capacité à résoudre des dilemmes complexes sont essentielles, l’IA ne peut remplacer l’effort nécessaire pour assimiler et appliquer des concepts. Les étudiants qui dépendent de ces outils risquent de se retrouver mal préparés pour des situations réelles où la créativité, l’analyse et la prise de décision sont indispensables.
Par ailleurs, l’intégrité académique est mise à rude épreuve. Les enseignants sont confrontés à un dilemme : comment évaluer de manière équitable des travaux qui pourraient être générés par l’IA ? Bien que certains textes produits par l’IA soient identifiables grâce à leur ton neutre, leur style fade ou leurs références erronées, d’autres, plus sophistiqués, pourraient échapper à la vigilance des professeurs. Cela crée une situation où les étudiants honnêtes, qui fournissent un effort réel, se retrouvent en concurrence déloyale avec ceux qui utilisent l’IA pour produire des travaux sans véritable engagement intellectuel.
Cependant, il serait réducteur de considérer l’IA uniquement comme une menace. Ces outils peuvent également offrir des opportunités pour enrichir l’enseignement. Par exemple, ils pourraient être utilisés pour fournir des retours constructifs sur les travaux des étudiants, suggérer des pistes de réflexion ou même aider les enseignants à planifier leurs cours. L’IA pourrait ainsi devenir un outil complémentaire, à condition d’être utilisée de manière réfléchie et éthique.
Cette situation soulève des questions fondamentales sur le rôle et la finalité de l’éducation. Dans un monde où l’intelligence artificielle est capable de générer des textes en quelques secondes, il est crucial de rappeler que l’éducation ne se limite pas à la production de contenus. Elle a pour mission de cultiver des compétences essentielles : la pensée critique, la créativité et l’éthique. Face à cette réalité, les institutions éducatives doivent revoir leurs méthodes d’enseignement et d’évaluation, en s’adaptant aux avancées technologiques tout en préservant les valeurs fondamentales de l’apprentissage.
Cette problématique met en lumière les tensions entre l’innovation technologique et la préservation des principes éducatifs. Elle interroge également la finalité de l’éducation dans une société obsédée par les résultats rapides. Si l’IA offre des outils précieux, elle ne doit pas se substituer à la réflexion personnelle et à l’effort intellectuel. La question centrale devient alors : comment intégrer le progrès technologique sans compromettre la mission éducative ? Cette réflexion est indispensable pour relever les défis actuels de l’enseignement supérieur.
En résumé, l’IA représente à la fois une opportunité et un défi pour l’éducation. Bien qu’elle puisse simplifier certaines tâches et enrichir les pratiques pédagogiques, elle ne doit pas remplacer l’engagement intellectuel et la pensée critique. Il revient aux éducateurs, aux institutions et aux étudiants de trouver un équilibre entre l’utilisation de ces technologies et le maintien des valeurs éducatives essentielles. Sans cet équilibre, nous risquons de réduire l’éducation à une simple formalité, perdant ainsi de vue son objectif premier : former des esprits capables de relever les défis complexes du monde réel.
Source : Thewalrus
Et vous ?
Comment garantir l’intégrité académique dans un monde où l’IA peut produire des travaux en quelques secondes ?
Les outils d’IA comme ChatGPT remettent-ils en cause la notion même de propriété intellectuelle et de travail personnel ?
Quelles sont les conséquences éthiques de l’utilisation de l’IA par les étudiants pour générer des travaux sans effort intellectuel ?
Comment les institutions éducatives peuvent-elles adapter leurs politiques pour prévenir la triche tout en restant justes envers les étudiants ?
Voir aussi :
Les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir, car l'IA générative encourage la tricherie et rend paresseux et incompétent, selon une étude
Le pourcentage d'étudiants utilisant ChatGPT pour rédiger leurs devoirs et d'enseignants pour les corriger a augmenté selon un rapport, une situation qui provoque plusieurs interrogations
Les outils pilotés par l'IA et les outils de détection de la tricherie nuisent-ils aux étudiants ? Des étudiants innocents sont accusés à tort de tricherie et leur réussite scolaire est menacée
Les détecteurs d'IA obligent les étudiants à adopter un style d'écriture dépourvu d'originalité pour éviter d'être accusés de tricherie, l'essor de ces outils cause des problèmes inattendus
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Ils pourraient reprendre le principe des honeypots utilisés en sécurité en exploitant la tendance à halluciner des IA génératives.
Poser certaines questions/problèmes avec des informations délirantes (avec du faux contenu en ligne), qu'il serait possible de "debunker" pour un étudiant ayant travaillé, et mettre zéro à tous ceux qui y ont répondu, par exemple.
C'est à double-tranchant, un enseignant avait créé il y a plus de dix ans - période pré-IA donc, une fausse fiche Wikipedia entre autre, pour, justement, faire prendre conscience à ses élèves de la nécéssité d'acquérir du sens critique, certains l'ont bien (com)pris, d'autres non :
« Et l'enseignant de conclure : "Les élèves au lycée n'ont pas la maturité nécessaire pour tirer un quelconque profit du numérique en lettres. Leur servitude à l'égard d'internet va même à l'encontre de l'autonomie de pensée et de la culture personnelle que l'école est supposée leur donner." »
Source: Comment un prof a piégé ses élèves plagiaires - franceinfo:
Publié le 22/03/2012 18:29
Mis à jour le 22/03/2012 18:55
« Developpez.com est un groupe international de bénévoles dont la motivation est l'entraide au sens large » (incl. forums developpez.net)
Club des professionnels en informatique
Liste des balises BB
Même remarque que pour les calculatrices : si l'IA suffit à tuer la difficulté d'un exercice, c'est qu'il n'était pas pertinent à la base.
Et puis les critiques de l'IA ne sont pas sans rappeler celles quand Wikipédia est apparu.
Soyons honnetes, la qualité de l'enseignement de la philosophie est catastrophique dans les formations orientées vers l'industrie, il devient alors compliqué de dire que l'IA risque d'empirer la chose.
Rien que lier intégrité de l'évaluation et l'inspiration des étudiants me fait rire.comment préserver l’intégrité des évaluations tout en continuant à inspirer et à éduquer leurs étudiants ?
Un prof qui a besoin de passer par l'évaluation pour inspirer ses étudiants a pas mal de choses à revoir dans ses méthodes. (De toute ma scolarité je n'ai eu qu'un prof qui interrogeait sur le court précédent pour s'assurer qu'il avait bien été intégré et compris. Cette évaluation n'impactait pas nos bulletins)
Cependant, les textes générés par l’IA, surtout les moins sophistiqués, ne sont pas impossibles à identifier [...] Parfois, ils incluent des citations ou des références, mais celles-ci sont souvent erronées ou inventées.
Un de mes profs de maths nous avait montré qu'une calculatrice peut fournir un résultat erroné, ne me dites pas qu'un prof de philo n'est pas capable de créer du contenu autour des hallucination des IA génératives...Pourtant, cette adoption rapide de l’IA soulève des défis majeurs. Un tiers des étudiants utilisant ces outils ignorent qu’ils peuvent « halluciner », c’est-à-dire inventer des faits, des citations ou des données pour combler des lacunes.
Ils traitent les élèves de branleurs mais qu'en est-il d'eux?
Mon premier exposé a été fait sans internet, aujourd'hui personne ne s'indigne qu'un gamin s'est renseigné sur les animaux de la foret sur wikipedia et fait des copier/coller d'images plutôt que de les découper dans un livre.Cependant, l’utilisation de l’IA dans l’éducation n’est pas sans conséquences. Une étude récente révèle que les étudiants qui recourent à ces outils sont souvent moins productifs et risquent de compromettre leur réussite future. Les élèves les moins performants ont tendance à utiliser l’IA pour compenser leurs lacunes, ce qui peut renforcer leur dépendance et réduire leur capacité à apprendre de manière autonome. Par ailleurs, les outils de détection de textes générés par l’IA, comme celui de Turnitin, bien qu’utiles, ne sont pas infaillibles et peuvent accuser à tort des étudiants de tricherie, créant ainsi des situations injustes et stressantes.
Le problème n'est pas l'IA mais l'incapacité du système scolaire à s'y adapter, notamment dans ses méthodes d'évaluations.
Pour moi l'intégrité de celle ci n'est pas remise en cause, ce sont les méthodes d'évaluation qui le sont.Comment garantir l’intégrité académique dans un monde où l’IA peut produire des travaux en quelques secondes ?
Oui.Les outils d’IA comme ChatGPT remettent-ils en cause la notion même de propriété intellectuelle et de travail personnel ?
Mais concernant le travail personnel, pourquoi dépenser de l'énergie quand la remarque à chaque dissertation est "êtes vous stupide"?
Je ne rendais plus de dissertations (et assumais le 0/20) aujourd'hui je rendrais un travail médiocre et insipide et aurais une meilleure note.
Si on ne parle pas de publications publiques (scientifiques ou autre), il n'y en a aucune, ou plutôt il n'y en a pas plus qu'avant.Quelles sont les conséquences éthiques de l’utilisation de l’IA par les étudiants pour générer des travaux sans effort intellectuel ?
Je sais pas une de mes profs d'électricité empêchait la triche en permettant quasiment tout courts, antisèches, internet.Comment les institutions éducatives peuvent-elles adapter leurs politiques pour prévenir la triche tout en restant justes envers les étudiants ?
Son évaluation était juste suffisamment complexe pour que tout support ne puisse servir que d'aide.
L'IA tue surtout la réflexion.
Selon moi, il faudrait revoir tout le système éducatif :
- faire redoubler ceux qui n'ont pas le niveau
- réduire le nombre d'élève par classe
- faire des classes de niveaux pour mieux aider les élèves en difficultés et ne pas pénaliser ceux qui apprennent vite en général... quitte à faire quelques cours par semaine avec un niveau plus hétérogène
- revoir certains programmes : quand je vois ce qui me reste par rapport à tout ce que j'ai appris
- privilégier le contrôle continu, ça ne sert à rien d'avoir un examen final sur TOUTES les matières, éventuellement sur 2-3 principales
- essayer de réduire les heures de cours car je me souviens me lever à 6h30 et rentrer à 19h le soir quand j'étais au collège et lycée à cause du temps passé dans les transports en commun. Certains pays finissent en début d'après midi et les élèves peuvent étudier sur place et/ou faire du sport... ça me parait un rythme plus sain
La réflexion ? elle est déjà presque abandonnée au collège : on applique, on ne réfléchit plus.
Je viens de donner un exemple d'utilisation de l'IA au lycée.
Le tableau me semble sombre, mais pas désespéré. Par contre, c'est un combat de tous les jours pour faire revenir la réflexion.
Faut-il craindre une génération d’élèves assistés par l’intelligence artificielle ? L'IA gagne du terrain en milieu scolaire
et la technologie suscite de vives inquiétudes chez les enseignants
L'essor fulgurant de l'intelligence artificielle (IA) a révolutionné de nombreux aspects de notre quotidien, et le domaine de l'éducation n'y échappe pas. De la correction grammaticale aux générateurs de texte avancés comme ChatGPT, les élèves disposent aujourd’hui d’outils puissants pour les assister dans leurs devoirs. Cependant, ces mêmes technologies suscitent de vives inquiétudes chez les enseignants, car elles ouvrent la porte à des formes inédites de triche scolaire.
Contexte
De plus en plus de médias mettent en lumière une réalité que beaucoup préfèrent ignorer : une proportion significative d’élèves utilise l’IA pour contourner les règles académiques. Selon plusieurs études et enquêtes, de nombreux jeunes se tournent vers ces outils non pas pour apprendre, mais pour obtenir des réponses instantanées à leurs devoirs ou même pour rédiger des dissertations entières.
Cette situation est exacerbée par le fait que les IA modernes génèrent du contenu unique à chaque requête, rendant la détection de la triche plus ardue qu’avec les anciennes méthodes de copier-coller. De plus, contrairement aux sites de plagiat classiques, les outils comme ChatGPT, Bard ou Claude permettent aux élèves de reformuler automatiquement des idées, contournant ainsi les logiciels anti-plagiat traditionnels.
Récemment, une étude a montré que les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir. Les données montrent que les étudiants moins performants utilisent davantage l'IA pour combler leurs compétences. Mais l'IA générative encourage la tricherie et rend les étudiants paresseux et incompétents.
Un usage massif de l'utilisation de l'IA en milieu scolaire
Une lycéenne du New Jersey ne veut pas que le monde sache qu'elle a triché l'année dernière pour suivre ses cours d'anglais, de mathématiques et d'histoire.
Pourtant, cette expérience, que la jeune fille de 17 ans a racontée au Wall Street Journal avec l'autorisation de ses parents, montre à quel point l'IA générative s'est enracinée dans le système éducatif américain, permettant à une génération d'élèves de confier leurs travaux scolaires à des logiciels ayant accès aux connaissances du monde entier.
Les éducateurs voient des avantages à l'utilisation de l'intelligence artificielle en classe. Pourtant, les enseignants et les parents sont livrés à eux-mêmes pour déterminer comment empêcher les élèves d'utiliser la technologie pour court-circuiter l'apprentissage. Les entreprises qui fournissent des outils d'intelligence artificielle n'offrent guère d'aide.
L'étudiante du New Jersey a expliqué au Journal pourquoi elle a utilisé l'IA pour des dizaines de devoirs l'année dernière : Le travail était ennuyeux ou difficile. Elle voulait une meilleure note. À quelques reprises, elle a procrastiné et n'a pas eu le temps de terminer ses devoirs.
L'étudiante s'est tournée vers ChatGPT d'OpenAI et Gemini de Google pour l'aider à trouver des idées et à revoir des concepts, ce que de nombreux enseignants autorisent. Mais le plus souvent, c'est l'IA qui a terminé son travail. Gemini a résolu des problèmes de devoirs de mathématiques et a réussi un test à domicile. ChatGPT a effectué des calculs pour un laboratoire de sciences. Il a produit une section délicate d'un devoir d'histoire, qu'elle a réécrit pour éviter d'être détectée.
L'étudiante n'a été prise qu'une seule fois.
Les étudiants sont les utilisateurs les plus courants de ChatGPT
Environ 400 millions de personnes utilisent ChatGPT chaque semaine, selon OpenAI. Les étudiants sont les utilisateurs les plus courants, selon l'entreprise, qui propose une version gratuite et des services avancés coûtant jusqu'à 200 dollars par mois. OpenAI espère que les étudiants prendront l'habitude de consulter ChatGPT chaque fois qu'ils auront une question, un rôle joué par Google depuis près de trente ans.
Selon une enquête réalisée l'année dernière par Impact Research, près de 40 % des élèves des collèges et des lycées ont déclaré utiliser l'IA sans l'autorisation de leur professeur pour réaliser leurs travaux. Parmi les étudiants de l'enseignement supérieur qui utilisent l'IA, le chiffre est de près de la moitié. Selon une analyse interne publiée par OpenAI, ChatGPT est fréquemment utilisé par les étudiants pour les aider à rédiger leurs devoirs.
Les étudiants, qui travaillent sur des écrans en dehors de la surveillance d'un adulte, doivent décider s'ils veulent utiliser des outils d'IA qui peuvent clandestinement leur donner les meilleures notes, ou s'ils veulent s'y opposer. Les restrictions d'âge fixées par les entreprises d'IA sont facilement contournées.
À l'instar des inconnues qui ont accompagné l'introduction des médias sociaux il y a une génération, peu de recherches ont été menées sur les mérites académiques de l'IA et sur les pièges qu'elle présente pour les étudiants, notamment la propension à la tricherie.
« Il s'agit d'une gigantesque expérience publique que personne n'a demandée », a déclaré Marc Watkins, directeur adjoint de l'innovation universitaire à l'université du Mississippi.
Cette étudiante du New Jersey a réussi ses cours l'année dernière, mais elle dit avoir appris beaucoup moins que ce qu'elle aurait pu. Elle a renoncé à l'usage illicite de l'IA pour sa dernière année d'études. « J'ai essayé de prendre du recul, dit-elle, et d'utiliser mon cerveau.
La ruse de classe
Les entreprises d'IA minimisent l'idée que la malhonnêteté scolaire est leur problème. « OpenAI n'a pas inventé la tricherie », a déclaré Siya Raj Purohit, qui fait partie de l'équipe chargée de l'éducation au sein de l'entreprise. « Les gens qui veulent tricher trouveront un moyen ».
News Corp, propriétaire du Wall Street Journal, a conclu un partenariat de licence de contenu avec OpenAI.
De nombreux éducateurs s'inquiètent du fait que l'accès facile aux chatbots d'IA incite de plus en plus d'élèves à éviter les travaux scolaires difficiles. Les progrès rapides de la technologie de l'IA l'ont rendue difficile à détecter dans les travaux des étudiants si elle est employée avec un peu d'astuce.
« Il y a probablement beaucoup d'élèves, de la maternelle à la terminale et de l'enseignement supérieur, qui ont utilisé ChatGPT pour faire leurs devoirs hier soir sans rien apprendre », a déclaré John B. King Jr., chancelier du système de l'université d'État de New York et ancien secrétaire d'État à l'éducation, lors d'une conférence sur les technologies de l'éducation en octobre. « C'est effrayant ».
King a partagé la scène de la conférence avec Purohit, qui a apporté une réponse provocante. Peut-être que la pensée critique et les compétences en matière de communication devraient être mesurées par la capacité à bien utiliser l'IA, a-t-elle déclaré. « Quelle est la valeur d'une dissertation ? » a-t-elle demandé, de manière rhétorique, en s'inspirant d'une discussion récente avec un professeur de la Wharton School of Business.
Daniel Willingham, psychologue cognitif à l'université de Virginie, a une réponse. « L'écriture exige un type de réflexion que d'autres types d'exercices n'exigent pas », a-t-il déclaré. « L'écriture vous incite à expliquer plus soigneusement si vous expliquez, à argumenter plus complètement si vous argumentez.
Jody Stallings, qui enseigne l'anglais en 8e année en Caroline du Sud, fait lire à ses élèves « Tuer l'oiseau moqueur » de Harper Lee. Chaque jour, au début du cours, il demande aux élèves de répondre par écrit à des questions sur ce qu'ils ont lu jusqu'à présent. Cet exercice permet aux élèves de réfléchir au livre, explique Stallings, et d'affiner ces réflexions par écrit.
Leah Belsky, vice-présidente de l'entreprise chargée de l'éducation, a suggéré que les écoles luttent contre la tricherie en accueillant l'IA dans la salle de classe. « Les éducateurs qui intègrent l'IA dans leur enseignement et leurs travaux peuvent réussir à la faire passer d'un outil que les élèves utilisent sans le dire à une partie entièrement intégrée et guidée de leur processus d'apprentissage », a-t-elle déclaré.
Des organisations et des entreprises ont lancé des tuteurs alimentés par l'IA, conçus pour aider les élèves à apprendre sans la présence d'un enseignant. Certains éducateurs ont choisi des outils d'IA pour les aider à rédiger des plans de cours, des fiches de travail ou des lettres à la maison.
Sandy Mangarella, professeur d'anglais dans un lycée du New Jersey, explique que les chatbots l'aident à améliorer ses cours et à concevoir de nouvelles activités en classe. « C'est un peu comme avoir un collègue à qui parler », a-t-elle déclaré.
Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour faire son devoir
Un couple de parents au Massachusetts a intenté une action en justice contre une école après que leur fils a été puni pour avoir utilisé des outils d'intelligence artificielle pour un projet. Le lycéen avait utilisé l'IA pour aider à la recherche pour un devoir d'histoire, mais pas pour rédiger le devoir lui-même. Les parents affirment que l'école a injustement accusé leur fils de triche et a infligé une punition qui pourrait nuire à ses chances d'admission à l'université de Stanford et dans d'autres écoles d'élite. Ils soutiennent que le manuel des étudiants de l'école ne précise pas une politique claire concernant l'utilisation de l'IA, rendant ainsi la punition injustifiée.
Sources : Sam Altman, Construire une main-d'œuvre prête pour l'IA : L'adoption du ChatGPT par les étudiants aux États-Unis (en PDF)
Et vous ?
L’utilisation de l’IA pour générer du contenu est-elle une forme de triche ou simplement une nouvelle manière d’apprendre ?
Si un élève utilise ChatGPT pour reformuler ses idées ou améliorer son style, cela devrait-il être considéré comme de la triche ?
Les élèves qui utilisent l’IA développent-ils vraiment moins de compétences, ou bien s’adaptent-ils simplement aux outils du futur ?
Le système éducatif doit-il s’adapter à l’IA en l’intégrant dans ses méthodes d’apprentissage, ou doit-il chercher à la bannir des évaluations ?
Les professeurs sont-ils suffisamment formés pour faire face à ces nouvelles technologies ?
Comment rendre les évaluations plus authentiques et moins susceptibles d’être réalisées par une IA ?
Voir aussi :
Enseigner face à l'IA : De la transmission du savoir à la lutte contre la triche automatisée. L'utilisation de l'IA par les étudiants menace-t-elle l'intégrité de l'apprentissage ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Même remarque que pour la calculatrice scientifique : si un LLM suffit à tuer la difficulté d'un exercice, c'est qu'il n'était pas pertinent à la base.
J'ai connu ces débats sur les ordinateurs puis sur internet.
Certains diront que les jeunes sont de plus en plus bêtes, preuve que les craintes étaient fondées.
Mais si chaque génération est plus bête que la précédente, je n'ose imaginer à quel point Neandertal était brillant.
« L’école est malade, l’Éducation nationale impose la bêtise et la nullité générale » – Aude Denizot
Epoch Times France
27 fév.2025
Aude Denizot est professeur agrégé en droit privé à l’université du Mans. Elle a aussi enseigné l’économie et la gestion au lycée il y a quelques années. Elle est l’auteur du livre « Pourquoi nos étudiants ne savent-ils plus écrire ? » (éd. Enrick B).
Un ouvrage dans lequel elle analyse les causes de la chute du niveau des élèves, notamment en français, tout en proposant des solutions pour enrayer l’effondrement du système scolaire...
« J’ai peu à peu constaté que le niveau de français se dégradait. Les fautes devenaient de plus en plus graves et de plus en plus nombreuses, les phrases ne voulaient plus rien dire, les mots n’avaient plus aucun sens, explique-t-elle. Chaque année, nous découvrons des erreurs de français qui, jusqu’à présent, n’avaient jamais été commises. »
Outre de sérieuses lacunes en orthographe, en conjugaison et en grammaire, Aude Denizot souligne que le vocabulaire des étudiants s’est aussi « considérablement appauvri », ce qui induit notamment des « problèmes de compréhension en lecture, avec des difficultés à mesurer ce que dit un texte pourtant assez simple » et des étudiants qui confondent des mots usuels.
« La baisse du niveau est extrêmement inquiétante puisqu'on arrive à un point où le langage écrit et oral ne permet plus de communiquer, souligne la professeure de droit. On a des enfants qui sont hors-sol. »
Des difficultés que l’on retrouve d'ailleurs dans toutes les disciplines, selon Aude Denizot.
« J'échange beaucoup avec une professeure en filière informatique. Elle est absolument effrayée par le niveau de mathématiques de ses étudiants qui sont incapables de faire le moindre calcul. Pour multiplier par dix ou diviser par dix, les étudiants prennent la calculatrice », explique-t-elle.
« Les professeurs d'histoire vous diront la même chose. Les étudiants mélangent un peu tout, ils ont une vision très caricaturale, ils connaissent quelques thématiques, mais il n'y a pas de connaissances historiques. [...] certains étudiants pensent que le Chili est en Afrique, ils n'ont aucune connaissance du monde, de la planète en général. »
D’après Aude Denizot, la chute du niveau scolaire n’épargne personne : « Tout le monde est concerné, y compris les très bons élèves qui sont, certes, très bons aujourd'hui, mais qui sont moins bons que ne l'étaient les très bons élèves d'il y a dix, vingt ou trente ans. »
Si le constat de la baisse du niveau des élèves semble largement partagé, les classements TIMSS et PISA témoignant du décrochage de la France, l'Éducation nationale ne ferait rien pour régler problème, selon Aude Denizot.
« L'idée, c'est que la masse – tout le monde sauf les enfants des élites, bien sûr, qui arrivent à échapper à cela –, soit dans le même moule totalitaire, avec des idées toutes faites, une certaine idéologie, des cours d'histoire un peu orientés, mais surtout, je dirais, cette nullité. Les enfants ne savent ni écrire ni lire, ni compter, donc c'est vraiment l'empire de la bêtise et on veut imposer ça à tous pour qu'il y ait très peu de têtes qui dépassent. » ...
Journaliste : Henri-Michel Thalamy
👉 / hm_thalamy
📩 Pour sponsoriser l’émission : epochtv@epochtimes.fr
00:00 Intro
01:47 Le niveau des élèves a-t-il vraiment baissé ces dernières années ?
05:25 Des étudiants incapables de maîtriser des règles apprises en CP ou en CE1
08:01 Un vocabulaire de plus en plus pauvre
12:56 Des livres réécrits et simplifiés pour que les écoliers puissent les comprendre
15:50 Des élèves qui ont besoin d’une calculatrice pour diviser ou multiplier par dix
17:54 Quand des élèves pensent que le Chili est en Afrique
19:25 Aucun élève n'est épargné
21:32 L’illusion de l’école privée
24:15 Les écoles hors contrat, bêtes noires de l’Éducation nationale
28:08 Quand l’Éducation nationale impose la nullité générale
30:36 L’empire de la bêtise, sauf pour les élites
34:03 La France en pointe des inégalités scolaires
37:50 Que valent le brevet et le baccalauréat ?
45:59 Quelles conséquences pour les jeunes générations ?
50:59 La crise des vocations parmi les professeurs
56:22 L’impact du pédagogisme sur l’effondrement du niveau
01:02:14 Des jeunes plus malléables
01:05:04 Élisabeth Borne à l’Éducation nationale
01:08:16 Les programmes d’éducation à la sexualité sont-ils indispensables ?
01:10:20 Les conséquences du développement du numérique sur les apprentissages
01:14:32 L’effondrement du système scolaire peut-il encore être évité ?
01:19:01 Le symptôme d’une crise plus profonde ?
01:24:58 Conclusionhttps://www.instruire.fr/actualites/...st-malade.html
L’école malade de l’Éducation nationale – Instruire
Publié le 1 mars 2025 à 16:02, Mis à jour le 1 mars 2025 à 21:43
Thèmes abordés dans l’interview : ...
https://www.instruire.fr/le-grip/qui-sommes-nous.html
Constitué en 2003, le GRIP, Groupe de Réflexion Interdisciplinaire sur les Programmes, rassemble des professeurs enseignant à tous les niveaux, de la maternelle à l’université.
L’objectif premier du GRIP, comme son nom l’indique, est d’élaborer des programmes scolaires. Ceux que nous avons pour l’instant rédigés (mathématique, grammaire et géographie) et testés dans les classes S.L.E.C.C. (Savoir Lire, Écrire, Compter, Calculer) se caractérisent par leur exigence, leur cohérence disciplinaire et des progressions rationnelles. Ils s’appuient à la fois sur l’intuition enfantine et l’art des praticiens qui permet d’en tirer parti...
« Developpez.com est un groupe international de bénévoles dont la motivation est l'entraide au sens large » (incl. forums developpez.net)
Club des professionnels en informatique
Liste des balises BB
Les enseignants se servent de ChatGPT et d'autres IA pour corriger et préparer leurs cours mais l’interdisent aux élèves,
l’IA s’invite dans les salles de classe… mais pas pour tout le monde
Depuis l’émergence de ChatGPT fin 2022, l’intelligence artificielle (IA) s’invite dans les classes, suscitant espoirs et inquiétudes. D’un côté, des professeurs commencent à s’appuyer sur ces outils pour corriger des copies ou préparer leurs cours, gagnant un temps précieux. De l’autre, les élèves se voient souvent défendre d’y recourir, sous peine d’être accusés de triche. Cette asymétrie – les enseignants peuvent utiliser l’IA alors qu’elle est interdite aux apprenants – soulève un vif débat dans le monde éducatif.
L’irruption de ChatGPT, capable de rédiger dissertations, résumés ou code informatique sur simple requête, a d’abord ébranlé le milieu éducatif. Dès janvier 2023, des institutions ont réagi par la fermeté : Sciences Po, prestigieuse université parisienne, a banni l’usage de ChatGPT et outils assimilés, invoquant les risques de « fraude et plagiat ». Dans un courriel adressé à tous, la direction a rappelé que « sans référence explicite, les étudiants ont interdiction d’utiliser ce logiciel pour tout travail écrit ou présentation », hors activités encadrées par un enseignant. Des sanctions jusqu’à l’exclusion ont même été envisagées en cas d’entorse.
De même, le réseau des écoles publiques de New York avait initialement bloqué ChatGPT sur ses serveurs par crainte de dérives, avant de faire marche arrière quelques mois plus tard. Car entre-temps, enseignants et experts commençaient aussi à percevoir le potentiel pédagogique de ces IA, appelant à « dédiaboliser l’IA, sans pour autant l’idéaliser »
En France, le ministère de l’Éducation a lancé des réflexions sur l’intégration de l’IA dans l’apprentissage. Preuve d’un changement de ton, en décembre 2023 il a même été annoncé que « tous les élèves entrant au lycée seront désormais accompagnés, à la maison, d’un outil d’IA » d’aide en français et en mathématiques dès la rentrée 2024. Autrement dit, plutôt que de l’interdire totalement, les pouvoirs publics envisagent de l’utiliser comme un tuteur intelligent pour aider les élèves en difficulté. Néanmoins, sur le terrain, une profonde ambivalence demeure : l’IA est à la fois perçue comme une menace pour l’intégrité académique et une opportunité pour améliorer l’éducation.
Les professeurs adoptent l’IA pour alléger leur charge de travail
De plus en plus d’enseignants explorent les outils d’IA pour automatiser certaines tâches fastidieuses, comme la correction de copies, afin de se recentrer sur l’accompagnement pédagogique. Dans de nombreuses salles de classe, l’ordinateur est devenu l’allié du professeur. Aux États-Unis, un logiciel comme Writable permet ainsi à l’enseignant de soumettre les devoirs écrits de ses élèves à une analyse par ChatGPT, qui génère des commentaires et suggestions personnalisés. Le professeur n’a plus qu’à valider ou ajuster ces retours avant de les transmettre aux élèves.
Au Royaume-Uni, certains enseignants vont plus loin en utilisant l’IA Real Fast Reports pour produire en quelques secondes des appréciations détaillées et sur mesure sur chaque élève : ils entrent quelques notes en vrac, et l’algorithme rédige un commentaire bien structuré pour le bulletin scolaire
Pourquoi un tel engouement ? D’abord parce que les professeurs y gagnent un temps considérable. La correction manuelle de dizaines de copies ou la rédaction de rapports personnalisés sont des tâches chronophages. Grâce à l’IA, un enseignant peut, en théorie, fournir plus de feedback, plus rapidement à ses élèves. Des outils comme ChatGPT peuvent aussi l’aider à préparer des quiz, formuler des explications plus claires, ou varier les exemples dans un cours. « Ces technologies peuvent aider les enseignants », affirme Yann Houry, directeur de l’innovation pédagogique dans un lycée international, en soulignant qu’elles peuvent aider à mieux différencier la progression de chaque élève et repérer plus tôt ceux en difficulté.
De plus, l’IA offre des possibilités de personnalisation de l’enseignement inédites : au Texas, un pédagogue a par exemple utilisé des chatbots pour adapter ses problèmes de mathématiques aux centres d’intérêt de chaque élève, qu’il s’agisse de trajectoires de base-ball ou de pas de danse. Cette individualisation, difficile à réaliser pour un humain avec de grands groupes, devient envisageable avec une IA assistant le professeur.
Toutefois, certains observateurs appellent à la prudence. Une enquête du média Axios note que ces logiciels peuvent inciter à des « raccourcis » pédagogiques préoccupants : « certains enseignants utiliseront probablement les suggestions de ChatGPT comme point de départ, mais d’autres pourraient les transmettre textuellement aux étudiants », sans travail critique. En clair, si l’IA corrige à la place du professeur, qui s’assure de la pertinence des retours ? Un enseignant consciencieux y verra surtout un outil d’assistance, là où un autre moins scrupuleux pourrait être tenté de déléguer entièrement la tâche. Il n’en demeure pas moins que, voulue ou non, l’introduction de l’IA dans le métier enseignant semble inéluctable.
Une aide interdite aux élèves : la peur de la triche et du plagiat
En miroir de cet engouement professoral, le discours officiel envers les élèves reste très restrictif. Dans la plupart des établissements, utiliser ChatGPT ou un outil similaire pour faire ses devoirs est assimilé à de la triche. L’IA y est vue comme une calculatrice ultra-sophistiquée qui ferait tout à la place de l’élève, aux dépens de ses apprentissages. « ChatGPT, c’est comme si un autre écrivait ta copie », peut-on entendre dans les salles des profs. La crainte principale : que les devoirs rendus n’évaluent plus le niveau réel des élèves, mais simplement leur habilité à utiliser l’outil. Ainsi, dès qu’un devoir maison paraît anormalement bien rédigé, la suspicion s’installe
« Le problème, c’est que tous les devoirs faits à la maison seront désormais reçus avec un doute. Les bons devoirs seront par défaut soupçonnés », déplore Médéric Gasquet-Cyrus, un maître de conférences d’Aix-Marseille. La confiance entre élèves et professeurs en prend un coup, et certains enseignants ont le sentiment de jouer à un « cache-cache » épuisant pour débusquer l’IA dans les copies.
Faute de moyen infaillible pour détecter automatiquement un texte produit par ChatGPT, plusieurs établissements ont préféré interdire purement et simplement ces outils aux élèves. C’est le cas de l’Université de Lorraine en 2023 : confrontée à 120 copies d’étudiants de BUT aux tournures impeccables et « sans la moindre faute d’orthographe », une professeure a refusé de corriger le devoir de groupe, suspectant un usage massif de l’IA. Les étudiants ont dû être convoqués pour s’expliquer, et reconnaître du bout des lèvres leur utilisation de ChatGPT.Voilà : premier gros soupçon d'un devoir écrit à l'aide de #ChatGPT...
— Médéric Gasquet-Cyrus (@MedericGC) January 25, 2023
Pas de copié-collé apparent, mais un texte rédigé de manière impeccable et assez subtile, sans fautes, de la part d'un étudiant qui avait eu 4/20 et 7/20 à ses premiers devoirs.
Je fais quoi moi ?...
De même, des universités anglo-saxonnes ont revu leurs modalités d’examen pour contrecarrer ces tricheries 2.0 : retour des épreuves en classe et manuscrites, exposés oraux improvisés, etc., afin de s’assurer que l’élève sait réfléchir sans l’aide d’un assistant virtuel. L’objectif est de valoriser le travail personnel et l’effort intellectuel authentique. Quant aux élèves convaincus d’avoir délégué leur copie à une IA, ils s’exposent à des sanctions disciplinaires comparables à du plagiat classique.
Du point de vue des enseignants, cette sévérité se justifie par l’impératif pédagogique : un élève qui fait faire ses exercices par une machine n’acquiert pas les compétences visées. Rédiger un essai, par exemple, ce n’est pas seulement produire un texte correct en français, c’est structurer sa pensée, argumenter, développer un style. En interdisant ChatGPT aux élèves, les professeurs estiment protéger cet apprentissage essentiel. « Si les étudiants n’écrivent pas pour un lecteur humain, pourquoi écrivent-ils ? » résume une enseignante américaine, rappelant que l’acte d’écrire vise avant tout à communiquer une idée à quelqu’un. Pour les éducateurs, autoriser l’IA reviendrait à court-circuiter cet effort et à encourager la paresse intellectuelle.
Un paradoxe qui interroge élèves et professeurs
Cette situation aboutit à un étrange paradoxe : d’un côté l’IA est un atout pour les profs, de l’autre un poison pour les élèves. Une asymétrie que beaucoup commencent à dénoncer. « Je crois que ce n’est pas éthique que les profs utilisent l’IA si leurs élèves n’y ont pas droit », s’indigne par exemple Kimberly, une lycéenne interrogée dans le cadre d’une enquête du New York Times. « Ce ne serait pas juste que les élèves ne puissent pas s’en aider […] alors que leur prof ne lirait même pas leur travail et le ferait corriger par une IA. Et si les profs utilisent l’IA pour noter, qu’est-ce qui empêcherait les élèves de faire carrément tout leur devoir avec l’IA si le prof ne le lit pas ? »
Ce coup de gueule reflète un sentiment partagé par de nombreux jeunes : selon un reportage, plusieurs adolescents jugent « contraire à l’éthique » que leurs enseignants aient recours à ces technologies pour évaluer leur travail, alors qu’eux-mêmes en sont privés pendant la rédaction. Il y a là, aux yeux des élèves, une forme d’injustice et de double discours.
Les enseignants, pour leur part, avancent plusieurs arguments pour défendre leur usage de l’IA tout en le refusant à leurs classes. D’abord, disent-ils, le contexte n’est pas le même : lorsque le professeur utilise un outil comme ChatGPT, c’est pour améliorer son enseignement, pas pour tricher. Le travail final (corriger avec justesse, apporter un retour pédagogique) reste bien le sien – l’IA n’est qu’un assistant. À l’inverse, l’élève qui rend une dissertation générée par IA s’approprie indûment un travail qu’il n’a pas effectué. La frontière peut sembler ténue, mais il s’agit d’une question d’intention et de contrôle. Un enseignant expérimenté saura filtrer, éditer et rectifier les réponses de l’IA, là où un élève inexpérimenté risquerait de les recopier aveuglément, y compris si elles sont erronées ou hors-sujet. « C’est pour cela qu’un enseignant, capable de faire la part des choses entre de bonnes et de mauvaises réponses, peut utiliser l’IA plus efficacement qu’un élève », résume en substance un responsable scolaire
En outre, certains professeurs soulignent que même avec l’IA, ils gardent un regard humain sur les copies. « Confier toute la notation à une machine sans y jeter un œil, ce serait du mauvais travail », reconnaît un enseignant, pour qui lire et considérer réellement ce qu’écrivent les élèves demeure un devoir professionnel. En bref, tant que l’enseignant reste dans une démarche réfléchie, l’IA n’entame pas la relation pédagogique, alors qu’elle la pervertirait chez l’élève en court-circuitant l’effort personnel.
N’empêche, la ligne de démarcation est fine et le deux-poids-deux-mesures de plus en plus apparent. D’aucuns comparent la situation à l’introduction de la calculatrice à une époque : les professeurs en ont toujours eu une sur leur bureau pour vérifier des calculs complexes, tout en interdisant son usage lors des évaluations de peur que les élèves ne sachent plus calculer eux-mêmes. Avec l’IA, l’échelle change – presque toutes les matières et compétences sont potentiellement concernées – et l’on touche à la production intellectuelle, pas seulement à l’exécution de calculs. D’où un malaise grandissant : comment justifier qu’on forme les élèves à maîtriser ces nouveaux outils… en les en privant jusqu’au bac ? L’équation paraît intenable à long terme.
Sources : Ministère de l'éducation (France), Real Fast Report, Writable
Et vous ?
Qu'en pensez-vous ?
Est-ce que l’usage de l’IA par les professeurs sans transparence risque de décrédibiliser leur rôle aux yeux des élèves ?
Corriger à l’aide d’une IA, est-ce toujours « corriger » ou est-ce déléguer une partie de sa responsabilité pédagogique ?
Y a-t-il une contradiction morale dans le fait de sanctionner les élèves qui utilisent l’IA alors que les professeurs s’en servent librement ? Dans quelle mesure ?
Peut-on imaginer une éducation où l’IA serait un outil pédagogique au même titre qu’un dictionnaire ou une calculatrice ?
Comment former les élèves à un usage critique et responsable de l’IA, plutôt que de l’interdire ?
Les formes classiques de devoirs (dissertations, exposés, devoirs maison) ont-elles encore du sens à l’ère de l’IA ?
Faut-il repenser complètement les modes d’évaluation pour intégrer ou contourner l’intelligence artificielle ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Si les établissements accordaient plus d'importance aux oraux et aux travaux pratiques, tous ces problèmes n'auraient pas lieu d'être.
Les questions est 1/ que souhaite t on évaluer ? 2/ est-ce que l’IA est fiable pour l’évaluer ?
Si la question est «*est-ce que l’élève sait poser une règle de trois*», c’est assez certain qu’une IA saura l’aider de façon à biaiser l’examen. Et j’ose espérer que l’IA ne faussera pas le jugement de l’enseignant. De la même manière, on n’autorise pas les calculatrice à l’école primaire, mais ensuite, vu que l’on évalue d’autres compétences.
Les choses sont différentes pour un travail de thèse de doctorat, où par principe le travail est inédit. Dans un tel contexte, il me semble que l’IA a une place (au même titre qu’hier Maple ou Mathematica), mais avec un usage raisonné (analyse critique des résultats, etc.). Cela implique l’usage d’une IA qui cite ses sources, et que la cohérence avec les sources soient analysées. Aujourd’hui même, j’ai pris en défaut Grok sur l’interprétation de texte juridique sur les déclarations d’impôts…pourtant il avait beaucoup d'aplomb en listant les sources qui n’appuyaient pas ses propos en les lisant soigneusement.
Partager