IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L’IA est en train de tuer la déclaration d’intention requise pour l’admission à l’université


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 532
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 532
    Par défaut Une étudiante veut le remboursement de ses frais de scolarité après avoir surpris son professeur sur ChatGPT
    Une étudiante demande le remboursement de ses frais de scolarité après avoir surpris son professeur en train d'utiliser ChatGPT :
    « Ils nous demandent de ne pas l'utiliser tandis que lui il le fait »

    Une élève en dernière année à l'université de Northeastern a déposé une plainte officielle et demandé le remboursement de ses frais de scolarité après avoir découvert que son professeur utilisait secrètement des outils d'IA pour préparer ses cours : « ils nous demande de ne pas l'utiliser tandis que lui il le fait ». Le professeur a par la suite admis qu'il utilisait plusieurs plateformes d'IA et a reconnu le besoin de transparence. Cet incident met en lumière les préoccupations croissantes des étudiants concernant l'utilisation de l'IA par les professeurs, alors que ces derniers craignaient auparavant que les étudiants n'utilisent cette technologie pour tricher. Le scandale, d’apparence anecdotique, soulève de lourdes questions sur la qualité de l’enseignement et la place croissante de l’IA dans l’éducation supérieure.

    Contexte

    Ella Stapleton, diplômée de la Northeastern University cette année, a commencé à se méfier des notes de cours de son professeur de gestion lorsqu'elle a repéré des signes révélateurs de la génération d'IA, notamment une citation « ChatGPT » égarée dans la bibliographie, des fautes de frappe récurrentes qui reflétaient les résultats de la machine et des images représentant des personnages avec des membres supplémentaires.

    Une révélation qui fait débat

    Avec l’explosion de l’intelligence artificielle générative, les universités, tout comme leurs étudiants, tâtonnent entre fascination et inquiétude. Une récente affaire relayée sur les réseaux sociaux et certains médias américains vient raviver le débat sur la place de l'IA dans l'éducation supérieure.

    En février, Ella Stapleton, alors étudiante en dernière année à la Northeastern University, passait en revue les notes de son cours sur le comportement organisationnel lorsqu'elle a remarqué quelque chose d'étrange. S'agissait-il d'une demande de ChatGPT de la part de son professeur ?

    Dans le document que son professeur de gestion avait rédigé pour un cours sur les modèles de leadership, se trouvait une instruction à ChatGPT de « développer tous les domaines. Sois plus détaillé et plus spécifique ». Cette instruction était suivie d'une liste de traits de caractère positifs et négatifs, chacun accompagné d'une définition prosaïque et d'un exemple à puces.

    Stapleton a envoyé un texto à une amie de la classe : « Tu as vu les notes qu'il a mises sur Canvas ? », a-t-elle écrit, en référence à la plateforme logicielle de l'université pour l'hébergement des supports de cours. « Il les a faites avec ChatGPT ».

    « OMG !!! Arrête », a répondu le camarade de classe. « C'est quoi ce bordel ? »

    Stapleton a décidé de creuser un peu. Elle a examiné les diaporamas de son professeur et a découvert d'autres signes révélateurs de l'IA : du texte déformé, des photos d'employés de bureau avec des parties du corps superflues et des fautes d'orthographe flagrantes.

    Elle n'était pas contente. Compte tenu du coût et de la réputation de l'école, elle s'attendait à un enseignement de haut niveau. Ce cours était obligatoire pour sa mineure en commerce ; son programme interdisait les « activités académiques malhonnêtes », y compris l'utilisation non autorisée de l'intelligence artificielle ou des robots de conversation (chatbots).

    « Ils nous disent de ne pas l'utiliser, mais il l'utilise lui-même », a-t-elle déclaré.

    Stapleton a déposé une plainte officielle auprès de l'école de commerce de Northeastern, citant l'utilisation non divulguée de l'I.A. ainsi que d'autres problèmes qu'elle avait avec son style d'enseignement, et a demandé le remboursement des frais de scolarité pour cette classe. Ce remboursement représente un quart de la facture totale du semestre, soit plus de 8 000 dollars.

    Nom : noth.png
Affichages : 412305
Taille : 658,6 Ko

    Le professeur s'est montré contrit à propos de cet épisode

    Après avoir déposé sa plainte à Northeastern, Stapleton a eu une série de réunions avec des responsables de l'école de commerce. En mai, le lendemain de la cérémonie de remise des diplômes, les responsables lui ont annoncé qu'elle ne serait pas remboursée de ses frais de scolarité.

    Rick Arrowood, son professeur, s'est montré contrit à propos de cet épisode. Arrowood, qui est professeur auxiliaire et enseigne depuis près de vingt ans, a déclaré qu'il avait téléchargé les fichiers et les documents de son cours sur ChatGPT, le moteur de recherche d'IA Perplexity et un générateur de présentations d'IA appelé Gamma pour « leur donner un nouveau look ». Au premier coup d'œil, les notes et les présentations qu'ils avaient générées avaient l'air parfaites.

    « Avec le recul, je regrette de ne pas y avoir regardé de plus près », a-t-il déclaré.

    Il a mis le matériel en ligne pour que les étudiants puissent le consulter, mais il a souligné qu'il ne l'utilisait pas en classe, car il préfère que les cours soient axés sur la discussion. Il n'a réalisé que le matériel était défectueux que lorsque les responsables de l'école l'ont interrogé à ce sujet.

    Cette situation embarrassante lui a fait prendre conscience, selon lui, que les professeurs devraient aborder l'IA avec plus de prudence et informer les étudiants du moment et de la manière dont elle est utilisée. Ce n'est que récemment que l'université de Northeastern a adopté une politique officielle en matière d'IA. Cette politique exige l'attribution de l'utilisation des systèmes d'IA et l'examen des résultats pour en vérifier « l'exactitude et l'adéquation ».

    « J'aime enseigner », a déclaré le docteur Arrowood. « Si mon expérience peut être utile à d'autres personnes, alors je suis heureux ».

    Renata Nyul, vice-présidente chargée de la communication à l'université de Northeastern, a déclaré : « Northeastern adopte l'utilisation de l'intelligence artificielle pour améliorer tous les aspects de son enseignement, de sa recherche et de ses opérations. L'université fournit une abondance de ressources pour soutenir l'utilisation appropriée de l'IA et continue de mettre à jour et d'appliquer les politiques pertinentes à l'échelle de l'entreprise. »

    Les universités restreignent souvent l'utilisation de l'IA sur le campus

    De nombreuses écoles interdisent purement et simplement l'utilisation de l'IA ou la soumettent à des restrictions. Les étudiants ont été parmi les premiers à adopter ChatGPT après son lancement à la fin de l'année 2022, constatant rapidement qu'ils pouvaient terminer leurs dissertations et leurs devoirs en quelques secondes. L'utilisation généralisée de cette technologie a suscité la méfiance des étudiants et des enseignants, ces derniers s'efforçant d'identifier et de sanctionner l'utilisation de l'IA dans le cadre du travail.

    Aujourd'hui, la situation s'est quelque peu inversée. Les étudiants se rendent sur des sites tels que « Rate My Professors » pour se plaindre de l'utilisation ou de la surutilisation de l'IA par leurs professeurs. Ils affirment également que cela porte atteinte aux frais qu'ils paient pour recevoir un enseignement dispensé par des experts humains plutôt que par une technologie qu'ils pourraient utiliser gratuitement.

    Selon la politique de Northeastern en matière d'IA, tout enseignant ou étudiant doit « fournir une attribution appropriée lorsqu'il utilise un système d'IA pour générer un contenu qui est inclus dans une publication savante, ou soumis à toute personne, publication ou autre organisation qui exige l'attribution de la paternité du contenu ». La politique stipule également que ceux qui utilisent la technologie doivent : « Vérifier régulièrement l'exactitude et l'adéquation des résultats du système d'IA à l'objectif recherché, et réviser/mettre à jour les résultats le cas échéant. »

    Les professeurs adoptent l’IA pour alléger leur charge de travail

    De plus en plus d’enseignants explorent les outils d’IA pour automatiser certaines tâches fastidieuses, comme la correction de copies, afin de se recentrer sur l’accompagnement pédagogique. Dans de nombreuses salles de classe, l’ordinateur est devenu l’allié du professeur. Aux États-Unis, un logiciel comme Writable permet ainsi à l’enseignant de soumettre les devoirs écrits de ses élèves à une analyse par ChatGPT, qui génère des commentaires et suggestions personnalisés. Le professeur n’a plus qu’à valider ou ajuster ces retours avant de les transmettre aux élèves.

    Au Royaume-Uni, certains enseignants vont plus loin en utilisant l’IA Real Fast Reports pour produire en quelques secondes des appréciations détaillées et sur mesure sur chaque élève : ils entrent quelques notes en vrac, et l’algorithme rédige un commentaire bien structuré pour le bulletin scolaire​

    Pourquoi un tel engouement ? D’abord parce que les professeurs y gagnent un temps considérable. La correction manuelle de dizaines de copies ou la rédaction de rapports personnalisés sont des tâches chronophages. Grâce à l’IA, un enseignant peut, en théorie, fournir plus de feedback, plus rapidement à ses élèves. Des outils comme ChatGPT peuvent aussi l’aider à préparer des quiz, formuler des explications plus claires, ou varier les exemples dans un cours. « Ces technologies peuvent aider les enseignants », affirme Yann Houry, directeur de l’innovation pédagogique dans un lycée international, en soulignant qu’elles peuvent aider à mieux différencier la progression de chaque élève et repérer plus tôt ceux en difficulté.

    De plus, l’IA offre des possibilités de personnalisation de l’enseignement inédites : au Texas, un pédagogue a par exemple utilisé des chatbots pour adapter ses problèmes de mathématiques aux centres d’intérêt de chaque élève, qu’il s’agisse de trajectoires de base-ball ou de pas de danse​. Cette individualisation, difficile à réaliser pour un humain avec de grands groupes, devient envisageable avec une IA assistant le professeur.

    Nom : writable.png
Affichages : 140394
Taille : 128,6 Ko

    L’effet miroir : étudiants vs professeurs, même combat ?

    L’ironie de cette affaire n’échappe à personne : dans de nombreux établissements, les étudiants sont activement dissuadés, voire sanctionnés, pour usage abusif de ChatGPT dans leurs devoirs. Pourtant, voilà que certains enseignants s’en servent sans transparence. Ce double standard alimente un sentiment d’injustice : pourquoi interdire aux uns ce que l’on tolère pour les autres ?

    En miroir de cet engouement professoral, le discours officiel envers les élèves reste très restrictif. Dans la plupart des établissements, utiliser ChatGPT ou un outil similaire pour faire ses devoirs est assimilé à de la triche. L’IA y est vue comme une calculatrice ultra-sophistiquée qui ferait tout à la place de l’élève, aux dépens de ses apprentissages. « ChatGPT, c’est comme si un autre écrivait ta copie », peut-on entendre dans les salles des profs. La crainte principale : que les devoirs rendus n’évaluent plus le niveau réel des élèves, mais simplement leur habilité à utiliser l’outil. Ainsi, dès qu’un devoir maison paraît anormalement bien rédigé, la suspicion s’installe

    « Le problème, c’est que tous les devoirs faits à la maison seront désormais reçus avec un doute. Les bons devoirs seront par défaut soupçonnés », déplore Médéric Gasquet-Cyrus, un maître de conférences d’Aix-Marseille. La confiance entre élèves et professeurs en prend un coup, et certains enseignants ont le sentiment de jouer à un « cache-cache » épuisant pour débusquer l’IA dans les copies.

    Certaines voix dans le corps étudiant appellent à une refonte des règles d’usage de l’IA dans l’enseignement, exigeant une charte claire pour les deux parties. Un dialogue équilibré semble nécessaire pour sortir d’un rapport de force où chacun suspecte l’autre de « tricher ».

    L’affaire Ella Stapleton ne fait que mettre en lumière une crise plus large dans l’enseignement supérieur. Depuis plusieurs années, les critiques pleuvent sur le coût exorbitant des études universitaires, notamment aux États-Unis. Dans ce contexte, découvrir que des enseignants automatisent leur travail grâce à des outils gratuits renforce la colère de certains étudiants, qui ont le sentiment de payer pour un service déshumanisé.

    D’autres affirment que cette évolution est inévitable et que l’université doit se réinventer. Plutôt que d’exclure l’IA, pourquoi ne pas former les étudiants à l’utiliser avec discernement ? Pourquoi ne pas revaloriser le rôle de mentorat des enseignants, au-delà de la simple transmission d’informations ?

    L’usage de ChatGPT par un professeur, découvert par une étudiante qui a réclamé (sans succès) le remboursement de ses frais de scolarité, n’est pas seulement une anecdote virale. C’est un signal d’alarme. Il révèle l’ampleur du bouleversement en cours dans l’enseignement supérieur à l’heure de l’intelligence artificielle. Entre dérives, opportunités, et nécessaire redéfinition des rôles, les universités ont désormais un devoir de clarté : dire ce qu’elles attendent de leurs enseignants comme de leurs étudiants face à l’IA, et réaffirmer la mission humaine de l’éducation.

    Sources : politique de Northeastern en matière d'IA, Ella Stapleton

    Et vous ?

    Un professeur doit-il signaler quand il utilise ChatGPT pour ses cours ou ses corrections ?

    Peut-on considérer que l’usage d’une IA dévalorise l’enseignement ?

    Faut-il former les étudiants à utiliser ChatGPT plutôt que de les en dissuader ?

    Si l’IA devient omniprésente dans les universités, les frais de scolarité doivent-ils être revus à la baisse ? Pourquoi ou pourquoi pas ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    268
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 268
    Par défaut
    Il y a une grosse hypocrisie autour de l'usage des LLM dans le monde universitaire, comme pour Wikipédia à une certaine époque.

    Toujours est-il que si un LLM ou une calculatrice suffisent à tuer la difficulté d'un exercice, c'est qu'il n'était pas pertinent à la base.

    Le biais du survivant aidant, ceux qui sont passés par là et ont eu leur diplôme ne comprennent pas pourquoi il devrait en être autrement pour les jeunes générations.

  3. #3
    Membre éclairé
    Profil pro
    retraité
    Inscrit en
    Décembre 2010
    Messages
    864
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Décembre 2010
    Messages : 864
    Par défaut
    Toujours est-il que si un LLM ou une calculatrice suffisent à tuer la difficulté d'un exercice, c'est qu'il n'é pas pertinent à la base.
    Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
    Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.

  4. #4
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    268
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 268
    Par défaut
    Citation Envoyé par archqt Voir le message
    Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
    Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
    Le contexte, ça compte hein ! L'article et mon commentaire font référence aux études supérieures.

    Personne ne parle d'arrêter d'apprendre aux enfants de lire, écrire et compter.

  5. #5
    Membre éclairé
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    324
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Suisse

    Informations professionnelles :
    Secteur : Industrie

    Informations forums :
    Inscription : Mai 2003
    Messages : 324
    Par défaut
    Citation Envoyé par archqt Voir le message
    Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
    Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
    RenarddeFeu a pourtant raison. Qui a survécu à une école d'ingénieur française (pour prendre ce que je connais, mais il y a 25 ans!) a compris la stratégie des examens: outre la complexité, la gestion du temps est cruciale. Tu avais souvent accès à des supports de cours papier et une calculatrice élémentaire (type collège), mais aucun outil informatique.
    Si tu n'avais pas digéré les cours, tu n avais pas le temps d'éplucher tes notes pour réussir l exercice!

    Et l analogie avec l apprentissage d une table de multiplication fonctionne aussi bien: si tu n es pas capable de répondre immédiatement en calcul mental et prend le temps de taper sur une calculatrice, tu as perdu!

    Est ce que des examens qui se font que avec un crayon et du papier existent encore?

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 532
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 532
    Par défaut La tricherie par l'IA est tellement incontrôlable certaines écoles optent pour le retour du stylo et du papier
    La tricherie par l'IA est tellement incontrôlable que certains établissements reviennent aux épreuves manuscrites.
    Au-delà de la fraude, des enseignants s'inquiètent d'une possible érosion des compétences fondamentales

    À l’ère de l’intelligence artificielle générative, les écoles américaines redécouvrent un outil presque oublié : le "blue book", ce modeste cahier d'examen bleu utilisé pour les épreuves manuscrites. Ce come-back n'est pas une fantaisie nostalgique. Il illustre la crise profonde que traverse le système éducatif, contraint de se replier sur des méthodes traditionnelles pour tenter de garantir l'intégrité académique face à une crise croissante : l’explosion de la triche facilitée par l’IA dans le système éducatif.

    Contexte

    L'avènement d'intelligences artificielles génératives telles que ChatGPT a déclenché une onde de choc dans le monde de l'enseignement secondaire et supérieur. Entre craintes de tricherie massive et promesses d'une révolution pédagogique, la question de la finalité même de l'université se pose avec une acuité nouvelle. Les institutions sont-elles au bord d'une crise existentielle, ou assistons-nous à l'émergence d'un nouveau paradigme éducatif ? Face à des machines capables de produire des dissertations en quelques secondes, de résoudre des équations complexes et de simuler des raisonnements critiques, la légitimité des cursus universitaires traditionnels est mise à rude épreuve.

    La hantise de la triche et l'érosion des compétences

    À mesure que l’intelligence artificielle générative, incarnée par des outils comme ChatGPT, s’impose dans notre quotidien, une question cruciale secoue le monde académique : l’université, telle que nous la connaissons, a-t-elle encore une raison d’être ?

    Selon des analyses récentes, notamment relayées par plusieurs médias grands publics et spécialisés, l'intégration de l'IA dans les cursus universitaires amène le système éducatif à un « point de crise ». La facilité déconcertante avec laquelle des outils comme ChatGPT peuvent produire des dissertations, résoudre des problèmes complexes ou encore générer du code informatique bouscule les méthodes d'évaluation traditionnelles et soulève des inquiétudes majeures quant à l'intégrité académique.

    La principale préoccupation, largement documentée, est l'augmentation potentielle de la tricherie. Des enseignants rapportent déjà une recrudescence de travaux rendus qui portent manifestement la marque de l'IA, obligeant les institutions à repenser leurs stratégies de contrôle et d'évaluation. Certains établissements voient même un retour en grâce des examens sur table et des interrogations orales, des méthodes jugées plus à même de vérifier l'acquisition réelle des connaissances par l'étudiant.

    L’IA est désormais massivement utilisée pour rédiger des essais, répondre à des examens à distance, voire produire des codes informatiques complexes. Le tout, souvent sans que les professeurs ne puissent facilement détecter la supercherie. Certains établissements universitaires rapportent une explosion des cas de triche — ou plutôt, une redéfinition même de ce que signifie « tricher ».

    « Je dois être à la fois un enseignant et un détecteur d'IA », déclare Stephen Cicirelli, professeur d'anglais à l'université St. Peter's de Jersey City, dans le New Jersey. « Pour tout devoir que vous ramenez à la maison et avec lequel vous avez le temps de jouer, il y aura des doutes ».

    Cicirelli a publié sur X un message dans lequel il a raconté comment l'une de ses étudiantes s'est faite prendre en train de soumettre un travail rédigé par une IA - et s'est excusée en envoyant un courriel qui semblait également avoir été rédigé par ChatGPT : « Je viens de recaler une étudiante qui avait soumis un travail de recherche rédigé par une IA, et elle m'a envoyé un courriel manifestement rédigé par une IA pour s'excuser et me demander s'il y avait quelque chose à faire pour améliorer sa note. Nous sommes de l'autre côté du miroir, mesdames et messieurs ».

    « Vous venez me voir après pour vous excuser, faire preuve d'humanité et demander la grâce », dit-il. « Vous ne le faites même pas vous-même ? »

    La prolifération des travaux scolaires assistés par l'IA inquiète les responsables universitaires.
    • 66 % d'entre eux pensent que l'IA générative réduira la durée d'attention des étudiants, selon une enquête menée auprès de présidents d'université, de chanceliers, de doyens et d'autres personnes par l'American Association of Colleges & Universities (AAC&U) et le centre Imagining the Digital Future de l'université d'Elon.
    • 59 % affirment que la tricherie a augmenté sur les campus.
    • 56 % affirment que leur établissement n'est pas prêt à préparer les étudiants à l'ère de l'IA.

    « Il s'agit d'une perturbation indéniable et inévitable », déclare Lee Rainie, directeur du centre d'Elon. « On ne peut pas détourner les yeux.

    Nom : un.png
Affichages : 566715
Taille : 30,6 Ko

    Les enseignants ne parviennent pas à se mettre d'accord sur ce qui est acceptable dans ce nouveau monde

    Par exemple, 51 % des responsables de l'enseignement supérieur estiment qu'il est acceptable qu'un étudiant rédige un document à partir d'un plan détaillé généré par l'IA, tandis que les autres disent que ce n'est pas le cas ou qu'ils ne savent pas, selon l'enquête de l'AAC&U et d'Elon. Les politiques varient d'une classe à l'autre au sein d'une même école.

    En outre, l'essor de l'IA provoque des casses tête imprévus :

    Les enseignants font passer les devoirs par des détecteurs, qui souvent ne font pas bien les choses, soit en omettant des travaux générés par l'IA, soit en signalant par erreur des travaux originaux comme ayant été rédigés par l'IA. Les étudiants qui n'ont pas utilisé l'IA ont dû faire appel à leur école ou présenter des preuves de leur processus pour éviter d'obtenir des zéros, rapporte le New York Times.

    Les enseignants se font également prendre en flagrant délit de ChatGPT. Une élève en dernière année à l'université de Northeastern a déposé une plainte officielle et demandé le remboursement de ses frais de scolarité après avoir découvert que son professeur utilisait secrètement des outils d'IA pour préparer ses cours : « ils nous demande de ne pas l'utiliser tandis que lui il le fait ». Le professeur a par la suite admis qu'il utilisait plusieurs plateformes d'IA et a reconnu le besoin de transparence. Cet incident met en lumière les préoccupations croissantes des étudiants concernant l'utilisation de l'IA par les professeurs, alors que ces derniers craignaient auparavant que les étudiants n'utilisent cette technologie pour tricher. Le scandale, d’apparence anecdotique, soulève de lourdes questions sur la qualité de l’enseignement et la place croissante de l’IA dans l’éducation supérieure.

    Nom : deux.png
Affichages : 234934
Taille : 35,2 Ko

    La réponse de certains établissement secondaire et supérieur aux États-Unis ? Le retour du stylo et du papier

    Avec un accès facile à des applications telles que ChatGPT, qui peut répondre à n'importe quelle question et rédiger des dissertations complètes à votre place, les lycéens et les étudiants ont commencé à tricher, se contentant de laisser un algorithme réfléchir et passer les examens à leur place. Il n'est donc pas surprenant que certains éducateurs aient adopté l'analogie pour tenter d'endiguer la vague d'anti-intellectualisme qui déferle sur le pays.

    Le Wall Street Journal a récemment fait des recherches et découvert que les ventes de cahiers bleus ont augmenté au cours de l'année écoulée. Citant des données provenant d'un certain nombre de grandes universités publiques, le journal note que les achats en gros de ces livrets ont augmenté à pas de géant depuis le lancement de ChatGPT à la fin de l'année 2022 :

    « Les ventes de cahiers bleus pour cette année scolaire ont augmenté de plus de 30 % à l'Université A&M du Texas et de près de 50 % à l'Université de Floride. La croissance improbable a été encore plus impressionnante à l'Université de Californie, Berkeley. Au cours des deux dernières années universitaires, les ventes de cahiers bleus au Cal Student Store ont augmenté de 80 %. La demande de cahiers bleus est soudainement en plein essor parce qu'ils contribuent à résoudre un problème qui n'existait pas jusqu'à présent sur les campus ».

    Pourtant, si le retour des cahiers bleus est considéré par certain comme un pas dans la bonne direction, ils ne sont certainement pas la panacée pour la grande variété de maux causés par l'utilisation de l'IA par les étudiants. Philip D. Bunn, professeur assistant au Covenant College en Géorgie, a récemment écrit sur son blog que la dissertation traditionnelle ne peut être remplacée par la dissertation en classe. Bunn écrit que « le processus de rédaction d'un article en dehors de la classe ne peut pas être simplement reproduit lors d'un examen dans un livre bleu, et quelque chose de sérieux est perdu si nous abandonnons complètement la dissertation traditionnelle, que ces dissertations soient plus analytiques, argumentatives ou basées sur la recherche ».

    Nom : triche.png
Affichages : 234167
Taille : 277,9 Ko

    De nombreux éducateurs pensent que l'IA a le potentiel d'aider les étudiants

    Même s'ils ont du mal à maîtriser l'utilisation de l'IA, de nombreux éducateurs pensent qu'elle a le potentiel d'aider les étudiants et que les écoles devraient leur apprendre à l'utiliser.

    L'école de commerce de l'American University lance un institut de l'IA à cette fin : « Lorsque des jeunes de 18 ans arrivent ici en première année, nous leur demandons : "Combien de vos professeurs de lycée vous ont-ils dit de ne pas utiliser l'IA ?" Et la plupart d'entre eux lèvent la main », a déclaré David Marchick, le doyen de la Kogod School of Business de l'American University. « Nous leur disons : "Voilà, vous utilisez l'IA à partir d'aujourd'hui" ».

    ChatGPT peut être un éditeur en temps réel et affiner l'écriture des étudiants ou accélérer la recherche afin qu'ils puissent se concentrer sur l'organisation des grandes idées plutôt que sur la collecte d'informations, écrit Jeanne Beatrix Law, professeur d'anglais à l'université d'État de Kennesaw, dans The Conversation.

    « Ne bloquez pas l'IA[...]. Mettons plutôt en place certains des protocoles de sécurité et de bien-être que nous avons mis une décennie à élaborer pour les médias sociaux et le web 1.0 », déclare Tammy Wincup, PDG de Securly, une société de logiciels qui crée des outils de sécurité pour les écoles de la maternelle à la terminale.

    Conclusion

    Au-delà de la fraude, la crainte porte sur une possible érosion des compétences fondamentales. Si les étudiants se reposent excessivement sur l'IA pour réaliser leurs travaux, risquent-ils de ne plus développer leur esprit critique, leur capacité d'analyse et de synthèse, ou encore leur maîtrise de l'écriture et de l'argumentation ? La question est cruciale, car la mission de l'université n'est pas seulement de transmettre des savoirs, mais aussi de former des esprits capables de penser par eux-mêmes.

    Sources : rapport d'Elon University, Philip D. Bunn

    Et vous ?

    Le retour aux "blue books" est-il une solution réellement viable à long terme contre la triche par IA, ou n'est-ce qu'un pansement sur une hémorragie ? Quelles sont les limites intrinsèques de cette approche ?

    En privilégiant les examens manuscrits sous surveillance, ne risque-t-on pas de dévaloriser d'autres formes d'apprentissage et de compétences (recherche documentaire, pensée collaborative, utilisation critique des technologies) qui sont cruciales au XXIe siècle ?

    Si l'objectif n'est plus seulement d'évaluer la capacité à mémoriser et à reproduire de l'information (tâches que l'IA accomplit bien), quelle devrait être la mission principale de l'éducation à l'ère de l'intelligence artificielle ? Sur quelles compétences humaines irremplaçables doit-on se concentrer ?

    Le phénomène de la triche massive par IA et le retour aux "blue books" ne sont-ils pas le symptôme d'un décalage plus profond entre les méthodes pédagogiques actuelles et les attentes/besoins des "natifs numériques" ?

    Si le "blue book" n'est qu'une solution temporaire, quelles innovations pédagogiques et évaluatives les établissements devraient-ils explorer activement dès maintenant pour préparer l'avenir ?

    Quelles compétences spécifiques les universités devraient-elles prioriser pour préparer les étudiants à un avenir où l'IA est omniprésente, et comment ces compétences peuvent-elles être évaluées de manière fiable ?

    Quels types de formation et d'accompagnement sont nécessaires pour que les enseignants puissent non seulement détecter l'usage abusif de l'IA, mais surtout l'intégrer de manière constructive et innovante dans leurs pratiques pédagogiques ?

    Au-delà du retour aux examens sur table, quelles nouvelles formes d'évaluation (portfolios, projets collaboratifs, soutenances orales axées sur le processus de réflexion, etc.) pourraient être plus résilientes face à l'IA et mieux mesurer la compréhension réelle ?

    Si nous sommes à un "point de crise", quelles opportunités uniques cela crée-t-il pour repenser radicalement les modèles éducatifs et peut-être même inventer l'université du futur ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #7
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    140
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 140
    Par défaut
    Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

    Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.

  8. #8
    Membre du Club
    Profil pro
    DBA Oracle
    Inscrit en
    Octobre 2007
    Messages
    10
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : DBA Oracle

    Informations forums :
    Inscription : Octobre 2007
    Messages : 10
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

    Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.
    Je suis certain que vous serez tout à fait rassuré quand vous apprendrez que votre opération à coeur ouvert sera réalisée par un chirurgien qui a eu son diplôme grâce à l'IA...
    Blague à part, si on veut l'IA dans les classes, alors autant noter l'IA.
    Je travaille dans l'informatique, presque tout ce que je fais est nouveau... Quand je demande à l'IA des informations sur mon propre domaine, elle a une forte tendance à me recracher presque texto mon propre site web. www theopuproject com...
    C'est ça les limites de l'IA... L'incapacité à inventer quelque chose. Et aussi, de vous exposer à de grosses amendes pour plagiat.
    Donc, même si l'IA peut être utile dans des cas limités, elle ne sert à rien pour les inventeurs et créateurs (pour rappel, un créateur crée un 'objet' original, pas une copie volée à quelqu'un d'autre).

  9. #9
    Invité de passage
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mai 2025
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 50
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mai 2025
    Messages : 1
    Par défaut Baisse de la cognition
    Beaucoup parlent de devoir suivre l'évolution. Le problème ici n'est pas de devoir se faire aider sur une épreuve de force mais intellectuelle. Comment se construit l'intelligence humaine, le savoir ? Uniquement sur l'effort, les épreuves, les échecs et les succès. Il est courant d'entendre : «*à quoi cela me sert d'apprendre ça puisque j'en n'aurait pas l'utilité plus tard ?*» ― faux. Repousser les limites du raisonnement nous aide à mieux appréhender les défis et les challenges de demain, et c'est ce qui nous conduit parfois à faire preuve d'une véritable innovation face à des problèmes complexes et nouveaux. Laisser quelqu'un d'autre penser à notre place, même une machine, c'est sacrifier ce qui fait de nous des êtres intelligents : notre capacité d'analyse et de réflexion. Faire l'impasse sur cela c'est comme accepter de devenir rachitique dans un exosquelette en croyant que cela fait de nous des athlètes. Est-ce que j'utilise l'IA ? Bien sûr. Mais je prends garde à ce qu'elle ne me prive pas de mon devoir de réflexion et d'approfondissement. Par exemple, si je dois rédiger un texte en anglais, je ne demande pas à l'IA de le faire ; je le rédige moi et après je lui demande de me corriger et d'améliorer ma réponse, de sorte que je m'exerce à la tâche et me confronte ensuite à une correction qui me permette d'apprendre de mes erreurs. Il est possible d'apprendre avec l'IA mais ce n'est qu'à la condition qu'elle nous permette de construire notre connaissance de manière structurée, organisée et pertinente, autrement nous devenons juste des esclaves décérébrés, sans âme ni caractère. La difficulté et le fait de devoir repousser les limites forge notre caractère et intelligence. Déjà que les réseaux sociaux nous abrutissent, alors que dire d'une formation par procuration ? Le pire dans tout cela c'est que ce sont de jeunes en devenir qui souhaitent aller dans ce sens, alors même que ce sont eux les premiers, de par leur inexpérience, qui sont les plus remplaçable par l'IA, et privés par là-même de leur opportunité de gagner en expérience. Qu'un prof utilise l'IA ne me gène pas ― il a déjà toute l'expérience et recul nécessaire pour cela, il n'a rien à prouver ; qu'un étudiant l'utilise pour se faire «*souffler*» les réponse sans effort, c'est se mentir à soi-même : il restera incapable de relever de nouveaux défis et justifie par là-même son remplacement par l'IA dans l'argumentaire d'entreprises en recherche de véritables talents. Quelle décadence du savoir…

    Note : et je suis heureux de ne pas avoir eu besoin de l'IA pour rédiger ce post.

  10. #10
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 308
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 308
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Ce coup de gueule reflète un sentiment partagé par de nombreux jeunes : selon un reportage, plusieurs adolescents jugent « contraire à l’éthique » que leurs enseignants aient recours à ces technologies pour évaluer leur travail, alors qu’eux-mêmes en sont privés pendant la rédaction. Il y a là, aux yeux des élèves, une forme d’injustice et de double discours.
    Citation Envoyé par Stéphane le calme Voir le message
    L’ironie de cette affaire n’échappe à personne : dans de nombreux établissements, les étudiants sont activement dissuadés, voire sanctionnés, pour usage abusif de ChatGPT dans leurs devoirs. Pourtant, voilà que certains enseignants s’en servent sans transparence. Ce double standard alimente un sentiment d’injustice : pourquoi interdire aux uns ce que l’on tolère pour les autres ?
    Citation Envoyé par Stéphane le calme Voir le message
    L'école de commerce de l'American University lance un institut de l'IA à cette fin : « Lorsque des jeunes de 18 ans arrivent ici en première année, nous leur demandons : "Combien de vos professeurs de lycée vous ont-ils dit de ne pas utiliser l'IA ?" Et la plupart d'entre eux lèvent la main », a déclaré David Marchick, le doyen de la Kogod School of Business de l'American University. « Nous leur disons : "Voilà, vous utilisez l'IA à partir d'aujourd'hui" ».
    Le double discours est bel et bien là. Ce dont les uns se plaignent ici peut tout le temps être reproché à l'autre aussi. Ce n'est pas que pour les étudiants ni que pour les enseignants. Les deux sont systématiquement concernés. Affirmer que l'enseignant ne "tricherait" pas est un mensonge pur et simple. Quel que soit le métier, on a toujours des professionnels qui "trichent" : prennent des raccourcis qu'ils ne devraient pas, se contentent de leurs lacunes au dépend de ceux qui dépendent d'eux, etc. À l'inverse, on a aussi des élèves qui cherchent à bien faire et à s'améliorer, pas que des tricheurs à l'affût de tout ce qui pourrait leur permettre de gagner sans travailler. Croire qu'on a une majorité de "tricheurs" étudiants, mais que ceux-ci seront des "honnêtes" professionnels une fois sur le marché du travail, c'est faire preuve d'une hypocrisie crasse, et c'est ça qui supporte le double discours.

    Pour régler le problème, il faut changer de perspective : si le problème paraît insoluble, c'est qu'on ne le regarde pas de la bonne manière.

    Les faits sont les suivants :
    • que ce soit l'étudiant ou l'enseignant, les deux sont censés s'améliorer dans le temps
    • l'amélioration des compétences (savoir et savoir-faire) passe par le transfert de connaissance et la pratique
    • pour l'étudiant, le transfert de connaissance peut autant se faire depuis l'enseignant que l'IA (je ne dis pas que l'un vaut l'autre, juste que ce sont deux sources de connaissances pertinentes)
    • pour l'enseignant, le transfert de connaissance peut autant se faire depuis ses pairs/formateurs que l'IA (idem)
    • pour les deux, la pratique ne peut s'exprimer que par l'exercice personnel, et s'abstenir de pratiquer parce que l'IA fournit une réponse est condamnable, pour l'étudiant comme pour l'enseignant
    • l'IA ne fournit pas de réponse "correcte", elle fournit une réponse "cohérente", et c'est à l'utilisateur de déterminer si en plus d'être cohérente, elle est correcte, que l'utilisateur soit étudiant ou enseignant
    • à ce titre, l'IA ne devrait jamais être utilisé sans repasser derrière, que ce soit l'étudiant ou l'enseignant
    • pour ceux qui sont familiers des biais cognitifs, on recommandera surtout de faire soi-même avant de demander à l'IA, pour éviter de se contenter de sa réponse (elle doit apporter un complément, pas la réponse) et justement favoriser la pratique qui, autrement, se perd et empêche l'étudiant ou l'enseignant de s'améliorer



    Un étudiant qui fait sa dissertation, puis la fait passer par l'IA pour s'améliorer, c'est un étudiant qui reçoit un enseignement supplémentaire via l'IA, donc tant mieux. Un étudiant qui fait faire sa rédaction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'étudiant pour mieux utiliser l'IA. Un étudiant qui fait faire sa rédaction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

    De la même manière (copier-coller-adapter) :
    Un enseignant qui fait sa correction, puis la fait passer par l'IA pour s'améliorer, c'est un enseignant qui reçoit une formation supplémentaire via l'IA, donc tant mieux. Un enseignant qui fait faire sa correction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'enseignant pour mieux utiliser l'IA. Un enseignant qui fait faire sa correction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

    Il n'y a pas besoin d'avoir de double discours : il s'agit de comprendre que l'IA est un outil, au même titre qu'une calculatrice, qui peut être bien ou mal utilisé. Mais comme la calculatrice, c'est un outil qui est là pour rester, donc l'interdire est utopique (qu'est-ce qui empêche l'étudiant d'utiliser la calculatrice dans un devoir à la maison ? le problème n'a rien de nouveau ni de spécifique à l'IA). Il faut former les gens, qu'ils soient étudiants ou enseignants, et mettre en place des pratiques qui favorisent le bon usage.

    Une idée qui me passe par la tête (mais c'est au monde éducatif à plancher dessus) c'est par exemple dans un travail de rédaction, d'ajouter une section où il est explicitement prévu de faire usage de l'IA, de façon à annoncer ouvertement ce que dit l'IA, de le critiquer (positif et négatif), et d'en déduire comment la rédaction manuelle mériterait d'être revue. L'IA n'est plus le rédacteur mais le sujet de la dissertation dans une section dédiée. Ce serait même une partie qu'il serait intéressante de faire en live à l'oral après remise de la rédaction écrite.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  11. #11
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 235
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 235
    Par défaut L’IA est en train de tuer la déclaration d’intention requise pour l’admission à l’université
    L’IA est en train de tuer la déclaration d’intention requise pour l’admission à l’université
    Les implications pour les étudiants de tous domaines parmi lesquels celui de l’informatique sont profondes

    À l’ère de la montée en puissance de l’intelligence artificielle générative, l’on assiste en parallèle à la naissance d’une crise profonde que traverse le système éducatif : l’explosion de la triche facilitée par l’intelligence artificielle dans le système éducatif. Désormais, même les déclarations d’intention requises pour l’admission à l’université sont passées à la sauce IA par les postulants. Le tableau jette un doute sur la qualité de ces derniers quand on prend en compte que l’utilisation de l’intelligence artificielle est susceptible de diminuer la pensée critique. Deux solutions à ce phénomène s’affrontent dans les milieux scolaires et universitaires : revenir aux examens sur papier ou aux oraux ; encadrer l’utilisation de l’intelligence artificielle.

    Nom : 0.png
Affichages : 6539
Taille : 17,6 Ko

    France : L’utilisation de l’intelligence artificielle est interdite à Sciences Po à l’exception d’un usage pédagogique encadré par un enseignant

    C’est une recommandation du Directeur de la formation et de la recherche :

    « Chères enseignantes, chers enseignants,

    Comme vous le savez certainement, la société Open AI a mis à disposition du grand public, en novembre 2022, un puissant générateur de langage naturel ChatGPT.

    Cet outil, qui a recours à l’intelligence artificielle (IA), interroge fortement les acteurs de l’éducation et de la recherche dans le monde entier sur le sujet de la fraude en général, et du plagiat en particulier. Certains Etats en ont, par ailleurs, déjà proscrit l’utilisation dans leurs établissements scolaires et universitaires.

    A Sciences Po, le cadre qui régit l’honnêteté intellectuelle est composé des articles 12 et 13 du règlement de scolarité et de la charte anti-plagiat.

    Ce cadre constitue le fondement exclusif de tout travail académique individuel et collectif, écrit et oral.
    L’utilisation de ChatGPT à Sciences Po, ou de tout autre outil ayant recours à l’IA est, à l’exception d’un usage pédagogique encadré par une enseignante ou un enseignant, pour l’instant strictement interdite lors de la production de travaux écrits ou oraux par les étudiantes et étudiants sous peine de sanctions qui peuvent aller jusqu’à l’exclusion de l’établissement voire de l’enseignement supérieur.

    Par ailleurs, les enjeux liés à ces outils de génération de langage vont inévitablement et rapidement faire évoluer les pratiques pédagogiques et les évaluations des enseignements. L’Institut des Compétences et de l’Innovation, a rédigé une note sur le sujet qui sera diffusée prochainement et vous accompagnera dans les semaines à venir.

    Sciences Po lance cette année le projet “Transforming Interdisciplinary Education and Research for Evolving Democracies” (TIERED), lauréat du programme d’investissement d’avenir (PIA4), et proposera dans ce cadre une conférence sur l’enseignement et la recherche du futur, dans un écosystème où l’IA prend une place de plus en plus importante.

    En attendant, je sais pouvoir compter sur votre engagement pour garantir aux apprentissages et diplômes une qualité fondée sur une intégrité académique rigoureuse. »

    Nom : 1.png
Affichages : 1278
Taille : 449,3 Ko

    La Chine bloque les outils d'IA pendant les examens nationaux d'entrée à l'université pour empêcher la tricherie et garantir l'équité

    Du 7 au 10 juin, plus de 13,3 millions d'élèves chinois se sont présentés aux rigoureux examens Gaokao. Il s'agit d'un concours national exigeant durant lequel chaque élève s'échine pour décrocher l'une des places limitées dans les universités chinoises. Le Gaokao interdit déjà aux étudiants d'utiliser des appareils tels que les téléphones et les ordinateurs portables pendant les épreuves qui durent plusieurs heures. Cette année, l'accès aux chatbots d'IA a été bloqué.

    La désactivation des outils d'IA constitue un filet de sécurité supplémentaire pour empêcher la tricherie pendant la période des examens. Les entreprises chinoises spécialisées dans l'IA ont donc mis en pause certaines fonctions des chatbots pour empêcher les élèves de les utiliser pour tricher lors du Gaokao.

    Plusieurs outils d'IA, dont Qwen d'Alibaba et Doubao de ByteDance, ont arrêté les fonctions de reconnaissance d'images pour répondre aux questions sur les copies d'examen, tandis que Yuanbao de Tencent et Kimi de Moonshot ont entièrement suspendu les services de reconnaissance d'images pendant les heures d'examen. Les chatbots refusent de répondre aux questions sur les épreuves d'examen, ajoutant que cela n'est pas conforme aux règles.

    Nom : 2.png
Affichages : 1239
Taille : 47,3 Ko

    La réponse de certains établissements secondaires et supérieurs aux États-Unis ? Le retour du stylo et du papier

    Avec un accès facile à des applications telles que ChatGPT, qui peut répondre à n'importe quelle question et rédiger des dissertations complètes à votre place, les lycéens et les étudiants ont commencé à tricher, se contentant de laisser un algorithme réfléchir et passer les examens à leur place. Il n'est donc pas surprenant que certains éducateurs aient adopté l'analogie pour tenter d'endiguer la vague d'anti-intellectualisme qui déferle sur le pays.

    Le Wall Street Journal a récemment fait des recherches et découvert que les ventes de cahiers bleus ont augmenté au cours de l'année écoulée. Citant des données provenant d'un certain nombre de grandes universités publiques, le journal note que les achats en gros de ces livrets ont augmenté à pas de géant depuis le lancement de ChatGPT à la fin de l'année 2022 :

    « Les ventes de cahiers bleus pour cette année scolaire ont augmenté de plus de 30 % à l'Université A&M du Texas et de près de 50 % à l'Université de Floride. La croissance improbable a été encore plus impressionnante à l'Université de Californie, Berkeley. Au cours des deux dernières années universitaires, les ventes de cahiers bleus au Cal Student Store ont augmenté de 80 %. La demande de cahiers bleus est soudainement en plein essor parce qu'ils contribuent à résoudre un problème qui n'existait pas jusqu'à présent sur les campus ».

    Pourtant, si le retour des cahiers bleus est considéré par certains comme un pas dans la bonne direction, ils ne sont certainement pas la panacée pour la grande variété de maux causés par l'utilisation de l'IA par les étudiants. Philip D. Bunn, professeur assistant au Covenant College en Géorgie, a récemment écrit sur son blog que la dissertation traditionnelle ne peut être remplacée par la dissertation en classe. Bunn écrit que « le processus de rédaction d'un article en dehors de la classe ne peut pas être simplement reproduit lors d'un examen dans un livre bleu, et quelque chose de sérieux est perdu si nous abandonnons complètement la dissertation traditionnelle, que ces dissertations soient plus analytiques, argumentatives ou basées sur la recherche ».


    L’intelligence artificielle au centre d’une controverse mondiale dans le secteur éducatif : bannir ou s’adapter ?

    La sortie du Directeur de la formation et de la recherche de SciencesPo intervient après que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ont interdit aux élèves et aux enseignants d'utiliser ChatGPT pour empêcher le plagiat et la tricherie. Les mesures sont au centre d’une controverse. En effet, ChatGPT peut servir de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.

    La contradiction en lien avec ces interdictions est même susceptible d’enfler si on prend en compte que de tels outils peuvent amener les intervenants de tous bords de la communauté informatique à aiguiser leur créativité. En effet, pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant a proposé une application d'analyse de texte qui détecte s’il a été rédigé par une intelligence artificielle.


    Sam Altman CEO d’OpenAI qui édite cette intelligence artificielle l’adaptation aux intervenants de tous bords :

    « Nous allons essayer de faire certaines choses à court terme. Il y a peut-être des moyens d'aider les enseignants à être un peu plus susceptibles de détecter la sortie d'un système de type GPT, mais une personne déterminée les contournera, et je ne pense pas que ce soit quelque chose sur lequel la société puisse ou doive compter à long terme. Nous sommes simplement dans un nouveau monde maintenant. Le texte généré est quelque chose auquel nous devons tous nous adapter, et c'est bien ainsi. Nous nous sommes adaptés aux calculatrices et nous avons changé ce sur quoi nous évaluons en cours de maths. ChatGPT une version plus extrême de ce précédent tableau. Mais ses avantages sont également plus extrêmes »

    Source : Sfchronicles, Sciences Po

    Et vous ?

    Que pensez-vous de ces décisions d’interdire l’usage par les étudiants de l’intelligence artificielle ? Est-ce la bonne approche ?
    Bannir l’intelligence artificielle ou s’adapter : De quel bord êtes-vous ?

    Voir aussi :

    80 % des technologies pourraient être créées par des professionnels extérieurs à l'informatique d'ici 2024, grâce aux outils low-code, selon Gartner

    Forrester : l'utilisation des plateformes de développement low-code gagne du terrain dans les processus de transformation numérique des entreprises

    Le marché mondial des technologies de développement low-code va augmenter de 23 % en 2021, selon les prévisions de Gartner

    Microsoft lance Power Fx, un nouveau langage de programmation low-code open source basé sur Excel
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 5
    Dernier message: 04/09/2022, 03h14
  2. Réponses: 18
    Dernier message: 12/10/2021, 21h36
  3. [VB]Retouver les clés des items d'une Collection, c'est possible ?
    Par marchand_de_sable dans le forum VBA Access
    Réponses: 11
    Dernier message: 19/12/2016, 16h44
  4. Application web pour les réseaux sociaux des étudiants universitaires
    Par zakii2plus dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 21/02/2014, 09h24
  5. Réponses: 3
    Dernier message: 25/10/2013, 16h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo