IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

« Je voudrais pousser ChatGPT du haut d'une falaise » : dans les amphis, des professeurs se battent


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 079
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 079
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Le cas le plus révélateur n'est pas celui d'un tricheur pris la main dans le sac. C'est celui d'une étudiante dont la plume avait toujours été saluée par ses professeurs. Arrivée dans un nouvel établissement, elle comprend que son style confiant et élaboré risque de déclencher les algorithmes de détection — des enseignants ne la connaissant pas n'auraient aucun moyen de savoir que cette voix est la sienne. Sa réaction ? Elle interroge Google Gemini pour comprendre quels patterns stylistiques attirent l'attention des logiciels de surveillance. Cette enquête ouvre une porte. Elle apprend comment les prompts façonnent les sorties, quelles structures de phrases suscitent le soupçon. L'outil devient un moyen de compléter ses cours et de clarifier des notions complexes, mais la démarche la met mal à l'aise. « J'ai comme l'impression de tricher », confie-t-elle à Maye — bien que ce soit précisément l'envie de ne pas tricher qui l'y ait conduit.

    Un autre cas, plus radical encore : après avoir été faussement accusé d'utilisation de l'IA dans un autre cours, un étudiant décide de prendre les devants. Il souscrit à plusieurs abonnements IA, étudie minutieusement le fonctionnement des systèmes de détection et développe une véritable maîtrise des outils qu'il n'avait jamais prévu d'employer. Il décide ensuite de ne rien dire à ses professeurs, jugeant que sa nouvelle littératie en IA ne ferait qu'aggraver les soupçons à son égard.
    Si une personne est capable de s'exprimer correctement elle doit pouvoir le prouver à ses professeurs.
    Et au pire c'est pas grave de faire des faux positifs...
    Après tu peux te défendre et prouver que t'écris comme un chatbot IA.
    Il doit bien y avoir une épreuve écrite, surveillé, sans accès à un ordinateur (montre, téléphone, etc).
    Et là on voit comment la personne s'exprime sans IA.

    Je n'y crois pas du tout à ces histoires de « Nous sommes obligés d’avoir recours à l’IA pour éviter que les professeurs ne soupçonnent que nous l’utilisons. ».
    Il n'y a qu'à ajouter quelque "mal-dit" et c'est bon, tu passes pour une personne normale.
    Ça ne tient pas debout "j'ai besoin d'une IA pour saboter mon travail"...
    « Je suis tellement pétri de littérature que je me révèle incapable de proférer une phrase qui ne soit point grammaticalement irréprochable. » ce soit à quoi on ne peut répondre que « « Ouais, c'est ça. Ferme ta gueule ! ».

    ====
    Si quelqu'un sait écrire correctement il va se battre pour le prouver.
    Il ressentirait un profond sentiment d'injustice et il ne lâcherait pas.
    Il dirait "je refuse de baisser mon niveau afin de passer inaperçu".
    ♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫

  2. #2
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 351
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 351
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    « Ouais, c'est ça. Ferme ta gueule ! »
    Si on doit en arriver là, autant mettre directement la clef sous la porte.

  3. #3
    Membre confirmé
    Profil pro
    Inscrit en
    Mars 2007
    Messages
    38
    Détails du profil
    Informations personnelles :
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Mars 2007
    Messages : 38
    Par défaut
    Je ne comprends pas à quel moment on trouve normal de mettre sur un même pied une personne qui fait son travail (un prof) et un étudiant dont le but est d’apprendre des choses.

    Le but des devoirs est que les étudiants impriment des choses dans leur tête ou bien de valider qu’ils ont compris. Forcément, on ne veut pas qu’ils utilisent un LLM, car cela n’aurait plus aucun sens… Le prof, lui, doit fournir des cours ; il peut se servir des outils à sa disposition. Ce n’est carrément pas le même use case et ce n’est pas "de la triche".

  4. #4
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 417
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 417
    Par défaut
    Citation Envoyé par ninow
    Je ne comprends pas à quel moment on trouve normal de mettre sur un même pied une personne qui fait son travail (un prof) et un étudiant dont le but est d’apprendre des choses.
    Parce que c'est une question d'honnêteté envers les étudiants.
    Pourquoi le professeur se permet il d'agir ainsi ? Ou est la morale ?
    L'apprentissage se fait aussi par l'exemple. Il n'y a rien de pédagogique d'agir ainsi.

    Citation Envoyé par ninow
    Le prof, lui, doit fournir des cours
    Tu le dis toi-même, le professeur doit fournir des cours, pas faire du plagia.
    Le cours doit être de son cru, pas de celui d'un autre professeur ou d'une IA.
    Ce n'est pourtant pas difficile à comprendre qu'il y a eu supercherie !

  5. #5
    Membre confirmé
    Profil pro
    Inscrit en
    Mars 2007
    Messages
    38
    Détails du profil
    Informations personnelles :
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Mars 2007
    Messages : 38
    Par défaut
    Parce que c'est une question d'honnêteté envers les étudiants.
    Pourquoi le professeur se permet il d'agir ainsi ? Ou est la morale ?
    L'apprentissage se fait aussi par l'exemple. Il n'y a rien de pédagogique d'agir ainsi.
    Encore une fois, ils n'ont pas les mêmes objectifs:
    L'etudiant doit prouver qu'il a acquis une capacité: l'usage d'un LLM fait disparaitre l'interet même du devoir en question, il est normal que cet outil soit interdit dans ce cas là.
    Le prof doit fournir un cours qu'il juge pertinent pour l'apprentissage des éléves: dans ce cas là le LLM n'est qu'un outil de plus à ça disposition, comme le sont depuis toujours les livres, manuels et articles existants. Ce n'est pas de la triche ou du plagiat et le but n'est pas que le prof montre qu'il a travaillé aussi dur que ces éléves pour faire son cours mais simplement que le taf soit fait.

    Le seul point qui merite de jeter l'opprobre sur un prof s'aidant de l'IA pour générer son cours c'est si son travail n'est pas au niveau attendu: ça reste de sa responsabilité de s'en assurer. L'outil importe peu c'est la qualité du livrable qui est importante ici.

  6. #6
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 417
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 417
    Par défaut
    Citation Envoyé par Ninow
    Le seul point qui mérite de jeter l'opprobre sur un prof s'aidant de l'IA pour générer son cours c'est si son travail n'est pas au niveau attendu: ça reste de sa responsabilité de s'en assurer. L'outil importe peu c'est la qualité du livrable qui est importante ici.
    La qualité du cours dispensé par un professeur constitue le cœur même de l’enseignement. Lorsqu’un étudiant paie pour obtenir un diplôme, il s’attend légitimement à ce que ce diplôme ait une valeur réelle sur le marché du travail, lui permettant de trouver un emploi et de gagner sa vie.

    Si, en réalité, le contenu de l’enseignement est insuffisant ou médiocre, le diplôme perd sa valeur aux yeux des employeurs. Dans ce cas, l’étudiant est victime d’une forme de tromperie : il a payé pour un service dont la qualité ne correspond pas aux attentes affichées.

    L’utilisation d’outils comme l’IA pour générer le cours n’est pas intrinsèquement problématique, à condition que le résultat final respecte les standards de qualité. Cependant, si l’IA est employée de manière à produire un enseignement inadéquat, la responsabilité incombe au professeur et à l’institution, qui ont l’obligation de garantir que le diplôme délivré reflète réellement les compétences des étudiants.

    En résumé, ce n’est pas l’usage de l’IA qui pose problème, mais le risque que cet usage entraîne une baisse de qualité du cours et une perte de valeur du diplôme pour l’étudiant.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 960
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 960
    Par défaut Si l'IA rédige les devoirs et les corrige, avons-nous encore besoin d'être là ?
    Si l'IA rédige les devoirs et les corrige, avons-nous encore besoin d'être là ? Des enseignants révèlent une crise grandissante sur les campus et en dehors,
    tandis que des universités signent des contrats à 17 millions de dollars avec OpenAI

    L'intelligence artificielle générative a traversé les portes des salles de classe comme aucune technologie avant elle : silencieusement, massivement, et sans que personne n'ait eu le temps de décider si c'était une bonne idée. Trois ans après le déferlement de ChatGPT dans les amphithéâtres et les lycées, des enseignants, bibliothécaires, tuteurs, correcteurs et professionnels de l'informatique scolaire dressent un bilan accablant. Ce n'est plus la question de la triche qui est au cœur du débat, c'est celle de la raison d'être de l'éducation elle-même.

    La fraude scolaire assistée par IA n'est pas un phénomène marginal. Une enquête menée dès janvier 2023 révélait que près de 90 % des étudiants universitaires avaient déjà utilisé ChatGPT pour leurs devoirs et depuis, les outils n'ont fait que gagner en sophistication. Si les premières versions de ChatGPT laissaient des traces identifiables (syntaxe trop fluide, vocabulaire inhabituellement soutenu, construction impersonnelle), les nouvelles moutures, intégrées dans des assistants d'écriture discrets, brouillent désormais les pistes au point que les directeurs d'établissements eux-mêmes sonnent l'alarme sur l'indétectabilité du phénomène.

    Les témoignages recueillis par la newsletter Blood in the Machine dans le cadre de son enquête « AI Killed My Job : Education workers » éclairent la réalité quotidienne de cette crise, vue depuis l'intérieur. Lauren Krouse, tutrice dans un community college américain, décrit la trajectoire type d'une étudiante ayant recours à l'IA : d'abord une anecdote inventée par ChatGPT dans un essai personnel, puis un plan incompréhensible que l'étudiante était incapable d'expliquer et que son professeur avait tout de même noté A. Quelques semaines plus tard, une rédaction entière générée automatiquement, avec des citations de sources non vérifiables et des références à des citations inexistantes. « Mon nouveau travail, c'est d'apprendre aux étudiants à mieux tricher », résume-t-elle avec amertume, avant d'annoncer sa démission.

    Un professeur de l'université Cal State, dont le système a officiellement annoncé vouloir devenir « la plus grande université pilotée par l'IA au monde », décrit une situation kafkaïenne : lorsqu'un étudiant rend un examen qu'il est manifestement incapable d'expliquer, le professeur sait qu'il y a eu fraude, mais sans aveu, les sanctions sont quasi impossibles à obtenir. « On nous demande d'accepter un travail qui n'est clairement pas celui de l'étudiant, comme s'il l'était. »

    Une déqualification silencieuse des métiers de l'éducation

    Au-delà de la fraude, c'est toute une chaîne de métiers qui se retrouve fragilisée. Les bibliothécaires et tuteurs regardent les administrations et les entreprises de l'edtech adopter des outils d'IA pour réduire leurs heures de travail, tandis que les professionnels de l'informatique et des ressources humaines dans le secteur éducatif se trouvent en concurrence directe avec des produits IA sur le marché.

    Le cas de Jason Thornberry est emblématique. Employé aux ressources humaines dans une université, chargé de gérer les formalités administratives des professeurs contractuels, il s'est fait licencier avec une explication laconique de son responsable : « Oh, WorkDay s'occupera de ça ! » (WorkDay étant une plateforme d'automatisation RH). Ironie de la situation : Thornberry était lui-même professeur contractuel, pour un cours d'écriture rémunéré 700 dollars avant impôts par trimestre.

    L'histoire de Caleb Polansky, technicien informatique à l'université Texas A&M AgriLife, illustre une autre forme de pression : son nouveau responsable, arrivé en novembre 2024, s'est mis à exiger l'adoption de Copilot, ChatGPT et Grok dans le travail quotidien. Après avoir refusé poliment mais fermement, Polansky a reçu un ultimatum : se former à Copilot ou être licencié. Il a choisi de démissionner. Le même responsable, notons-le, avait réagi avec indulgence lorsqu'un collègue avait utilisé l'IA générative pour produire des textes à caractère sexuel explicite pendant les heures de bureau.

    À l'université d'Auckland, un candidat à un poste de coordinateur éthique et réglementaire, Benjamin Richardson, s'est vu refuser le poste au motif qu'il n'était « pas suffisamment à l'aise avec l'intégration de Copilot dans le processus d'éthique ». Autrement dit, l'aptitude à déléguer des décisions éthiques à un modèle de langage est désormais un critère d'embauche.


    Le paradoxe des institutions qui déploient ce qu'elles condamnent

    Les statistiques dressent un tableau paradoxal : selon le Global AI Faculty Survey 2025 du Digital Education Council, 61 % des enseignants ont eu recours à l'IA dans leur pratique pédagogique, et 86 % anticipent de le faire à l'avenir. Dans le même temps, une enquête publiée en janvier 2026 par l'American Association of Colleges and Universities indique que 90 % des enseignants estiment que l'IA générative va diminuer les capacités de pensée critique des étudiants, et 95 % qu'elle va conduire à une dépendance croissante. Les professeurs sont donc, dans leur grande majorité, convaincus que l'IA est nuisible à l'apprentissage... tout en l'adoptant massivement pour préparer leurs cours et noter les travaux.

    Cette contradiction se joue aussi au niveau institutionnel. Des universités signent des contrats à plusieurs millions de dollars avec des entreprises d'IA tout en laissant leurs enseignants se débrouiller seuls face aux conséquences pédagogiques. La California State University a conclu un partenariat de 17 millions de dollars avec OpenAI ; l'université d'Ohio State a rendu obligatoire la formation à l'IA pour tous ses étudiants. Ces décisions, prises au sommet, laissent les enseignants de terrain dans une position inconfortable : appliquer des politiques auxquelles ils n'ont pas été associés, dans un contexte où les outils qu'ils sont censés promouvoir détruisent précisément ce qu'ils cherchent à enseigner.

    Une enseignante en psychologie à Dublin pose la question avec une franchise déstabilisante : lors d'une réunion, le responsable des données analytiques de son établissement a proposé de faire corriger les travaux longs par une IA. Quand elle a demandé si cela se traduirait par une réduction de salaire, puisque la correction fait partie de sa charge de travail, la réponse a été : « Nous n'allons pas parler de ça. » Et d'ajouter : « Si l'IA écrit le devoir et si l'IA corrige le devoir, pourquoi sommes-nous encore là ? »

    Quand l'edtech vend du rêve et facture la désillusion

    Le secteur de l'edtech lui-même n'est pas épargné. Michelle, sous-traitante en conception de formations pour un organisme éducatif, a perdu son contrat après que son client a été approché par deux grandes plateformes d'IA générative. « Ils ont été littéralement éblouis par les promesses de productivité et de facilité de création de contenu. » Elle calcule que les influenceurs recrutés pour vanter ces outils ont été payés deux fois son salaire mensuel pour un seul mois de travail. Quant aux formations produites par l'IA, elles seront truffées d'erreurs, dépourvues de toute considération d'accessibilité, et personne ne les retirera.

    Un manager d'une startup edtech décrit comment son équipe, après avoir vu ses revenus chuter face à la concurrence des LLM, a été reconvertie dans la production de « données d'entraînement » vendues aux grandes entreprises d'IA. Un travail qualifié de « abrutissant et démoralisant » pour des développeurs créatifs réduits à produire des jeux de données répétitifs. Son équipe a depuis été réduite de moitié. Un développeur a été licencié par e-mail le jour même où son ordinateur tombait en panne, l'entreprise ayant choisi de mettre fin à son contrat plutôt que de l'aider à résoudre le problème technique.

    Nom : IA.png
Affichages : 28848
Taille : 532,2 Ko

    La destruction silencieuse du lien pédagogique

    Ce qui ressort de l'ensemble de ces témoignages n'est pas seulement une question d'emplois perdus ou de tâches automatisées. C'est la destruction d'un tissu relationnel que les professionnels de l'éducation considèrent comme le cœur de leur métier. Un bibliothécaire anonyme dans une université de recherche américaine observe que l'IA ne remet pas en cause la valeur de l'information, mais celle de la friction productive : « Un LLM ne vous dit jamais non, ne vous remet pas en question, ne crée pas de désaccord. Or l'enseignement, c'est précisément ce processus de friction relationnelle entre l'étudiant et l'enseignant. »

    En France, l'Inserm rappelle que l'IA générative bouleverse les processus éducatifs et neurobiologiques liés à l'apprentissage, et que 85 % des 18-24 ans déclarent utiliser régulièrement ces outils. Ce chiffre, appliqué à une génération entière en cours de formation, donne la mesure du phénomène.

    Un coach sportif universitaire en division 3 aux États-Unis documente, quant à lui, les effets concrets de programmes d'entraînement générés par IA sur la performance athlétique : changements d'exercices la semaine d'un championnat régional, phases de musculation intensive programmées pendant les finales de saison, protocoles inadaptés aux calendriers de double saison. Des conséquences directes, mesurables, sur des corps, pas seulement sur des copies.

    Une résistance qui s'organise, en ordre dispersé

    Face à cette pression généralisée, des résistances émergent. L'American Association of University Professors a appelé à un contrôle total des enseignants sur toutes les décisions relatives à l'IA, et cette question est devenue un enjeu de négociation dans les contrats collectifs. Des syndicats d'étudiants de troisième cycle, des bibliothécaires et des militants s'organisent contre des administrations qui ont déployé l'IA en urgence. En Australie, un syndicaliste des bibliothèques publiques de Melbourne documente la stratégie des directions : introduire d'abord les « heures d'ouverture sans personnel » comme expérimentation, puis les normaliser au gré des coupes budgétaires.

    En France, le ministère de l'Éducation nationale a annoncé pour 2026 un cadre réglementaire encadrant l'usage de l'IA dans les établissements, assorti d'un budget de 20 millions d'euros.

    Ce cadre reste encore largement à définir, et son ambition se heurte à une réalité que les enseignants connaissent mieux que quiconque : les étudiants ne cesseront pas d'utiliser des outils qui fonctionnent, sont gratuits, et réduisent leur charge de travail immédiate, qu'on le leur interdise ou non.

    La vraie question que posent ces témoignages n'est pas technique. Ce n'est pas « comment détecter la fraude à l'IA ? » ni même « comment former les enseignants à utiliser Copilot ? ». C'est une question politique, au sens noble du terme : quelle est la finalité de l'éducation dans une société où les tâches cognitives les plus courantes peuvent être automatisées à coût marginal ? Si l'objectif est de produire des copies conformes à un barème, l'IA gagne. Si l'objectif est de former des esprits capables de douter, de résister, et de penser contre le courant, alors le problème n'est pas l'IA ; c'est que personne, parmi ceux qui signent des contrats à 17 millions de dollars avec OpenAI, ne semble avoir posé la question.

    Sources : Bloomberg, Inserm

    Et vous ?

    Si les outils de détection de fraude IA sont inefficaces et que les sanctions sont quasi impossibles à appliquer sans aveu, faut-il repenser radicalement le format des évaluations — ou accepter que le devoir à la maison est une pratique révolue ?

    Les institutions qui déploient massivement l'IA tout en sachant (à 90 %) qu'elle nuit à la pensée critique de leurs étudiants engagent-elles leur responsabilité morale et juridique ?

    La résistance individuelle des enseignants à l'IA est-elle une posture éthique légitime, ou une impasse professionnelle dans un secteur où les directions ont déjà tranché ?

    L'IA générative va-t-elle creuser définitivement le fossé entre les établissements qui ont les moyens de maintenir des enseignants humains en nombre suffisant et ceux qui les remplacent par des chatbots ?

    Voir aussi :

    « Je voudrais pousser ChatGPT du haut d'une falaise » : dans les amphis, des professeurs se battent pour sauver la pensée humaine tandis que d'autres trichent autant que les étudiants

    L'agent IA Einstein, basé sur OpenClaw, inaugure l'ère des étudiants remplacés par des IA qui font tout à leur place : son créateur dit vouloir « libérer » les étudiants de la « corvée académique »

    Combattre le feu par le feu : un professeur lutte contre la tricherie alimentée par l'IA grâce à des examens oraux automatisés par Claude, Gemini et ChatGPT qui coûtent 42 centimes par étudiant
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 351
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 351
    Par défaut
    Question suivante : lorsque l'IA va être capable du crime parfait, jusqu'à quel point allons-nous la féliciter (et lui verser 17 millions de dollars sans demander l'avis des gens qui ont versé ces 17 millions), comme ça a été fait pour l'IA qui détruit l'enseignement ?

    Autre question : quand est-ce qu'on parle du salaire de l'enseignante qui s'inquiète à juste titre ?

  9. #9
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 451
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 451
    Billets dans le blog
    3
    Par défaut
    Un amalgame trop souvent fait : utiliser l'IA ne veut pas dire déléguer. Trop souvent, et c'est le cas de cet article, les choses sont présentées comme si "X utilise l'IA" voulait dire "l'IA fait à la place de X". Du coup, l'intégration de l'IA est vu comme une action binaire (on fait soi même ou on délègue) alors que c'est beaucoup trop réducteur. Imposer l'IA ne veut pas forcément dire imposer de déléguer son travail à l'IA : si la personne refuse d'utiliser l'IA même comme un outil d'amélioration, c'est effectivement une position dogmatique contre productive, donc je peux comprendre que ça fasse critère pour rejeter un profil. Si la personne accepte de l'utiliser et le fait avec parcimonie, ça suffit.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  10. #10
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 400
    Par défaut
    Opinion hautement impopulaire : même avant l'avènement de l'IA, la qualité de certains diplômes du supérieur, délivrés par des institutions réputées de surcroît, était plus que questionable.

    En France, il n'est pas rare que le programme du BUT soit plus approfondi qu'en école d'ingénieurs qui délivre pourtant un diplôme de second cycle et qui est supposé être une filière d'excellence alors que la première absolument pas.

  11. #11
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 079
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 079
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Les témoignages recueillis par la newsletter Blood in the Machine dans le cadre de son enquête « AI Killed My Job : Education workers » éclairent la réalité quotidienne de cette crise, vue depuis l'intérieur. Lauren Krouse, tutrice dans un community college américain, décrit la trajectoire type d'une étudiante ayant recours à l'IA : d'abord une anecdote inventée par ChatGPT dans un essai personnel, puis un plan incompréhensible que l'étudiante était incapable d'expliquer et que son professeur avait tout de même noté A. Quelques semaines plus tard, une rédaction entière générée automatiquement, avec des citations de sources non vérifiables et des références à des citations inexistantes. « Mon nouveau travail, c'est d'apprendre aux étudiants à mieux tricher », résume-t-elle avec amertume, avant d'annoncer sa démission.
    Y'en a qui se disent "pourquoi faire l'effort alors qu'un chatbot pourrait réaliser mon travail instantanément ?".

    C'est la fin des devoirs à la maison.
    Et quelque part tant mieux, parce que c'était discriminatoire, les riches payent des gens pour s'occuper de l'éducation de leurs enfants !
    Les devoirs du soir sont source d’inégalités
    Selon le profil des familles ( famille monoparentale, famille nombreuse, enfant unique, famille recomposée), l’histoire personnelle des parents (leur passé scolaire, leur niveau d’études, le pays où ils ont étudié,) leur rythme de travail, leur état de santé, ce soutien sera efficace ou nul. Les familles favorisées vont chercher des relais pour pallier aux difficultés et vont soutenir leurs enfants par des cours particuliers. Ce qui peut avoir un effet bénéfique Bien sûr, mais peut aussi parfois transformer certains élèves en consommateurs passifs, incapables de réfléchir seul , et désemparés devant la solitude de la feuille blanche.
    Les enfants de riches vont dans des écoles privées très cher, peut-être qu'il n'y a pas 30 élèves par classe.

    ======
    L'IA pourrait être excellente dans le domaine de l'éducation si elle était à la place du professeur.
    Ça devrait être l'IA qui pose des questions à l'élève et pas l'inverse. (bon après il faut trouver une solution pour que l'élève ne demande pas la réponse à la question que vient de lui poser une IA à une autre IA...)

    L'implication des parents dans l'éducation de leurs enfants est importante.
    Certains parents vont protéger leurs enfants des smartphones, tablettes, PC portable, pendant longtemps. (comme les cadres de la Sillicon Valley avec la Waldorf School of the Peninsula)
    Ils mettront en place un filtre parental qui bloquera l'accès à plein de sites (notamment celui de ChatGPT).
    ♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫

  12. #12
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 417
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 417
    Par défaut
    Si je comprends bien, avec l'IA, nous n'avons plus besoin de réfléchir par nous même.
    Bravo le progrès. Et après on s'étonne que le QI diminue dans le monde. Je me marre.

  13. #13
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 351
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 351
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Si la personne accepte de l'utiliser et le fait avec parcimonie, ça suffit.
    Ça, ça arrive, mais peut-être avec la même fréquence que les gens qui font leurs courses achètent des légumes et de la viande en proportions correctes.

    Et si l'Amérique met autant la pression pour qu'on utilise l'IA, il est peu probable que ce soit avec l'espoir que ce soit utilisé de façon intelligente.

    Ça peut certes mériter une approche plus rigoureuse pour valider ça, avec plus de moyens du coup, mais l'intérêt de l'approche intuitive est d'être mise en œuvre rapidement.

    Ne serait-ce que pour approfondir la réflexion avant d'investir 17 millions.

  14. #14
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 417
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 417
    Par défaut
    Citation Envoyé par Matthieu Vergne
    Un amalgame trop souvent fait : utiliser l'IA ne veut pas dire déléguer.
    Tu as tout à fait raison, mais il ne s'agit pas de cela. Il suffit de prendre l'exemple des calculatrices. Avant, pour faire des calculs, on apprenait par cœur les tables de multiplications. Maintenant, il suffit de tapoter sur sa calculatrice pour avoir le résultat attendu. Il n'est plus nécessaire d'apprendre quoi que ce soit et c'est ça le problème. On aura le même comportement avec l'IA, à savoir ne plus faire l'effort de quoi que ce soit car il suffit de demander à l'IA pour avoir la réponse. Et pourquoi remettre en cause la réponse puisqu'elle devrait, en principe, être fiable ? C'est inhérent au comportement humain d'agir ainsi. On ne demande pas d'analyser ou de comprendre, ce qui normalement est la bonne démarche. On peut même douter si l'on n'a pas compris, mais a-t-on encore le temps, aujourd'hui, de se poser ce genre de questions ? La réponse est NON !

    Il ne faut pas chercher une excuse que ce soit aux professeurs ou aux élèves de chercher la solution de facilité. Pour un enseignement fiable, il faut tout bonnement interdire l'IA à l'école. Ne le fait-on pas déjà avec les calculatrices ?

    Citation Envoyé par Ryu2000
    Y en a qui se disent "pourquoi faire l'effort alors qu'un chatbot pourrait réaliser mon travail instantanément ?"
    Solution de facilité, rien de plus à dire. Cela n'a pas que des conséquences à l'école, mais aussi dans la société. A quoi bon leur inculquer de bons comportements, plus personne ne voudra faire des efforts. Pourquoi ? L'IA est là pour subvenir à tous leurs besoins.

    Ce n'est même plus une question de riche et de pauvre, mais bien une dégradation de la société toute entière.
    Je reprends une maxime de Montesquieu qui illustre ma pensée : "Le mieux est le mortel ennemi du bien".

    Citation Envoyé par Ryu2000
    Tu peux creuser le sujet toi même, faire des recherches, acquérir des compétences et des connaissances, etc.
    Il ne s'agit ni de toi ni de moi car nous sommes d'une autre génération. Le problème est pour ceux qui auront toujours connu l'IA.

    Citation Envoyé par Ryu2000
    Le QI n'est pas forcément lié à ça.
    Ben si, car si tu ne fais pas travailler ton cerveau, tu ne peux pas avoir un bon QI.

    Citation Envoyé par Gluups
    Ne serait-ce que pour approfondir la réflexion avant d'investir 17 millions.
    Qu'est-ce que tu veux approfondir ? Ta démarche est dans le rationnel alors que je te parle ici d'une solution de facilité. Qui va se dire que pour son bien, je vais réfléchir par moi-même, quitte à se tromper, plutôt que d'utiliser l'IA qui a réponse à tout ?

    Es tu du genre à marcher pour le bien être de ton coeur, plutôt que de prendre les transports en commun ? C'est pareil, la solution de facilité, rien de plus.

Discussions similaires

  1. Réponses: 5
    Dernier message: 04/09/2022, 04h14
  2. Réponses: 18
    Dernier message: 12/10/2021, 22h36
  3. [VB]Retouver les clés des items d'une Collection, c'est possible ?
    Par marchand_de_sable dans le forum VBA Access
    Réponses: 11
    Dernier message: 19/12/2016, 17h44
  4. Application web pour les réseaux sociaux des étudiants universitaires
    Par zakii2plus dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 21/02/2014, 10h24
  5. Réponses: 3
    Dernier message: 25/10/2013, 17h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo