Dénonçant les frictions entre l’intégrité académique et la réduction automatisée des coûts, des étudiants de l’Université du Staffordshire au Royaume-Uni ont lancé une révolte contre un module de codage enseigné principalement par des algorithmes « hallucinants ».
Des enregistrements diffusés cette semaine révèlent des cours dispensés par des voix off de l’IA qui transforment les accents et citent une législation américaine non pertinente, suscitant des accusations de « deux poids, deux mesures ».
Alors que l’université menace d’expulser les étudiants utilisant des outils comme ChatGPT, elle défend son propre enseignement automatisé comme un « cadre » valide, soulignant l’écart marqué entre « l’autonomisation des enseignants » promise par des fournisseurs comme OpenAI et la réalité de mauvaise qualité de la mise en œuvre.
La révolte : l’IA « paresseuse » dans la salle de conférence
Loin d’une amélioration futuriste, la mise en œuvre de l’IA dans le programme d’apprentissage financé par le gouvernement du Staffordshire semble avoir été motivée par une simple opportunité.
Conçu pour recycler les professionnels en ingénieurs logiciels conformément aux normes d’apprentissage financées par le gouvernement, le cours s’est rapidement déroulé lorsque les étudiants ont détecté l’utilisation d’outils génératifs « presque immédiatement » lors du premier cours.
Les participants ont été accueillis. non pas par un expert humain, mais par une présentation PowerPoint accompagnée d’une voix off synthétisée lisant le texte textuellement, rapporté par The Guardian.
Des problèmes techniques ont rapidement révélé le manque de surveillance humaine. Dans un cas particulièrement choquant capturé en vidéo, la voix off est inexplicablement passée d’un accent britannique à un accent espagnol pendant 30 secondes avant de revenir, un artefact évident de la génération non surveillée de synthèse vocale.
Au-delà des défauts audio, le programme lui-même a souffert d’« hallucinations » – la tendance des grands modèles linguistiques (LLM) à fabriquer des faits. Destinés à préparer les étudiants au marché du travail britannique, les supports de cours citent fréquemment une législation américaine non pertinente, une erreur courante lorsque les modèles ne sont pas correctement fondés sur des données locales.
Une analyse indépendante utilisant les outils de détection Winston AI et Originality AI a confirmé plus tard une « très forte probabilité » que les devoirs et les présentations aient été générés par machine.
Les frustrations ont éclaté lors d’une session enregistrée d’octobre 2024 au cours de laquelle un étudiant a directement confronté le professeur. Exigeant la suppression des supports automatisés, il a déclaré :”Je sais que ces diapositives sont générées par l’IA… Je préférerais que vous supprimiez simplement ces diapositives. Je ne veux pas être enseigné par GPT.”
En réponse à la confrontation, le conférencier a ri gêné avant d’admettre avoir créé un didacticiel dans un”court préavis”en utilisant ChatGPT.
Les étudiants ont décrit le matériel résultant comme une”information générique de surface”, estimant que seulement « 5 % étaient des pépites utiles » tandis que le reste était du remplissage répétitif. Un étudiant a souligné l’ironie de la situation : “Il y a de l’or au fond de cette casserole. Mais nous pourrions probablement obtenir l’or nous-mêmes, en demandant à ChatGPT.”
Le double standard d’intégrité
À la frustration s’ajoute l’hypocrisie flagrante de l’application des normes académiques par l’université. Les lignes directrices destinées au public stipulent explicitement que les étudiants qui sous-traitent leur travail à l’IA ou font passer le contenu généré pour le leur s’exposent à l’expulsion pour mauvaise conduite académique.
Pourtant, l’administration a simultanément téléchargé une déclaration de politique sur le site du cours justifiant ses propres méthodes dans le cadre d’un « cadre pour les professionnels universitaires tirant parti de l’automatisation de l’IA ». intégrité.”
Cependant, les preuves – en particulier l’utilisation de voix off de l’IA pour la prestation réelle plutôt que pour la simple préparation – suggèrent un remplacement direct du travail humain.
Les étudiants soutiennent que cela constitue une rupture du contrat éducatif. L’étudiant a noté qu’il avait le sentiment d’avoir « dépensé deux ans » de sa vie avec une solution « bon marché ». Pour tenter d’apaiser la révolte, l’administration a fait appel à des professeurs humains pour la session finale, une décision que les étudiants ont rejetée comme étant « trop peu, trop tard ».
De telles frictions ne sont pas isolées du Staffordshire. Des données plus larges au Royaume-Uni issues du rapport 2025 sur la perception des étudiants réalisé par Jisc révèlent que même si 86 % des universités ont établi des directives en matière d’IA, l’application de ces règles semble souvent punitive pour les étudiants tout en permissive pour le personnel.
Financièrement, les implications sont importantes : les étudiants les filières financées par le gouvernement ont le sentiment que l’institution empoche la différence entre les frais de scolarité des humains et les coûts de fonctionnement de l’IA.
Contexte du marché : poussée des entreprises contre réalité des salles de classe
Alors que la Silicon Valley présente ces outils comme des outils d’« autonomisation », le cas du Staffordshire sert de sombre contre-récit au marketing qui inonde actuellement le secteur EdTech. Cette semaine encore, OpenAI a lancé « ChatGPT for Teachers », offrant l’outil gratuitement aux enseignants de la maternelle à la 12e année jusqu’en 2027 dans le cadre d’une stratégie massive de perte d’appel.
La vice-présidente d’OpenAI, Leah Belsky, affirme que « l’objectif ici est de s’assurer que les enseignants ont accès aux outils d’IA ainsi qu’à une expérience centrée sur l’enseignant afin qu’ils puissent véritablement guider l’utilisation de l’IA. »
Pourtant, la réalité sur le terrain évolue souvent vers une automatisation totale de l’IA. programme, comme on le voit dans le Staffordshire. Cette déconnexion met en évidence le risque d’une mise en œuvre « paresseuse », dans laquelle les institutions utilisent les outils pour remplacer la main-d’œuvre plutôt que pour l’augmenter.
Les concurrents se disputent également cet espace. Google a récemment lancé Gemini for Education, bien que son modèle payant (20-24 $/utilisateur) soit confronté à la pression de l’offre gratuite d’OpenAI.
La perturbation est déjà en train de remodeler l’économie du secteur, comme en témoigne l’effondrement des effectifs de Chegg plus tôt cette année alors que les étudiants contournent les aides traditionnelles.
Cependant, le problème des « hallucinations » – évident dans la citation des lois du mauvais pays dans le cours du Staffordshire – reste un handicap critique pour les produits éducatifs payants. Alors que les dirigeants universitaires défendent un « âge d’or » de l’apprentissage assisté par la technologie, l’expérience des étudiants suggère un écart croissant entre l’optimisme administratif et la qualité de l’enseignement.