Exposant les frictions entre l’intégrité académique et la réduction automatisée des coûts, les étudiants de l’Université du Staffordshire au Royaume-Uni ont lancé une révolte contre un module de codage enseigné principalement par des algorithmes « hallucinants ».
Des enregistrements apparus cette semaine révèlent des conférences données par des voix off de l’IA qui transforment les accents et citent des lois américaines non pertinentes, suscitant des accusations de « deux poids, deux mesures ».
Alors que l’université menace d’expulser les étudiants utilisant des outils comme ChatGPT, elle défend son propre enseignement automatisé comme un « cadre » valide, soulignant l’écart flagrant entre « l’autonomisation des enseignants » promise par des fournisseurs comme OpenAI et la réalité de mauvaise qualité de la mise en œuvre.
La révolte : une IA « paresseuse » dans la salle de conférence
Loin d’être une amélioration futuriste, la mise en œuvre de l’IA dans le programme d’apprentissage financé par le gouvernement du Staffordshire semble avoir été motivée par une pure opportunité.
Conçu pour recycler les professionnels en tant qu'ingénieurs logiciels selonnormes d'apprentissage financées par le gouvernement, le cours s’est rapidement déroulé car les étudiants ont détecté l’utilisation d’outils génératifs « presque immédiatement » dès le premier cours.
Les participants ont été accueillis non pas par un expert humain, mais par une présentation PowerPoint accompagnée d'une voix off synthétisée lisant le texte textuellement,rapporté par The Guardian.
Des problèmes techniques ont rapidement révélé le manque de surveillance humaine. Dans un cas particulièrement choquant capturé sur vidéo, la voix off est inexplicablement passée d'un accent britannique à un accent espagnol pendant 30 secondes avant de revenir, un artefact évident de génération de synthèse vocale non surveillée.
Au-delà des défauts audio, le programme lui-même souffrait d’« hallucinations » – la tendance des grands modèles linguistiques (LLM) à fabriquer des faits. Destinés à préparer les étudiants au marché du travail britannique, les supports de cours citent fréquemment la législation américaine non pertinente, une erreur courante lorsque les modèles ne sont pas correctement fondés sur des données locales.
Une analyse indépendante utilisant les outils de détection Winston AI et Originality AI a confirmé plus tard une « très forte probabilité » que les devoirs et les présentations aient été générés par une machine.
Les frustrations ont éclaté lors d’une session enregistrée d’octobre 2024 au cours de laquelle un étudiant a directement confronté le professeur. Exigeant la suppression des documents automatisés, il a déclaré : "Je sais que ces diapositives sont générées par l'IA... Je préférerais que vous supprimiez simplement ces diapositives. Je ne veux pas être enseigné par GPT."
En réponse à la confrontation, le conférencier a ri gêné avant d’admettre avoir créé un tutoriel « à court terme » en utilisant ChatGPT.
Les étudiants ont décrit le matériel obtenu comme « des informations génériques au niveau de la surface », estimant que seulement « 5 % étaient des pépites utiles », tandis que le reste était du remplissage répétitif. Un étudiant a noté l'ironie de la situation : "Il y a de l'or au fond de cette casserole. Mais nous pourrions probablement obtenir l'or nous-mêmes, en demandant à ChatGPT."
Le double standard d’intégrité
À cette frustration s’ajoute l’hypocrisie flagrante de l’application des normes académiques par l’université. Les directives destinées au public stipulent explicitement que les étudiants qui sous-traitent leur travail à AI ou qui font passer le contenu généré pour le leur s'exposent à l'expulsion pour mauvaise conduite académique.
Pourtant, l’administration a simultanément téléchargé une déclaration de politique sur le site du cours justifiant ses propres méthodes dans le cadre d’un « cadre pour les professionnels universitaires tirant parti de l’automatisation de l’IA ».
Un porte-parole de l’université a défendu cette pratique, affirmant que « les outils d’IA peuvent soutenir des éléments de préparation, mais ils ne remplacent pas l’expertise académique et doivent toujours être utilisés de manière à préserver l’intégrité académique ».
Cependant, les preuves – en particulier l’utilisation de voix off par l’IA pour la livraison réelle plutôt que pour la simple préparation – suggèrent un remplacement direct du travail humain.
Les étudiants estiment que cela constitue une rupture du contrat éducatif. L’étudiant a indiqué qu’il avait l’impression d’avoir « dépensé deux ans » de sa vie avec une solution « bon marché ». Pour tenter de réprimer la révolte, l’administration a fait appel à des professeurs humains pour la session finale, une décision que les étudiants ont qualifiée de « trop peu, trop tard ».
De telles frictions ne sont pas isolées du Staffordshire. Des données britanniques plus larges provenant duRapport de perception des étudiants 2025par Jisc révèle que même si 86 % des universités ont établi des lignes directrices en matière d'IA, l'application de ces règles semble souvent punitive pour les étudiants tout en permissive pour le personnel.
Financièrement, les implications sont importantes : les étudiants inscrits dans des filières financées par le gouvernement ont le sentiment que l’établissement empoche la différence entre les frais de scolarité des humains et les coûts de fonctionnement de l’IA.
Contexte du marché : poussées des entreprises par rapport à la réalité des salles de classe
Alors que la Silicon Valley présente ces outils comme des aides à « l’autonomisation », le cas du Staffordshire sert de sombre contre-récit au marketing qui inonde actuellement le secteur EdTech. Cette semaine encore, OpenAI a lancé « ChatGPT for Teachers », offrant l'outil gratuitement aux enseignants de la maternelle à la 12e année jusqu'en 2027 dans le cadre d'une stratégie d'appel massive.
Leah Belsky, vice-présidente d'OpenAI, affirme que « l'objectif ici est de garantir que les enseignants ont accès aux outils d'IA ainsi qu'à une expérience centrée sur l'enseignant afin qu'ils puissent véritablement guider l'utilisation de l'IA. »
Pourtant, la réalité sur le terrain évolue souvent vers une automatisation totale des programmes, comme on le voit dans le Staffordshire. Cette déconnexion met en évidence le risque d’une mise en œuvre « paresseuse », dans laquelle les institutions utilisent les outils pour remplacer la main-d’œuvre plutôt que pour l’augmenter.
Les concurrents se disputent également cet espace. Google a récemment lancé Gemini for Education, bien que son modèle payant (20 à 24 $/utilisateur) soit confronté à la pression du niveau gratuit d'OpenAI.
Les perturbations sont déjà en train de remodeler l’économie du secteur, comme en témoigne l’effondrement des effectifs de Chegg plus tôt cette année, les étudiants contournant les aides traditionnelles.
Cependant, le problème des « hallucinations » – évident dans la citation des lois du mauvais pays dans le cours du Staffordshire – reste un handicap critique pour les produits éducatifs payants. Alors que les dirigeants universitaires défendent un « âge d’or » de l’apprentissage assisté par la technologie, l’expérience des étudiants suggère un écart grandissant entre l’optimisme administratif et la qualité de l’éducation.
Plus de lecture :L’ordonnance de préemption de l’IA de Trump déclenche la révolte du MAGA et une menace de financement de 42,5 milliards de dollars













