Il a vu les IA s’introduire avec une rapidité stupéfiante dans l’enseignement avec ses étudiants. Directeur de l’Institut de pédagogie avancée de l’Essca, dont il fut le doyen associé à la pédagogie, Stéphane Justeau analyse avec nous les conséquences de l’irruption des IA dans la pédagogie.
Olivier Rollot : Vos étudiants se sont approprié les IA avec enthousiasme. Qu’est-ce que cela a changé dans vos pratiques pédagogiques ? »
Stéphane Justeau : La première chose que cela a changée, c’est notre rapport au réel (suivant le principe lacanien : le réel c’est quand on se cogne) : l’IA n’est plus un sujet prospectif, c’est un fait qui a débarqué massivement et extrêmement rapidement dans le domaine de la pédagogie, de l’enseignement, de l’apprentissage. Quand 94% des étudiants disent avoir déjà utilisé une IA, et que près d’un sur deux l’utilise tous les jours, on ne peut plus traiter cela comme une exception.
Mais ce qui est plus profond, c’est que l’IA modifie et va continuer à modifier le rapport au savoir des étudiants. Ils ont désormais accès à un savoir à la demande, immédiat, reformulable, souvent (et de plus en plus) convaincant… ce qui peut être très utile pour apprendre, mais qui change la posture : l’étudiant risque de moins chercher au profit d’une logique de requête. Et dans cette transition, notre enjeu n’est pas de diaboliser l’outil mais de préserver ce qui constitue l’essence même de l’enseignement supérieur : la capacité à questionner, vérifier, critiquer, argumenter, et se situer face à des connaissances, pourquoi pas en utilisant l’IA.
O. R : Face à ces usages, comment vous adaptez-vous concrètement : règles, évaluations, formation ?
S. J : Cela nous a obligés à clarifier le cadre. Les usages académiques ne sont pas homogènes : une partie relève de l’appui à l’apprentissage et c’est très bien comme cela (réalisation par l’IA de quizz d’entrainement, etc.), mais les études montrent aussi des pratiques problématiques : 40% de étudiants déclarent avoir déjà généré tout ou partie d’un devoir avec l’IA, et 47% l’avoir utilisée même lorsque ce n’était pas autorisé. Qu’est-ce que cela induit ? Un étudiant peut avoir l’impression qu’il « fait » parce qu’il obtient un texte depuis un prompt, alors que nous sommes censés l’amener sur le chemin du raisonnement. Lire et comprendre la synthèse de 10 textes réalisée par un LLM ce n’est pas faire cette synthèse après avoir lu et compris les 10 textes. J’ai la conviction qu’il faut travailler à des règles plus intelligibles : ce qui est autorisé, ce qui ne l’est pas, et surtout ce qui est attendu en matière de transparence et de responsabilité.
Enfin — et c’est le point central pour un centre de pédagogie comme celui dans lequel je travaille — cela a accéléré une évolution de fond : on doit concevoir des situations d’apprentissage et des évaluations qui mesurent réellement la transformation des apprenants, c’est-à-dire le rapport actif au savoir. On voit bien que la stratégie du « tout contrôler par la détection » est fragile : selon l’étude The AI Challenge How College Faculty Assess the Present and Future of Higher Education in the Age of AI, seuls 31% des enseignants utilisent des outils de détection et à peine 23% les jugent efficaces. Et dans les faits, ces outils ne semblent effectivement pas efficaces à ce jour. Donc notre préconisation est de ne pas entrer dans une logique de surveillance vaine, mais de renforcer et clarifier nos attentes : l’étudiant doit davantage expliciter sa démarche, justifier ses choix, comparer des résultats, dire comment il vérifie, corrige, ajuste. L’idée est de déplacer le centre de gravité de la production vers la preuve de la compréhension, la preuve de l’acquisition de la compétence.
Et puis il y a un enjeu de formation. Si les étudiants se sentent souvent à l’aise avec l’usage, 81% reconnaissent être mal informés sur au moins un enjeu majeur (éthique, biais, sécurité, cadre, etc.). Cela renforce l’idée que l’on ne peut pas se contenter d’enseigner comment bien utiliser un outil. Il faut enseigner la manière de construire un rapport mature au savoir : distinguer information, connaissance et preuve ; évaluer la fiabilité ; comprendre les limites ; et exercer un jugement responsable.
Au fond, à ce stade de son développement l’IA nous oblige à être plus explicites sur ce à quoi nous voulons former et ce que nous voulons évaluer : le raisonnement, le discernement, la responsabilité, et la capacité à se situer face à des savoirs qui ne sont plus rares, mais qui demandent plus que jamais d’être interrogés.
O. R : Le document AI Literacy For All Course entend fournir un « guide structuré, concret et adaptable visant à garantir que tous les individus acquièrent les connaissances et les compétences en IA dont ils ont besoin pour s’épanouir ». Pouvez-vous nous résumer ses conclusions ?
S. J : Le document rappelle d’abord une idée essentielle : la littératie IA n’est pas un simple « mode d’emploi » des outils
Cette littératie se décline en cinq dimensions complémentaires : la compréhension de l’IA et des données, l’esprit critique et le discernement, l’usage éthique et responsable, les compétences humaines (communiquer, créer, faire preuve d’empathie), et l’expertise disciplinaire, parce que l’IA n’a de sens que dans un contexte donné de savoirs et de pratiques.
Le texte propose aussi une progression très concrète : apprendre à questionner, à évaluer, puis à « challenger » une sortie d’IA — vérifier, recouper, identifier limites et biais, et assumer ce que l’on retient. Et c’est précisément ce qui rend ce cadre précieux en pédagogie : il est adaptable au sens fort, parce qu’il offre un socle commun tout en permettant des déclinaisons par discipline, et qu’il aide à concevoir des apprentissages et des évaluations plus robustes à l’ère de l’IA — centrées sur le raisonnement, la démarche et la responsabilité, plutôt que sur la seule production.
O. R : Concrètement, comment une école peut-elle s’en emparer de façon opérationnelle ?
S. J : Je vois quatre chantiers très pragmatiques.
1) Définir un socle d’acquis IA pour tous les étudiants, à partir des cinq dimensions : ce que tout diplômé doit savoir faire (vérifier une sortie IA, citer et expliciter son usage, repérer un biais, protéger des données, etc.), puis fixer un niveau attendu par année.
2) Traduire ce socle en activités et en évaluations : pas seulement un module théorique, mais des tâches où l’étudiant doit prouver qu’il a développé son jugement — par exemple : comparer plusieurs réponses d’IA, documenter ses choix, corriger les erreurs, et justifier la version finale. C’est cohérent avec l’idée de déplacer l’évaluation vers le processus et la preuve de maîtrise.
3) Clarifier un cadre d’usage lisible (autorisé / interdit / attendu), avec une exigence de transparence : quand l’IA est utilisée, l’étudiant doit pouvoir l’expliquer, la tracer, et assumer ce qu’il retient. C’est la condition pour sortir de l’opposition stérile entre “interdiction totale” et “laisser-faire”.
4) Former les enseignants au design pédagogique « compatible IA » : non pas pour les transformer en experts techniques, mais pour les aider à concevoir des situations d’apprentissage robustes (plus de raisonnement, plus de justification, davantage d’oraux ou de productions encadrées quand il faut certifier une compétence).
Au fond, l’AI literacy devient un cadre au bénéfice de l’approche programme : un socle commun, des déclinaisons disciplinaires, et une évaluation qui certifie le jugement et la responsabilité, pas seulement la production.
O. R : Mais est-il encore utile de demander aux étudiants de réaliser des travaux à domicile par exemple ? Y a-t-il encore un intérêt à leur demander des mémoires de fin d’études si on ne les fait pas les défendre à l’oral ?
S. J : C’est encore utile – mais ce n’est plus utile de la même façon, ni avec les mêmes implicites. L’IA dans ce contexte nous oblige à distinguer deux choses : ce qui a réellement été appris et a entrainé une transformation et ce qui est simplement restitué par l’étudiant ou l’étudiante. Un travail à domicile peut rester très formateur, à condition qu’on n’attende pas seulement un livrable normé, aux standards, mais qu’on évalue la démarche, les choix, la capacité à vérifier, à justifier, à argumenter.
Ces travaux à domicile gardent ainsi un intérêt dès lors qu’ils sont conçus comme des tâches qui seraient des éléments d’un processus et si nous nous dotons des moyens pour évaluer une réflexion sur ce que l’IA a apporté ou au contraire ce qu’elle a faussé. C’est exactement l’orientation portée par les discussions récentes sur le sujet : rendre l’évaluation plus « résiliente à l’IA » en la recentrant sur le chemin intellectuel plutôt que sur la seule production finale.
Pour les mémoires raisons, le mémoire a encore du sens. Mais il ne doit pas être réduite au seul exercice de rédaction. L’étudiant ou l’étudiante doit pouvoir y fournir la preuve qu’un raisonnement rigoureux a été utilisé, qu’une approche critique a été développée. Or, à l’ère de l’IA, un texte bien écrit ne suffit plus à attester ces éléments. Et c’est là que la soutenance orale (ou des formats synchrones équivalents) devient essentielle : non pas comme une mise au pilori, mais comme un moment où l’étudiant démontre qu’il comprend ce qu’il a écrit, qu’il maitrise son propos, qu’il peut défendre et discuter ses résultats. L’interaction avec l’examinateur ou l’examinatrice, équipé d’une grille d’évaluation adéquate, fournira la preuve recherchée.
Donc, au fond, je ne dirais pas « il faut arrêter les devoirs maison » ou « il faut arrêter les mémoires ». Je dirais qu’il faut changer ce qu’on en attend et ce qu’on y évalue. A l’ère de l’IA, la question centrale n’est pas de savoir si le texte est original mais de savoir si l’étudiant est l’auteur de son raisonnement, même s’il a pu travailler avec l’IA. Et ce changement ne va pas être simple.
O. R : Plus inquiétant, l’étude The AI Challenge How College Faculty Assess the Present met en exergue que 90% des plus de 1 000 enseignants interrogés se disent préoccupés par le fait que les programmes d’intelligence artificielle générative (GenAI) tels que ChatGPT et Copilot risquent de diminuer les capacités de réflexion critique des étudiants, tandis que 95% d’entre eux estiment qu’ils vont accroître la dépendance excessive des étudiants à l’égard des outils d’IA. Qu’en dites-vous ?
S. J : Je comprends parfaitement l’inquiétude mise en lumière par cette étude. C’est pour moi le signal que quelque chose est en train de se déplacer durablement dans la relation des étudiants au travail intellectuel, dans leur rapport au savoir.
Ce déplacement tient en partie à un phénomène assez subtil : l’IA donne accès à un « savoir à la demande », formulé avec cohérence et avec une rapidité qui peuvent être très utiles… mais qui peuvent aussi installer insidieusement une forme de sur-confiance épistémique dans la réponse produite. Le risque ici est de confondre une réponse bien écrite avec une connaissance solidement étayée, argumentée. En cela il parait évident que l’usage de l’IA impacte fortement le rapport au savoir. Elle peut ainsi encourager une posture dans laquelle on adhère plus vite, dans laquelle on vérifie moins. Il va sans dire que ce phénomène est amplifié par les algorithmes d’un certain nombre de réseaux sociaux extrêmement fréquentés par les jeunes hommes et femmes aujourd’hui.
Partant de ce constat, ma réponse est double.
D’abord, oui, le risque assez évident de dépendance existe puisque l’IA est d’ores et déjà un outil simple, disponible, efficace.
Toutefois l’enjeu n’est pas de se placer dans une alternative entre interdiction et permissivité. Il s’agit plutôt de construire un cadre d’usage cohérent avec pour objectif que ces outils soutiennent l’apprentissage sans se substituer aux opérations intellectuelles que l’enseignement supérieur doit développer. Cela implique des attendus explicites, et la capacité, pour l’étudiant, de rendre compte de son recours éventuel à l’outil.
Le risque pour l’esprit critique est réel, mais il dépend largement des dispositifs mis en place dans les institutions. D’où l’intérêt des approches de littératie IA visant à développer des compétences de discernement -interroger, évaluer, vérifier, identifier limites et biais, et assumer ses choix.
Je crois qu’il faut agir vite car ces représentations des enseignants quant à l’usage de l’IA par leurs étudiants génèrent nécessairement des réactions inconfortables en réponse : de la défiance, avec une suspicion généralisée qui altère la relation pédagogique ou encore une forme de renoncement, parce qu’ils se sentent démunis face à des usages qu’ils ne maîtrisent pas et à des règles difficiles à faire respecter.
O. R : Faut-il alors former les étudiants totalement différemment ? Certains disent que vous devez les rendre déjà expérimentés pour répondre aux nouveaux besoins du monde du travail ?
S. J : Je ne dirais pas qu’il faut former les étudiants totalementdifféremment. Je dirais qu’il faut former plus explicitement à ce qui doit être au cœur de l’enseignement supérieur — le jugement, la méthode, la responsabilité — parce que l’environnement a changé et que ces trois dimensions sont, je crois, en danger.
Oui, il faut intégrer l’IA, mais pas sous la forme de l’apprentissage d’un outil. Les enquêtes montrent que les étudiants se sont déjà largement approprié ces technologies. Et si ce n’est pas le cas pour toutes et tous, cela ne pas tarder à l’être. La vraie valeur ajoutée d’une institution n’est pas de les former à être de simples utilisateurs, mais de les rendre capables d’en faire un usage professionnel, éthique et responsable : cerner les capacités et les limites de l’outil, vérifier, documenter, décider. Et c’est exactement ce que formalise un cadre comme l’AI literacy qui met au centre l’évaluation critique et l’éthique.
Sur la question du monde du travail, je pense qu’il faut éviter un contresens : « être expérimenté » ne signifie pas savoir produire plus vite avec un assistant IA. Cela signifie être prêt à travailler avec ces outils IA dans un cadre professionnel de qualité : expliciter des objectifs, poser les bonnes questions, contrôler la fiabilité, repérer les biais, protéger les données, respecter le droit et la déontologie, et assumer la décision finale. Ce sont des compétences transférables, et, encore une fois, ce sont précisément celles que le cadre littératie IA décline.
Enfin, sur le plan pédagogique, comme je l’ai déjà dit, cela implique surtout une évolution des formats : moins d’évaluations centrées uniquement sur un produit final, et davantage de dispositifs qui rendent visibles la démarche, le raisonnement, la justification, les arbitrages.
Donc, oui, il faut faire évoluer la formation, mais dans une direction très claire : former des diplômés capables de discernement dans un monde où produire du narratif est devenu facile, et où la vraie compétence se situe dans la qualité du raisonnement et la responsabilité.