«Environ 75 % des étudiants déclarent utiliser l’IA de manière quotidienne ou fréquente»: entretien avec Caroline Roussel et Loïc Plé, directrice générale et directeur de la pédagogie de l’léseg

by Olivier Rollot

L’intelligence artificielle bouscule en profondeur l’enseignement supérieur : étudiants ultra-équipés, enseignants en recherche de repères, établissements tiraillés entre urgence et temps long. À partir de la synthèse des travaux menés pour la Conférence des Grandes écoles (CGE) sur Les Grande écoles à l’ère de l’IA, Caroline Roussel, vice-présidente numérique de la CGE et directrice de l’léseg, et Loïc Plé, l’un des deux coordinateurs de l’étude et directeur de la pédagogie de l’léseg, en décryptent les usages tout en esquissant les contours d’un nouvel équilibre pédagogique entre humain et machines.

Caroline Roussel et Loïc Plé

USAGES : UN DÉCALAGE ÉTUDIANTS / ENSEIGNANTS

Olivier Rollot : Où en est réellement l’usage de l’IA par les étudiants dans les Grandes écoles selon l’étude que vous venez de réaliser?
Loïc Plé : Les usages sont massifs. Environ 75 % des étudiants déclarent utiliser l’IA de manière quotidienne ou fréquente, ce qui est cohérent avec les grandes enquêtes internationales. Mais cette adoption n’est pas homogène : elle est très forte en écoles de management et d’ingénieurs, beaucoup moins dans les écoles de spécialité comme Sciences Po, les écoles d’art ou d’architecture.

O. R : Au final qui est le plus en avance parmi les membres de la CGE : écoles de management, écoles d’ingénieurs, autres filières ?
L. P : Les écoles de management apparaissent clairement plus proactives : 89% déclarent avoir une direction ou une fonction liée à l’IA , contre à peine plus d’une sur dix parmi les écoles d’ingénieurs. Cela ne veut pas dire que rien ne se passe chez ces dernières, mais la structuration est plus lente ou plus diffuse.

Caroline Roussel : En fait les IA sont d’une utilisation beaucoup plus récente dans les écoles de management quand les écoles d’ingénieurs en ont déjà une certaine expérience, au point de ne même pas l’évoquer.

O. R : Et côté enseignants, l’adoption suit-elle le même rythme ?
L. P : Non, il y a un vrai décalage. Environ 52 % des enseignants utilisent l’IA de manière quotidienne ou fréquente. On est en dessous des étudiants, mais dans une zone comparable à ce qu’on voit en Asie ou aux États-Unis. Cet écart d’adoption entre étudiants et enseignants est d’ailleurs une tendance mondiale : les premiers expérimentent massivement, les seconds avancent plus prudemment.

O. R : Quels sont les outils qui dominent aujourd’hui ?
L. P : ChatGPT reste l’outil central, en ligne avec ce qu’on observe dans le reste du monde. En France, on voit aussi un usage très marqué de DeepL pour la traduction, probablement lié à une maîtrise de l’anglais plus fragile. Et pour contourner pannes et quotas, une partie des étudiants jongle entre plusieurs plateformes, comme Gemini ou Claude, en fonction des besoins.

O. R : Est-ce que les étudiants comme les enseignants sont conscients des limites de ces outils ?
C. R : Oui, la fiabilité des résultats est une inquiétude majeure. Environ 65 % des étudiants mentionnent spontanément les risques d’erreurs ou “hallucinations” ce qui laisse penser qu’ils font preuve d’esprit critique vis à vis de ces résultats. S’ajoutent des préoccupations éthiques, des questions liées à la confidentialité des données et, chez les étudiants, la peur de sanctions académiques en cas d’usage jugé abusif de l’IA.

DES OUTILS DISPONIBLES, MAIS UNE STRATÉGIE ENCORE FLOUE

O. R : Les établissements mettent-ils à disposition des outils IA de manière claire ?
L. P : 7 % des étudiants déclarent que leur établissement leur fournit des outils d’IA, contre 37 % des enseignants. Et près de 40 % des étudiants ne savent tout simplement pas répondre. Une partie de la confusion vient du fait que des outils comme Copilot ou Grammarly, qui embarquent déjà de l’IA, ne sont pas toujours identifiés comme tels.

La stratégie pédagogique doit venir avant l’outil. L’enjeu n’est pas de faire un effet d’annonce, mais d’inscrire l’IA dans un projet d’établissement : formation aux enjeux éthiques, apprentissage d’un usage raisonné, prise en compte de l’empreinte carbone. Certains établissements, comme l’IÉSEG, ont par exemple déployé des solutions pour leurs collaborateurs tout en travaillant sur une charte d’usage.

O. R : Quel rôle joue la CGE dans cette structuration ?
C. R : La Conférence des Grandes Écoles favorise surtout le partage d’expériences entre établissements plutôt qu’une grande négociation groupée unique, même si elle fait partie de l’alliance avec Mistral AI. On est davantage dans une logique de “communauté apprenante” que dans celle d’un achat centralisé de solution.

O. R : Les établissements ont-ils les moyens de contrôler finement les usages ?
L. P : C’est l’un des nœuds du problème. Les offres actuelles des grands acteurs (OpenAI, Anthropic, etc.) ne permettent pas de restreindre aisément certaines fonctionnalités. Du point de vue d’un établissement, cela peut donner l’impression de cautionner des usages non désirés, par exemple la rédaction intégrale de mémoires. L’idéal serait de disposer d’une granularité : utiliser l’IA comme tuteur ou assistant spécialisé, et n’ouvrir l’accès complet que dans des dispositifs pédagogiques spécifiques, encadrés.

REFONTE PÉDAGOGIQUE : AU-DELÀ DE LA FRAUDE

O. R : On a beaucoup parlé de triche et de fraude. Est-ce le vrai sujet ?
L. P : La fraude est surtout la partie émergée de l’iceberg. La vraie question, c’est : à quelles compétences voulons-nous former des étudiants dans un monde où l’IA est omniprésente ? Se focaliser uniquement sur les risques de triche conduit à des réponses défensives – retour massif à l’oral, examens sur table – qui ressemblent parfois à des “cautères sur une jambe de bois”. Elles ne traitent pas le problème de fond et peuvent défavoriser certains profils.

O. R : Quels usages de l’IA faut-il proscrire, lesquels encourager ?
L. P : L’une des craintes principales touche à la délégation complète de tout type de travail, allant jusqu’à la rédaction de mémoires ou de travaux de recherche, à l’IA. Dans ce cas, il est préférable de conseiller aux étudiants de faire une première version eux-mêmes, puis d’utiliser l’IA pour se confronter à une critique permettant d’améliorer ce premier jet. L’enjeu est de limiter la “décharge cognitive” : si l’IA fait tout le chemin à la place de l’étudiant, on perd l’apprentissage. Mais utilisée en appui, elle peut au contraire enrichir le processus d’apprentissage.

O. R : Quelles pistes d’évaluation apparaissent les plus prometteuses ?
L. P : À l’international, deux approches se détachent. D’abord les “Authentic Assessments” : des mises en situation concrètes qui obligent à mobiliser des savoirs dans des contextes réels ou réalistes. Ensuite, le “Process Assessment” : l’évaluation du processus, par exemple via un portfolio qui retrace la maturation de la réflexion, plutôt que le seul livrable final. Ces approches rendent difficile la délégation intégrale à l’IA et valorisent la progression de l’étudiant.

NOUVELLES COMPÉTENCES ET COMPLÉMENTARITÉ HOMME–IA

O. R : L’IA change-t-elle réellement les attentes du marché du travail ?
C. R : Surtout sur les postes juniors. Les tâches les plus routinières ou répétitives peuvent être partiellement automatisées. Les diplômés devront donc posséder d’autres types de compétences. Le débat est ouvert entre mettre l’accent sur des micro-compétences techniques (savoir paramétrer tel outil, coder avec telle IA…) et développer des méta-compétences : apprendre à apprendre, développer son esprit critique et sa capacité à interpréter et à arbitrer.

O. R : Quel sera le rôle des futurs managers dans ce contexte ?
C. R : Ils devront manager à la fois des équipes humaines et des “agents IA”. La question n’est plus seulement de “savoir se servir d’un outil”, mais de savoir organiser la complémentarité entre humains et systèmes intelligents : répartir les tâches, contrôler la qualité des productions, arbitrer quand les recommandations des IA sont contradictoires ou incompréhensibles.

O. R : Quelle sera alors la vraie valeur ajoutée des écoles ?
C. R : Elle reposera sur trois piliers articulés. Le pilier cognitif et technique : savoir utiliser l’IA, mais aussi comprendre ses limites. Le pilier social : développer les capacités de coopération, de communication et de travail en équipe. Et le pilier émotionnel : créer de l’engagement, donner envie d’apprendre, notamment par le présentiel. C’est dans cette combinaison que les établissements se différencieront.

IMPACT PERÇU, MOTIVATION ET SENS DES ÉTUDES

O. R : Les étudiants voient-ils l’IA comme une menace pour leur avenir professionnel ?
L. P : Pas massivement. En écoles de management, la perception est majoritairement positive, autour de 59 %. En écoles d’ingénieurs, elle reste plutôt favorable, autour de 52 %. En revanche, dans les écoles de spécialité, 37 % des étudiants évoquent un impact négatif, ce qui est cohérent avec leur moindre usage de l’IA. Globalement, les discours sur la destruction d’emplois ne se traduisent pas, pour l’instant, par une peur généralisée.

O. R : Le risque majeur ne serait-il pas plutôt la démotivation ?
L. P : C’est un sujet central. Quand un étudiant se dit “Pourquoi apprendre quelque chose qu’une IA peut déjà faire mieux que moi ?”, on a un problème de motivation intrinsèque. Si l’IA est vécue comme une béquille permanente ou comme un substitut, le sens même de l’effort scolaire est en question. Redonner du sens à l’apprentissage, montrer ce que l’IA ne peut pas faire – la compréhension fine, le jugement, la mise en perspective – devient essentiel pour l’engagement des étudiants et, in fine, leur insertion professionnelle.

UN ENVIRONNEMENT SOUS “POLYCRISE” ET LA VALEUR DU RÉEL

O. R : Comment situez-vous l’IA dans le contexte plus large que vit l’enseignement supérieur depuis 2020 ?
C. R : L’IA arrive dans un environnement déjà fragilisé par une succession de chocs : COVID, tensions géopolitiques, pression réglementaire, transitions écologique et numérique… On parle parfois de “polycrises”.

L. P : Dans ce paysage, l’IA agit comme une “bombe thermonucléaire à fragmentation” : elle touche simultanément les contenus, les méthodes pédagogiques, l’évaluation, l’organisation interne. Le tout de manière évolutive étant donné la vitesse à laquelle l’IA se développe. es établissements vont donc devoir être à la fois plus flexibles, plus anticipateurs et plus clairs dans leur discours.

O. R : Face à cette déferlante technologique, que reste-t-il de “non substituable” ?
C. R : L’expérience réelle conserve une valeur irremplaçable. Visiter un campus, rencontrer une équipe pédagogique, discuter avec des étudiants, vivre un projet en présentiel : ce sont des dimensions sociales et émotionnelles qu’aucune IA ne pourra reproduire. On le voit même dans des moments clés comme l’orientation : la décision d’un lycéen ou d’un étudiant se joue encore beaucoup dans le contact humain, le ressenti, la projection dans un lieu et dans une communauté. C’est là que l’enseignement supérieur a une carte décisive à jouer.


Related Posts

Laisser un commentaire