- Accueil
- Le blog de l'ESDES
- Recherche
- IA et Pédagogie : Révolution ou retour aux sources ?
Audric Mazzietti
5 min.
10 mars 2023
Récemment, l’Intelligence Artificielle a fait une entrée fracassante dans le monde de l’enseignement. Elle attire autant par ses formidables possibilités qu’elle effraie par ses dérives, à tel point que l’on peut légitimement se demander si l’Intelligence Artificielle ne sonne pas le glas de la pédagogie traditionnelle. Il se pourrait pourtant que cette évolution technologique majeure nous incite à renouer avec les fondamentaux de la pédagogie plutôt qu’à les abandonner.
De la connaissance à la compétence
En effet, l’Intelligence Artificielle entérine, sans en être à l’origine, un mouvement amorcé il y a déjà plusieurs années, celui du bouleversement de notre rapport à la connaissance. Grâce à la technologie, nous sommes entrés dans l’ère de l’information (Castells & Blackwell, 1998), une information disponible massivement et immédiatement. Dès lors l’enjeu de la pédagogie est devenu celui de la compétence, c’est-à-dire la capacité à sélectionner, évaluer et articuler cette information, pour atteindre un objectif ou résoudre un problème. Dans ce contexte, utiliser une Intelligence Artificielle comme ChatGPT prend tout son sens car c'est est un formidable moyen de collecter et d’organiser l’information, la connaissance, en vue de mettre en œuvre une compétence.
La question ici n’est pas tant technologique que pédagogique car le rapport des étudiants à l’Intelligence Artificielle, et à la technologie d’une manière générale, demeure relativement candide, ce qui peut avoir de grandes conséquences sur la façon dont ceux que l’on pourrait nommer des “digital naïves” collectent et traitent l’information. L’IA pose d’emblée de nombreuses questions éthiques dont les enseignants et les étudiants tardent à se saisir. Qui possède cette IA ? Qui l’entraîne ? Avec quel corpus d’information ? Par sa capacité à fournir une grande quantité d’informations « clés en main », l’IA occulte la question de la source et de la qualité de cette information. Les étudiants s’exposent ici à un biais cognitif déjà bien connu dans le monde des réseaux sociaux sous le nom de bulle de filtrage. Une bulle de filtrage apparaît quand une technologie, un algorithme par exemple, ne donne à voir qu’une partie de la réalité à un individu. Cela entraîne une vision biaisée de la réalité et souvent, une polarisation des opinions. Il s’agit en quelque sorte d’un biais de confirmation médiatisé par la technologie. D’un point de vue pédagogique cela impacte l’apprentissage d’une compétence en biaisant les connaissances sur lesquelles elle se base. ChatGPT, dont la base de connaissance s’arrête en 2021, serait par exemple une piètre ressource pour un conseiller en géopolitique.
Sommes-nous pour autant face à une problématique technologique ? Non ! C’est une problématique pédagogique, celle du développement de l’esprit critique et de l’analyse de l’information chez les étudiants. La technologie ne fait que donner une ampleur inédite à cet enjeu, puisqu’elle accroît de manière exponentielle la diffusion de l’information et devient capable d’élaborer ses propres synthèses et orientations à partir de cette information.
Vers un réalignement pédagogique
L’IA ne questionne pas seulement les objectifs d’apprentissage, mais aussi les méthodes d’évaluation. Elle constitue même une formidable mise à l’épreuve pour l’alignement pédagogique, autrement dit la cohérence entre les objectifs pédagogiques, les méthodes d’apprentissage et les évaluations (Biggs, 1997). Malheureusement, l’IA révèle bien souvent de profondes lacunes dans cet alignement pédagogique, pourtant considéré comme un pilier de la pédagogie par les chercheurs en Sciences de l’Education. C’est ce que suggèrent les quelques cas de triche massive observés ces dernières semaines à l’Université. Alors que l’on interroge, certainement par facilité, les dangers de l’Intelligence Artificielle et l’intégrité des étudiants qui l’utilisent, on oublie que ce phénomène ne fait que refléter l’indigence et l’inadaptation des modes d’évaluation, en particulier à distance. Récemment, des étudiants ont utilisé ChatGPT pour effectuer leur examen final d’Histoire du Japon qui était... un QCM en ligne. Peut-on vraiment blâmer les étudiants qui font appel à l’Intelligence Artificielle pour leur examen plutôt que l’examen artificiel qui ne fait pas appel à l’Intelligence des étudiants ?
C’est d’autant plus problématique qu’à ce jour aucune législation formelle n’encadre le recours à l’Intelligence Artificielle pour effectuer un devoir ou un examen. Quant à la notion de plagiat, elle ne peut malheureusement pas être convoquée sur ce terrain. En effet, l’étudiant qui copie la production de l’IA ne plagie pas un auteur ou un créateur et l’IA, à qui l’on pourrait reprocher de s’approprier l’idée d’un autre, n’est pas un justiciable. Encore une fois, penser que le problème est celui de la triche aux examens, serait une erreur car derrière la problématique technologique se cache une problématique pédagogique fondamentale, celle du choix des modes d’évaluation. Ajoutons aussi à cela qu’il est tout aussi problématique d’inférer un phénomène de triche de masse à partir du comportement de quelques individus. C’est un nouvel affront fait à l’intelligence de nos étudiants.
N’oublions pas que la problématique des évaluations se posait déjà en 2020 avec le recours massif à l’évaluation à distance engendré par la crise sanitaire. La question était alors celle de l’accès des étudiants à leur cours pendant les examens et la réponse fournie fut celle des examens dits « à livre ouvert » consistant à avoir accès aux ressources du cours pour répondre à une question complexe nécessitant d’articuler les concepts clés d’une discipline. De l’évaluation des connaissances nous sommes passés à l’évaluation des compétences. Ainsi, l’Intelligence Artificielle de par sa puissance, exige un alignement pédagogique sans faille et nous incite à repenser notre pédagogie en profondeur, non pas pour la révolutionner, mais pour en consolider les bases.
L’IA au service de la pédagogie
En définitive, l’IA et la technologie en général, ne doivent pas dicter la pédagogie mais bien la servir. Sur ce plan, l’Intelligence Artificielle est une ressource prometteuse. Elle peut par exemple permettre d’adapter l’apprentissage à chaque étudiant, de prévenir le décrochage grâce à la collecte et à l’analyse d’indicateurs d’apprentissage ou encore de développer l’accessibilité des dispositifs d’apprentissage. L’Intelligence Artificielle constitue aussi un véritable objet pédagogique qui doit être abordé pour permettre aux citoyens de demain d’en comprendre le fonctionnement et d’en saisir les enjeux sociétaux et éthiques associés. L’erreur déjà commise maintes et maintes fois et sur le point d’être réitérée, serait de réduire l’Intelligence Artificielle à l’Université à ce qu’elle n’est pas : une simple problématique technologique sans âme au lieu de la considérer comme un enjeu et un objet pédagogique à part entière porté par la nécessité d’un supplément d’âme.
Autrice / Auteurs :
Audric Mazzietti - Docteur en psychologie cognitive de l’Université de Lyon, enseignant chercheur en Psychologie et responsable du département Economie et Société de l’ESDES Lyon business school. Membre de l’unité de recherche confluence, sciences et humanités de l’université catholique de Lyon – ESDES.
Lauriane Pirodon – Ingénieure et conseillère Pédagogique et Multimédia - Centre d'Appui à la Pédagogie Enseigner-Apprendre (CAP'EA) - Université Catholique de Lyon.
Pierrick Ribo – Responsable Pédagogique et Numérique - Centre d'Appui à la Pédagogie Enseigner-Apprendre (CAP'EA) - Université Catholique de Lyon.
Franck Bertucat – Docteur en sciences de l’éducation de l’Université de Lyon, enseignant-chercheur, responsable de l’Assessement center de l’ESDES Lyon Business School et co-responsable du Centre d’Appui à la Pédagogie Enseigner & Apprendre (CAP’EA) - Université Catholique de Lyon.
Références
- Biggs, J. (1996). Enhancing teaching through constructive alignment. Higher education, 32(3), 347-364.
- Castells, M., & Blackwell, C. (1998). The information age: economy, society and culture. Volume 1. The rise of the network society. Environment and Planning B: Planning and Design, 25, 631-636.