Pierre Dillenbourg & Silvère Martin-Michiellot2 Université de Genève, Suisse.
Des motivations différentes ont conduit les scientifiques à appliquer les techniques de l’intelligence artificielle (IA) aux logiciels de formation. D’une part, les développeurs de didacticiels ont cherché des techniques plus puissantes pour construire des systèmes. D’autre part, les chercheurs en informatique et en psychologie cognitive ont trouvé l’opportunité de développer et tester de nouvelles techniques ou de nouveaux modèles théoriques.
Cet article ne cherche pas à passer en revue le grand nombre d’idées, de techniques ou de systèmes développés pendant les 15 dernières années de recherche en intelligence artificielle et en éducation (IA&Ed). Le lecteur intéressé par ce sujet peut lire la synthèse de Wenger (1987), qui n’est pas récente mais donne un excellent aperçu des idées et des principes développés en IA&Ed. Nous nous focalisons ici sur un corpus de travaux qui est plutôt stable et constitue le noyau de l’IA&Ed. D’autres applications des techniques de l’IA existent, comme le traitement des langues naturelles, la planification, l’apprentissage automatique… mais elles dépassent le cadre de cet article.
L’apport de ce noyau peut être résumé en trois points :
1. La principale contribution de l’IA au logiciel d’éducation et d’entraînement est la possibilité de modéliser l’expertise. Cette expertise est la caractéristique principale des didacticiels basés sur l’IA : le système est capable de résoudre des problèmes que l’apprenant doit résoudre. Le système est compétent dans le domaine à enseigner. Bien sûr, d’autres techniques de programmation peuvent produire une solution correcte. L’apport des techniques de l’IA est moins leur capacité à produire une solution correcte que la manière dont la solution est construite. Par exemple, des systèmes complexes d’IA ont été conçus pour modéliser la résolution d’une simple soustraction telle « 294-98 », alors que n’importe quel langage informatique peut fournir la solution correcte (Burton & Brown, 1982)
2. Cette expertise modélisée permet au système de conduire des interactions qui ne pourraient pas l’être si le système travaillait avec des solutions préenregistrées. En effet, les techniques de l’IA permettent les interactions apprenant-expert en cours de résolution de problème. Cependant, bien que l’IA ait été originellement conçue pour reproduire l’intelligence humaine, de la perspective des didacticiels, la qualité des techniques de l’IA n’est pas leur degré de fidélité psychologique mais la mesure dans laquelle elles permettent de mettre en oeuvre des interactions intéressantes.
3. Les formes d’interactions prises en compte par les techniques de l’IA sont importantes lorsque le but est d’acquérir des compétences nécessaires pou résoudre des problèmes complexes. D’autres objectifs d’apprentissage peuvent être atteints avec des techniques d’interaction plus simples, comme les questions à choix multiples. Puisque le développement d’un logiciel fondé sur l’IA est plus coûteux qu’un didacticiel classique, ces techniques ne devraient être utilisées que lorsqu’elles sont vraiment nécessaires.
Nous illustrons ces principes avec des exemples pris d’un système imaginaire qui formerait un employé d’agence de voyage à planifier un voyage. Modéliser l’expertise pour l’interaction. Imaginons que l’apprenant d’une agence de voyage ait à résoudre le problème suivant.
Problème 2 :
M. Hubert veut aller de Genève à Igloolik au Canada. Il est membre du programme de vol courant de Swissair. Départ : 1.04.9, Retour : 10.05.9
Dans un didacticiel classique, l’auteur fournit au système la solution du problème, mémorisée.
Une autre approche consiste à utiliser des techniques de l’IA pour modéliser le processus de raisonnement qui a conduit à cette solution. Les techniques de modélisation de la connaissance décomposent le processus de raisonnement e étapes intermédiaires. La connaissance nécessaire pour chaque étape est généralement décrite sous forme d’une règle « SI ALORS ». Nous donnons ci-dessous quelque exemples de règles qui pourraient être utilisées pour résoudre le problème présenté ci-dessus.
Règle 12 : SI la destination est un lieu distant et inconnu, ALORS planifier le voyage via une grande ville de la zone.
Règle 33 : SI le vol domestique est effectué par une compagnie ALORS planifier le vol international avec cette compagnie.
Règle 12 : SI le client fait partie d’un programme de vol fréquent d’une compagnie et si cette compagnie a un vol pour la destination du client ALORS choisir un vol sur cette compagnie.
Chacune de ces règles code un fragment d’expertise. Le système raisonne en testant la partie « SI' »de chacune des règles. Si les conditions décrites dans la partie « SI » sont vérifiées, le système actionne la partie « ALORS » de la règle. Les règles sont générales : les termes « compagnie », « destination » ou « client » sont instanciés par les données du problème. Certaines de ces règles peuvent être contradictoires, telle la33 et la 112. Le système choisit les règles et les active jusqu’à ce que le problème soit résolu. Dans des systèmes réels, la syntaxe du problème est bien entendu plus formelle que les exemples ci-dessus. Les systèmes fondés sur de tels ensembles d règles sont généralement nommés systèmes basés sur la connaissance ou systèmes basés sur les règles ou encore systèmes experts. La partie du système qui sélectionne les règles, fait les déductions et met à jour le problème est appelée moteur d’inférence.
En décomposant l’expertise en fragments, on décompose le raisonnement en étapes intermédiaires. Ces étapes constituent le ‘chemin de résolution’. Le principal avantage est que le système peut interagir à propos de chacune de ces étapes. Par exemple, si l’apprenant sélectionne Toronto au lieu d’Ottawa, le système peut demander à l’apprenant de justifier son choix ou peut lui présenter les raisons pour lesquelles il a lui-même sélectionné Ottawa. Cette décomposition constitue la clef qui relie certaines techniques (IA) et certaines interactions : puisque le raisonnement n’est pas traité comme une boîte noire, mais décomposé en étapes intermédiaires, les interactions apprenanexpert ‘rentrent’ dans le processus solution. Inversement, cela implique que cette approche n’est pas adaptée pour enseigner des compétences élémentaires ou des perceptions élémentaires qui requièrent une pratique intensive (automatisation) plutôt que de la réflexion.
Modéliser l’expertise pour l’explication : Le second avantage des techniques de l’IA est que le système peut expliquer sa solution. En général, l’explication est la séquence de règles ayant été utilisé par l’expert pour atteindre la solution (la « trace' »de son raisonnement). Le système ne présente pas la règle elle-même, qui est généralement écrite dans un langage formel, mais des textes de commentaire associés à cette règle : Puisque Igloolik est un lieu éloigné et totalement inconnu, j’organise le voyage via une grande ville dans les environs : Ottawa (règle 12 ) Puisque le vol domestique (Ottawa – Igloolik) est effectué par Air Canada, j’organise le vol international avec Air Canada (règle 33 ).
Le rendu de la trace de l’expert à l’apprenant soulève plusieurs problèmes, en particulier la question « Est-il nécessaire de tout expliquer ? » Lorsqu’un humain fournit une explication, il l’adapte à celui qui l’écoute. Il modifie en particulier la granularité de l’explication. Si la personne qui explique pense que l’apprenant connaît certaines parties de l’explication, celles-ci peuvent être présentées très brièvement ou même supprimées. Au contraire, pour les parties plus nouvelles, plus difficiles, ou plus discutables de l’explication, l’expert peut produire des explications plus détaillés. Plusieurs solutions ont étés proposées pour adapter l’explication rendue au niveau de l’apprenant. La plus simple est finalement de fournir une explication sous le format d’un hypertexte : l’apprenant peut ainsi décider de survoler certaines parties et de lire plus attentivement d’autres sections, c’est-à-dire d’adapter au niveau de granularité selon ses propres besoins.
Néanmoins, le problème de l’explication va plus loin que la production d’un simple texte. Puisque l’explication est la trace du raisonnement de l’expert, la qualité de l’explication dépend de la façon dont la base de règles est conçue. Il est apparu que des connaissances implicites étaient souvent cachées dans les règles, en particulier la connaissance qui détermine l’ordre de sélection des règles. Dans l’exemple ci-dessus, il n’y a pas de connaissance explicite qui détermine si il vaut mieux considérer d’abord la destination finale et travailler à rebours ou commencer de Genève et considérer les vols successivement jusqu’à Igloolik. Dans un système expert, cette décision peut simplement résulter de l’ordre dans lequel les règles sont entrées dans le système. Pour un expert humain, une telle décision peut êtr cruciale. Le travail de Clancey (1987) a montré qu’il est possible d’extraire cette connaissance stratégique à partir des règles et de la rendre explicite. Cette connaissance stratégique est elle-même exprimée sous forme de règles, appelées métarègles puisqu’elles déterminent la sélection des règles de plus bas niveau.
Métarègle 1 : SI la destination est un lieu inconnu et éloigné ALORS choisir les règles qui raisonnent à partir de la destination.
Métarègle 1 : SI la destination est une ville avec un grand aéroport ALORS choisir les règles qui raisonnent à partir du départ.
Cette couche stratégique de métarègles englobe l’aspect heuristique de l’expertise. Aussi, les techniques de l’IA sontparticulièrement pertinentes quand les aspects subtils de l’expertise sont importants, et moins utilies lorsque la compétence à acquérir est plutôt une séquence triviale d’opérations. Par conséquent, les techniques de l’IA sont plus adaptées pour entraîner des apprenants avancés, qui maîtrisent déjà les compétences de base, mais doivent apprendre comment intégrer ces connaissances de base dans une stratégie intelligente.
Modéliser l’expertise pour le diagnostic : La plupart des didacticiels comprennent des informations sur l’apprenant, par exemple son nom et son score. Un défi pour la recherche a été d’améliorer cette information : un tuteur ‘intelligent’ devrait savoir ce que l’apprenant sait ou ne sai pas. La modélisation de l’apprenant est le processus qui analyse des réponses de l’apprenant afin d’inférer sa connaissance. Ce processus est aussi appelé ‘diagnostic cognitif’. Nous ne traiterons pas ici des nombreuses techniques de diagnostic qui ont été développées (Clancey, 1986 ; Dillenbourg and Self, 1992). Nous présentons simplement les principes qui ont été le plus souvent utilisés et qui reposent sur des modèles d’expertise à base de règles.
Imaginons les règles suivantes qui déterminent le temps minimal entre deux vols :
Règle 10 : SI on choisit des vols consécutifs ALORS mettre le temps de transfert minimal à 20 minutes.
Règle 10 : SI le transfert implique de changer de terminal ALORS ajouter 20 minutes au temps de transfert minimal.
Règle 10 : SI le transfert implique de passer les contrôles douaniers ALORS ajouter 40 minutes au temps de transfert minimal.
Le système doit choisir quel vol sélectionner de Los Angeles à San Francisco Le vol SR434 arrive à Los Angeles à 5h00, terminal international Le vol Los Angeles – San Francisco part du terminal national B, à 5h30, 5h45, 6h00, 6h15 ou 6h30 Si on exécute la base de règles normalement, c’est-à-dire avec les règles 100, 101 et 102 comprises, le système définira le temps de transfert minimal à 80 minutes (20 + 20 + 40) et choisira le vol à 6h30. Maintenant, imaginons ce qui arrivera si on exécute une base de connaissances incomplète :
Les trois suggestions sont fausses. Le principe du diagnostic est de comparer ces réponses fausses simulées avec la réponse effective de l’apprenant. Si l’apprenant a choisi le vol de 5h45, le système fera l’inférence que l’apprenant a oublié de prendre en compte les contrôles douaniers (règle 102 manquante). Si le choix de l’apprenant est le vol de 5h30, le système déduira qu’il a oublié le changement de terminal ainsi que les contrôles douaniers (règles 101 et 10 manquantes). D’autres erreurs potentielles peuvent être simulées en ajoutant de règles erronées, appelées malrègles (malrules, en anglais)
Malrègle 102 : SI le transfert implique de passer à travers des contrôles douaniers ALORS ajouter 90 minutes au temps de transfert minimal.
Si on remplace la règle 102 par la malrègle 102* , le système définira un temps de transfert de 130 minutes et choisira le vol de 7h15. Si l’apprenant choisit le vol de 7h15, on peut inférer qu’il surestime le temps nécessaire pour les contrôles douaniers, comme exprimé par la malrègle 102*. Ces techniques n’impliquent pas que la connaissance de l’apprenant soit stockée sous forme de règles dans son cerveau. Comparer les réponses du système aux réponses de l’apprenant génère seulement des hypothèses sur la fraction de connaissance pouvant être fausse ou manquante. Les techniques de l’IA sont utilisées ici comme outil de diagnostic, c’est-à-dire comme des objets pour raisonner sur la connaissance, et non comme une simulation du processus de raisonnement réel de l’apprenant. Les techniques de diagnostic sont pertinentes lorsque le concepteur du système connaît les erreurs les plus classiques faites par les apprenants et peut pa conséquent écrire les malrègles. Elles sont moins pertinentes dans deux cas :
Lorsque la difficulté du sujet est sa compréhension globale, plutôt qu’un ensemble précis de concepts et de principes, il est difficile d’identifier la source précise des erreurs.
Lorsque la compétence n’inclut pas d’erreurs sensées, c’est-à-dire lorsqu’elle inclut seulement des erreurs qui peuvent être mises en évidence à l’apprenant sans pouvoir être expliquées (par exemple identifier des objets sur un écran radar), un tel diagnostic n’est pas utile et peut seulement conduire à une surinterprétation. Les recherches en cours tendent à considérer que la difficulté du diagnostic peut être diminuée si on accroît les interactions entre l’expert et l’apprenant, en particulier si l’on donne à l’apprenant la possibilité de corriger les éventuels diagnostics erronés construits par l’expert.
Modéliser l’expertise pour l’adaptation :
Adapter l’instruction aux caractéristiques de l’apprenant a été une volonté permanente dans la conception des didacticiels. L’adaptation du système fait intervenir deux étapes. Tout d’abord, identifier les caractéristiques de l’apprenant et en particulier la connaissance de l’apprenant face à la tâche à apprendre (à l’aide des méthodes de diagnostic décrites dans la précédente section, par exemple), mais aussi sa motivation (del Soldato, 1993). Ensuite, prendre une décision pédagogique fondée sur les caractéristiques identifiées, et ainsi choisir un feed-back, sélectionner une activité, changer un paramètre de difficulté.
Les deux étapes de l’adaptation sont fondées sur la granularité des bases de règles : l’expertise est fragmentée en petits morceaux qui peuvent être combinés et utilisés de plusieurs manières. La haute granularité de bases de règles permet de fournir des micro-adaptations.
Certains chercheurs ont porté plus d’attention aux macro-adaptations. Les micro-adaptations ne sont pas toujours suffisantes. Parfois, l’apprenant comprend l domaine d’une façon globalement différente de celle de l’expert. Cette différence ne peut être réduite en appliquant ou supprimant quelques règles. Dans ce cas, une macro-adaptation est nécessaire : utiliser différentes bases de règles. Par exemple, le système WHY (Frederiksen & White, 1988) utilise trois modèles pour enseigner comment calculer la résistance ou l’intensité à différents points d’un circuit électrique. Se déplacer à travers une séquence de bases de règles est utile lorsque la progression de l’apprenant n’est pas un processus linéaire, mais inclut des sauts qualitatifs (Dillenbourg, 1992). En effet, dans ce cas, la discontinuité entre les niveaux de connaissance ne peut pas être modelée par l’addition de règles. Si nous reprenons notre exemple, on pourrait concevoir des bases de règles successives :
Base de règles 1 : considérer seulement les aspects liés aux horaires
Base de règles 2 : considérer les tarifs (charters, tarifs APEX, …)
Base de règles 3 : considérer la disponibilité des places
Base de règles 4 : considérer les trains pour les courtes distances en Europe
Dans d’autres cas, les différents modèles définissent différents points de vue d problème qui sont également valables (Moyse, 1989) ou complémentaires. Pa exemple, le coeur peut être étudié d’un point de vue électrique ou hydraulique. En ce qui concerne notre exemple, on pourrait concevoir des bases de règles alternatives :
Base de règles A : considérer la planification d’un voyage comme un dialogue avec le client
Base de règles B : considérer la planification d’un voyage comme un problème d planification
Cependant, écrire une base de règles est un processus relativement coûteux. Il est clair que définir plusieurs bases de règles pour un seul didacticiel accroît le coûts de développement. Ce coût est néanmoins justifié lorsque la multiplicité des points de vue est considérée comme une caractéristique importante de la compétence finale de l’apprenant. Modéliser l’expertise pour l’élaboration d’un curriculum. Dans la plupart des didacticiels traditionnels, les séquences de buts et d’activités sont pré-définies. Le curriculum est fondé sur une analyse détaillée du domaine, dans laquelle on identifie les concepts et les compétences pré-requises aux autres. En fait, écrire une base de règles peut être vu comme une technique pou conduire une analyse détaillée du domaine. De plus, puisque le résultat de cett analyse est exprimé dans un formalisme (règles ou objets) qui peut être lu pa l’ordinateur, la planification des activités peut être effectuée par le système en cours d’execution. Un système capable de décider quel concept ou quelle compétence enseigner sur la base du comportement de l’apprenant est potentiellement plus adaptatif qu’un système dans lequel le curriculum est fixé une fois pour toute (voir par exemple Brecht, 1989). Des règles pédagogiques indépendantes du domaine peuvent être utilisées à cette fin (Dillenbourg et al, 1994). S’il est possible d’utiliser plusieurs bases de règles pour le domaine, il est aussi possible de disposer de plusieurs bases de règles pédagogiques ce qui permet d’avoir plusieurs styles d’enseignement (Elsom-Cook et al, 1988 ; Dillenbourg et al, 1994
A-t’on besoin de l’IA dans les logiciels pour l’éducation ?
Il n’existe pas de frontière nette entre certains didacticiels qui seraient intelligents et d’autres qui ne le seraient pas. Les didacticiels fondés sur l’IA ne sont pas intrinsèquement meilleurs que d’autres. L’objectif de cet article est précisément d’expliquer que certaines techniques sont utiles pour certains types d’activités. En particulier, les systèmes à base de règles permettent d’interagir à propos d’étapes intermédiaires vers la solution, de produire des explications, de fournir des diagnostics, ainsi de suite. Ces techniques ne sont pas utiles pour tous les apprentissages. On peut distinguer trois catégories de buts et de systèmes appropriés
1. But : Automatiser des compétences Systèmes : « Drill & practice » Lorsque le but est d’automatiser des compétences élémentaires, le facteur clé est de fournir un feed-back immédiat et précis. Les techniques d programmation standard peuvent être utilisées pour développer des systèmes dans lesquels l’apprenant exerce ces compétences et compile progressivement les connaissances associées.
2. But : Acquérir des connaissances déclaratives Systèmes : Systèmes question-réponse. Lorsque le but est d’acquérir des connaissances déclaratives, les didacticiel fondés sur les schémas peuvent être très efficaces. Un didacticiel fondé sur les schémas est un scénario constitué de situations. Chaque situation contient une présentation de l’information et une activité, en général une question, un certain nombre de réponses attendues et leur feed-back spécifique.
3. But : Acquérir des compétences complexes de résolution de problèmes Systèmes : environnements d’apprentissage.
Lorsque le but est d’acquérir des compétences complexes de résolution d problème, l’activité-clé est que l’apprenant intègre ces compétences en résolvant des problèmes réalistes. Un environnement d’apprentissage est une situation de problème ouverte dans laquelle l’apprenant explore les conséquences de ses actions, en observant le réactions du système (le système comprend généralement une sorte de simulation). On parle d’environnements d’apprentissage « intelligents » lorsque l’apprenant interagit avec des agents sur la connaissance qu’il utilise dans la solution. Si on reprend le problème de l’agent de voyage, on peut trouver ces différents types d’apprentissage. Des compétences techniques (calculer les tarifs, prendre en compte les fuseaux horaires,…) peuvent être exercées à travers une série d’exercices. La terminologie spécifique à ce travail pourrait être présentée, illustrée et testée par un didacticiel standard « questions-réponses ». Traditionnellement, l’apprenant acquerrait cette connaissance fondamentale durant cette son apprentissage initial, en lisant des livres ou en suivant un cours. Puis, on lui demanderait progressivement de mettre sa connaissance en pratique. Ainsi, il commencerait à travailler avec un employé expérimenté. Cette période d’apprentissage est nécessaire car convertir des connaissances déclaratives en compétences opérationnelles et assembler les sous-compétences en un comportement cohérent constitue en soi un processus d’apprentissage. C’est le genre d’apprentissage qui est pris en charge par les didacticiels fondés sur l’IA, dans lesquels l’interface imite le cadre professionnel et les tâches à accomplir, et le système expert tient le rôle de l’employé expérimenté.
Synthèse :
Le but original de l’IA était de développer des techniques qui simulent l’intelligence humaine, c’est-à-dire qui simulent le processus de raisonnement en lui même ou, plus modestement, le résultat de ce processus de raisonnement. Maintenant, on peut dire que le rôle des techniques de l’IA dans les didacticiels n’est pas de de simuler l’intelligence humaine per se. Les techniques sont utilisées pour soutenir les interactions avec l’apprenant. Modéliser l’expertise permet au système d’entrer dans le problème avec l’apprenant, négocier les étape intermédiaires, expliquer ses décisions, et raisonner sur la connaissance de l’apprenant (diagnostic). Le centre d’intérêt s’est déplacé de « raisonner COMME l’apprenant » vers « raisonner AVEC l’apprenant ». Cette évolution n’est pas en contradiction avec les études du développement humain qui tendent à considérer l’intelligence comme une capacité d’interagir avec notre environnement physique et social.
Références :
Brecht, B. (1989) Planning the content of instruction. Proceedings of the 4th AI Education Conference (pp. 32-41), May 24-26. Amsterdam, The Netherlands : IOS.
Burton, R.R. & Brown, J.S. (1982) An investigation of computer coaching for informal learning activities. In D. Sleeman & J.S. Brown (Eds), Intelligent Tutoring Systems (pp. 201-225). New York : Academic Press.
Clancey, W.J. (1986). Qualitative student models, Annual Review of Computer Science, 1, 381-450. Clancey, W.J. (1987) Knowledge-based tutoring : th Guidon Program. Cambridge, Massachusetts : MIT Press.
Del Soldato, T. (1993) Domain-based vs. Motivation-based instructional planning. In P. Brna, S. Ohlsson & H. Pain (Eds) Proceedings of the World Conference on Artificial Intelligence in Education, AI&Ed 93, Edinburgh, 23 -27 August 1993. Published by AACE, Charlottesville, VA.
Dillenbourg, P. (1992) The Language Shift : a mechanism for triggering metacognitive activities. In P. Winne & M.Jones. Adaptive Learning Environments. : foundations and frontiers. Springer-Verlag. Hamburg
Dillenbourg, P., & Self, J.A. (1992) A computational approach to socially distributed cognition. European Journal of Psychology of Education, 3 (4), 353-372.
Dillenbourg, P., Mendelsohn, P., Schneider, D., & Borcic, B. (1994) Intelligent Learning Environments. In R. Bless (Ed), Proceedings of the second NRP23 Symposium o Artificial Intelligence and Robotics (pp. 57 – 74), September 29, Ecublens.
Elsom-Cook, M.T., Spensely, F., Byerly, P., Brooks, P., Mhende, M., Frederici, M. & Scaroni, C. (1988)Using multiple strategies in an ITS. Proceedings of the International Conference on Intelligent Tutoring Systems (pp. 286-298), June 1-3. Montreal, Canada.
Moyse R. (1989) Knowledge Negotiation Implies Multiple Viewpoints. Proceedings of the 4th AI & Education Conference (pp.140-149), May 24-26. Amsterdam, The Netherlands : IOS.
Wenger, E. (1987). Artificial Intelligence and Tutoring Systems, Los Altos : Morgan Kaufmann.
Notes :
1. Article présenté à LEARNTEC 1994, Karlsruhe, le 10 Novembre 1994.
2. Adresse : TECFA (Unité des Sciences de l’Education), Faculté de Psychologie et des Sciences de l’Education, Université de Genève, 9 route de Drize, CH1227 Carouge.
Téléphone : +41.22.705.96.93. Adresse électronique : pdillen@divsun.unige.ch