Intelligence Artificielle et Modélisation Cognitive : objectifs et évaluation.

Intellectica, 1992 1/2, 13-14, pp. 223-240 Daniel KAYSER.

Avertissement : Les organisateurs du Colloque de la Société Française de Psychologie m’ont fait l’honneur de me demander le texte de ma conférence. Ce texte a été soumis par la revue Intellectica à deux lecteurs, dont les remarques amicales et pertinentes me font sentir tout ce que j’aurais dû approfondir. Ainsi, comme le signale l’un d’eux, l’usage que je fais du terme de Modélisation Cognitive n’est guère cohérent : tantôt assimilée à une branche de l’Intelligence Artificielle, elle dénote à d’autres moments toute entreprise visant à construire des modèles de la cognition. De même, observe-t-il, la notion d’état mentionnée en 3.c. possède bien d’autres acceptions, notamment dans le cadre de la théorie des systèmes dynamiques.

Bien qu’étant d’accord sur le diagnostic, j’ai l’impression que le remède serait pire que le mal : chercher à définir sérieusement ces notions modifierait, de proche en proche, l’esprit de ce texte pour lui donner une prétention terminologique qu’en tout état de cause je ne saurais avoir. Je sollicite donc l’indulgence du lecteur pour les nombreuses imprécisions du texte que je lui soumets, imprécisions qui sont peut-être le reflet de l’état actuel du domaine concerné, et certainement le résultat de mon inaptitude à bien le décrire.

Introduction :

On tente ici de discuter les bases sur lesquelles s’établissent les rapports entre l’Intelligence Artificielle (I.A.) et la Psychologie Cognitive. Ces rapports existent depuis longtemps, et les questions sur lesquelles ils portent sont généralement bien connues ; c’est pourquoi, plutôt que de tenter d’en faire le tour, on cherchera à examiner certains des présupposés – épistémologiques ? – par lesquels ces rapport acquièrent leur valeur scientifique. En effet, un préalable essentiel à une recherche interdisciplinaire consiste à examiner la façon dont cette recherche s’inscrit dans les objectifs de chacune des disciplines, et à en déduire la façon dont son résultat sera évalué. Nous envisagerons donc ici les critères d’évaluation qui nous semblent pouvoir être retenus dans le cas de l’I.A. et de la Psychologie Cognitive. Auparavant, il n’est pas inutile de rappeler comment ces deux disciplines se situent l’une par rapport à l’autre.

1. Quelques considérations sur les rapports entre I.A. et Psychologie Cognitive :

L’un des points du fameux « manifeste » lancé par Simon en 19571 consistait à affirmer que, d’ici dix ans, les thèses de Psychologie auraient pris la forme de programmes informatiques. Pas plus que les autres (p. ex. un ordinateur champion du monde d’échecs avant 1967), ce point n’a été vérifié ; l’état d’esprit assez impérialiste et le caractère provocateur de ce manifeste ont causé un tort profond à l’I.A. ; du moins révélait-il l’intérêt évident que l’I.A. a porté dès l’origine aux questions psychologiques. Réciproquement, la Psychologie a toujours considéré – avec un intérêt qui lui a parfois été reproché – que les concepts et les techniques de l’I.A. étaient susceptibles de la concerner. Le dernier exemple en date étant l’invitation qui m’est faite de parler des rapports de nos disciplines devant un colloque de Psychologues. Si je peux me permettre de caricaturer cette invitation, on me demande de répondre à la question :

On comprendra ainsi, je l’espère, la délicatesse de ma position ! Au risque de déplaire, je caricaturerai ma réponse par :

Cette réponse doit aussitôt être compensée par quelques mots de justification. Suivant certaines théories (voir p. ex. [Pylyshyn,1989]), le fonctionnement cognitif est au sens littéral un calcul, et il ne serait alors pas possible à la Psychologie d’atteindre ses objectifs sans l’aide de l’Informatique, ce qui fournirait une explication à mon « pas encore ! ». Il sort de mon domaine de compétence de discuter cette thèse au fond, et je n’ai d’ailleurs pas besoin de recourir à une hypothèse aussi extrême pour justifier cette réponse peu amène : si l’Informatique naissante avait trouvé la Psychologie dans un état aussi achevé que, disons les Mathématiques, l’Intelligence Artificielle aurait commencé son existence comme une sous-discipline de la Psychologie, de même que l’Analyse Numérique est souvent considérée comme une sous-discipline des Mathématiques… et l’aventure de l’I.A. s’en trouverait considérablement moins excitante. L’avantage de la situation actuelle est qu’elle permet aux deux disciplines de progresser ensemble.

C’est d’ailleurs ce qui se passe depuis longtemps. Nous avons fait allusion aux travaux de pionniers de Newell et Simon ; depuis cette époque, une branche particulière de l’I.A., connue – au moins dans nos congrès – sous l’appellation de Modélisation Cognitive (M.C.) qualifie les recherches visant à développer des techniques dans le but de rendre compte de certains phénomènes observés par les Póychologues. On a pu observer plusieurs stades d’évolution de cette sous-discipline, depuis les modèles supposés généraux de résolution de problèmes jusqu’à l’utilisation des langages « orientés-objet » comme modèles de la compréhension et de la résolution d’exercices arithmétiques [Dellarosa 1986, Darcel & Escarabajal 1987, …] en passant notamment par l’étape essentielle des règles de production [Newell, 1973]. Cependant, il se pourrait que cette sous-discipline ait un statut instable (nous donnerons plus loin quelques arguments en ce sens) et dans ce cas, plusieurs scénarios d’avenir peuvent être envisagés :

- Les chercheurs d’I.A. peuvent se rendre compte que la M.C. a été pour eux un terrain fertile d’expérimentation, puis souhaiter regagner au bout d’un certain temps l’I.A. fondamentale pour y exploiter les idées qui auront germé à l’occasion de leur collaboration avec les Psychologues ; dans le même temps, ces derniers peuvent estimer avoir épuisé les charmes de l’I.A. et revenir dans le giron de la Psychologie pour y poursuivre une tâche de conception de modèles qui seraient spécifiques à leur discipline, les apports de l’I.A. n’y jouant qu’un rôle marginal. Dans ce scénario, la M.C. aurait été un catalyseur utile, mais n’étant qu’une créature issue d’un croisement contre nature, elle n’aurait pas de descendance.

- Un tout autre scénario prédirait l’éclatement de l’I.A. : ceux de ses chercheurs qui, de longue date, sont plus attirés par la Logique théorique que par le défi constitué par la modélisation d’une véritable activité intelligente rejoindraient leur discipline d’élection, tandis que les chercheurs plus motivés par la création d’outils pratiques accepteraient plus franchement l’étiquette cognitive et viendraient former, avec les Psychologues et quelques autres, un noyau de la Science Cognitive en gestation.

- Comme il est de règle, c’est très vraisemblablement un tout autre scénario qui verra le jour, et le jeu de la prédiction des évolutions scientifiques étant des plus stériles, nous passons maintenant au cœur de notre discussion, à savoir l’énonciation des objectifs et des critères d’évaluation des deux aspects qui nous intéressent : l’I.A. et la M.C.

2. Cahier des charges de l’I.A. « indifférente » :

Nous appelons ici I.A. « indifférente » l’approche de cette discipline qui se donne pour mission la réalisation d’un dispositif qui nous semble « intelligent » quels qu’en soient les moyens, par contraste avec l’approche qui impose en outre que le dispositif en question présente « une certaine analogie » avec le comportement humain. Cette première approche est généralement préférée par les chercheurs en I.A. (Jacques Pitrat par exemple parle d’opérations qui, si elles étaient effectuées par des êtres humains, seraient réputées requérir de l’intelligence). Mais même dans le cas de cette I.A. « indifférente », le critère cognitif a un rôle à jouer. En effet, il y a des tâches qui nécessitent certainement de l’intelligence, mais dont l’automatisation ne présente aucun intérêt (p. ex. trouver le plus mauvais rapport qualité/prix dans la conception d’un appareil !). Ce qui me semble caractériser plutôt la vocation de l’I.A., c’est l’aptitude à donner des conseils judicieux, ce que j’expliciterai de la manière suivante. Un conseil est judicieux :

- S’il est élaboré sur la base de l’ensemble de la connaissance pertinente disponible au moment où il est donné.

- S’il tient compte des expériences passées (il n’est pas judicieux de donner deux fois de suite le même conseil dans les mêmes circonstances, si le résultat du premier conseil n’a pas été bon) ; ceci justifie la place de l’apprentissage dans l’I.A.

- S’il tient compte des contraintes éthiques : on a beaucoup parlé, il y a une quinzaine d’années, des risques de l’Informatisation et on entendait surtout par là les atteintes à la liberté dû au « fichage ». Bien que l’I.A., au stade actuel de son développement, ne fasse guère courir de risque à la démocratie, il n’est pas trop tôt pour rappeler qu’à terme plus ou moins éloigné, le problème se posera.

- S’il parvient à son commanditaire en des temps acceptables pour lui.

- D’autres éléments entrent en ligne de compte ; par exemple, pour des raisons principalement « psychologiques », le fait pour un dispositif d’I.A. d’avoir un fonctionnement explicable (l’explication pouvant être d’ailleurs reconstruite a posteriori).

Cette liste partielle cherche surtout à montrer que, même pour l’I.A. « indifférente », la cognition humaine n’est pas indifférente car les critères par lesquels le dispositif proposé sera jugé conforme au « cahier des charges » de l’I.A. font intervenir par de nombreux aspects le facteur humain. Pour respecter le titre de la présente communication, il faudrait maintenant que j’expose précisément des critères d’évaluation de conformité au cahier des charges. Il y a certainement des points délicats à résoudre, par exemple la définition de ce qu’est une connaissance pertinente pour un problème donné, de ce qu’est une explication satisfaisante pour une classe d’utilisateurs, ou même de la limite à partir de laquelle on peut parler de comportement d’apprentissage. Chacune de ces questions requerrait plus de place que je ne peux consacrer à l’ensemble, mais l’I.A. a ceci de particulier qu’il existe un critère objectif qui résume tous les autres : le produit offert doit se vendre ! Il s’agit bien sûr d’une boutade (les produits qui se vendent le mieux à l’heure actuelle ne sont pas ceux qui respectent le mieux les critères énoncés), mais il n’est pas mauvais de la prendre un peu au sérieux : à terme, personne ne consacrera beaucoup d’argent à l’achat de produits qui ne donneraient pas des conseils que leurs utilisateurs trouveraient judicieux !

3. Cahier des charges de la Modélisation Cognitive :

Ayant plus ou moins bien cerné les objectifs de l’I.A. « indifférente » et les moyens d’évaluer à quel degré ils sont atteints, nous abordons le point le plus délicat de notre entreprise, qui consiste à faire de même pour la M.C. En effet, l’exigence d’une certaine analogie entre le modèle proposé et le comportement humain laisse de nombreuses questions sans réponse.

3.1. Correspondance ou correspondances ?

Par cette question, je souhaite attirer l’attention sur ce qui me semble être une ambiguïté majeure de la M.C. La plupart des travaux de ce domaine cherchent un modèle « acceptable » (voir ci-dessous) pour une aptitude cognitive souvent très étroite. C’est certainement un objectif appartenant de plein droit à l’aventure scientifique, et il est déjà très ambitieux. Mais quelle raison a-t-on de croire qu’une collection de modèles hétéroclites, dont chacun aurait été certes validé dans son propre contexte, formerait un modèle de la cognition ? L’autre façon de faire consisterait à chercher dans un premier temps des modèles moins proches des faits expérimentaux, mais dont le champ d’application serait plus large. Il n’y a pas de raison de principe de préférer une méthode à l’autre ; c’est donc une question heuristique : par quel procédé arrive-t-on le plus rapidement à des modèles jugés intéressants ? Comme nous l’avons rappelé plus haut, les premières tentatives s’orientaient plutôt vers des modèles généraux, et c’est leur relatif échec qui a orienté les recherches vers des solutions parcellaires. Mais il n’est pas évident que les quelques succès rencontrés suffisent à justifier, sur le plan heuristique où nous nous plaçons, l’intérêt quasi-exclusif porté aujourd’hui à ce type d’études.

3.2. Quel critère de correspondance ?

Local ou global, qu’est-ce qui fait qu’un modèle est jugé correspondre à un ensemble de faits ? Bien sûr, cette question est récurrente en Épistémologie, et le cas de la M.C. n’a en cela rien de particulier. Cependant, s’ajoutent dans ce cas des questions très précises :

- Doit on prendre en compte dans le critère d’adéquation d’un modèle ce que l’on sait aujourd’hui du substrat biologique de la cognition ? En droit, la réponse est probablement positive (une réponse négative pourrait toutefois être argumentée sur la base d’un éventuel « théorème d’équivalence » entre classes de modèles). En fait, il me semble que l’on peut s’interroger sur la pertinence de la contrainte de « plausibilité biologique » pour les recherches actuelles sur les phénomènes « de haut niveau ». Même si nous savons bien qu’en définitive, un modèle cognitif doit pouvoir être « implémenté » au moyen de cellules, il ne s’ensuit pas que l’état présent des connaissances sur les mécanismes neuronaux a une valeur heuristique pour la conception de « bons » modèles cognitifs.

- Une autre classe de problèmes spécifique à la M.C. concerne le choix du « niveau » auquel on attend qu’il y ait correspondance entre modèle et données. Nous y consacrons la section suivante.

3.3. Niveaux de correspondance :

Le premier niveau généralement envisagé est le niveau dit des entrées/sorties, c’est-à-dire la simple adéquation du modèle aux résultats fournis par l’être humain dans des circonstances correctement spécifiées. Rappelons que certains travaux d’I.A. datant maintenant d’une vingtaine d’années fournissent un cadre général pour ce type de problèmes. Si l’on dispose pour 1 = i = n, d’un ensemble de données « entrées » Ei et des « sorties » correspondantes Si, il y a en général une infinité de modèles f tels que Si = f (Ei). Quel critère permet d’en sélectionner un parmi cette infinité ? [Horning,1971] propose une solution en 4 points :

- Définition de l’espace des observations (ici supposé fixé, c’est Ei, mais nous verrons ci-dessous que c’est une hypothèse contestable).

- Définition de la classe des solutions envisagées (quelle forme le modèle cherché peut-il avoir ? Il s’agit là d’une décision qui ne peut être basée que sur des considérations pré-théoriques, et dont la rationalité ne peut être étayée par aucun argument solide).

- Critère d’adéquation (par exemple, accepte-t-on que le modèle donne une réponse à une marge près – incertitude expérimentale -, tolère-t-on que le modèle ne rende pas compte de toutes les expériences – problématique des « points aberrants » -, …).

- Critère d’optimalité : il reste souvent plusieurs modèles appartenant à la classe des solutions envisagées et satisfaisant le critère d’adéquation (parfois même, une infinité) ; or certains semblent préférables aux autres (critère de simplicité par exemple) (cf. p. ex. [Kayser,1975]).

Ces choix une fois faits, il faut, pour que le niveau de correspondance « entrée-sortie » ait un sens, que les résultats humains soient reproductibles (ou que la notion de probabilité de réponse soi correctement établie). Un point particulièrement sensible en M.C., et qui me semble sous-estimé, concerne la question de la sélection des données pertinentes : que le modèle produise, à partir de certaines données, des « sorties » jugées correspondre aux performances humaines n’a de valeur que si l’on considère que ces données ne sont pas les seules qui étaient disponibles, et qu’ayant vraisemblablement été choisies comme pertinentes par l’être humain, il faudrait que ce critère de choix soit aussi modélisé. Enfin, les données rejetées en début d’analyse peuvent s’avérer importantes au fur et à mesure de l’évolution du phénomène modélisé ; on connaît peu de choses sur cette faculté de modifier en cours de processus la partie des données jugées utiles.

Un niveau plus fin de correspondance entre le modèle et le processus cognitif analysé concerne la prise en compte du temps de réponse, mais affirmer que les résultats du modèle doivent « correspondre » aux résultats expérimentaux laisse encore subsister bien des incertitudes : demander que ces temps de réponse soient identiques est proprement inconcevable ! Une telle coincidence serait extraordinairement difficile à obtenir… et représenterait une prouesse technique sans réel contenu scientifique, puisque les substrats sont trop différents pour qu’une identité des temps de réaction apporte une connaissance de l’un par l’autre. Une exigence plus faible, la proportionnalité des temps semble encore déraisonnable, en gros pour les mêmes raisons. Peut-être même la simple monotonie (le modèle met moins de temps à résoudre la tâche A que la tâche B si et seulement si l’homme résout A plus vite que B) n’est ni nécessaire ni suffisant pour comprendre le mécanisme de résolution humain, car les données pertinentes sont plutôt des ordres de grandeur relatifs que des comparaisons strictes sur des données numériques. En fait, si l’on adopte littéralement l’hypothèse selon laquelle la cognition serait un calcul (une « computation »), l’information la plus importante à acquérir par l’étude des temps de réaction serait la « classe de complexité » (logarithmique, polynômiale, exponentielle, …) qui pourrait se mesurer par l’accroissement du temps en fonction de la « taille » du problème à résoudre ; un modèle ne respecterait le critère d’adéquation que si sa classe de complexité était la même que celle détectée chez le sujet humain. Mais même sous cette hypothèse, il faut tenir compte du fait qu’une différence quantitative de taille peut engendrer une variation qualitative de la stratégie mise en œuvre, ce qui perturbe considérablement la comparaison. Le dernier niveau de correspondance que nous considérerons, celui qui mérite probablement le plus d’attention, concerne la modélisation non seulement des entrées sorties, mais aussi des états intermédiaires. C’est d’ailleurs parfois la ligne de démarcation que l’on trace entre I.A. (modélisation des résultats) et M.C. (modélisation de la façon d’y parvenir). Cependant, l’objectif d’une telle modélisation est extrêmement difficile à définir ; tout d’abord, il présuppose la notion d’état. On trouve à la fois en Philosophie et en Psychologie Cognitive de fréquentes allusions à la notion « d’état mental ».

Il me semble que ni les découvertes récentes des Neurosciences, ni certains modèles « connexionnistes » de la cognition (p. ex. celui de [Shastri,1989]) ne justifient l’emploi du mot « état » pour décrire le fonctionnement d’un système intelligent ; un tel système semble au contraire posséder une dynamique, et ce ne peut être que par des observations de stationarité (p. ex. évolution périodique) ou par une abstraction – qui serait délicate à justifier (évolution quasidiscrète) – que la notion d’état pourrait s’introduire. Supposon cependant cet obstacle contourné ; il est évident (cf. la discussion sur les temps de réponse) qu’on ne peut avoir identité entre l' »état mental » du sujet humain et ce qui en tient lieu dans le modèle ; on ne peut pas non plus imposer qu’il y ait parfaite correspondance entre ces états (parm l’énorme quantité de paramètres décrivant un état, certains sont probablement sans importance vis-à-vis de la tâche cognitive) ; une relation d’équivalence entre états doit donc être définie. On ne peut imposer non plus que tous les états intermédiaires du modèle soient équivalents à des états intermédiaires attestés : modéliser n’est pas dupliquer. Probablement suffit-il à notre critère d’adéquation que certains points intermédiaires jugés particulièrement significatifs pour le sujet humain possèdent un homologue dans le modèle.

Remarquons enfin qu’une modélisation à un niveau trop fin fait d’une certaine manière « disparaître » le phénomène à modéliser. Le célèbre livre de Hofstadter [1985] donne d’innombrables exemples où la description d’un objet varie du tout au tout suivant le recul que l’on prend pour l’observer. D’une façon semblable, [Shoham,1989] montre que la notion d’action n’a plus aucun sens si l’on considère les agents comme des phénomènes physiques entièrement déterministes. D’autres niveaux de correspondance auraient pu être envisagés : on parle parfois d’une exigence d’analogie entre l’architecture du modèle et l’architecture « cognitive » du sujet ; cette notion me semble particulièrement difficile à manier, en particulier dans le cadre d’une évaluation. En revanche, il serait, sinon plus facile, du moins plus révélateur, de comparer les « erreurs » faites par le modèle avec celles du sujet : là aussi, imposer aux erreurs d’être « les mêmes » semble excessif, mais juger la pertinence du modèle par une certaine similitude entre les comportements imprévus de celui-ci et les réactions d’un sujet à des situations hors normes ne serait pas sans intérêt (cf. la notion de malrule dans certains systèmes d’Enseignement Assisté par Ordinateur).

La plupart des arguments que nous avons développés convergent vers l’idée qu’il faut disposer d’une « proto-théorie » ou d’un « proto-modèle » pour décider à la fois du niveau de correspondance intéressant entre les faits et le véritable modèle, et des étapes « significatives » que ce dernier doit respecter. Mais une telle exigence reste bien floue, ce qui ne facilite pas la tâche d’évaluation du modèle.

4. Discussion :

Les points qui paraissent les plus intéressants sur le plan des échanges scientifiques entre Psychologie Cognitive et I.A. me semblent, en l’état actuel, être les suivants :

4.1. Importations de l’I.A. en provenance de la Psychologie Cognitive :

Après une phase exploratoire durant laquelle elle a essayé un peu toutes les idées qui se présentaient à elles, l’I.A. s’est concentrée sur quelques problèmes cruciaux au premier rang desquels la représentation des connaissances ; et pour éviter la prolifération de techniques de représentation incompatibles et difficilement évaluables l’une par rapport à l’autre, elle s’est fortement inspirée – à tort ou à raison (cf. p. ex. [McDermott,1987] [Kayser,1990]) – de la logique mathématique. C faisant, elle a eu tendance à négliger des caractéristiques essentielles des connaissances, que les Psychologues connaissent bien, sans toujours être capables d’en proposer des modèles convaincants.

L’I.A. devrait se pencher beaucoup plus sérieusement qu’elle ne l’a fait jusqu’ici sur l’idée de représentations partiellement analogiques ; c’est déjà implicitement cette idée qui a contribué au succès des réseaux sémantiques, dont la plupart sont équivalents à une représentation logique (mais pas toujours en logique classique), et qui possèdent en outre des propriétés proches de représentations analogiques (on peut avoir envie d’y définir des notions de propagation, de proximité, de recherche de motifs, notions qui n’effleureraient pas l’esprit dans la formulation logique « équivalente »). Quoique la métaphore analogique y soit moins perceptible, c’est bien une démarche du même genre qui a permis à l’I.A. de « récupérer » la notion psychologique de « schéma » qui a donné les divers avatars de scripts, scénarios, « frames », pour aboutir aux langages « orientés-objet » que l’I.A. a transmis à l’Informatique ordinaire.

C’est probablement le même genre d’idée qui devrait être exploité dans un domaine certainement promis à une rapide évolution : la représentation cognitive des relations spatio-temporelles (parmi les apports les plus récents, on mentionnera les travaux effectués à Toulouse autour de Mario et d’Andrée Borillo, p. ex. [Vieu,1991]). Une représentation « réaliste » (le temps mesuré comme un nombre réel, l’espace repéré en coordonnées cartésiennes ou polaires) n’a manifestement pas les propriétés expliquant la facilité – et les erreurs – des opérations mentales que nou effectuons en permanence. Or la notion d’image mentale (cf. p. ex. [Denis,1989]) possède justement certaines propriétés « analogiques » mais il est bien connu qu’elle ne les possède pas toutes. Une problématique de la représentation « partiellement analogique » semblerait donc de nature à faire progresser les deux disciplines. À titre de remarque, on observera que les spécialistes de la synthèse d’image se plaignent également du recours à des méthodes trop voisines de la réalité : une image qui répond au « cahier des charges » de son concepteur n’est pas forcément une « réalité virtuelle » (pas plus que les tableaux des meilleurs peintres ne sont les fidèles reflets de leur perception).

Ayant mis l’accent sur cet axe de recherche potentiellement fécond, je ne méconnais pas les autres domaines, peut-être presque « traditionnels » de coopération entre I.A. et Psychologie Cognitive, comme l’apprentissage, la mémorisation des textes, la résolution de problèmes, la planification

4.2. Importations de la Psychologie Cognitive en provenance de l’I.A.

Ici aussi, je ne cherche pas à faire un bilan complet, mais à montrer des domaines de coopération attestés ou prometteurs. Il me semble à ce sujet que la Psychologie a fait un emploi – quelquefois critiqué comme trop littéral – des modèles informatiques de processus (notion d programme, d’instruction, …) mais qu’elle en est restée à une vision très séquentielle de cette notion, et n’a pas (encore ?) pris suffisamment en compte la richesse des travaux informatiques sur le parallélisme, la synchronisation et d’une façon plus générale, ce que l’on nomme aujourd’hui l’informatique répartie. Nous avons vu que les notions informatiques de langages « orientésobjet » devaient certainement leur origine à la Psychologie, mais celle-ci pourrait réimporter plus nettement dans son arsenal les notions de représentation par objets et de langages d’acteur (cf. p. ex. [Ferber,1989] [Minsky,1988]).

Enfin, les réalisations de « modèles partiellement analogiques » que nous appelions de nos vœux à la section précédente pourraient prendre comme point de départ les travaux récents sur le raisonnement qualitatif (p. ex. [De Kleer & Brown,1986] [Dormoy,1987]) et/ou sur leraisonnement à ontologie variable ([Kayser,1990]). On peut s’étonner de ne pas trouver ici d’allusion au connexionnisme. Il importe à mon avis de distinguer l’approche connexionniste comme heuristique pour découvrir plus rapidement et plus exactement des modèles « symboliques », en « décompilant » en quelque sorte le réseau comme le propose p. ex. [Victorri,1988], et cette approche comme modèle en elle-même. Dans les deux cas, il s’agit certainement d’un outil de première importance – s’il est bien employé, car on voit sous ce libellé des projets extrêmement divers, par leur motivation comme par leur qualité – mais la vision ambitieuse du connexionnisme en tant que modèle ne répondra pleinement au cahier des charges que nous nous sommes fixés que s’il permet également de donner une explication de ses résultats.

5. Conclusion :

Contrairement à ce qu’on avait pu croire à différents stades de leur développement, l’I.A. et la Psychologie Cognitive restent séparées, ne serait-ce que parce que les critères d’évaluation de leurs modèles diffèrent. Leur « filiale commune », la Modélisation Cognitive, est un laboratoire fécond pour les deux maisons-mères, mais elle présuppose une notion de « Plausibilité Psychologique » qui me paraît être et devoir rester en théorie comme en pratique difficile à cerner. Une ambition plus raisonnable serait de pouvoir définir un ordre partiel sur les modèles, c’est-à-dire de répondre, en employant certains des critères discutés ici, pour quelques paires (M1,M2) de modèles « cognitifs » proposés : « M1 est un meilleur modèle que M2 ».

Références bibliographiques :

- Nelly DARCEL, Marie-Claude ESCARABAJAL Résolution de problème et formalisme objet Congrès Cognitiva-87, Actes, pp. 85-92, Paris , Mai 1987.

- Johan DeKLEER, John Seely BROWN : A Qualitative Physics based on Confluence. Artificial Intelligence, vol. 24, n° 1-3, pp. 7-83, 1986. [Dellarosa,1986] D.DELLAROSA : A Computer Simulation of Children’s Arithmetic Word Problem Solving. Behavior Research Methods, Instruments & Computers, vol. 18, n° 2, pp. 147-154, 1986.

- Michel DENIS : Image et cognition. Presses Universitaires de France, 1989.

- Jean-Luc DORMOY Résolution qualitative : complétude, interprétation physique et contrôle. Mise en œuvre dans un langage à base de règles : Boojum. Thèse de Doctorat en Informatique de l’Université Paris 6, 14 Décembre 1987.

- Jacques FERBER : Objets et agents : une étude des structures de représentation et de communication en Intelligence Artificielle. Thèse de Doctorat d’État. Université Paris 6, 1989.

- Jean-Gabriel GANASCIA : L’âme-machine. Les enjeux de l’intelligence artificielle. Seuil, 1990.

- Douglas HOFSTADTER : Gödel, Escher, Bach ; les Brins d’une Guirlande Eternelle. InterÉditions, 1985.

- James J.HORNING : A Procedure for Grammatical Inference. Congrès IFIP-71, Ljubljana, Actes TA-3, pp. 188-192, Août 1971.

- Daniel KAYSER Définition d’un critère pour la construction de règles par apprentissage sur ordinateur. Application à l’analyse heuristique d’énoncés en langage naturel. Thèse d’État. Université Pierre & Marie Curie, 7 Janvier 1975

- Daniel KAYSER : Le raisonnement à profondeur variable Actes des Journées Nationales du PRC-GRECO Intelligence Artificielle, pp. 109-136, Éditions Teknea, Toulouse, Mars 1988.

- Daniel KAYSER : Truth and the Interpretation of Natural Language : a Non-monotonic Variable-depth Approach. Proc. ECAI-90, pp. 392-397, Stockholm, Août 1990.

- Drew V.McDERMOTT A Critique of Pure Reason. Computational Intelligence, vol. 3, pp. 151-160, 1987.

- Marvin MINSKY : La Société de l’Esprit. InterÉditions, 1988.

- Allen NEWELL : Production systems : models of control structures, in Visual Information Processing (W.G.Chase, ed.), pp. 463-526, Academic Press, 1973.

- Zenon W.PYLYSHYN : Computing in Cognitive Science, in Foundations of Cognitive Science (M.I.Posner, ed.) pp 53-91, M.I.T. Press, 1989.

- Lokendra SHASTRI : A connectionist system for rule-based reasoning with multi-place predicates and variables. Technical Rept MS-CIS-89-06, Dept. of Comp. and Inf. Sc., Univ. of Pennsylvania, Philadelphie, 1989.

- Yoav SHOHAM : Time for Action : On the Relation Between Time, Knowledge and Action. Proc. of the 11th IJCAI pp. 54-959 & 1173, Detroit, Août 1989.

- Herbert SIMON, Allen NEWELL : Heuristic Problem Solving : the Next Advance in Operation Research, Operation Research, vol. VI, pp. 1-10, 1958.

- Bernard VICTORRI : Modéliser la polysémie, T.A.Informations, vol. 29, nos 1-2, pp. 21-42, 1988.

- Laure VIEU : Sémantique des relations spatiales et inférences spatiotemporelles : une contribution à l’étude des structures formelles de l’espace en Langage Naturel Thèse de Doctorat de l’Université Paul Sabatier, Toulouse, 22 Avril 1991. Notes :

1. Texte d’une conférence donnée par H.Simon le 14.11.1957, puis publié sous la signature conjointe de H.Simon et A.Newell dans [Simon & Newell,1958]. Ces précisions sont extraites de Ganascia, 1990, p.80.

Aller au contenu principal