Axel Cleeremans

Hans le Malin

#1

Les sciences cognitives à la croisée des chemins


Axel Cleeremans


08hans-1.jpg




1. Hans


“Combien de femmes dans l’audience possèdent une ombrelle?”

“J’ai un nombre en tête. Je soustrais 9, et il me reste 3. Quel est le nombre?”

“Combien font deux cinquièmes plus un demi?”

“Quels sont les facteurs de 28?”


A toutes ces questions et à bien d’autres plus complexes encore, Hans pouvait répondre sans faillir et rapidement. Ses compétences arithmétiques étaient en fait tellement surprenantes qu’il devint rapidement la coqueluche d’un très large public européen, tant populaire que couronné. Pour quelqu’un du début du 20ème siècle, Hans voyageait beaucoup. Sa photo illustrait des cartes postales. On écrivit deux monographies le concernant ainsi que des dizaines d’articles, et on s’en inspira pour fabriquer des poupées à son image. On ne saura malheureusement jamais si Hans réalisa un jour combien il était apprécié. Hans, en effet, était un cheval, et les chevaux, en général, sont incapables de vous dire ce qu’ils pensent.


Et pourtant, Hans calculait. Comment? La plupart des auteurs de l’époque avancent des théories visant a réduire les habiletés de Hans. Certains considèrent donc que les animaux disposent d’une mémoire d'une capacité “phénoménale” et que Hans connaissait les bonnes réponses uniquement parce qu’on lui posait toujours les mêmes questions dans les mêmes circonstances. D’autres évoquent la fraude, pensant avoir détecté des mouvements oculaires suspects chez M. Von Osten — le maître du cheval —, ou s’interrogeant sur les raisons pour lesquelles ce dernier portait toujours un manteau particulièrement long. D’autres encore font appel à des explications plus farfelues: Von Osten aurait communiqué les réponses à Hans via les rayons N que génèrent le cerveau en activité; Hans était sous “l’influence magnétique de l’homme”; Hans était particulièrement “suggestible”.


Tel était le problème comme il se présentait aux membres de la “commission Hans”, installée par la ville de Berlin en 1904, et composée d’un ensemble éclectique d’experts, parmi lesquels on retrouvait notamment un directeur de cirque ainsi que plusieurs éminents universitaires, dont un vétérinaire, et surtout un psychologue célèbre, le professeur Carl Stumpf, alors directeur de l’Institut Psychologique de l’Université de Berlin.


Dans leur rapport final daté du 12 Septembre 1904, les commissaires concluent prudemment que les compétences de “Hans le malin “ ne pouvaient en tous cas pas être attribuées à une simple fraude organisée par M. Von Osten, et que le cas “Hans” méritait en cela qu’on s’y intéresse de plus près. Il faut dire que la controverse faisait rage, et à juste titre sans doute: C’est que Hans, avec son intelligence aussi insolente que mystérieuse, ranimait l’ancien et noble débat concernant la “conscience animale”. Oskar Pfungst, l’étudiant que Stumpf chargea d’élucider l’affaire Hans, décrit ainsi trois positions concernant la nature de la conscience animale dans l’ouvrage qu’il consacra à ses investigations (Pfungst, 1911/1965).


Premièrement, d’après Pfungst, il y a ceux qui considèrent que les animaux ont certes une certaine forme de conscience, mais limitée. En particulier, les animaux ont une mémoire qui leur permet d’associer des sensations et donc d’apprendre, mais ils demeurent incapables de former des concepts généraux ou de raisonner. Il y a donc une différence fondamentale et irréductible entre la conscience animale et celle de l’homme.


Deuxièmement, Pfungst mentionne la conception cartésienne de l’animal comme machine brute sans vie psychique — capable donc de réagir aux stimuli, mais à la manière d’un zombie, c’est-à-dire sans qu’il y ait “quelqu’un à la maison” (Chalmers, 1996). Les animaux, dans cette perspective, ne seraient donc que ce que l’on appelle aujourd’hui des robots.


Finalement, une troisième conception des rapports entre conscience animale et humaine met l’accent sur l’idée qu’elles s’inscrivent, malgré le fossé qui les sépare, dans un continuum, et que les différences qui existent entre elles sont donc plus une question de degré que le reflet de natures distinctes.


Ces trois conceptions de la conscience animale décrites par Pfungst se retrouvent aujourd’hui quasiment inchangées dans d’autres contextes théoriques, et j’y reviendrai dans la suite de cet article. Mais avant, il faut conclure l’histoire. Qu’en est-il vraiment de Hans le malin? Armé de la toute nouvelle méthode expérimentale, Pfungst va apporter à cette question une réponse simultanément surprenante et triviale (et qui laisse par ailleurs les véritables problèmes intacts).


Pfungst, en effet, fait rapidement une série de remarques importantes en observant Von Osten interroger Hans. Ce dernier répondait aux questions posées en tapant du sabot autant de fois que nécessaire pour exprimer la réponse (qui était généralement, mais pas toujours, numérique). Pfungst découvre d’emblée que n’importe qui peut interroger Hans avec succès, ce qui élimine donc définitivement l’hypothèse d’une connivence frauduleuse entre Von Osten et son cheval, ou plutôt d’une manipulation du public par Von Osten rendue possible par le concours involontaire de Hans.


Ensuite, Pfungst remarque que Hans se trompe plus fréquemment dans ses réponses (1) quand il ne voit pas le questionneur, (2) quand la distance entre ce dernier et le cheval augmente, et (3) quand le questionneur ne connaît pas lui-même la réponse au problème posé. Ces indices amènent Pfungst à considérer que Hans se fonde sur des indices visuels pour produire ses réponses. Une observation approfondie fera finalement apparaître que Hans utilise en fait l’inclinaison de la tête du questionneur pour commencer à taper du sabot, et le redressement de la tête, ainsi que d’autres indices tels que la dilatation des pupilles ou des narines du questionneur, pour cesser. Pfungst établit par ailleurs que le rythme avec lequel Hans tape du sabot dépend du degré d’inclinaison de la tête du questionneur — un aspect de son comportement qui avait longtemps alimenté la controverse dans la mesure où il semblait que Hans comprenait, en quelque sorte, qu’il faudrait taper longtemps quand le nombre demandé était grand!


Crucialement, Pfungst démontre également que les questionneurs ne sont pas conscients des indices qu’ils transmettent à Hans. C’est donc en toute bonne foi que Von Osten défendait l’intelligence de son cheval: Il n’y avait point de fraude.


Les interprétations de Pfungst seront ultérieurement confirmées expérimentalement, en laboratoire, où Pfungst lui-même jouera le rôle de Hans (en tapant du poing sur la table) et parviendra ainsi à deviner mieux que le hasard ne l’aurait prédit le nombre auquel pensaient les sujets de l’expérience, dont la seule consigne était, précisément, de penser à un nombre compris entre 0 et 100. Les sujets, tout comme Von Osten, produisaient donc involontairement divers mouvements que Pfungst s’était entraîné à détecter. Ce genre d’effets — qui mettent en évidence comment les attentes des expérimentateurs peuvent en fait influencer involontairement la performance des sujets — seront ultérieurement explorés in extenso par Rosenthal (par exemple, 1964), qui leur donnera son nom. Ses recherches motiveront par la suite la généralisation de situations expérimentales en “double aveugle” afin précisément de contrôler l’indésirable “effet Rosenthal”.


2. Les Sciences Cognitives à la croisée des chemins 


L’histoire de Hans le Malin, outre la fascination que peut susciter son caractère dramatique et rocambolesque, est intéressante à plus d’un titre. Si on l’a souvent utilisée comme une démonstration quasi-paradigmatique des bienfaits de la méthode expérimentale, elle soulève également d’autres questions qui trouvent un écho particulier dans le contexte des sciences cognitives. Spécifiquement, la sincérité de tous les acteurs qui gravitent autour du cheval (étant entendu qu’il n’y a pas lieu de s’interroger sur la sincérité de ce dernier), y compris son maître Von Osten et les divers experts de la commission, démontre fort bien comment une partie de notre comportement peut échapper entièrement à l’introspection et même à l’observation. Ceci est la première question que soulève l’histoire du cheval, et que je voudrais évoquer brièvement dans cet article: Quel est le rôle de la conscience dans la cognition? Toutes nos activités mentales sont-elle conscientes? Comment faut-il concevoir les rapports entre conscient et inconscient? Quelles méthodes peut-on utiliser pour décider si un comportement est conscient ou non? Ces questions, bien qu'elles n'aient jamais véritablement cessé d'intéresser les sciences cognitives, sont aujourd'hui au centre d'un renouveau d'intérêt spectaculaire concernant la nature et les mécanismes de la conscience.


La deuxième problématique intéressante que soulève l’histoire de Hans est d’un ordre ontologique. Avec le travail expérimental de Pfungst, nous passons brutalement d’une vision un peu mystérieuse des facultés mentales — un cheval qui calcule! — à une perspective somme toute fort désenchantée (voir Prigogine & Stengers, 1979) de la cognition: Loin de calculer, loin de connaître les lois de l’arithmétique, Hans se contente en fait d’observer son environnement et de réagir, d’une manière qui s’accorde avec les demandes de sa tâche, à des indices certes subtils, mais néanmoins élémentaires. Hans, en fin de compte, n’est sans doute pas beaucoup plus malin qu’une aplasie.


C'est à une déconstruction similaire que l'on assiste aujourd'hui dans de nombreux domaines différents de la psychologie cognitive, sous le double impact des recherches en intelligence artificielle et en neurosciences. En effet, les recherches en intelligence artificielle, par exemple, nous ont abondamment démontré au cours des dernières décades comment il est possible pour une machine d'exhiber une intelligence comparable à celle de l'homme, en tous cas dans certains domaines (qui, ironiquement, sont précisément ces domaines ou l'homme se comporte le plus comme une machine!). Chacun se rappellera, par exemple, de l'émotion suscitée en 1997 par la victoire de l'ordinateur "Deep Blue" sur Gary Kasparov, alors champion du monde aux échecs. Cet évènement, ainsi que de nombreuses autres démonstrations similaires, est comparable à l'histoire de Hans en ceci qu'avant "Deep Blue", on pouvait encore penser que le génie aux échecs demeurerait l'apanage exclusif de l'homme — exactement comme Von Osten et les innombrables témoins des exploits du cheval pouvaient, avant l'arrivée de Pfungst, entretenir l'illusion que Hans était doté de facultés exceptionnelles. 


C’est donc en quelque sorte plusieurs cycles récurrents dans l’histoire de la psychologie qui se trouvent ainsi condensés dans le cas de Hans le Malin: De l’introspection au béhaviorisme, de la psychologie cognitive à l’intelligence artificielle, les progrès scientifiques semblent souvent consister en une succession de tentatives renouvelées de démystification du savoir de la décade précédente, que l'on réinterprète alors à la lumière de nouvelles données permettant d'enraciner ce savoir dans un niveau de description plus élémentaire. La nature semble perdre ainsi chaque fois un peu plus de sa magie. Dans le domaine des sciences cognitives, il ne fait aucun doute que les succès de l'intelligence artificielle ont contribué à ce processus — essentiel — de décontraction.


Aujourd’hui, les sciences cognitives se trouvent une fois de plus à la croisée des chemins, cette fois sous l’influence des neurosciences. On ne peut sous-estimer l'impact grandissant que les techniques d'imagerie cérébrale exercent sur la recherche en psychologie cognitive. Leur importance est rendue limpide par l'abondance sans précédent de résultats expérimentaux que nous a fourni la dernière décade de ce millénaire finissant. Chaque jour qui passe nous informe un peu plus sur les détails du fonctionnement de notre système visuel, sur la manière dont les synapses modifient leurs propriétés de transmission en fonction de l'expérience, sur la manière dont le cerveau se développe, sur les interactions entre différentes régions du cortex, ou encore sur les conséquences fonctionnelles de différentes lésions. C'est ainsi qu'on a pu montrer, par exemple, que l'hippocampe des chauffeurs de taxi londoniens est particulièrement élargi par contraste avec celui de sujets n'ayant pas dû mémoriser la géographie complexe de la ville (Maguire et al., 2000) . Ce résultat, ainsi que de nombreux autres, nous montre que l'apprentissage laisse des traces détectables dans le cerveau — une conclusion qui n'a rien de surprenant pour autant que l'on soit convaincu, comme tout matérialiste, que le traitement de l'information est entièrement enraciné dans l'activité du cerveau, mais qui change néanmoins radicalement la manière dont les psychologues doivent penser les rapports entre cerveau et esprit. En effet, exactement de la même manière que la méthode expérimentale de Pfungst a permis à la psychologie de dépasser les limites de l'introspection, les neurosciences promettent aujourd'hui à la psychologie la possibilité de dépasser les limites qu'imposent les méthodes comportementales, à savoir le fait que nos raisonnements concernant le fonctionnement de l'esprit sont nécessairement basés sur une inférence — celle qui nous permet de relier l'observable au privé, le comportement à notre vie mentale.


En suscitant l'espérance d'enraciner définitivement le mental dans le biologique, les neurosciences, avec l'arsenal technologique remarquable dont elles disposent, font donc rêver, tout en inquiétant les psychologues qui voient en elles une nouvelle menace pesant sur le devenir des sciences de l'esprit. 


3. Le problème de la conscience


Et pourtant... le philosophe américain David Chalmers, suivant en cela d'autres penseurs comme Thomas Nagel, a clairement mis en évidence quelles étaient les limites de cette nouvelle perspective. D'après Chalmers (1996), il faut diviser les problèmes qui intéressent les sciences cognitives en deux groupes. D'une part, il y a ce qu'il appelle les "problèmes faciles", qui concernent essentiellement toutes les questions dont se préoccupent tant la psychologie cognitive que l'intelligence artificielle ou les neurosciences: La manière dont le système visuel traite l'information, les processus qui nous permettent d'effectuer des mouvements ou de comprendre la parole, l'organisation de la mémoire, les processus qui nous permettent de reconnaître les visages, ceux qui nous permettent de raisonner, etc. Pour chacune de ces questions, nous sommes d'ores et déjà en mesure d'imaginer des solutions computationnelles et neurales. Tant les recherches en intelligence artificielle que les recherches en neurosciences nous démontrent que ce sont là des problèmes qui, sans être pour autant entièrement résolus (et parfois loin de là!), sont en tous casexplorables empiriquement, c.-à-d. via la méthode expérimentale. A ces problèmes Chalmers oppose ce qu'il appelle le "problème difficile", à savoir le problème de l'expérience phénoménale. Pourquoi le traitement de l'information nous fait-il quelque chose, demande Chalmers? Quelle est la différence entre un être humain nommant la couleur rouge quand on la lui montre, et une machine capable de produire la même réponse? A ces questions, personne ne peut apporter une réponse convaincante aujourd'hui. Pire encore, nous ne savons pas encore quelle forme prendra une éventuelle explication. L'existence même d'une explication est remise en cause par Thomas Nagel quand il nous demande, dans son article éponyme (Nagel, 1974), "Quel effet cela fait-il d'être une chauve-souris?" — question à laquelle il répond que nous ne le saurons jamais même dans l'éventualité ou nous aurions une compréhension parfaite du fonctionnement du système nerveux des chiroptères. Comme nous le verrons dans la suite, le problème soulevé par Chalmers est particulièrement épineux pour l'intelligence artificielle et pour la psychologie cognitive traditionnelle, dans la mesure ou les deux champs de recherche ont souvent eu tendance à développer des modèles du traitement de l'information qui s'inspirent exclusivement du traitement conscient que l'homme réalise.


4. La quête du Graal, ou les corrélats neuraux de la conscience 


La conscience, et plus particulièrement la conscience phénoménale, est donc le problème central auquel s'attaquent aujourd'hui les neurosciences. Cet effort prend la forme d'un vaste programme de recherche consacré aux "corrélats neuraux de la conscience" (neural correlates of consciousness, ou NCC; voir Frith, Perry & Lumer, 1999), et qui à pour objet d'établir des rapports entre états du cerveau et états subjectifs. Partant du point de vue peu contestable que tout état mental trouve nécessairement son origine dans un état du cerveau, la recherche des corrélats neuraux de la conscience implique que l'on tente de contraster des états neuraux accompagnés d'une expérience phénoménale avec des états neuraux qui ne sont pas accompagnés d'une telle expérience. Frith et al. distinguent ainsi plusieurs possibilités empiriques, applicables à des paradigmes impliquant la perception, l'action, ou la mémoire.


Une première possibilité consiste à explorer ce qui se passe quand l'expérience subjective change alors que la stimulation ou le comportement demeurent constants. Outre l'étude de patients présentant des hallucinations ou des confabulations, on peut, chez le sujet normal, explorer ce qui se passe dans les situations de rivalité binoculaire, dans lesquelles une image différente est présentée à chaque œil. L'expérience des sujets placés dans une telle situation est celle d'une succession d'alternances entre la perception complète du stimulus présenté à l'œil gauche et la perception complète du stimulus présenté à l'œil droit. En demandant aux sujets d'indiquer lequel des deux stimuli ils perçoivent à un moment donné, alors que l'on enregistre simultanément l'activité de leur cerveau, on peut obtenir une image des régions cérébrales dont l'activité varie plus en fonction de l'expérience subjective des sujets qu'en fonction du stimulus (qui, en l'occurrence, demeure constant). A ce jour, les résultats obtenus grâce à cette situation de rivalité binoculaire demeurent controversés; certains auteurs affirmant avoir pu montrer que seules certaines régions du système visuel voient leur activation corréler avec l'expérience subjective des sujets alors que d'autres concluent au contraire que l'ensemble des régions concernées contribuent à la formation d'une expérience consciente.


Une deuxième possibilité consiste à faire en sorte que l'expérience subjective des sujets demeure constante alors que la stimulation ou le comportement changent. L'étude des corrélats neuraux de stimuli présentés dans l'hémichamp aveugle de patients souffrant de lésions dans les régions primaires du cortex visuel constituent un exemple de ce type de situation. De manière surprenante, ces patients demeurent capables de décider si ou quel objet leur ont été présentés, alors même qu'ils déclarent ne rien percevoir dans la région de l'espace concernée. Ce phénomène de "vision aveugle" (ou "blindsight", voir par exemple, Weiskrantz, 1986) est un des plus étudiés dans le domaine.


Finalement, une troisième possibilité d'étude des corrélats neuraux de la conscience nous est offerte par une ensemble de paradigmes dans lesquels le comportement change alors que l'expérience subjective demeure constante, comme c'est la cas dans diverses situations d'amorçage masqué, d'amnésie, d'agnosie visuelle, ou encore d'apprentissage implicite. Ce dernier phénomène (voir Cleeremans, Boyer & Destrebecqz, 1998, pour une revue de questions) constitue un bon exemple dans la mesure où les sujets manifestent le développement d'une sensibilité à certains aspects du matériel qu'on leur fait apprendre au travers de leur comportement (en réagissant plus rapidement qu'avant apprentissage à l'apparition d'un stimulus, par exemple), tout en demeurant incapables de spécifier ce qu'ils ont appris où même de se réaliser qu'ils ont appris quelque chose. En quelque sorte, ces sujets se comportent exactement comme Hans: Ils "calculent", mais sans le savoir. L'intelligence artificielle et la modélisation ont joué un rôle central dans le domaine particulier de l'apprentissage implicite, en démontrant notamment, exactement comme Pfungst l'a fait pour Hans, que les sujets ne "calculent" peut-être rien du tout dans de telles situations. En d'autres termes, on peut comprendre leur comportement sur base de la mise en jeu de processus d'adaptation élémentaires plutôt que sur base d'un traitement cognitif complexe, mais inconscient.


On peut dès lors espérer, comme Frith et al., que l'exploration systématique de ce genre de situations expérimentales permettra d'isoler ces fameux "corrélats neuraux de la conscience". De nombreux corrélats potentiels ont par ailleurs déjà été identifiés; citons par exemple la synchronie entre différents groupes de neurones autour d'une fréquence de 40 Hz, la connectivité réciproque entre thalamus et cortex, certains neurones dans le cortex temporal inférieur, etc. Il serait illusoire, néanmoins, d'espérer identifier un seul système responsable de la conscience, ou un seul principe du traitement de l'information que l'on pourrait estimer comme central pour la formation de l'expérience subjective. C'est que, d'une part, la recherche des corrélats neuraux de la conscience n'est pas entièrement exempte de difficultés épistémologiques (voir Cleeremans & Haynes, 1999, pour une discussion), mais aussi, d'autre part, qu'elle ne dispense pas de la nécessité de penser la forme que pourraient prendre d'éventuelles explications causales des mécanismes de la conscience. 


5. Que pourrait être une conscience artificielle?


En effet, exactement de la même manière que l'on peut s'interroger sur les différences qui existent entre états neuraux accompagnés ou pas de conscience, on peut également se poser la question de savoir quels pourraient être les différences entre états computationnels accompagnés ou pas de conscience. C'est ici que la recherche en intelligence artificielle vient utilement compléter les protocoles expérimentaux des chercheurs en neurosciences cognitives.


Mes collaborateurs et moi-même avons récemment (Atkinson, Thomas & Cleeremans, 2000) proposé d'organiser différentes théories computationnelles de la conscience en fonction de deux dimensions. Une première dimension oppose des modèles qui supposent que la conscience dépend de propriétés des représentations impliquées dans le traitement de l'information à des modèles qui supposent que la conscience dépend de processus particuliers de traitement de l'information. La deuxième dimension oppose des modèles qui supposent que la conscience dépend de systèmes spécifiques dans le cerveau à des modèles qui supposent au contraire que la conscience est un phénomène émergent qui ne dépend pas de l'implication de modules spécialisés. En combinant ces deux dimensions on peut donc diviser l'espace conceptuel dans lequel s'incrivent les nombreuses théories contemporaines de la conscience en quatre quadrants. Par exemple, certaines théories partent de l'hypothèse que nous sommes conscients de toute représentation stable dans le cerveau (par exemple, O'Brien & Opie, 1999). De telles théories postulent donc que la conscience dépend de propriétés des représentations (ici, la stabilité) plutôt que de processus particuliers, et que l'émergence de telles représentations ne dépendent pas de l'implication de modules spécialisés pour la conscience. 


Par contraste, d'autres modèles attribuent un rôle central à l'existence de systèmes spécialisés, comme par exemple la mémoire à court terme, ou le "global workspace", sorte de théâtre intérieur, imaginé par Bernard Baars (1988). Certains autres modèles font jouer un rôle central à certains types de processus, mais sans pour autant localiser ceux-ci dans des régions particulières du cerveau. Tononi et Edelman (1998), par exemple, supposent que la conscience dépend des interactions entre différents groupes neuraux dont l'activité synchrone est intégrée de manière différenciée par rapport à l'activité d'autres groupes.


Dans cette perspective, l’apport de l’intelligence artificielle à l’étude de la cognition est essentiel. En effet, l’intelligence artificielle à ceci de particulier qu’elle permet d’explorer de manière quasi-expérimentale les principes du traitement de l’information. Appliquée au développement de théories en Sciences Cognitives, l'Intelligence Artificielle constitue donc une sorte de Psychologie Théorique, une grammaire qui, à partir de certains axiomes et de « règles du jeu » permet la formulation, l’exploration, et la mise à l'épreuve de possibilités conceptuelles. Dans certains cas, les résultats de ces explorations amènent à redéfinir complètement l’espace des possibles dans un domaine particulier. Par exemple, on a longtemps considéré en psycholinguistique que la formation du passé des verbes fait nécessairement appel à deux systèmes de traitement distincts : Un système qui traite les verbes réguliers, dont le passé est obtenu en appliquant une règle comme par exemple, en anglais, l’ajout du suffixe –ed à la racine du verbe, et un autre système qui traite les exceptions en associant à chaque verbe irrégulier la forme passée correcte. Or, Rumelhart et McClelland (1986) ont montré non seulement que la formation du passé des verbes réguliers n’exige pas nécessairement la mise en jeu de règles symboliques, mais également que le traitement des verbes régulières et irréguliers pouvait être réalisé par un seul et même système! Bien que le débat soit loin d’être terminé aujourd’hui, les recherches de Rumelhart et McClelland ont eu l’immense mérite de démontrer que les résultats expérimentaux obtenus jusqu’alors étaient en fait compatibles avec une théorie très différente des processus engagés dans la formation du passé des verbes. Crucialement, la démonstration de Rumelhart et McClelland ne reposait pas sur de nouvelles données expérimentales, mais bien sur l’exploration des propriétés d’un réseau neuronal simulé.


Cet impact de l'intelligence artificielle en sciences cognitives est loin d'être limité au traitement du langage. En effet, comme je l'évoquais plus haut, le développement de modèles dans le contexte de l'apprentissage implicite a indubitablement permis de démonter ces phénomènes et de montrer, par exemple, que l'amélioration de la performance dans une tâche particulière ne met pas nécessairement en jeu les processus complexes que la tâche semble exiger en première analyse. Chaque exemple met en jeu des processus de déconstruction et de reconstruction qui éclairent d'une manière nouvelle les phénomènes étudiés. Ces processus sont quasiment impossibles à mettre en œuvre en l'absence de modèles implémentés.


Force est de constater néanmoins que quand il s'agit de la conscience, l'intelligence artificielle demeure incapable d'offrir une réponse convaincante à la question de Chalmers. Quels sont les corrélats computationnels de la conscience? A partir de quel moment sera-t-on prêt à attribuer une forme de conscience à un artefact? Si à l'heure actuelle, aucun modèle ne peut espérer fournir une explication de pourquoi le traitement de l'information nous fait quelque chose, il semble néanmoins clair que la compréhension des aspects les plus subjectifs de notre expérience ne peut que bénéficier de la formalisation qu'exige la recherche en intelligence artificielle. C'est ainsi que l'on peut par exemple explorer les conséquences fonctionnelles de l'hypothèse que les représentations conscientes sont des représentations stables dans un réseau de neurones, et examiner dans quelle mesure un tel réseau est capable de reproduire certains résultats expérimentaux dans le domaine de l'amorçage (voir par exemple Mathis & Mozer, 1996).


6. Conscience et Psychologie Cognitive: Data et les Zombies


Qu'en est-il de la question de la conscience dans le champ de la psychologie cognitive? Les psychologues, après avoir longtemps écarté purement et simplement la conscience du champ de l'explorable, se sont plutôt concentrés sur la question des rapports entre conscient et inconscient, et sur les problèmes fort épineux que pose la mise en évidence de différences entre comportements accompagnés de conscience et comportements inconscients. En caricaturant, on peut distinguer deux positions théoriques extrêmes concernant la conscience en psychologie cognitive, que j'appelle respectivement les théories "Zombie" et les théories "Data" (sur base de l'androïde humaniforme que les amateurs de la série télévisée "Star Trek: The Next Generation" ne manqueront pas de reconnaître)


D'une part, de nombreuses théories semblent partir du point de vue que le conscient et l'inconscient sont enracinés dans deux systèmes distincts, mais de complexité équivalente. L'inconscient, en quelque sorte, est structuré exactement comme le conscient, mais sans la conscience. On retrouve ici les traces d'une interprétation populaire de la perspective psychanalytique sur la vie mentale, laquelle semble parfois supposer que nous sommes tous dotés d'une sorte de zombie inconscient (typiquement néfaste ou en tous cas animé de nos désirs et angoisses les plus sombres) capable de gouverner notre comportement à notre insu. La difficulté principale d'une telle conception est précisément qu'elle présuppose que l'inconscient est structuré comme le conscient. En d'autres termes, les représentations mentales ne changent ni dans leur forme, ni dans leur capacité à influencer le comportement en fonction du fait qu'elles soient accessibles ou non à la conscience. Dans une telle perspective, la conscience en tant que telle n'a donc aucune fonction particulière. L'intelligence artificielle classique tombe exactement dans le même travers quand elle nous propose des modèles du traitement de l'information qui ne distinguent pas entre traitement conscient et inconscient. On suppose par exemple, dans certains modèles tels que SOAR (Newell, 1990), que le problème que doit résoudre mon cerveau quand il s'agit de déterminer comment déplacer mon bras pour atteindre une cible donnée dans l'espace est exactement de la même nature que le problème que mon cerveau doit résoudre quand il s'agit de déterminer quel est le meilleur mouvement à réaliser dans une partie d'échecs. Il en est peut être ainsi, mais une telle perspective ignore entièrement le fait que je suis conscient de la plupart des étapes du raisonnement que je tiens quand je joue aux échecs, alors que je serais bien à mal d'expliquer comment je parviens à exécuter avec précision un mouvement complexe sans aucun effort conscient, et sans raisonnement d'aucun type que ce soit. C'est précisément cet abus de "mentalisation", c'est-à-dire la tendance de décrire tout traitement cognitif comme faisant appel à des processus complexes de raisonnement et d'interprétation, que dénonce le philosophe américain John Searle dans son argument de la chambre chinoise et dans de nombreux autres écrits critiques (voir par exemple Searle, 1992).


D'autres auteurs semblent avoir adopté une perspective inverse visant à éliminer d'emblée la question de la conscience et de ses rapports avec l'inconscient. Pour ceux-là, tout traitement de l'information est soit exclusivement neural (ou exclusivement biologique, c.-à.d. du même type que les processus impliqués dans la digestion, par exemple), soit conscient. L'inconscient en tant que lieu dans lequel prend place un traitement cognitif inaccessible à la conscience n'a donc pas de place dans un tel système: La cognition est au contraire fondamentalement transparente. C'est en ceci que de tels modèles ressemblent un peu au système cognitif de Data, le robot humaniforme que l'on peut découvrir dans la série télévisée "Star Trek: The Next Generation". En effet, Data semble tout savoir de son propre fonctionnement, sauf dans de rares circonstances, qui sont systématiquement décrites comme des dysfonctionnements. Ainsi, Data peut décrire avec précision combien de neurones artificiels sont actifs à un moment donné dans son cerveau positronique, vous indiquer exactement quelle est la pression qu'il doit exercer pour ouvrir une porte bloquée, ou encore vous réciter sans hésiter n'importe quel poème de Shakespeare. Outre cette vaste mémoire sémantique et procédurale, Data dispose également d'une mémoire épisodique parfaite, et donc d'un accès instantané et sans failles à l'ensemble des expériences qu'il a vécues. A l'exception centrale de la capacité d'éprouver des émotions, Data se comporte donc, et se considère lui-même comme un être humain — statut que ses protagonistes dans la série télévisée lui ont d'ailleurs reconnu lors d'un épisode fort intéressant dans lequel un jury, confronté à une sorte de test de Turing grandeur nature, devait décider si oui ou non Data était doté de libre arbitre. Data est donc conscient, et même plus, exclusivement conscient. Aucun contenu cognitif n'échappe à son introspection; l'inconscient, chez Data, n'existe pas. Il peut paraître surprenant de trouver les échos de cette fiction dans la littérature scientifique, mais c'est pourtant bien le cas pour de nombreux modèles, tant en intelligence artificielle qu'en psychologie. Les premiers peuvent en effet être compris autant comme des modèles de type "Zombie" que comme des modèles de type "Data", dans la mesure où la conscience n'y joue simplement aucun rôle. Un même modèle peut ainsi fort bien être décrit soit comme simulant les étapes conscientes d'un raisonnement, soit comme simulant les processus inconscients impliqués, par exemple, dans la planification d'un mouvement. En psychologie, bien qu'aucune théorie ne soit aussi caricaturale que les paragraphes précédents, on retrouve néanmoins un certain nombre d'idées selon lesquelles tout traitement cognitif s'accompagne nécessairement de conscience (par exemple, Perruchet, Vinter & Gallego, 1997, O'Brien et Opie, 1999, ou encore Shanks & StJohn, 1994). Ces modèles sont tous caractérisés par l'idée centrale que la notion de représentation inconsciente n'existe pas. Nonobstant les difficultés méthodologiques réelles que pose la question de savoir comment déterminer si une représentation est consciente ou pas, une telle position théorique semble difficilement défendable en principe.


Comme c'est le cas pour les théories de type "Zombie", le problème conceptuel central auquel sont confrontées de tels modèles (outre leur caractère implausible à priori) est celui d'attribuer une fonction à la conscience. Si tout traitement cognitif s'accompagne de conscience, cette dernière n'a donc pas plus de fonction ici que dans les théories de type "Zombie". Cette question de la fonction de la conscience est une question à laquelle je ne répondrai pas dans cet article, mais il semble clair que s'interroger sur le rôle de la conscience dans la cognition constitue probablement une des meilleures manières d'espérer pouvoir faire avancer les nombreux débats que sa nature suscite.


7. Conclusions


Revenons-en, en guise de conclusion, à Hans le Malin. Exactement comme le joueur d’échec artificiel « Deep Blue », Hans réussit, en quelque sorte, un test de Turing limité a certains aspects de l’arithmétique. Faut-il pour autant en conclure que Hans connaît les règles de l'arithmétique? Certainement pas, comme l'a astucieusement observé Pfungst. Une première leçon que l'on peut donc tirer de cette histoire fascinante est qu'il n'existe pas nécessairement de relation transparente entre cognition et comportement. L'immense mérite de l'intelligence artificielle (et en particulier des modèles neuronaux) appliquée aux sciences cognitives est d'avoir pu démontrer tellement souvent qu'un système de traitement de l'information peut se comporter comme s'il disposait des connaissances supposées nécessaires à la réalisation d'une tâche sans pour autant disposer de ces connaissances en tant que telles. La notion d'émergence est centrale dans ce contexte: Elle renvoie directement au fait que l'existence d'une structure à un niveau de description donné peut s'exprimer de manière fort différente à un autre niveau de description (voir Cleeremans & French, 1996).


En ce qui concerne la conscience, il faudra sans doute adopter une perspective similaire, et cesser de chercher un mécanisme unique et ultime de la conscience, qui nous offrirait en un seul coup une sorte d'explication satisfaisante du phénomène. On ne surprendra personne en disant que le système cognitif est extrêmement complexe et analysable à plusieurs niveaux de description. La conscience doit dès lors, tout autant que les processus cognitifs inconscients, être comprise comme un phénomène émergent qui engage simultanément plusieurs niveaux de description. La conscience impliquerait, dans cette perspective, un continuum doublé d'une dichotomie, de la même manière, en quelque sorte, que des changements graduels et continus de la température d'une masse d'eau s'accompagnent de changements d'état brutaux et dichotomiques en certains points (la transition entre états solides, liquides, et gazeux de l'eau). La non-linéarité est une caractéristique centrale de la conscience, mais cette propriété, qui existe à un certain niveau de description (par exemple, mon expérience subjective), n'est pas pour autant incompatible avec un continuum existant à un autre niveau de description (par exemple, le nombre de neurones actifs dans une certaine région de mon cerveau). C'est donc l'exploration des interactions entre ces différents niveaux de description qui apparaît comme la voie de recherche la plus prometteuse.


Le renouveau d'intérêt suscité par la question de la conscience remet par ailleurs une fois de plus les choses à leur place, dans la mesure ou penser le phénomène de la conscience scientifiquement semble exiger que l'on réconcilie ce que l'on pourrait appeler les approches "à la troisième personne" avec les approches "à la première personne", ou, en d'autres termes, l'objectif et le subjectif. La nécessité de cette réconciliation est la deuxième leçon que l'on peut tirer de l'histoire de Hans: Après tout, nous serions sans doute arrivés plus rapidement à la conclusion de Pfungst si on avait pu interroger Hans et/ou scanner son cerveau. Cette approche trouve actuellement son expression la plus convaincante sous la forme du programme de recherche consacré aux corrélats neuraux de la conscience évoqué plus haut, dans la mesure ou l'on cherche précisément à établir des rapports précis entre états subjectifs, états neuraux, et comportement observable, comme dans la situation de rivalité binoculaire. On peut espérer que l’exploration simultanée des principes, des corrélats comportementaux et des corrélats neuraux du traitement de l’information permettra d’aller au delà de ce que chaque approche considérée isolément serait capable de nous apporter. En ceci, la recherche dans le domaine de ce qu’il est maintenant convenu d’appeler les neurosciences cognitives computationnelles devrait bénéficier d’un mode de fonctionnement typique de son objet d’étude (le système cognitif), à savoir la satisfaction de contraintes multiples.


Apprécier la conscience de l’homme semble donc passer par une meilleure compréhension de celle du cheval: C’est en étendant le champ de la psychologie aux neurosciences et aux sciences de l’artificiel — ou, mieux, en intégrant profondément les trois approches dans la perspective des sciences cognitives — que l’on peut espérer commencer à attaquer cette question que Dennett (1991) décrit correctement comme un mystère — un problème auquel on ne sait pas encore comment penser.


Références


Atkinson, A.P., Thomas, M.S.C., & Cleeremans, A. (2000). Consciousness: Mapping the theoretical landscape. Trends in Cognitive Sciences, 4, 372-382.

Baars, B.J. (1988). A cognitive theory of consciousness. Cambridge: Cambridge University Press.

Chalmers, D. J. (1996). The Conscious Mind. Oxford: Oxford University Press.

Cleeremans, A., Boyer, M. & Destrebecqz, A. (1998). Implicit learning: News from the front. Trends in Cognitive Sciences,

Cleeremans, A., & French, R.M. (1996). From chicken squawking to cognition: Levels of description and the computational approach in psychology. Psychologica Belgica, 36, 5-29.

Cleeremans, A. & Haynes, J.-D. (1999). Correlating consciousness: A view from empirical science. Revue Internationale de Philosophie, 3, 387-420.

Dennett, D. C. (1991). Conciousness Explained. Allen Lane: Penguin Press.

Frith, C.D., Perry, R., & Lumer, E. (1999). The neural correlates of conscious experience: An experimental framework. Trends in Cognitive Sciences, 3, 105-114.

Lumer, E.D., Friston, K.J. & Rees, G. (1998). Neural correlates of perceptual rivalry in the human brain. Science, 280, 1930-1934.

Maguire, E.A., Gadian, D.G., Johnsrude, I.S., Good, C.D., Ashburner, J., Frackowiak, R.S. & Frith, C.D. (2000). Navigation-related structural change in the hippocampi of taxi drivers. Proceedings of the National Academy of Sciences of the U.S.A., 10.1073.

Mathis, W.D., & Mozer, M.C. (1996). Conscious and unconscious perception: A computational theory. In Proceedings of the 18th Annual Conference of the Cognitive Science Society, 324-328, Lawrence Erlbaum.

Nagel, T. (1974). What is like to be a bat? Philosophical Review, 83, 435-450.

Newell, A. (1990). Unified Theories of Cognition. Cambridge: Harvard University Press.

O'Brien, G., & Opie, J. (1999). A connectionist theory of phenomenal experience. Behavioral and Brain Sciences, 22, 127-196.

Perruchet, P., Vinter, A., & Gallego, J. (1997). Implicit learning shapes new conscious percepts and representations. Psychonomic Bulletin & Review, 4, 43-48.

Pfungst, O. (1911/1965). Clever Hans (The horse of Mr. Von Osten). New York: Holt, Rinehart and Winston.

Prigogine, I. & Stengers, I. (1979). La Nouvelle Alliance, Paris: Gallimard.

Rumelhart, D.E. & McClelland, J.L. (1986). On learning the past tense of english verbs. In J.L. McClelland & D.E. Rumelhart (Eds.), Parallel Distributed Processing: Explorations in the microstructure of cognition (Vol. 2, pp. 216–271) Cambridge, MA: MIT Press.

Rosenthal, R. (1964). The effect of the experimenter on the results of psychological research. In B. Maher (Ed.), Progress in Experimental Personality Research, vol. I. New York: Academic Press.

Shanks, D.R., & St.John, M.F. (1994). Charasterics of dissociable learning systems. Behavioral and Brain Sciences, 17, 367-395.

Searle, J. (1992). The rediscovery of the mind. Cambridge, MA: MIT Press.

Tononi, G., & Edelman, G.M. (1998). Consciousness and complexity. Science, 282, 1846-1851.

Weiskrantz, L. (1986). Blindsight: A case study and implications. Oxford: Oxford University Press.


© Axel Cleeremans 2015

AXC 20160101 BL1346