Francisco Varela : " Le cerveau n'est pas un ordinateur "
Francisco Varela, né en 1946, est neurobiologiste. Après avoir longtemps travaillé aux Etats-Unis, il est entré en 1988 au CNRS comme directeur de recherches. Il est actuellement chercheur au Laboratoire des neurosciences cognitives et imagerie cérébrale, à Paris. Il a notamment publié
L'Inscription corporelle de l'esprit (Seuil, 1993) et
L'Arbre de la connaissance (avec Umberto Matarana, Addison-Wesley, 1994).
La Recherche : Le psychologue évolutionniste Steven Pinker vient de déclarer que « presque tout le monde dans les sciences cognitives » partage l'idée que le cerveau est une sorte d'ordinateur neuronal produit par l'évolution(1). Ceux qui ne le pensent pas, dit-il, « sont flamboyants, mais peu nombreux et peu représentatifs ». Vous sentez-vous flamboyant et marginal ?
Francisco Varela : La notion d'ordinateur neuronal n'est pas évidente, parce qu'un ordinateur,
stricto sensu , c'est un système numérique. Tout le courant qu'on appelle aujourd'hui le cognitivisme, ou computationnalisme, et dont je ne fais pas partie, travaille avec l'hypothèse que le niveau cognitif est autonome. Donc parler d'ordinateur neuronal, c'est déjà plonger dans la perplexité la moitié des chercheurs du domaine pour qui il y a une différence entre les niveaux d'implémentation, entre le
soft et le
hard . Si vous parlez à un informa-ticien, il se moque de savoir sur quel ordinateur il travaille, ce qui l'intéresse c'est la structure de son programme. De la même façon, ceux qui s'intéressent à la computation en tant que telle ne se préoccupent pas de son support. Ils ne nient pas l'intérêt de la biologie, ils disent que cela ne ressort pas de leur domaine. Par ailleurs, il y a bien des manières de nouer le fil entre l'hypothèse computationnaliste et le cerveau. La question revient à analyser ce qu'est un calcul fondé sur une machine non numérique, comparable à un cerveau plutôt qu'à un ordinateur. C'est une question qui m'intéresse, comme elle intéresse beaucoup plus de gens que ne le croit Pinker. Et ce que nous disons, c'est que l'avenir des sciences cognitives repose sur une vision que l'on pourrait appeler
« dynamique » , par opposition à la vision computationnaliste.
En quel sens utilisez-vous le mot « dynamique » ?
Plutôt que de travailler avec des symboles et des règles, les
« dynamicistes » travaillent avec des systèmes formés de variables réelles en utilisant des équations différentielles. Cette approche produit actuellement beaucoup de résultats et n'est pas du tout marginale. Une des conséquences cruciales de l'approche dynamique, qu'on ne trouve pas dans la vision computationnaliste, c'est que vous obtenez des propriétés émergentes, c'est-à-dire des états globaux de l'ensemble de vos variables, parce qu'il y a une interdépendance intrinsèque. Nul besoin de chef d'orchestre pour coordonner la chose, c'est la dynamique même qui va la porter.
La cognition proviendrait alors de l'interaction des composants biologiques du cerveau ?
L'approche dynamique travaille avec des variables biologiques, avec des activités neuronales plutôt qu'avec des symboles, avec des états globaux du cerveau appréhendés par l'imagerie fonctionnelle. Ce type de travail récuse la séparation entre la cognition et son incarnation. Beaucoup de chercheurs en sont venus à considérer qu'on ne pouvait pas comprendre la cognition si on l'abstrayait de l'organisme inséré dans une situation particulière avec une configuration particulière, c'est-à-dire dans des conditions écologiquement situées. On parle de
situated cognition , en anglais, ou
embodied cognition , cognition incarnée. Le cerveau existe dans un corps, le corps existe dans le monde, et l'organisme bouge, agit, se reproduit, rêve, imagine. Et c'est de cette activité permanente qu'émerge le sens de son monde et des choses.
Comment ce point de vue s'articule-t-il avec l'intelligence artificielle ?
La coupure cognition autonome/ cognition incarnée traverse toutes les sciences cognitives, et pas seulement les neurosciences. Un des promoteurs de la robotique incarnée est Rodney Brooks, le directeur du Laboratoire d'intelligence artificielle du Massachusetts Institute of Technology (MIT). Voici une dizaine d'années, il a lancé une espèce de déclaration de guerre en affirmant qu'on ne réussirait à faire des robots vraiment autonomes que s'ils étaient incarnés dans un contexte matériel, situés dans un monde sensible. Et il ne s'agit pas d'un monde défini par une liste de propriétés, comme on le fait habituellement dans les simulations informatiques. La vision incarnée séduit aussi beaucoup les chercheurs d'autres domaines, par exemple ceux qui étudient le développement de l'enfant.
Comment l'intègrent-ils, pratiquement ?
Dans l'analyse psychologique instaurée par Piaget*, l'enfant atteint vers l'âge de 3 ans le stade conceptuel, c'est- à-dire qu'il acquiert la maîtrise de l'activité symbolique, il passe du singulier à l'universel. En fait, Esther Thelen a montré(2) que l'acquisition de la capacité d'abstraction est inséparable de cycles de perception-action que l'enfant réalise sur certains objets, par exemple tous les objets qui contiennent de l'eau, les tasses, les verres, etc. L'enfant va les manipuler intensément pendant une certaine période. Et si vous l'empêchez de le faire, ou s'il est empêché de le faire à cause d'un handicap, cela gêne son développement cognitif. Thelen renverse la théorie antérieure en disant qu'à la base de ce développement il y a l'incarnation sensori-motrice, le fait que toute perception entraîne une action, que toute action entraîne une perception, donc que c'est une boucle perception-action qui est la logique fondatrice du système neuronal. Brooks a adopté le même point de vue : si j'arrive à construire une machine qui ne sait rien
a priori de son environnement, mais qui est dotée d'une boucle sensori-motrice efficace, que fera-t-elle ? Elle se baladera partout, comme un bon cafard, et testera sa boucle de réaction/ action, jusqu'à la rendre tellement robuste que, après de multiples géné- rations, elle se débrouillera dans n'importe quel environnement. L'hypothèse est que sur cette base vont pouvoir émerger des significations telle que
« désirable » ou
« indésirable » , des catégories universelles de type classes d'objets, voire le langage.
L'essentiel, c'est donc l'interaction entre l'organisme et son environnement ?
Il faut que l'organisme soit suffisamment incarné dans un environnement pour pouvoir se débrouiller malgré le fait qu'il ne possède pas une représentation préalable du monde. Son monde émerge avec ses actions. Si je lâche ici un cafard, il va grimper l'escalier, faire le tour du jardin, revenir, éviter de tomber dans des trous ou de se coincer dans un coin. Il constitue une entité viable. En tant que système neuronal, le cerveau est fondé sur cette logique de la viabilité : dans son fonctionnement, tout revient à cette recherche de stabilité sensori-motrice. Au cours de l'évolution, à quel moment le système neuronal est-il apparu ? Pas chez les plantes, pas chez les champignons, pas chez les bactéries. Il est apparu chez les animaux. Pour se nourrir, les animaux ont trouvé la solution de manger des proies. Il leur faut donc se mouvoir - et la locomotion est la logique constitutive de l'animal. C'est là qu'apparaît le système neuronal, parce que pour chasser, se mouvoir, il faut une boucle perception-action reliant des senseurs à des muscles, et ces liaisons ont formé le cerveau. C'est sur cette base que des choses plus abstraites ont commencé à se greffer.
La manipulation de symboles ?
Oui, quoique très tardivement. L'évolution du système neuronal a pris en gros 1,5 milliard d'années. Les trois quarts de ce temps n'ont servi à réaliser qu'une seule chose, des animaux qui se débrouillent de façon sensori-motrice élémentaire. Pour le dire très vite, jusqu'au Jurassique*, il n'y avait que des bêtes à la Rodney Brooks, qui ne faisaient que bouger, chasser, et s'incarner dans le monde. C'est bien plus tard que s'est produit un saut qualitatif chez certains animaux, avec l'apparition du langage, d'éléments sociaux, et de capacités symboliques.
Comment se produit ce saut ? Pourquoi des propriétés abstraites symboliques émergeraient-elles chez le robot COG que développe Brooks ?
La réponse n'est pas encore claire. Mais l'activité symbolique n'apparaît pas toute seule. Elle fait toujours partie d'une situation, d'un contexte, qui produit une sorte de dérive vers certains types de récurrences sensori-motrices. Une fois acquise cette capacité d'agir-réagir sur le monde, des interactions entre individus ont pu se produire, formant un nouveau type de boucle de récurrence: la rencontre avec l'autre. Et cela crée justement, dans cette voie de dérive, de nouveaux points de stabilité, des interactions d'orientation : chaque fois que l'autre se met comme ça, je me mets comme ça. Ce type de regard orientatif de l'un sur l'autre, c'est le début de la communication animale.
Mais alors pourquoi les sociétés de cafards, par exemple, n'ont-elles pas développé une capacité symbolique ?
Le système neuronal ne peut se développer que jusqu'à un certain point. Si votre corps est engoncé dans une armure, comme chez les cafards, ou si vous restez petit, le système neuronal plafonne. Chez les vertébrés, par contre, ce n'est pas vrai. Par exemple, les mammifères marins possèdent une capacité de communication que l'on connaît mal, mais qui n'est pas loin d'une sorte de langage assez profond. Il est toujours difficile de donner un poids à ce type de reconstruction historique. Mais ce qui compte c'est que l'apparition de l'esprit n'est pas un saut catastrophique, mais la continuité nécessaire de l'incarnation dans l'évolution. On sait que l'appareillage symbolique de catégorisation et d'échange est très répandu. Ce qu'on trouve en plus chez les primates c'est le langage au sens strict du terme. Il y a là un phénomène de créativité évolutive sur lequel on sait très peu de choses. Le langage est apparu tardivement. Un million d'années par rapport à l'histoire de l'évolution, cela ne représente en fait rien du tout.
Vous reliez les limitations de ces organismes aux « choix » évolutifs qui les ont contraints biologiquement. Cela signifie que l'abstraction est liée au cerveau. Comment le robot de Brooks qui, lui, n'est pas dans un substrat biologique, va-t-il évoluer ?
C'est la question que se pose toute cette école. Il y a deux réponses possibles. L'une consiste à dire : nous allons faire le travail de l'évolution. Au lieu de construire des robots hyperperformants, à cinq millions de dollars l'unité, on va construire des milliers de petites bestioles, avec des petites variantes, on va les laisser dans la nature, et sélectionner les plus résistants. Il s'agit de réaliser un contexte évolutif artificiel. Une autre option consiste à réaliser des bestioles viables, robustes, qui peuvent exister, et dans lesquelles on va introduire des capacités, par exemple de mémoire - imitée du cerveau selon des règles de type dynamique neuronale - ou des capacités sociales d'interaction entre les agents. Le robot de Brooks, COG, est fondé sur la deuxième option. Par exemple, il reconnaît un visage sur la base d'une sélection des traits qui est copiée sur ce qui se passe dans notre cerveau. Par suivi du mouvement oculaire, on a repéré que lorsque des gens regardent les visages, ils forment une esquisse de certains traits du visage. Les chercheurs du MIT ont implémenté ce type de programmes informatiques. L'ingénieur est bricoleur plutôt qu'éleveur : la philosophie de Brooks est extrêmement pragmatique, il prend ce qui fonctionne, il bricole.
Cela dit, il y a des gens qui continuent à penser que l'évolution ne fonctionne que par optimisation des forces sélectives. Pour chaque situation, il y aurait une espèce d'optimalité. Ce point de vue représente une troisième cassure dans le champ des sciences cognitives, entre les adaptationnistes et, le nom est encore difficile à trouver, je parle de
« dérive naturelle », Stuart Kauffman parle d'
« évolution douce » . Stephen Jay Gould est un autre représentant de cette école. En revanche, Pinker adhère à l'option adaptationniste pure et dure, qui suppose en fait une correspondance exacte entre l'organisme et le monde, une prédétermination.
Qu'entendez-vous par « dérive naturelle » ?
La pertinence des actions n'est pas donnée intrinsèquement, mais résulte de la construction de récurrences
via la logique de l'incarnation sensori-motrice. Il va de soi que l'option qui considère le cerveau comme un système incarné n'est pas adaptationniste. La vision des couleurs en donne une bonne illustration(3). Si la vision adaptationniste a raison, les choses ont une couleur intrinsèque. Si la vision de l'évolution douce est pertinente, nous aurons une diversité des mondes chromatiques, non superposables les uns aux autres. Or quand on étudie comment voient les animaux, on constate qu'il y a une très grande diversité des mondes chromatiques, pentachromatique, tétrachromatique, trichromatique, bichromatique, qui ne sont pas superposables, et correspondent pourtant tous à des lignées animales tout à fait viables. Alors, qui voit la vraie couleur ? Nous, les pigeons qui voient en pentachromatique, ou les abeilles qui voient dans l'ultraviolet ? Quelle est la couleur du monde ?
Est-ce à dire que le monde est une construction de l'esprit, fondée sur notre appareil perceptif ?
Quand j'étais jeune, je pensais qu'il n'y avait pas un
« en soi » du monde. Je n'en suis plus convaincu. Ce que l'on peut dire, c'est qu'on ne peut pas caractériser le monde par des attributs, mais seulement par des potentialités. Il y a certaines contraintes qu'il faut respecter. Il y a une différence entre situation prescriptive et situation proscriptive. Dans la situation prescriptive, vous êtes forcés de faire ce que vous êtes en train de faire et rien d'autre. Dans la situation proscriptive, vous pouvez faire ce que vous voulez sauf certaines choses interdites. Les adaptationnistes sont prescriptifs, notre vision est plutôt proscriptive. Les êtres vivants ne sont pas censés faire n'importe quoi. Du point de vue philosophique, c'est une vision qui renvoie à l'apparaître, à la phénoménalité plus qu'à une objectivité classique. Mais ceci n'équivaut pas à l'inexistence du monde, qui est la position dite constructiviste.
Comment concevez-vous l'émergence de la conscience dans le cours de l'évolution ?
Il faut commencer par distinguer conscience et expérience. Qu'est-ce qu'une expérience, pour une unité cognitive incarnée dans une situation ? Prenons un chien. Il a de la mémoire, il a des émotions, il a du tempérament. Tous ces modules cognitifs, qui se relient à des sous-circuits cérébraux, fonctionnent ensemble. Il y a une intégration à chaque instant : ce que le chien voit, comment il bouge la patte, l'émotion qui l'accompagne, tout cela n'est pas décousu. Il y a une espèce de suite d'émergences, de disparitions et de réémergences, des unités cognitives, modulaires mais intégrées. L'expérience est un locus d'unité cognitive - je travaille sur ce thème actuellement. On peut s'accorder sur le fait qu'il y a une expérience de chien, que le chien est un sujet. Et les cafards ? On ne sait pas répondre à cette question. Mais la définition est opérationnelle, c'est-à-dire que si l'on peut établir une mesure de l'intégration de modules cognitifs, on pourra peut-être dire qu'il y a une micro-expérience chez le cafard, et une méso-expérience chez le chien.
La conscience naît de ce réseau d'unités cognitives ?
L'expérience est quelque chose d'universel à partir d'un certain niveau d'intégration cognitive certainement partagé par tous les mammifères. Conclusion évidente : on peut facilement imaginer ce que c'est d'être un singe. Il y a un article absolument magnifique de T. Nagel, « What is like to be a bat »(4), « Ce que ça fait d'être une chauve-souris ». Je ne sais pas ce que ça fait d'être une chauve-souris ; mais qu'il y ait un sujet cognitif, c'est certain. En revanche, il est beaucoup plus facile de se représenter ce que c'est d'être un gorille, ou d'être un bébé. Pourquoi poser la question ainsi ? Parce qu'on discerne l'inséparabilité entre l'expérience, telle que je viens de la définir, et les mécanismes d'émergence d'une sorte d'habitation d'expérience. Les sons, les odeurs, n'existent pas en tant que tels, mais seulement relativement au sujet cognitif. Ils sont pour le chien, par exemple, une manifestation phénoménale. Donc, au lieu de s'intéresser au mécanisme neurobiologique de l'odorat du chien, vous pouvez, comme le fait Nagel dans son article, regarder du côté phénoménal de cette activité cognitive. Une fois que l'unité de plusieurs modules cognitifs s'est produite, cela donne au sujet une perspective particulière sur le monde.
Et une capacité réflexive ?
L'apparition du langage va faire la différence entre avoir une expérience, reflétée par un comportement neuronal, et la capacité réflexive. Mais il ne faut pas confondre celle-ci et la conscience. La capacité réflexive, dans le vide, ça ne donne rien. Elle doit s'incarner dans un univers cognitif complexe. C'est à l'intérieur de l'expérience qu'il y a cette nouvelle capacité d'autodescription.
C'est l'expérience de soi ?
C'est l'expérience de se référer à soi, de se référer à sa propre expérience. La réflexivité est quelque chose d'absolument crucial, c'est la grande mutation qui se produit avec l'apparition du langage chez l'homme. Mais là où je vois des problèmes, c'est quand on essaye de coller la conscience à cette capacité réflexive sans faire état de l'énorme
background que représente l'expérience. Certains chercheurs utilisent le terme de conscience primaire pour désigner la conscience non réflexive. C'est intéressant, parce que dans la vie quotidienne 90 % de l'expérience est primaire, pas réflexive. On marche, on prend le métro, on peut même avoir des pensées sans qu'il y ait de réflexion.
Mais est-on ou non, avec la réflexivité, dans la conscience ? Est-il même utile de parler de conscience ?
Absolument. Quand je dis que je ne suis pas d'accord quand les gens parlent de conscience, c'est parce qu'ils ont tendance à coller ça uniquement au côté réflexif. Si l'on veut avancer dans cette question, il faut au moins en poser les termes. Un point fondamental, c'est de comprendre la nature de l'expérience tout court. C'est une forme de conscience, mais c'est une conscience sans réflexion. La réflexion, ou la capacité réflexive, va donner à la conscience son statut humain. S'il n'y avait que de l'expérience, je serais plutôt gorille. Mais je sépare les deux questions. Le problème scientifique de l'étude de la conscience humaine n'est qu'un chapitre de l'étude de l'expérience, parce que cette capacité réflexive nous permet d'explorer la conscience comme si l'on avait des données phénoménologiques directes. Dans l'ancienne tradition psychologique, on parlait d'introspection. Comment étudier scientifiquement la conscience ? Par exemple, on place un sujet dans une situation relativement contrôlée, et on lui demande de se rappeler la maison où il a été élevé dans son enfance. La plupart des gens y arrivent sans problème. Ensuite, vous leur demandez comment ils ont fait, c'est-à-dire quelle stratégie ils ont employée pour évoquer le souvenir. Le souvenir lui-même n'a pas d'importance, c'est l'acte de déclencher le souvenir qui représente la capacité consciente. Elle est assez unique, on ne peut pas demander à un gorille d'évoquer ses souvenirs.
La conscience est-elle une capacité propre aux humains ?
Je pense qu'elle est liée aux humains, tout simplement parce qu'elle est liée à la réflexion. Ce n'est qu'à travers le langage qu'on induit la capacité réflexive. La capacité réflexive semble intrinsèquement liée à l'apparition des capacités langagières.
Le fait que la capacité du langage semble, au moins à l'état d'ébauche, présente chez d'autres espèces signifie-t-il qu'il en va de même pour la conscience ?
Non, c'est là qu'est la différence : sans langage, pas de capacité réflexive. Vous avez bien une expérience, très complète, très riche, mais vous n'avez pas cette capacité réflexive. Un gorille ne peut pas faire ce geste de retournement, passer du contenu à l'acte de conscience qui donne lieu au contenu. La question de savoir si la conscience est proprement humaine est un problème terminologique, pour moi ça n'est pas très important. Si vous appelez conscience seulement ce qui contient cette capacité réflexive, la conscience est purement humaine.
Si l'on se place dans une logique d'incarnation des actes mentaux, doivent-ils être perceptibles ?
Oui, la conscience est étudiable. Le tout, c'est de poser la question au niveau juste. Et le niveau juste, c'est le côté émergent de l'expérience, et ensuite les capacités réflexives qui accompagnent la préparation de ces données phénoménales. Donc il y a deux niveaux enchevêtrés qu'il faut étudier séparément.
Ce côté émergent de l'expérience renvoie-t-il à la thèse que la conscience aurait émergé au cours de l'évolution du fait de l'avantage qu'elle apporte(5) ?
Attention, je parle d'émergence dans le sens dynamique, pas dans le sens évolutif : les capacités cognitives se présentent sous des formes diverses et doivent être
« cousues » ensemble en permanence, voilà ce que j'appelle le phénomène d'émergence. En revanche, cela peut se manifester de diverses façons dans l'évolution. Une chauve-souris, une souris, un poisson, un insecte, chacun a son type d'expérience. Et la spécificité humaine a joué dans sa situation particulière, unique, qui a ouvert la possibilité réflexive. Là il y a effectivement une émergence sur le plan évolutif.
Cette émergence a-t-elle apporté un avantage évolutif ?
L'idée est assez adaptationniste. Je m'en méfie, parce que cela suppose qu'il y a eu un paramètre optimum. Qu'est-ce qu'on a amélioré pour que cela soit sélectionné ? Mais les chemins de l'hérédité ne se guident pas par des adaptations. Il y a des interdépendances tellement complexes que l'on ne peut pas parler d'un pic adaptatif.
Alors pourquoi la conscience aurait-elle émergé ?
Parce qu'il y avait, parmi toutes ces possibilités, la possibilité d'émerger. C'est un effet de situation. Cela aurait pu se passer ou ne pas se passer. Il y a un côté très aléatoire dans le monde. C'est comme si l'ontologie du monde était féminine, une ontologie de la permissivité, de l'émulation. Tant que c'est possible, c'est possible. Je n'ai pas besoin de chercher à justifier ceci ou cela. Au milieu de tout cela, la vie tire les possibilités, elle bricole.
L'idée de machines émergeant comme êtres vivants devrait vous paraître concevable ?
Oui, je n'ai aucun problème avec l'idée qu'on puisse créer des organismes dotés d'une identité somatique, d'une identité de type sensori-motrice, ou d'une conscience artificielle.
Cela fait peur aux gens, ils pensent à Frankenstein.
On change de registre. Cela renvoie à la dimension éthique de la science, à sa dimension sociale. On n'est plus dans l'ordre du possible, mais dans l'ordre du souhaitable, ce n'est pas la même chose. Je dis que c'est possible. Qu'on décide collectivement, démocratiquement, de le faire ou pas, c'est une autre question.
On en prend le chemin ?
Oui. Un robot comme COG, quand même, c'est un grand pas vers une machine du niveau d'un chien. Regardez ce qu'on peut faire avec des petits robots, c'est assez impressionnant.
Et pourquoi le fait-on ?
Pour les mêmes raisons que dans les autres champs scientifiques : en partie, parce que c'est passionnant à faire, que c'est fascinant, et en partie parce qu'il y a de gros contrats derrière, par exemple pour expédier de telles machines sur Mars