Représentation mentale (A)

Comment citer ?

Smortchkova, Joulia (2020), «Représentation mentale (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/representation-mentale-a-2

Publié en mai 2020

 

Résumé 

En première approximation, on peut caractériser une « représentation mentale » comme une entité mentale avec des caractéristiques sémantiques : quand je crois que le chat est sur la table, mon état mental a un contenu représentationnel (il représente le chat comme étant sur la table) et des conditions de satisfaction (ou vérité) qui font que mon état représente correctement ce à propos de quoi est la représentation (ma croyance est vraie si le chat est effectivement sur la table, et fausse dans le cas contraire). Cette définition minimale apparaît en filigrane dans nos échanges quotidiens, quand nous attribuons des croyances et des désirs aux autres personnes pour expliquer leurs comportements et quand nous remarquons que leurs croyances sont fausses ou bien leurs désirs insatisfaits. Depuis le « tournant cognitif » des années 1950, « représentation mentale » est aussi devenu un terme théorique dans les sciences de la cognition. Dans cette entrée nous allons discuter les deux sens de la notion, et passer en revue certains problèmes concernant les représentations mentales. Quels facteurs jouent un rôle dans l’individuation des contenus mentaux ? Quels facteurs jouent un rôle dans la détermination du contenu des représentations ? Comment intégrer les représentations mentales dans une conception physicaliste du monde ? Comment distinguer entre structures cognitives non-représentationnelles et représentationnelles ? Quels sont les formats possibles des représentations mentales ?


 


L’esprit représentationnel

Préliminaires

Quand on parle de représentation mentale, il est utile de distinguer entre deux projets. Le premier projet prend pour point de départ la psychologie du sens commun et les attributions quotidiennes d’états mentaux avec un contenu aux autres agents (comme dans des énoncés tels que : « Il prend son parapluie parce qu’il croit qu’il va pleuvoir ce soir »), et cherche à dégager les caractéristiques implicites des représentations à partir du rôle qu’elles jouent dans la théorie tacite sous-jacente à la psychologie du sens commun. Le deuxième projet s’intéresse au rôle des représentations mentales dans les théories scientifiques de la cognition et du comportement et essaie de dégager le rôle des représentations mentales dans les explications scientifiques.

Dans les deux cas, il semble que les représentations mentales jouent un rôle crucial pour comprendre le comportement complexe des agents. Pour prendre un exemple de comportement animal, une abeille qui butine en cherchant du nectar navigue à travers le monde et communique avec les autres abeilles. Afin de pouvoir retracer le chemin qui l’a menée à un champ de fleurs particulièrement goûteux, elle doit pouvoir se souvenir du chemin parcouru, et, si elle veut que d’autres abeilles la suivent, communiquer la position du champ à ses camarades. Une représentation mentale permet à l’animal de garder une trace mnémonique de la position du champ et lui donne la possibilité de revenir le lendemain, et de communiquer la position du champ à d’autres abeilles par la danse (Gould, 1990). Employer des représentations mentales est donc une façon plus efficace de se diriger dans le monde que la simple réaction aux stimuli immédiatement présents, comme le réflexe d’extension, où l’animal réagit directement à une stimulation externe sans la représenter. Dans le cas d’êtres plus complexes, comme les êtres humains, les représentations mentales leurs donnent la capacité de planifier l’avenir, se souvenir du passé, imaginer, communiquer linguistiquement, prendre des décisions, etc.

Qu’est-ce que représenter ?

J’observe un coucher de soleil au bord de la mer et je forme dans mon esprit l’image d’un disque rouge derrière une ligne horizontale entourée par de l’orange et du bleu. Je lis le roman « Anna Karénine » et j’essaie d’imaginer l’état d’esprit de l’héroïne dans les dernières minutes avant sa décision finale. J’ouvre ce document et je pense aux différentes façons dont les philosophes ont théorisé la notion de représentation mentale. J’ai soif, je désire un verre de jus et, puisque je crois qu’il reste du jus dans le placard, je forme l’intention d’ouvrir la porte du placard pour prendre le jus afin de le boire. Tous ces exemples mettent en jeu des états mentaux représentationnels. Un état mental (comme une perception, un désir, une croyance, une intention, …) est représentationnel quand il est à propos du monde ou des aspects du monde, c’est-à-dire quand il vise quelque chose (par exemple, un objet, une propriété, ou bien un état de choses). Mon expérience visuelle pendant le coucher du soleil est à propos du coucher de soleil ; mon état imaginatif est à propos des émotions d’Anna Karénine, mes pensées en écrivant ce document sont à propos des théories philosophiques des représentations mentales. Ces exemples nous fournissent une définition ostensive des états mentaux représentationnels avant toute théorisation. On appelle la propriété d’être à propos de quelque chose ou de viser quelque chose, l’intentionnalité (un terme qui dérive de l’analyse du mental de Brentano, 1874) (Pacherie, 1993 ; Jacob, 2004 ; Recanati, 2008, chapitre 7). Si la tradition analytique rend généralement compte de l’intentionnalité en termes de représentation au point d’assimiler les deux notions, notons qu’il est possible de distinguer entre visée intentionnelle et représentation, comme le fait la tradition phénoménologique (voir Moran, 2013).

Afin d’introduire le thème des représentations mentales de façon intuitive nous allons commencer par des exemples de représentations qui nous sont plus familières : les représentations non-mentales. Un cas de représentation non-mentale est une peinture figurative. Les peintures figuratives sont des représentations d’états de choses et peuvent être caractérisées comme ayant deux aspects : un contenu représentationnel et un support matériel. Ainsi, une image d’un chat sur la table représente un état de choses à un moment donné, même si l’image elle-même n’est pas cet état de choses, mais en est une représentation. En même temps, une image est aussi un objet matériel, par exemple la toile sur laquelle l’image a été dessinée, ou bien un ensemble de pixels sur notre téléphone portable.

Un autre exemple de représentation non-mentale est un code secret. Supposons que nous sommes complices dans le vol d’un sac de bijoux et que nous avons créé un code pour communiquer la position du sac en public sans que les passants puissent nous comprendre. Nous nous sommes accordés qu’un O fait par l’index et le pouce représente le fait que le sac est caché sous le matelas de la chambre à coucher. Contrairement à une photographie, le code ne ressemble généralement pas à la chose qu’il représente. Néanmoins, même s’il n’y a rien en commun entre le O fait par mes doigts et la position du sac, le O représente la position du sac par convention (via notre stipulation au moment de la création du code).

L’exemple de la peinture figurative et l’exemple du code secret exemplifient deux façons de représenter. Tandis que les images représentent par ressemblance, le code secret représente par convention. Toutefois, la ressemblance et la convention ne sont pas les seules façons de représenter. Paul Grice (Grice, 1957) a introduit la notion de « signification naturelle » (natural meaning) pour désigner des cas où de l’information est indiquée par des états de choses naturels. Par exemple, le nombre de cernes d’un tronc d’arbre indique son âge. Dans ce cas, la relation entre le nombre de cernes et l’âge est une relation causale (ou plus précisément une relation de covariance) : l’âge cause le nombre de cernes d’un tronc d’arbre, et en inversant cette relation, le nombre de cernes indique l’âge de l’arbre. Bien que la relation de signification naturelle ne soit pas tout à fait de la représentation, pour des raisons que nous verrons en section 1.c, c’est néanmoins un type de relation (quasi)-représentationnelle qui joue un rôle important dans les projets de naturalisation du contenu, discutés dans la section 4.a.

En prenant comme guide les représentations non-mentales, nous commençons à esquisser la notion de représentation mentale de manière plus précise. Une représentation mentale, tout comme une représentation non-mentale, est à propos de quelque chose, puisqu’elle représente le monde sous un certain aspect, et elle a un support qui réalise la représentation. Par soi-même, la notion de support est neutre par rapport au type de réalisation : une représentation mentale pourrait être réalisée dans un support matériel (des neurones, des circuits d’ordinateur), mais aussi dans un support immatériel (une âme).

Tout état mental est à propos de quelque chose : par exemple ma croyance que le lait est dans le frigo est à propos du lait et de sa propriété d’être dans le frigo. En disant que mon état mental est à propos de quelque chose, on introduit une ambiguïté entre ce qui serait le contenu propre de l’état mental et l’objet (ou propriété ou état de choses) dans le monde auquel on pense. En suivant Prior (1971) on peut dire que le contenu est ce que je pense (what I’m thinking), tandis que l’objet visé serait ce à quoi je pense (what I’m thinking about). Ainsi le contenu représente l’objet d’une certaine manière ou sous un certain aspect (Searle, 1983). Dans l’exemple de départ, il existe un objet que mon état mental vise et auquel je pense (le lait). Mais ceci n’est pas toujours le cas : je peux penser aussi à des licornes ou à des cercles carrés. Par exemple si je crois qu’il y a une licorne dans mon jardin, ma croyance a comme contenu la proposition « qu’il y a une licorne dans mon jardin », mais elle n’a pas d’objet visé – pas de référent dans le monde extra-mental.

Notons que la notion de contenu, telle que nous l’employons ici, est une notion délibérément vague, et à peu près synonyme de « signification ». Un état mental avec un contenu représente le monde ou des aspects du monde, et son contenu est la manière dont l’état représente le monde ou ses aspects. Nous allons discuter de certaines théories du contenu dans la section 1.d, mais dans cette entrée nous laissons de côté une présentation approfondie des théories du contenu (ou de la signification) en philosophie de l’esprit et du langage (voir entrée « langage », section 3, http://encyclo-philo.fr/langage-a/ et entrée « référence », http://encyclo-philo.fr/reference/).

A travers les exemples des représentations non-mentales, nous pouvons aussi dégager trois façons de fonder (partiellement) la relation de représentation : par convention, par ressemblance, par causalité. Nous allons maintenant explorer ces façons de représenter plus en détail, à la fois dans le cas général d’une relation de représentation, et dans le cas spécifique de la relation de représentation mentale. La question qui nous guide est : laquelle parmi celles-ci arrive à mieux fonder la relation de représentation ?

Commençons par la convention. En simplifiant, dans le cas de la représentation par convention, le pouvoir représentationnel vient d’une stipulation entre les interprètes du signe. La stipulation peut être explicite, comme dans le cas du code secret, ou implicite, comme dans le cas des mots d’une langue naturelle, dont le sens est issu de facteurs historiques. Une approche selon laquelle on ne représente que par convention serait-elle tenable ? Un premier problème pour la convention est qu’il existe des relations représentationnelles qui ne sont pas fondées sur la stipulation : par exemple la relation de covariance entre les cernes du tronc et l’âge de l’arbre, ou la relation de ressemblance entre une image d’un chat et le chat.

Un autre problème pour la convention est que cette relation est fondée sur deux composantes : une stipulation et un (ou plusieurs) interprète(s) du signe. C’est bien l’interprète qui attribue le sens au signe. Mais comment fait-il pour attribuer un sens au signe ? C’est en vertu du fait qu’il possède des états mentaux dotés de sens, qui lui permettent d’interpréter le signe. Par exemple, dans le cas du code secret ce sont nos croyances et nos intentions qui créent le code. Mais alors, d’où vient le pouvoir représentationnel des états mentaux ? Si on accepte la thèse selon laquelle il est issu de la convention on fait face à une régression à l’infini. Dans le cas des représentations mentales l’interprète serait une entité interne au sujet qui pense, une espèce d’« homoncule », de sujet interprétant miniature. Mais, afin que les états mentaux soient interprétés, l’homoncule interne possèderait aussi des états représentationnels, qui sont les états qui donnent sens aux représentations mentales du sujet. Et comment les états de l’homuncule acquirent-ils le pouvoir de représenter ? Par la définition de la convention, d’un autre sujet interprétant. Et ainsi de suite. Comment bloquer cette régression à l’infini ? Si on est un philosophe dualiste, comme Descartes, on postule que l’homoncule interprétant est une âme immatérielle donnée par Dieu. En revanche, si on est un philosophe naturaliste, pour bloquer cette régression il faut trouver une relation de représentation sans interprète, ou bien réduire l’interprète à une composante mécaniste et naturaliste du système cognitif (comme dans l’approche de Barbara Von Eckardt, 1995, qui s’inspire de Charles Peirce).

On arrive ainsi à un présupposé crucial dans la littérature sur les représentations mentales. Les représentations mentales représentent de façon fondamentale. Ce sont les porteurs ultimes du sens. Les mots dans un livre sont aussi à propos de quelque chose (par exemple à propos d’Anna Karénine et son histoire), mais ils ne le sont que de façon dérivée : ils reçoivent leur pouvoir représentationnel de celui des états mentaux de l’auteur qui les a écrits. Mais les états mentaux de l’auteur ne reçoivent pas leur pouvoir représentationnel d’autres états représentationnels. On distingue ainsi entre deux genres d’intentionnalité : l’intentionnalité non-dérivée ou originelle, et l’intentionnalité dérivée. Les représentations non-mentales artificielles ont leur intentionnalité de façon dérivée, c’est-à-dire à partir des états intentionnels de leur créateur (ou de leur interprète). Dans les mots de John Haugeland : « Au moins certains symboles externes (par exemple, un code secret sur lequel toi et moi nous nous accordons explicitement) sont intentionnels de façon dérivée – c’est-à-dire qu’ils héritent leur intentionnalité de quelque chose d’autre qui a déjà le même contenu (comme la stipulation dans notre accord). Et, cette autre chose peut elle aussi avoir son contenu de façon dérivée de quelque chose d’autre encore ; mais, évidemment, ce [processus] ne peut pas continuer à l’infini. » (Haugeland, 1998a, p. 129).

Cette distinction n’est pas universellement acceptée : par exemple, Daniel Dennett la rejette en faveur de la thèse selon laquelle il n’y a pas de distinction entre intentionnalité originelle et intentionnalité dérivée (Dennett, 1994). Cependant c’est une position minoritaire, et, si on accepte cette distinction, on fait face à la question de la source du pouvoir représentationnel des états intentionnels originaux.

Le deuxième candidat pour fonder la relation de représentation est la relation de ressemblance. Dans le cas des représentations non-mentales, une image représenterait le chat sur la table en vertu du fait qu’elle ressemble à l’état des choses dépeint sur l’image. La ressemblance, cependant, échoue à fonder la relation de représentation, puisqu’elle n’est ni nécessaire ni suffisante pour représenter, comme l’a montré Nelson Goodman dans une critique très influente de la ressemblance (Crane, 2015; Cummins, 1989; Goodman, 1951).

La ressemblance n’est pas nécessaire puisqu’il existe des représentations qui représentent sans ressembler aux objets représentés, comme on vient de le voir dans le cas de la représentation par convention, ou de la signification naturelle. Elle n’est pas non plus suffisante puisqu’on trouve des choses qui se ressemblent sans se représenter : par exemple, je ressemble à ma mère, mais je ne suis pas une représentation de ma mère. De plus, la ressemblance est une relation réflexive, et toute chose ressemble trivialement à soi-même, mais ceci n’implique pas que toute chose se représente. En effet, tandis que la relation de représentation peut être asymétrique et non-réflexive, la relation de ressemblance est à la fois symétrique et réflexive. Enfin, la ressemblance échoue à fonder la représentation des idées abstraites, ou des relations logiques. Comment dessiner la négation d’un énoncé, par exemple qu’il ne pleut pas ? On pourrait le faire en mettant une croix sur l’image d’un paysage pluvieux. Mais ce qui fait que la croix représente une négation est en fait une stipulation portant sur le sens de la croix, et non pas la ressemblance. Le fait que les images aient besoin d’interprétation pour représenter est un point discuté par Ludwig Wittgenstein dans les Investigations Philosophiques : quand je vois l’image d’un vieillard qui monte sur une colline à l’aide d’un bâton, pourquoi l’image ne serait-elle pas plutôt celle d’un vieillard qui glisse vers le bas de la colline dans la même position ? (Wittgenstein, 1953/1986, p. 53e § 139).

Dans le cas des représentations mentales réalisées dans le cerveau, il est encore moins plausible qu’elles ressemblent aux choses qu’elles représentent : un réseau de neurones ne ressemble pas à l’état de choses qu’un chat est sur la table. Même si la ressemblance ne peut pas fonder la relation de représentation de manière générale, des théories récentes proposent une notion de ressemblance plus raffinée, où on ne parle plus de ressemblance de premier ordre, mais d’homomorphisme, ressemblance de deuxième ordre (O'Brien & Opie, 2004). En effet, dans les sciences cognitives les expériences sur les cartes rétinotopiques et sur les cartes cognitives de navigation (Gallistel, 2007) suggèrent que certaines représentations mentales (mais pas toutes) peuvent être dans une relation d’homomorphisme avec les objets qu’elles représentent, par le biais d’une relation de « ressemblance structurelle ».

Le dernier candidat pour fonder la relation de représentation est la relation de causalité : une photographie représente un chat sur la table non pas parce qu’elle lui ressemble, mais parce qu’il y a eu un contact causal au moment où la photo a été prise. Prenons un exemple de Dennis Stampe : qu’est-ce qui fait qu’une photo de Marie représente Marie et non pas sa sœur jumelle identique Perrine ? Ce n’est pas la ressemblance (la photo ressemble à la fois à Marie et à Perrine), mais c’est le fait que Marie a été, à un moment, dans la bonne relation causale à l’appareil photographique qui a produit la photo (Stampe, 1977). Dans le cas des représentations mentales le fait que ma représentation mentale représente un chien serait alors dû à l’existence d’une relation causale entre la représentation et la présence de chiens.

La solution causale au problème de la relation de représentation n’est pas sans problèmes. Supposons que je reçoive un coup sur la tête qui provoque l’activation d’une représentation de chiens, même si aucun chien n’est présent. Intuitivement, bien qu’un lien causal existe, nous ne voudrions pas de théorie qui laisse la porte ouverte à la possibilité que ma représentation mentale des chiens soit activée soit par la présence de chiens soit par des coups sur la tête. En conséquence, même les philosophes qui défendent l’option causale admettent qu’elle n’est pas suffisante par elle-même pour fonder la relation de représentation (Dretske, 1981 ; Fodor, 1987).

Pour résumer cette sous-section, les représentations sont caractérisées par la propriété d’être « à propos » de quelque chose, propriété qu’on appelle l’« intentionnalité ». Il existe plusieurs candidats pour fonder la relation de représentation : convention, ressemblance, causalité. Aucun de ces candidats ne réussit à rendre compte parfaitement de la façon dont les représentations en général, et les représentations mentales en particulier, représentent. La plupart des philosophes acceptent la thèse selon laquelle le pouvoir représentationnel des représentations mentales est plus fondamental que celui des représentations non-mentales, et distinguent ainsi entre intentionnalité originelle (ou non-dérivée) et intentionnalité dérivée.

Clarifications

Avant d’entrer dans le vif du sujet, il est important de dissiper tout de suite certaines confusions à propos de la (ou plutôt des) notion(s) de représentation mentale.

1ère confusion : On découvre les représentations mentales par introspection, ce qui met en danger l’objectivité des théories scientifiques qui les emploient.

Bien qu’il soit vrai que, quand on recourt à l’introspection, on a l’impression de « voir » des images ou de penser par des mots, il est important ici de distinguer entre deux approches des représentations mentales. D’un côté, on a la conception moderne des représentations mentales (endossée par des philosophes comme Descartes, Hobbes, Hume, Berkeley, Locke), selon laquelle la pensée est définie comme tout ce dont je m’aperçois immédiatement par moi-même : « Par le mot de penser j'entends tout ce qui se fait en nous de telle sorte que nous l'apercevons immédiatement par nous-même ; c'est pourquoi non seulement entendre, vouloir, imaginer, mais aussi sentir, est la même chose que penser. » (Descartes, 1644/2009, p. 56). De l’autre, les représentations mentales sont considérées comme des postulats théoriques introduits pour expliquer des comportements et des phénomènes observables et quantifiables en 3ème personne. En tant que postulats théoriques elles sont découvertes en employant des méthodes expérimentales et des inférences à la meilleure explication. Les effets psychologiques (Cummins, 2000) jouent un rôle crucial dans la découverte des représentations mentales. Combien de temps faut-il au sujet pour compléter une tâche ? Combien d’objets peut-il retenir dans sa mémoire à court terme ? Est-il plus facile de se souvenir de traits particuliers (orientation, couleur, forme…) ou de traits attachés à un objet (un cube rouge penché vers la gauche) ? Pour une discussion du rôle des effets psychologiques dans la découverte des représentations mentales, voir Smortchkova et Murez (2020).

2ème confusion : Introduire les représentations mentales dans notre façon d’appréhender le monde implique forcement une position internaliste, et entraîne le scepticisme quant à l’existence des objets externes à mon esprit.

La notion de « voile de la perception » désigne l’idée selon laquelle si nous sommes conscients des représentations d’objets externes, mais non pas des objets eux-mêmes, alors notre perception constitue comme un « voile » entre nous et la réalité, et ne nous permet pas de voir la réalité telle qu’elle est (J. Bennett, 1971 ; Huemer, 2001). On parle ici souvent de position « représentationaliste », exemplifiée par les philosophes empiristes, qui ont soutenu la thèse selon laquelle nous ne connaissons pas les choses de façon immédiate, mais par la médiation d’idées, sense-data, représentations. Dans sa version la plus radicale, le voile de la perception est synonyme de scepticisme à propos de la possibilité de connaître le monde extérieur. La critique du voile de la perception soulève des questionnements en théorie de la connaissance et en phénoménologie. Comment garantir l’existence des objets externes si je ne suis en contact qu’avec des entités mentales ? Comment réconcilier la position représentationaliste avec l’expérience subjective que nous percevons les objets eux-mêmes, et non pas des représentations de ceux-ci (principe de la transparence) ? Il serait cependant erroné de conclure de ces problèmes épistémologiques et phénoménologiques qu’il n’y a pas de représentations mentales, si par « représentation mentale » on entend non pas une entité essentiellement accessible en première personne, mais un postulat théorique. Ainsi il faut distinguer la notion de représentation mentale, telle qu’elle figure dans les sciences de la cognition, de la notion empiriste de sense-datum. C’est pourquoi Richard Rorty note que la conception de l’esprit de Jerry Fodor comme un système de représentations mentales n’a que peu à voir avec l’image de l’esprit comme miroir de la nature qu’il critique (Rorty, 1979/2009, p. 246). Les questions de théorie de la connaissance posées par la conception des représentations mentales comme objets immédiats de la perception et de l’introspection trouveraient leur place dans une entrée sur l’épistémologie de la perception, et nous allons les mettre de côté ici.

3ème confusion : Quand on parle de représentation mentale, on postule littéralement des images ou des mots dans le cerveau.

En philosophie de l’esprit, la thèse représentationnelle est qu’il existe des entités mentales avec des caractéristiques sémantiques. Mais cette thèse laisse ouverte la question de la réalisation des représentations. Même dans les sciences cognitives, la thèse représentationnelle n’est généralement pas que le cerveau contient des images ou des mots qui peuvent être observés (sauf peut-être pour Thomson & Piccinini, 2018, qui pensent qu’on peut observer directement les représentations mentales dans le cerveau, même si ils ne se prononcent pas sur leur format) ; au contraire la thèse représentationnelle est le plus souvent formulée à un niveau de description plus abstrait que le niveau neuronal, qu’on appelle le niveau algorithmique-représentationnel (Marr, 1982). Cette description est compatible avec nombre de façons dont les représentations mentales pourraient être « réalisées ».

4ème confusion : Confusion entre véhicule représentationnel et contenu représentationnel.

Il ne faut pas confondre le contenu de la représentation (la manière dont un objet représente quelque chose) avec le véhicule de la représentation (ce avec quoi l’on représente). Dennett décrit la distinction ainsi : « En général, nous devons distinguer les propriétés du représentant des propriétés des représentés ; quelqu’un pourrait crier « doucement, sans bruit » avec toute la force de ses poumons, il existe des images géantes d’objets microscopiques, et des peintures à l’huile d’artistes dessinant des croquis au fusain. » (Dennett & Kinsbourne, 1992, p. 188). On remarque aussi que la notion de « véhicule » inclut à la fois le format et le support dans lequel la représentation est réalisée. Des représentations avec le même contenu pourraient avoir des formats différents : on peut représenter le chemin entre ma maison et mon bureau en dessinant une carte qui indique leurs positions respectives, mais aussi par l’énoncé « Après le parc, tourne à gauche jusqu’au boulevard Daumesnil ». On peut aussi représenter le même contenu avec des formats différents, mais dans un même support matériel : un dessin d’un chat et le mot « chat » peuvent être réalisés dans du sable si je dessine et j’écris sur la plage.

Les états mentaux représentationnels

Que veut-on dire quand on affirme qu’une représentation mentale représente ? Pour l’instant aucune définition précise de « représentation mentale » n’a été donnée, et à la place nous avons introduit le pouvoir représentationnel de l’esprit en faisant appel à des états mentaux représentationnels, comme les croyances, les désirs, les intentions. Nous pouvons donc reformuler la question de la façon suivante : que signifie qu’un état mental est représentationnel ?

Suivant Bertrand Russell, on appelle certains états mentaux des « attitudes propositionnelles » (Russell, 1918/2009). Cette expression indique qu’un état mental, par exemple une croyance, est composé de deux éléments : un contenu et une attitude. Quand on parle d’attitude propositionnelle on indique que le contenu est une proposition : dans l’expression « Je crois que le lait est au frigo », « je » est le sujet de l’attitude propositionnelle, « crois » est l’attitude, et « que le lait est au frigo » est la proposition. On identifie les propositions par le préfixe « que », même si on peut trouver des propositions qui ne sont pas introduites par « que », par exemple dans l’expression « j’ai l’intention d’ouvrir la porte ». Identifier le contenu d’une attitude avec une proposition n’est pas tout à fait heureux et risque de nous faire croire que les seuls contenus possibles pour les états mentaux soient des propositions. Or, il existe des contenus qui ne sont pas propositionnels, par exemple les contenus de certains états perceptifs qui sont exprimés par des énoncés comme « Je vois la mer bleue » et non pas par des énoncés comme « Je vois que la mer est bleue » (Crane, 2009).

L’attitude indique la façon dont nous nous rapportons au contenu : par exemple, je peux croire que le lait est dans le frigo, mais je peux aussi espérer que le lait soit dans le frigo. Dans ce cas, il y a un seul contenu [lait dans le frigo], mais deux attitudes différentes envers ce contenu, une attitude de croyance et une autre d’espérance. Selon une théorie influente des attitudes, ce qui distingue entre, par exemple, ma croyance et mon espoir sont leurs rôles fonctionnels respectifs, ou plus précisément les rôles fonctionnels des types d’attitudes (type croyance et type espoir). Un rôle fonctionnel est identifié par la place de l’état mental dans l’économie cognitive du sujet qui pense, par ses relations avec les autres états mentaux, et par ses relations avec les comportements (Lewis, 1980).

Les états mentaux ont plusieurs caractéristiques sémantiques en vertu du fait que ce sont des états représentationnels. En suivant John Searle, nous pouvons employer l’analogie entre actes de langage et états mentaux afin de dégager les caractéristiques sémantiques des états mentaux représentationnels (Searle, 1979, 1983). Ces caractéristiques sont : les conditions de satisfaction (ou vérité), l’aspectualité, et la direction d’adéquation.

Les conditions de satisfaction ou de vérité sont les conditions sous lesquelles la représentation représente correctement ou incorrectement. En d’autres termes, le contenu d’un état mental consiste dans les conditions de vérité ou de satisfaction qui identifient les conditions selon lesquelles la représentation réussit ou échoue à faire référence à son objet intentionnel, et à lui attribuer telles ou telles propriétés. Les conditions de vérité ou satisfaction sont donc les conditions sous lesquelles ma croyance est vraie, mon désir est satisfait, mon intention réalisée, et ainsi de suite. Les états mentaux représentationnels peuvent être erronés (on appelle cela aussi de la « méprise représentationnelle » ou « méreprésentation ») : si je suis dans le désert et que je vois une oasis qui n’existe pas, je suis victime d’un mirage et ma représentation perceptive est fausse. Même les désirs peuvent « se tromper » et méreprésenter. Dans ce cas l’erreur n’est pas par rapport à l’état du monde représenté, mais par rapport à la possibilité de réaliser le désir en question. La possibilité de méprise représentationnelle est souvent considérée comme la caractéristique principale des représentations mentales (Dretske, 1986), d’où le slogan « pas de représentation sans méreprésentation » (Dennett, 1988). On comprend ainsi pourquoi l’indication naturelle n’est pas tout à fait de la représentation : il n’y a pas de place pour l’erreur dans une relation d’indication naturelle, par exemple on ne trouve pas de cas où le nombre de cernes du tronc méreprésente l’âge de l’arbre.

Selon la thèse de l’aspectualité des états mentaux intentionnels, tout état mental présente son contenu sous un certain aspect (Searle, 1992). Ceci signifie que tout objet, propriété ou état de choses est présenté à l’esprit sous certains points de vue ou « modes de présentation », mais pas d’autres. Par exemple, je peux désirer boire de l’eau, sans désirer boire de l’H2O, même si eau et H2O sont deux manières de faire référence au même objet. Je peux voir Milou comme un chat câlin, sans le voir comme un chasseur redoutable (même s’il est les deux). Bien que la locution « voir comme » pourrait suggérer une lecture conceptualiste de l’aspectualité, c’est-à-dire suggérer que nous ayons besoin de concepts afin de voir un objet sous un aspect, la thèse de l’aspectualité est plus large. Nous pouvons par exemple voir des aspects d’un objet même si nous ne possédons pas les concepts pertinents pour les catégoriser.

Quand on passe du niveau des états mentaux au niveau des attributions d’attitudes propositionnelles (par le langage) on appelle les contextes dans lesquels on ne peut pas remplacer des expressions coextensionnelles ou coréférentielles salva veritate, des contextes « intensionnels ». Des expressions sont échangeables salva veritate si elles peuvent être inter-changées sans altérer la valeur de vérité de l’énoncé où elles apparaissent. L’intensionnalité est une propriété logique des énoncés, et s’oppose à la notion d’« extensionnalité ». Par exemple, « étoile du matin » et « étoile du soir » ont la même extension parce que ce sont des expressions vraies d’un même individu : la planète Venus, mais elles ont des intensions différentes parce que « étoile du matin » n’a pas la même signification que « étoile du soir » (Frege, 1892). Ainsi, nous pouvons attribuer à un individu la croyance « que l’étoile du matin est lumineuse » sans lui attribuer la croyance « que l’étoile du soir est lumineuse », sans contradiction, s’il ne sait pas que ces deux expressions réfèrent au même individu. L’intensionnalité pourrait être un critère, ou du moins un symptôme, pour distinguer entre les énoncés qui rapportent des états intentionnels et les autres énoncés (Chisholm, 1957). Néanmoins, on trouve aussi des contextes intensionnels dans des énoncés où il n’est apparemment pas question d’états intentionnels – par exemple dans les contextes modaux (« Le nombre de planètes est nécessairement égal à huit. » vs. « Huit est nécessairement égal à huit. »)

Enfin, les états mentaux peuvent différer selon leur direction d’ajustement (Anscombe, 1957). La direction d’ajustement détermine si l’état mental doit se conformer au monde pour être vrai ou si c’est le monde qui doit se conformer à l’état mental pour le réaliser. Les directions d’ajustement sont donc de deux types : du monde à l’esprit et de l’esprit au monde. Les états mentaux qui ont une direction d’ajustement du monde à l’esprit peuvent être satisfaits ou pas, selon que le monde se conforme ou non à ces états. C’est le cas des désirs, des espoirs, des intentions, etc. Mon désir de réussir le concours est satisfait seulement dans le cas où je réussis le concours, c’est-à-dire dans le cas où le monde se conforme à mes désirs ; dans le cas contraire, mon désir n’est pas satisfait. Les états mentaux qui ont une direction d’ajustement de l’esprit au monde, en revanche, sont vrais quand ils décrivent correctement le monde. Par exemple, ma croyance que la terre est ronde est vraie si la terre est vraiment ronde, et est fausse s’il s’avère qu’elle est plate. Ma croyance décrit le monde tel qu’il est, et elle est fausse si elle échoue à décrire le monde tel qu’il est.

Enfin, on peut se demander si tous les états mentaux sont représentationnels. Selon certains philosophes il existe des états mentaux qui n’ont pas de contenu représentationnel, mais simplement un caractère qualitatif (Aydede, 2009). Les états de douleur sont des exemples possibles. Quand je me coupe un doigt, je ressens une douleur aigue, mais, même si la source de la douleur est la blessure (un certain dommage corporel), l’expérience ne représente pas forcement la blessure. C’est peut-être plus parlant dans le cas d’une douleur chronique, qui n’est pas à propos d’une zone endommagée du corps en particulier, mais consiste en un état généralisé qui absorbe tout mon esprit et mon attention. En revanche, les philosophes qui défendent une approche représentationnelle de tous les états mentaux, y compris la douleur, essaient de trouver un contenu représentationnel pour tout état mental (Tye, 1995a).

En conclusion de cette section on peut esquisser les contours de la notion de représentation mentale comme entité mentale avec des caractéristiques sémantiques (conditions de satisfaction ou vérité, aspectualité, et direction d’ajustement).

Théories du contenu mental : internalisme et externalisme

Les mots et les énoncés ont un sens. Mais nos pensées et états mentaux ont aussi un sens. Quand on parle des théories de la signification, il faut distinguer entre deux façons de comprendre cette expression. La première indique les théories sémantiques qui décrivent les significations des expressions du langage (des théories qui attribuent systématiquement des contenus sémantiques aux expressions du langage). La deuxième façon indique les théories de la signification fondamentales ou fondationnelles, qui cherchent les composantes ultimes du sens de nos expressions et qui les trouvent souvent (mais pas toujours) dans des facteurs mentaux (Speaks, 2010).

Une théorie fondationnelle possible de la signification linguistique propose que le sens des expressions linguistiques provient du sens des états mentaux correspondants. Mais d’où vient le sens des états mentaux eux-mêmes ? Cette question peut être analysée en deux sous-questions. D’un côté, on peut se demander quels sont les facteurs qui font qu’un état mental a un certain type de contenu, par exemple, les facteurs qui font qu’il soit à propos des chats, et non pas des chiens. De l’autre, l’on peut aussi se demander quels facteurs jouent un rôle dans l’individuation du contenu des états mentaux (en général).

Nous allons nous concentrer dans cette sous-section sur cette dernière question : comment les contenus des états mentaux sont-ils individués ?

Selon la position internaliste concernant le contenu les seuls facteurs qui comptent sont les facteurs internes au sujet, comme les propriétés de son corps et de son cerveau. Une copie parfaite d’un sujet pensant aurait exactement les mêmes pensées avec les mêmes contenus que le sujet d’origine. De même un cerveau dans une cuve aurait le même contenu mental que ne l’aurait une personne normale au cerveau identique, si elle était située à l’extérieur de la cuve. Selon la position externaliste du contenu, en revanche, les facteurs qui comptent sont externes, ou plus précisément, ce sont les interactions causales du sujet avec ces facteurs externes qui déterminent le contenu. Une copie parfaite d’un sujet pourrait ne pas avoir les mêmes pensées avec le même contenu que le sujet originel, si elle est intégrée dans un autre contexte naturel ou social.

On parle aussi de contenu étroit et de contenu large : si le contenu étroit est individué par des facteurs internes au sujet, le contenu large est quant à lui individué par des facteurs externes au sujet. Les externalistes affirment que le contenu mental est large, tandis que les internalistes affirment qu’il est étroit. Une position mixte postule deux niveaux de contenus : étroit et large.

Afin d’introduire l’externalisme du mental nous allons présenter deux expériences de pensée qui ont joué un rôle proéminent dans la défense de l’externalisme du mental. La première expérience est celle de la « terre jumelle » de Putnam (1975), la deuxième est celle de l’arthrite de Burge (1979). Selon Putnam, l’approche internaliste du contenu s’appuie sur le présupposé selon lequel le contenu d’un concept est constitué par les états psychologiques du sujet, et le contenu détermine la référence du concept. C’est une approche dérivée de la doctrine frégéenne du sens et de la référence, et de l’idée que le sens linguistique d’un nom propre est fixé par une description définie que le locuteur associe avec ce nom. Cette idée a été d’abord remise en question en philosophie du langage par la production de cas où le sens ne détermine pas la référence (Burge, 1992). Par la suite, l’externalisme au sujet des concepts et des termes associés montre que la référence des termes et concepts ne dépend pas des descriptions, croyances, capacités à reconnaître et discriminer que le sujet associe avec le terme, mais plutôt des relations que le sujet entretient avec des facteurs externes à sa cognition.

Ainsi, Putnam nous demande d’imaginer une planète similaire à la Terre sous quasiment tous les aspects, sauf un : si sur la Terre la structure moléculaire de l’eau est H2O, sur Terre Jumelle cette structure est XYZ. L’eau ne diffère pas dans son apparence entre Terre et Terre Jumelle : sur les deux planètes c’est un liquide transparent qui étanche la soif et peut être utilisé pour arroser la végétation, ou pour préparer un thé, etc. Les croyances à propos de l’eau des habitants de la Terre et des habitants de la Terre Jumelle sont pareilles en tous points. Supposons que nous sommes en l’année 1750, avant le développement de la chimie et la découverte de la structure moléculaire de l’eau (H2O) sur Terre et de l’eau (XYZ) sur Terre Jumelle. Pour Putnam, quand un terrien parle de l’eau ou pense à l’eau en 1750, il fait référence à l’élément ayant la structure moléculaire H2O, tandis que l’habitant de la Terre Jumelle, quand il pense à l’eau ou parle de l’eau, fait référence à la structure XYZ, même si leurs croyances (étroites) à propos de l’eau sont les mêmes. Ce qui détermine la référence, pour Putnam, c’est la structure chimique et non pas les croyances associées au concept « eau ». Même si les deux individus sont dans les mêmes états psychologiques quand ils pensent à l’eau ou parlent de l’eau, leurs concepts ne réfèrent pas à la même chose dans le monde, et ont des sens différents.

Si l’externalisme de Putnam se limite aux concepts d’espèce naturelle et aux facteurs naturels, Burge étend l’externalisme de deux façons. D’une part ce sont non seulement les facteurs naturels, mais aussi les normes sociales qui jouent un rôle dans l’individuation des contenus ; d’autre part, l’externalisme s’applique non seulement à des concepts d’espèces naturelles, mais aussi aux concepts d’artefacts, aux perceptions, et même aux états de mémoire. Dans l’expérience de pensée de Burge, un individu (Bert) a des croyances à propos de l’arthrite, dont beaucoup sont vraies. Toutefois, il croit aussi qu’il a de l’arthrite dans la cuisse (Burge, 1979). Quand il va se plaindre au médecin, son médecin l’informe qu’il ne souffre pas d’arthrite, puisque ce n’est qu’une maladie des articulations. Dans un autre contexte vit Bert-Jumeau, une copie parfaite de Bert, mais qui grandit et vit dans une communauté linguistique où le terme « arthrite » réfère à la fois à une maladie des articulations et à une maladie des muscles. Dans ce contexte, Bert-Jumeau n’a pas de croyance fausse s’il croit qu’il a de l’arthrite dans la cuisse, et son médecin ne le corrige pas au cours de la visite. La différence entre Bert et Bert-Jumeau n’est pas dans leurs états internes, mais dans leurs communautés linguistiques et dans les normes d’usage du concept « arthrite », normes établies par les experts de leurs communautés respectives.

Même si la position externaliste reste dominante en philosophie de l’esprit, on assiste à un retour de l’internalisme, notamment grâce à David Chalmers (Chalmers, 2003) et Gabriel Segal (Segal, 2000), parmi d’autres, qui essaient de formuler une version de l’internalisme répondant aux objections externalistes.

Un autre type d’externalisme est l’externalisme du véhicule, défendu par Andy Clark et David Chalmers (Clark & Chalmers, 1998). Dans leur approche, non seulement le contenu d’un état mental est déterminé par des facteurs externes, mais aussi le véhicule de l’état mental lui-même (en tant qu’objet matériel sous-tendant des processus cognitifs) peut être externalisé. Leur argument est fondé sur le « principe de parité ». Imaginons deux personnes qui, chacune à leur manière, gardent en mémoire l’endroit où se trouve le musée d’art moderne de New York. Inga, dont la mémoire marche parfaitement, retient l’information dans son cerveau. Otto, qui souffre de la maladie d’Alzheimer, écrit l’information dans un carnet, qu’il conserve toujours à proximité. Les rôles fonctionnels de l’état cérébral d’Inga et de celui du carnet d’Otto sont les mêmes : les aider à s’orienter dans New York et à retrouver le musée. Selon Clark et Chalmers, on peut alors affirmer que l’état mental mnémonique d’Otto a été externalisé dans le carnet.

Les adversaires de cette position reprochent au théoricien de l’esprit étendu de commettre le sophisme de la « constitution – couplage » : il introduit un cas où un objet ou un processus est couplé à un agent cognitif, et en conclut que cet objet ou ce processus constitue le processus cognitif de l’agent (Adams & Aizawa, 2010). Cette objection s’appuie sur une prémisse cachée de l’argument de parité : on définit le rôle fonctionnel d’un état cognitif de façon assez large et abstraite de manière à ce que la distinction entre objet ou processus qui entre dans une relation de constitution et objet ou processus qui entre dans une relation causale est brouillée. En arrière-plan se trouve un débat sur la « marque du cognitif » : qu’est-ce qui fait qu’un processus est cognitif plutôt que non-cognitif ? Pour Adams et Aizawa, comme pour nombre d’autres philosophes, la cognition est constituée par des processus causaux impliquant des contenus non-dérivés. Cependant, d’autres approches sont possibles. Par exemple Morgan (2014) critique cette position en montrant qu’on peut trouver des contenus non-dérivés même dans des entités non-cognitives, comme des plantes, et suggère d’autres critères pour démarquer la cognition de la non-cognition.

Pour résumer, si pour l’internalisme ce qui compte dans l’individuation des contenus mentaux sont les facteurs internes (corps et cerveau), pour l’externalisme ce sont les interactions causales avec des facteurs naturels et sociaux qui sont constitutives de l’individuation des contenus. Dans l’hypothèse de l’esprit étendu, non seulement les contenus, mais aussi les véhicules peuvent être individués au-delà du corps.

Les représentations mentales entre psychologie du sens commun et psychologie scientifique 

L’approche des représentations mentales que l’on a présentée jusqu’ici les conçoit comme étant attribuées au sujet entier, par exemple quand on dit que « Jean croit que Paris est une grande ville ». Mais en sciences cognitives, les représentations mentales ne sont pas toujours attribuées à un sujet entier. Elles peuvent aussi être attribuées à des facultés ou à des processus cognitifs du sujet. Par exemple, des représentations des angles des objets sont introduites pour expliquer le fonctionnement de la vision de bas niveau, et de telles représentations ne sont pas consciemment accessibles par le sujet (Marr, 1982). Ceci pose la question du lien entre les deux types d’attributions de représentations mentales.

On peut analyser ce lien en faisant appel aux notions de « personnel » et « sous-personnel » (Dennett, 1969/2010). Cette distinction a reçu de multiples interprétations. Pour Dennett, au niveau personnel, on fournit des explications non mécanistes du comportement d’une personne, qui font appel aux états mentaux du sujet entier, et qui arrivent vite à leur terme. Au niveau sous-personnel, en revanche, on analyse la personne en sous-systèmes organisés et on explique le comportement de la personne comme étant le résultat de l’interaction entre ces sous-systèmes. Les sous-systèmes sont à leur tour analysables en sous-sous-systèmes, de sorte que les explications sous-personnelles en appellent d’autres. Pour Dennett, cette distinction permet d’éviter le sophisme méréologique, qui consiste dans l’usage de prédicats vrais du tout pour décrire les parties (par exemple quand on dit que les particules de l’eau sont mouillées) et le sophisme de l’homoncule, qui consiste dans l’explication du comportement intelligent par le biais d’un autre être également intelligent. Pour John McDowell, en revanche, cette distinction correspond à la distinction sellarsienne entre le domaine des normes et des raisons, et le domaine des causes. Ainsi, pour lui, les attitudes propositionnelles trouvent leur place dans des explications dans lesquelles « les choses sont rendues intelligibles en étant révélées être, ou s’approchant d’être, comme elles doivent l’être du point de vue rationnel. » (McDowell, 1985, p. 389).

Dans la première partie de cette entrée nous avons présenté les caractéristiques sémantiques des états mentaux représentationnels. Ce sont les états que nous utilisons au quotidien pour essayer de comprendre les autres, prédire leur comportement, et expliquer leurs actions. Par exemple, si je vois quelqu’un rater son avion, je fais appel aux états mentaux pour expliquer pourquoi cette personne s’agite : elle est enragée et dépitée, et elle croit qu’elle ne pourra plus rentrer chez elle à temps. On appelle cette théorie préscientifique consistant dans un ensemble de principes largement partagés dans une communauté, la « psychologie du sens commun » (Stich & Ravenscroft, 1994).

La psychologie du sens commun est réaliste à propos de l’intentionnalité. Quand on explique le comportement d’une personne, on lui attribue des états mentaux avec un contenu représentationnel causalement efficace dans la production du comportement (voir entrée sur la causalité mentale : http://encyclo-philo.fr/causalite-mentale-a/). Jerry Fodor décrit la présupposition réaliste ainsi : « La psychologie du sens commun marche si bien qu’elle disparaît. Elle est comme une de ces voitures Rolls Royce mythiques dont les moteurs sont scellés une fois qu’elles quittent l’usine ; seulement [la psychologie du sens commun] est mieux parce qu’elle n’est pas un mythe. Si quelqu’un que je ne connais pas m’appelle à mon bureau de New York de – supposons – l’Arizona et prononce les mots « Voulez-vous faire une présentation ici mardi prochain ? ». Je réponds : « Oui, merci. Je serai à votre aéroport avec le vol de 15 heures. ». Ceci est tout ce qui se passe, mais c’est plus que suffisant, le fardeau de prédire le comportement – de combler le fossé entre énoncés et actions – est porté de façon routinière par la théorie. » (Fodor, 1987, p. 3)

Le réalisme intentionnel implique qu’il existe des états mentaux qui sont : a) sémantiquement évaluables ; b) ont un impact causal dans la production des comportements ; c) sont décrits par des généralisations de la psychologie du sens commun. Il ne faut pas oublier cependant que le réalisme intentionnel n’est pas la thèse selon laquelle la psychologie du sens commun sera entièrement confirmée par la psychologie scientifique. C’est plutôt la thèse qu’il existe des caractéristiques que nous pouvons découvrir en analysant la psychologie du sens commun et qui seront aussi présentes dans la psychologie scientifique. Ainsi, pour Fodor, le réalisme intentionnel fera partie de la science de la cognition (Fodor, 1987), mais avec des hypothèses supplémentaires. Mais certains philosophes ont soutenu l’idée contraire selon laquelle la psychologie du sens commun sera complétement abandonnée, sur l’exemple du phlogistique, en faveur d’explications scientifiques du comportement qui font appel au cerveau (P. S. Churchland, 1989, voir aussi l’entrée cerveau http://encyclo-philo.fr/cerveau-a/). Pour Robert Cummins, qui défend une position moins radicale, les représentations mentales dont parle la psychologie du sens commun sont tout à fait différentes des représentations mentales dans les théories computationnelles de la cognition (Cummins, 1989).

Même si l’on accepte le réalisme intentionnel, la psychologie du sens commun reste silencieuse sur nombre de questions concernant les représentations mentales. Elle ne nous donne pas une théorie de la structure des représentations, ni du format des représentations, ni de l’origine des contenus mentaux, ni de l’interaction entre le mental et le physique. Il faut se tourner ailleurs pour trouver des réponses à ces questions.

Les représentations mentales en philosophie des sciences cognitives 

Depuis le « tournant cognitif » des années 1950, la notion de « représentation mentale » a été déterminante dans le développement des sciences cognitives. Cette notion théorique est au cœur des projets de recherche en neuroscience, psychologie cognitive, psychologie sociale, linguistique, intelligence artificielle, anthropologie cognitive, et cognition animale. Elle est utilisée pour expliquer des capacités psychologiques comme le langage, la perception, la mémoire, le raisonnement, la production des actions, etc. Historiquement, le « tournant cognitif » a été accompagné par le retour de l’emploi des représentations mentales pour expliquer la cognition, contre le courant behavioriste, qui visait à réduire au minimum le recours aux processus et entités mentaux dans les explications psychologiques. Les découvertes scientifiques qui ont provoqué la disparition du béhaviorisme et la naissance des sciences cognitives sont la grammaire universelle (voir entrée « langage » encyclo-philo.fr/langage-a) proposée par Noam Chomsky pour expliquer le fonctionnement et l’apprentissage du langage (Chomsky, 1957/2002), la découverte des limites de la mémoire à court terme par George Miller (Miller, 1956), la découverte des « cartes mentales » utilisées pour naviguer l’espace par les humains et les animaux non-humains (Tolman, 1948), et le travail sur l’intelligence artificielle de John McCarthy, Marvin Minsky, Allen Newell, et Herbert Simon (Miller, 2003).

De façon générale, dans les sciences cognitives, « représentation mentale » indique une structure qui collecte, conserve, et contribue à la transmission de l’information. Les représentations mentales en sciences cognitives ne sont pas simplement des entités avec des caractéristiques sémantiques, mais des entités physiques réalisées dans le cerveau et qui possèdent aussi des propriétés syntaxiques et matérielles. En tant qu’objets physiques réalisés dans des structures matérielles, les représentations mentales participent aux processus cognitifs qui constituent la pensée ; en tant qu’objets avec un contenu et des caractéristiques sémantiques elles expliquent le comportement en termes intentionnels (Dretske, 1991).

Il existe plusieurs approches des représentations mentales dans les sciences cognitives, qui diffèrent quant au rôle qu’elles attribuent aux représentations mentales et quant au type de structure que possèderaient les représentations.

La théorie représentationnelle-computationnelle de l’esprit

La théorie représentationnelle-computationnelle de l’esprit est sans doute le paradigme le plus influant et le plus fécond dans les sciences de la cognition. Kim Sterelny le résume ainsi : « Une théorie computationnelle de la cognition et une approche des relations causales entre l’esprit et le monde expliquant comment nous possédons des esprits qui représentent. La décomposition de capacités complexes en capacités plus simples, en combinaison avec une approche de la manière dont des opérations simples peuvent être bâties dans l’organisation physique de l’esprit, expliquent comment nous possédons des esprits computationnels. » (Sterelny, 1990, p. 40).

Bien que pour la plupart des philosophes les computations ne soient pas séparables des représentations – une idée exprimée par le slogan « pas de computation sans représentation » (Fodor, 1981) – des développements récents en théorie de la computation ont remis en question cette connexion nécessaire. Par exemple, Gualtiero Piccinini a récemment défendu une approche de la computation qui ne fait pas appel aux représentations, en définissant des computations sur des véhicules sans référence à leur contenu sémantique (c’est-à-dire sur des objets physiques non représentationnels) (Piccinini, 2008). Une présentation de la computation sans représentation est au-delà de la portée de cet article et dans le cadre de cette entrée, on présupposera que pour les êtres dotés d’un esprit les computations sont définies sur des représentations (mentales), des objets mentaux avec des caractéristiques sémantiques, des propriétés syntaxiques, et des propriétés matérielles.

L’idée que penser est faire des computations est souvent résumée par l’expression de la « métaphore de l’ordinateur » : l’esprit serait (comme) un ordinateur (digital). Toutefois, il faut déconstruire le mythe de la métaphore de l’ordinateur. D’une part, les recherches sur les computations et les ordinateurs ont été inspirées au départ par le fonctionnement de la cognition humaine et du système nerveux (McCulloch & Pitts, 1943), ainsi que par l’existence de « machines computationnelles » humaines, par exemple à la NASA (qui étaient souvent des femmes, dont le rôle était de faire des calculs pour prédire les trajectoires). De ce point de vue, c’est l’ordinateur qui est modélisé sur le fonctionnement de la cognition, plutôt que l’inverse. D’autre part, on peut soutenir que le cerveau est littéralement un ordinateur, mais pas au sens où on emploie le plus souvent le mot « ordinateur » dans la vie courante de nos jours, c’est-à-dire pour désigner le type de machines qu’on trouve sur nos bureaux, qui se caractérisent par une architecture fonctionnelle particulière, celle des machines de Von Neumann. D’après la théorie computationnelle, l’esprit est un ordinateur, puisque c’est bien une entité physique qui fait des calculs (par exemple, quand des processus visuels dérivent la couleur d’une surface à partir de l’information sur la lumière ambiante) (McCulloch & Pfeiffer, 1949).

Afin de comprendre la notion de computation nous devons présenter deux autres notions : celle de fonction mathématique et celle d’algorithme. Une fonction est une relation entre des entrées (ou arguments) et des sorties (les valeurs) telle que pour chaque ensemble d’entrées correspond une seule sortie. On écrit cela formellement : F=m(x,y). Par exemple, la multiplication est une fonction : pour chaque paire de chiffres en entrée la fonction multiplication produit un seul chiffre en sortie. Un algorithme est l’explicitation d’un processus qui spécifie la série finie des étapes nécessaires pour calculer une fonction. Une même fonction peut être calculée par différents algorithmes.

Un ordinateur est un outil qui reçoit des symboles en entrée et produit des symboles en sortie en suivant des procédures algorithmiques. La machine de Turing, décrite par Alan Turing en 1936 (Petzold, 2008), est une description abstraite d’un programme : les symboles apparaissent sur le ruban d’une machine et sont lus par une tête de lecture et modifiés en accord avec les règles écrites dans le programme. La seule chose qui compte sont les propriétés « formelles » des symboles, et non leur contenu. Tout comme un ordinateur, l’esprit peut aussi être décrit par le moyen de règles algorithmiques (les processus cognitifs) qui manipulent des symboles (les représentations mentales).

Il existe au moins trois avantages de la théorie computationnelle-représentationnelle. Le premier avantage est que cette théorie est compatible avec le physicalisme (même si elle est aussi compatible avec le dualisme), et plus précisément elle montre comment l’esprit peut exister dans un support purement physique. Pour le physicalisme, tout ce qui existe fait partie du monde physique naturel, et il n’y a pas de phénomènes surnaturels. Grâce à l’ordinateur on arrive à saisir comment un esprit peut exister dans le monde physique. L’argument est le suivant :

Si les processus mentaux sont computationnels, ils peuvent être exécutés par un ordinateur.Un ordinateur est une machine qui exécute des processus en accord avec les lois de la physique.Les processus mentaux sont donc compatibles avec les lois de la physique.

Le deuxième avantage de la théorie est qu’elle explique la rationalité de la pensée par les relations causales entre états computationnels (Fodor, 1987). Un raisonnement est un processus psychologique qui commence par des prémisses et aboutit à une conclusion via l’application de règles. Les règles qui amènent des prémisses à la conclusion sont des règles logiques et d’inférence. Mais les processus psychologiques sous-jacents aux raisonnements psychologiques sont causaux et non pas logiques/inférentiels. Comment se fait-il que les propriétés causales des états mentaux d’un individu reflètent les propriétés logiques et les relations sémantiques des propositions ? Pour la théorie computationnelle-représentationnelle, les transitions causales portent sur les propriétés syntaxiques et formelles des représentations mentales ; mais ces transitions causales respectent les contenus des représentations, et de façon indirecte les transitions entre propositions.

Le dernier avantage est que la théorie propose une solution simple au problème de la causalité mentale (voir l’entrée sur la causalité mentale http://encyclo-philo.fr/causalite-mentale-a/). Les représentations mentales sont des symboles physiques avec un véhicule matériel qui possède des propriétés syntaxiques et un contenu qui possède des caractéristiques sémantiques. En vertu de leur aspect matériel et syntaxique elles peuvent participer à des manipulations physiques, les computations, qui ont une efficacité causale. En même temps le contenu est systématiquement corrélé avec la syntaxe. Grâce à cette corrélation entre sémantique et syntaxe le contenu peut avoir un rôle causal indirect. Ainsi, même si seules les propriétés syntaxiques ont une efficacité causale à proprement parler, le contenu mental est indirectement causal. Pour le mettre sous forme de slogan : « si on se soucie de la syntaxe, la sémantique prendra soin d’elle-même » (Haugeland, 1985, p. 106).

Cette solution simple a été remise en question. Elle suggère que le contenu des représentations est causalement indirect. Pourtant quand on explique le comportement des agents on fait appel aux contenus de leurs pensées et non pas aux véhicules qui sous-tendent la pensée (Dretske, 1991). Une tension naît alors entre la causalité définie seulement sur les propriétés formelles (syntaxiques et matérielles) des représentations, et le rôle central du contenu dans l’explication et la prédiction du comportement. Y a-t-il un rôle pour le contenu des représentations dans la causation mentale ?

En bref, la théorie computationnelle-représentationnelle de l’esprit est la combinaison de la théorie computationnelle de l’esprit (l‘idée que les processus mentaux peuvent être formalisés via des algorithmes) avec la théorie représentationnelle de l’esprit (penser c’est manipuler des entités mentales avec des caractéristiques sémantiques).

Le langage de la pensée

Une version de la théorie computationnelle-représentationnelle de l’esprit est le « langage de la pensée » (ou « mentalais »), selon laquelle les représentations mentales ont un format quasi-linguistique.

L’hypothèse du langage de la pensée combine l’idée que penser est un processus computationnel avec la théorie selon laquelle les attitudes propositionnelles sont des relations à des symboles mentaux dans un langage de la pensée. Bien qu’on trouve des ancêtres du langage de la pensée chez des philosophes comme Occam (Panaccio, 2017), la version contemporaine a été proposée par Jerry Fodor (1975) et Gilbert Harman (1975).

Dans la version fodorienne de l’hypothèse du langage de la pensée les attitudes propositionnelles sont des relations entre des organismes et des formules dans un langage de la pensée. Pour chaque organisme O ayant une attitude propositionnelle AP envers une proposition p, il existe une relation computationnelle R et une représentation mentale RM tels que RM signifie que p, et O possède l’AP si et seulement si O est en R avec RM. Plus concrètement, si Jean croit qu’il y aura un Brexit sans accord, Jean est en relation computationnelle avec un token interne qui signifie qu’il y aura un Brexit sans accord, exprimé dans le langage de la pensée.

Comme nous l’avons déjà vu, Fodor est un réaliste intentionnel : les états intentionnels existent et les caractéristiques sémantiques des attitudes propositionnelles contribuent à la production et à l’explication des comportements. En outre, les caractéristiques sémantiques des énoncés linguistiques sont dérivées des propriétés sémantiques des attitudes propositionnelles. Bien que l’introduction du langage de la pensée s’enracine dans le réalisme intentionnel, l’hypothèse va au-delà de ce qui est postulé dans la psychologie du sens commun. Plus précisément, le langage de la pensée introduit une hypothèse sur la structure des représentations mentales : les représentations mentales ont une structure en constituants.

Pour comprendre cette hypothèse, on peut penser au langage naturel : une langue naturelle (comme le français) a des éléments atomiques (les mots) qui peuvent être combinés dans des structures complexes (les phrases) en suivant des règles de grammaire. N’oublions pas, cependant, que la thèse du langage de la pensée n’est pas qu’on pense dans une langue naturelle (comme le français ou l’anglais), mais qu’on pense dans un langage mental, le mentalais, qui ne coïncide avec aucune langue naturelle (sauf chez Peter Carruthers (1998)). De plus, le langage de la pensée n’est pas une thèse sur la phénoménologie de la pensée, et ne dépend pas du fait qu’on a souvent l’impression de penser en utilisant des mots. Au contraire, c’est une thèse empirique sur la pensée au niveau sous-personnel. L’argument principal en faveur de langage de la pensée est une inférence à la meilleure explication à partir des propriétés de la productivité et de la systématicité.

« Productivité » indique ici la capacité d’un locuteur d’une langue de produire un nombre potentiellement infini d’énoncés à partir d’un nombre fini de constituants. Pour prendre un exemple simple, dans un langage formé par « Marie », « Jean », « Pierre », « aime », et des connecteurs logiques comme « et », on peut formuler les énoncés suivants : « Marie aime Jean », « Jean aime Marie », « Marie aime Pierre et Jean », « Jean aime Pierre », « Pierre aime Jean », « Pierre aime Marie et Jean », et ainsi de suite. On remarque que cette propriété est une idéalisation : de fait nous ne produisons jamais un nombre infini d’énoncés vu les limites de nos capacités mnémoniques et de performance.

« Systématicité » désigne une propriété qui joue un rôle central dans le débat sur le format des représentations mentales. En effet, la systématicité implique une certaine conception du format des représentations comme étant des entités discrètes et identifiables, combinables entre elles. La systématicité peut être définie comme suit : dans le cas du langage naturel la capacité de générer et de comprendre certains énoncés est intrinsèquement liée à la capacité de générer et comprendre une multiplicité d’autres énoncés. Si l’on parle couramment français, alors si on comprend l’énoncé « Marie aime Jean », on comprend aussi l’énoncé « Jean amie Marie ». Fodor présente son argument ainsi : « Les capacités linguistiques sont systématiques puisque les énoncés ont des structures en constituants. Mais les capacités cognitives sont aussi systématiques, et cela doit être dû au fait que les pensées ont aussi une structure en constituants. Mais si les pensées ont une structure en constituants le langage de la pensée est vrai. » (Fodor, 1987, pp. 150-151).

On peut reconstruire l’argument en faveur du langage de la pensée comme suit :

Le langage a des propriétés telles que la productivité et la systématicité.On explique la productivité et la systématicité du langage en faisant appel au fait que le langage a une syntaxe combinatoire et une sémantique compositionnelle.Les propriétés syntaxiques et sémantiques du langage dérivent des propriétés syntaxiques et sémantiques de la pensée.La pensée possède aussi ces propriétés, c’est-à-dire la pensée est productive et systématique.Donc les pensées (les représentations mentales) ont aussi une structure en constituants, similaire à celle du langage.

La pensée est, donc, dans la perspective du langage de la pensée, combinatoire et compositionnelle. « Combinatoire » signifie que les états mentaux sont construits à partir d’éléments simples (comme des atomes), qui amènent avec eux leur contribution sémantique dans les structures complexes dans lesquelles ils figurent. Un exemple classique est la logique propositionnelle, qui contient des atomes et des expressions moléculaires formées en partant des atomes. Pour le langage de la pensée les atomes sont les concepts (qui sont ici des représentations mentales). « Compositionnel » désigne le fait que le contenu sémantique (le sens) d’une expression complexe est déterminé par le contenu sémantique de ses constituants et la façon dont ils sont combinés. Par exemple le sens de « petit chien » est constitué par le sens de « petit » et celui de « chien ». Une exception possible à la compositionnalité fait appel aux expressions idiomatiques, comme « casser sa pipe », dont le sens n’est pas déterminé par la composition des sens de ses constituants.

Pour Fodor, les symboles mentaux primitifs dans le langage de la pensée sont les porteurs de l’intentionnalité non-dérivée. L’intentionnalité des états psychologiques des locuteurs dérive de l’intentionnalité des symboles mentaux dans le langage de la pensée, et les expressions linguistiques sont intentionnelles en vertu des états psychologiques des locuteurs.

L’approche connexionniste des représentations mentales 

Le connexionnisme est un paradigme alternatif à la théorie représentationnelle-computationnelle de l’esprit classique et au langage de la pensée. Par contraste avec l’approche classique, le connexionnisme puise son inspiration plus directement dans le cerveau et ses propriétés neurobiologiques pour élaborer des principes computationnels. Si la conception classique de la cognition s’intéresse aux propriétés fonctionnelles et à leurs relations, en faisant abstraction des propriétés neurologiques, pour le connexionnisme les structures biologiques sont primordiales pour comprendre comment on pense (Horgan, 1997). En même temps, il est important de noter que, même si le connexionnisme s’inspire des neurones biologiques, cela reste une théorie computationnelle qui fait abstraction de nombreuses propriétés concrètes du cerveau. En effet, l’origine du connexionnisme vient de deux développements dans le domaine de l’intelligence artificielle : la création de « neurones formels » capables de faire des opérations logiques (McCulloch & Pitts, 1943) et la création du perceptron, une intelligence artificielle capable de reconnaître des images (Rosenblatt, 1958).

Les réseaux connexionnistes sont formés par des « nœuds » interconnectés qui sont organisés en plusieurs couches. Les nœuds d’entrée s’activent en réponse à la détection de stimuli externes au réseau. Ensuite ils transmettent l’activation à des couches de nœuds « cachés » dont la valeur d’activation dépend de la force d’activation des entrées (et des « poids » des connexions entre les nœuds). Enfin le signal se propage à travers le réseau jusqu’aux nœuds de sortie (Bechtel & Abrahamsen, 1991).

Quelle est la conception des représentations mentales dans le connexionnisme ? Le connexionnisme étant une famille de théories, plutôt qu’une seule théorie bien identifiée, la notion de représentation mentale dans le connexionnisme va dépendre de l’interprétation de la théorie. Il existe (au moins) deux interprétations possibles : locale et distribuée.

Selon l’interprétation locale on peut identifier dans un réseau de neurones un sous-ensemble discret qui correspond à une représentation mentale « atomique », par exemple la représentation pour « chien ». Si l’on accepte cette interprétation, il n’y a pas de facto de différence profonde entre le modèle classique et le modèle connexionniste de la cognition.

Selon la conception « distribuée », en revanche, les représentations mentales sont des patterns d’activations implémentés dans des nœuds et des poids, et on ne peut pas identifier une partie du réseau comme ayant un contenu distinct. En d’autres termes, les représentations mentales distribuées ne sont pas des symboles mentaux discrets comme dans le langage de la pensée, et l’information n’est pas encodée dans un seul symbole, mais elle est distribuée à travers le réseau neuronal, dans des « micropropriétés » qui ne correspondent pas à des concepts. Quand le réseau n’est pas actif l’information n’est pas représentée de façon explicite, mais de façon tacite (voir section 4.c) (Davies, 2015). Le réseau ne représente explicitement que quand il est actif. Par contraste, un symbole discret dans l’approche classique est stocké de façon explicite même quand il n’est pas actif.

Selon les défenseurs du connexionnisme, les réseaux de neurones artificiels présentent plusieurs avantages dans la modélisation de l’esprit (Bechtel & Abrahamsen, 1991, pp. 45-51). Les réseaux neuronaux sont plus proches de la manière dont fonctionne le cerveau et ceci permet d’éviter le problème de l’implémentation (P. S. Churchland, 1989). Le connexionnisme permet d’expliquer la « dégradation lente » (graceful degradation), où le disfonctionnement d’une partie du réseau n’impacte pas le réseau entier qui continue à fonctionner (contrairement au paradigme classique où la destruction d’un symbole impacte le processus entier). Le connexionnisme est naturellement compatible avec une approche empiriste de l’apprentissage et permet de modéliser l’apprentissage par expérience, par contraste avec le langage de la pensée qui est souvent accompagné par la thèse supplémentaire de l’innéité des représentations mentales (voir entrée sur l’innéité : encyclo-philo.fr/inneite-a/). Les réseaux ont des contraintes souples plutôt que rigides grâce à la présence de multiples connexions à la place des connexions déterministes un-à-un du classicisme. Cela permet de modéliser le fait que les règles ont souvent des exceptions (par exemple le fait que la croyance générique que les oiseaux volent est compatible avec la croyance qu’il existe des oiseaux qui ne volent pas, comme les pingouins).

Comment arbitrer entre le paradigme classique et le paradigme connexionniste distribué des représentations mentales ? Tandis que les défenseurs du connexionnisme ont souligné combien leur modèle se rapproche de la façon dont nous pensons, les défenseurs du classicisme ont contesté cet avantage en soulignant combien le connexionnisme échoue dans la modélisation de la systématicité de la pensée (Fodor & Pylyshyn, 1988).

Si le paradigme classique explique cette propriété en postulant des symboles mentaux atomiques qui peuvent être combinés et recombinés, les représentations connexionnistes ne peuvent pas être combinées de façon systématique en raison de leur structure distribuée, où chaque activation est légèrement différente de la précédente. De plus, puisqu’il n’y a pas de correspondance un-à-un entre un symbole mental et une catégorie dans le monde, les réseaux peuvent apprendre une expression comme un bloc entier sans apprendre une expression résultante de la combinaison des éléments de ce bloc. Par exemple, un réseau peut apprendre « Marie aime Pierre » sans apprendre « Pierre aime Marie ».

Le débat ne porte pas sur la question de savoir si un réseau de neurones peut implémenter la systématicité : c’est bien sûr possible si le réseau implémente une architecture classique de la cognition. Le point de Fodor et Pylyshyn est plutôt que la seule façon dont le connexionnisme peut expliquer la systématicité est d’implémenter une architecture classique. Mais si c’est le cas, le connexionnisme n’est plus un paradigme alternatif au paradigme classique, mais une proposition concernant son implémentation.

Le débat entre classicisme et connexionnisme a connu une période d’oubli après 1990, mais une nouvelle version du débat est revenue sur le devant de la scène depuis 2006 grâce aux avancées de l’intelligence artificielle, et en particulier grâce aux travaux sur l’apprentissage profond (deep learning ; LeCun, Bengio, Hinton, 2015). En effet, nombre de chercheurs travaillant sur les programmes d’intelligence artificielle connus aujourd’hui (par exemple AlphaGo) utilisent des outils connexionnistes, mais plus complexes que ceux proposés dans les années 1980-1990. Ces chercheurs ne revendiquent parfois pas l’étiquette de « connexionnisme » (contrairement aux années 1980-1990), mais le cadre global est similaire, ainsi que certaines questions qu’il soulève – par exemple celle des limites des réseaux de neurones dans l’explication des capacités cognitives, en particulier des capacités intellectuelles générales (Marcus, 2018) et celle de la possibilité de paradigmes hybrides intégrants l’approche classique à celle connexionniste (Marcus, 2001).

Nonobstant leurs différences les deux approches susmentionnées donnent une place centrale aux représentations mentales dans les explications scientifiques de la cognition. Dans la prochaine sous-section nous allons voir des positions qui limitent la portée, voire éliminent, les représentations mentales.

Critiques de la notion de représentation mentale 

Les positions anti-représentationalistes

Dans cette sous-section nous allons passer en revue différentes positions anti-représentationalistes.

Une première position critique s’appuie sur les arguments de Gilbert Ryle contre les erreurs de catégorie (Ryle, 1949). Peter Hacker, avec le neuroscientifique Maxwell Bennett, critique ainsi la neuroscience contemporaine en arguant qu’elle commet une erreur de catégorie en attribuant des propriétés des attitudes propositionnelles (qui s’appliquent au sujet entier) à des systèmes neurobiologiques, qui ne sont pas sujets aux mêmes normes (M. R. Bennett & Hacker, 2003). Ainsi, la notion de représentation mentale ne trouverait pas sa place dans les sciences de la cognition, puisque c’est un concept pertinent uniquement quand on l’applique au sujet entier et dans le domaine de l’analyse conceptuelle en philosophie. Cette position est en partie motivée par l’idée que la philosophie est largement une entreprise a priori, sans continuité avec la science, par contraste avec des approches plus naturalistes de la philosophie, qui la conçoivent comme étant en continuité avec les sciences naturelles. On remarque brièvement que cette position ne tient pas compte de la distinction entre les deux approches des représentations mentales esquissée en introduction, ni véritablement de la distinction entre explications au niveau personnel et au niveau sous-personnel (M. R. Bennett, Dennett, Hacker, & Searle, 2007).

Une deuxième façon d’être anti-représentationaliste consiste dans la position qui admet l’utilité pratique des attributions d’états mentaux intentionnels avec un contenu aux entités qui manifestent un comportement intelligent, mais qui n’est pas réaliste quant à l’existence des représentations mentales pour autant. C’est la position défendue par Dennett, qui conçoit l’intentionnalité en termes de « stratégie de l’interprète » (intentional stance) (Dennett, 1987). Selon Dennett, l’intentionnalité se comprend comme une attitude de prédiction et d’explication. L’usage d’une telle stratégie est justifié quand l’entité qu’on veut interpréter se comporte comme si elle avait des états mentaux intentionnels. Mais on peut l’utiliser pour n’importe quelle entité : le comportement d’un ordinateur qui joue aux échecs, voire d’un thermostat très sophistiqué, pourraient être expliqués par la stratégie de l’interprète. Le succès de la stratégie n’est pas dû à la présence réelle d’états mentaux intentionnels (contra Fodor), mais à son efficacité dans l’explication des comportements.

Une troisième façon d’être sceptique quant aux représentations est d’admettre que les représentations mentales existent dans le cerveau, mais nier l’utilité ou la réalité des attributions d’attitudes propositionnelles, c’est-à-dire nier l’existence des représentations mentales postulées par la psychologie du sens commun. C’est, en somme, la position inverse de celle de Dennett, et elle a été soutenue par Paul et Patricia Churchland. Ils admettent l’existence et la réalité de représentations mentales de type connexionniste dans le cerveau, mais ils rejettent les représentations mentales en tant qu’attitudes propositionnelles de la psychologie du sens commun (P. M. Churchland, 1992).

Une autre façon d’être anti-représentationalistes est le déflationnisme. Il se distingue des théories anti-représentationalistes radicales dans la mesure où il laisse une place aux représentations mentales dans les explications en sciences cognitives, mais il refuse l’engagement ontologique envers des entités dans le cerveau ayant un contenu sémantique large. Ainsi, c’est une position intermédiaire entre le réalisme à propos des représentations mentales et l’éliminativisme. Une telle position a été défendue notamment par Frances Egan (Egan, 2014), et peut-être plus étonnamment par Noam Chomsky (Chomsky, 1995). Selon cette approche, il ne faut pas identifier les représentations mentales par leur contenu large (leur référence aux objets dans le monde), puisque la façon dont les scientifiques cognitifs identifient les représentations est par leur contenu étroit, ou plus précisément par les algorithmes calculés sur les représentations (ce qu’Egan appelle leur « contenu mathématique »). Pour Egan, le contenu sémantique à proprement parler n’est qu’un raccourci pragmatique, et non pas un aspect essentiel de notre théorie des représentations mentales. De même, l’approche fictionnaliste, proposée (mais pas défendue) par Mark Sprevak (Sprevak, 2013), conçoit les représentations mentales comme des fictions utiles, qui jouent un rôle heuristique dans les explications, mais qui n’ont pas d’existence ontologique.

Une approche anti-représentationaliste radicale, quant à elle, rejette à la fois l’existence ontologique et tout rôle explicatif pour les représentations mentales.

Une façon d’être anti-représentationaliste est de souscrire au paradigme dynamiciste (Port & Van Gelder, 1995), dont l’idée centrale est que l’esprit est un système complexe qui peut être modélisé par des modèles dynamiques. Ce projet remplace le modèle de l’ordinateur par la métaphore du régulateur à boules de Watts, dont le comportement peut être expliqué par des équations différentielles, mais non pas par l’identification des parties du régulateur avec des représentations mentales, des algorithmes, et des séquences actionnables.

Il existe d’autres positions anti-représentationalistes. Une position anti-représentationaliste inspirée de la phénoménologie en philosophie de la perception donne une place centrale à l’action dans la cognition, par opposition à la manipulation de symboles mentaux. Selon Hubert Dreyfus (Dreyfus, 2002), le corps agissant dans le monde acquiert des compétences (motrices) qui sont stockées comme des dispositions à agir et non pas comme des représentations mentales.

L’attention portée à l’action, par opposition à la manipulation de symboles mentaux, trouve ses origines dans la psychologie écologique défendue par le psychologue James Gibson (Gibson, 1979/2014), selon laquelle nous n’avons pas besoin de représentations mentales (et plus généralement de processus cognitifs impliquant le traitement de l’information) puisque les stimulations de l’environnement et les dispositions à agir (« affordances ») suffisent à expliquer le comportement. Par exemple, mon comportement quand je mange une pomme pourrait être expliqué par la propriété de la pomme d’être « comestible » et par ma disposition à la prendre pour la manger quand j’en vois une. La notion d’affordance en soi n’est pas en contradiction avec l’existence de représentations mentales (par exemple si on introduit des représentations mentales orientées vers l’action, comme le fait Andy Clark, 1998, ou bien des « boucles » action-perception comme le fait Susan Hurley, 1998), mais d’autres philosophes opposent les explications en termes d’affordance et de couplage agent-environnement aux explications en termes de représentations mentales (voir par exemple Kiverstein & Rietveld 2020, qui tentent aussi d’étendre la portée de ces notions du champ de l’explication de l’action à celui des capacités cognitives de plus haut niveau).

Plus généralement, on appelle « 4E » une famille d’approches qui conçoit la cognition comme étant incarnée, située, étendue, et enactée (embodied, embedded, extended, enacted) (Newen, De Bruin, Gallagher, 2018). Cette étiquette inclut des positions très différentes entre elles, voire incompatibles, par exemple celle d’Andy Clark (1998) qui reste encore fortement représentationaliste, et celle de Anthony Chemero (2009) qui est, en revanche, fortement anti-représentationaliste. Mais, si on fait abstraction de ces différences, l’approche 4E est caractérisée par le rejet (plus ou moins fort) du modèle symbolique abstrait de la cognition, et par un rejet de la thèse selon laquelle les états cognitifs sont réalisés seulement par des états cérébraux (Newen, De Bruin, Gallagher, 2018, Introduction).

Nombre de positions 4E restent compatibles avec le représentationalisme, et comblent des lacunes du paradigme symbolique classique de la cognition en y intégrant une dimension corporelle et orientée vers l’action, qui manquait dans ses premières formulations (Varela, Thompson, Rosch, 1991, pp. 40-41). En effet, l’approche incarnée est ambiguë entre différentes interprétations plus ou moins radicales (Goldman et de Vignemont, 2009) : a) que le corps a une influence sur la cognition ; b) que le corps et les actions corporelles constituent la cognition sans passer par des représentations mentales ; c) que certaines représentations mentales ont un format corporel. La thèse a) est peu controversée, la thèse c) est compatible avec le représentationalisme, et intègre une dimension corporelle aux symboles abstraits. Seule la thèse b est anti-représentationaliste.

Les positions anti-représentationalistes radicales sont controversées, puisqu’elles sont difficilement généralisables à des activités cognitives complexes, comme mémoriser et retrouver ses souvenirs, garder la trace d’un objet quand il disparaît derrière un obstacle, reconnaître des objets dans un environnement nouveau et instable, compléter la forme d’un objet partiellement caché de vue, choisir la bonne action non seulement en fonction des objets présents, mais aussi du contexte et des connaissances d’arrière-plan, réfléchir à un problème afin d’en trouver la solution, se projeter dans l’avenir, penser de façon métacognitive, et ainsi de suite. Bien qu’on trouve des expériences en psychologie inspirées par les approches 4E, les paradigmes expérimentaux les plus employés en psychologie et neuroscience tendent à présupposer parmi leurs entités théoriques les représentations mentales et les états mentaux avec du contenu (voir Rupert, 2011, qui propose un argument selon lequel les données empiriques soutiennent le représentationalisme).

Pour clarifier ce point, considérons un exemple concret : le comportement animal. Même des êtres moins sophistiqués que les humains, comme les insectes, s’orientent dans leur territoire en utilisant un mécanisme de « navigation à l’estime » et en gardant une « carte » du territoire dans leur cognition, qui leur permettent de retrouver leur chemin dans de multiples contextes (Gallistel, 2007). Un autre exemple fascinant est la danse des abeilles : « quand une abeille butineuse découvre une source de nectar et pollen, elle enregistre l’angle formé par la ruche, l’azimut du soleil, et la position de la source de la nourriture. […] [Quand elle remue], l’angle de cette fraction de mouvement relative à la verticale gravitationnelle est égal à l’angle formé par la ruche, l’azimut du soleil, et la source de nourriture. […] On appelle cet angle le palier solaire de la source de nourriture à partir de la ruche. De cette façon, la danse des abeilles symbolise la direction de la source de la ruche. Les autres abeilles butineuses observent le segment de la danse où l’abeille remue, et enregistrent dans leur propre système nerveux la valeur qui spécifie la direction. Ensuite, elles quittent la ruche et partent vers la source indiquée par la danse » (Gallistel, 2007, p. 18). C’est un système de communication assez raffiné, où le nombre de remuements effectués est proportionnel à la distance : plus l’abeille remue pendant la danse plus la source est éloignée. Comment expliquer ces exemples si on ne fait pas appel au stockage des valeurs des variables, telle que la distance, qui peuvent ensuite être utilisées pour faire des calculs sur lesquels le comportement est basé ? Pour Randy Gallistel, les données expérimentales montrent que le système nerveux est un système qui retient des valeurs et est capable d’accomplir des opérations arithmétiques et logiques tout comme un système symbolique de traitement de l’information (p. 51).

Enfin, on mentionnera brièvement une approche récente, celle du « cerveau bayésien » ou du « code prédictif » (Clark, 2015; Friston, 2010; Hohwy, 2013). Cette approche conçoit l’esprit comme une machine dont le but est de minimiser les erreurs de prédiction face à l’instabilité de l’environnement. Le principe sous-tendant une telle architecture est le théorème de Bayes, qui permet de formaliser la façon dont un organisme met à jour la probabilité d’un événement suite à la présence d’informations nouvelles. Quelle est la place des représentations dans le cerveau bayésien ? Et plus généralement, y-t-il des représentations probabilistes dans le cerveau ? Il existe au moins trois interprétations possibles. Une première interprétation est que l’hypothèse du cerveau bayésien est une description de la cognition au niveau le plus abstrait et non pas une théorie des algorithmes et des représentations impliquées (Block, 2018). Une deuxième interprétation est que les modèles de l’environnement construits par le cerveau sont des véritables représentations mentales (Kiefer & Hohwy, 2018). Et enfin, Andy Clark supplémente l’hypothèse du cerveau bayésien avec une théorie des représentations mentales comme étant probabilistes et orientées vers l’action, s’inspirant de l’idée énactiviste d’un engagement avec l’environnement plutôt que du paradigme symbolique pure des représentations mentales (Clark, 2015).

Critères pour l’introduction des représentations mentales 

Même si on accepte le paradigme représentationaliste de la cognition, expliquer tous les processus cognitifs par la présence de représentations risque de rendre la notion triviale. Nous pouvons alors nous poser la question suivante : quels sont les critères pour introduire des représentations mentales dans les explications psychologiques ? Comment distinguer les processus qui emploient les représentations mentales des processus qui n’en ont pas besoin ? Intuitivement, nous ne voulons pas de théorie qui inclut un tournesol qui suit la position du soleil parmi les systèmes représentationnels. Seule Carrie Figdor a défendu la position radicale selon laquelle nous devons étendre le champ d’application des notions d’états mentaux et de représentations mentales même aux plantes et aux neurones individuels (Figdor, 2018, voir Smortchkova, 2019 pour une critique de cette position).

Il faut distinguer la question de l’identification des représentations comme postulats explicatifs dans la cognition de la question de la manière dont les représentations acquièrent le contenu qu’elles ont (Ramsey, 2007, p. 5). Bien que beaucoup de philosophes ont identifié ces deux questions comme étant inséparables (même si rarement de façon explicite – à l’exception par exemple de Nick Shea (2018)), on peut voir comment la première question se focalise sur l’identification des structures représentationnelles, tandis que la deuxième question se focalise sur comment une certaine structure représentationnelle acquiert son contenu (par exemple comment une certaine configuration représente la catégorie « chien » et non pas « chat »).

Une façon de comprendre la question du rôle représentationnel est de l’étudier à travers le « travail » accompli par les représentations mentales dans la cognition (Ramsey, 2007). Ce travail est un travail d’explication : en quoi l’attribution du pouvoir représentationnel dans un processus cognitif porte-t-elle un poids explicatif ? William Ramsey appelle cela « le défi de la description du travail » (the job description challenge), c’est-à-dire le défi de cerner le travail accompli par une structure en tant que représentation. Il compare le cas où une structure est représentationnelle au cas où elle joue un simple rôle de « récepteur », comme les neurones dans le cortex visuel primaire qui s’activent en présence d’un seul type de stimulus (par exemple l’orientation d’une barre). Selon Ramsey ces structures fonctionnent comme des détecteurs de fumée, qui réagissent à la présence d’un seul stimulus, et non pas comme de véritables représentations mentales.

Mais quel est alors le travail accompli par une véritable représentation mentale ? Les philosophes ont proposé différents critères pour identifier des structures représentationnelles. John Haugeland suggère trois critères qui vont jouer un rôle important dans la suite des discussions (Haugeland, 1998b). Un système est représentationnel si :

Le système coordonne son comportement avec des traits dans l’environnement, même quand ces traits ne sont pas présents de façon fiable ;Dans le cas où les traits ne sont pas présents, le système utilise des « remplacements » qui guident le comportement, même quand des stimulations immédiates ne sont pas présentes ;Cette relation de « remplacement » est systématique et fait partie d’un schéma plus général d’états représentationnels liés.

Ainsi, Andy Clark développe des critères pour distinguer entre tâches cognitives qui n’ont pas besoin de représentations pour être accomplies et tâches cognitives qui sont forcément représentationnelles (Clark, 1998). Il nomme ces dernières les « problèmes friands de représentations » (representation hungry problems) :

Ce sont d’une part des problèmes qui impliquent de penser à des états de choses absents, inexistants ou contrefactuels (imaginer l’avenir, se souvenir du passé, explorer des possibilités).D’autre part, ce sont des problèmes qui portent sur des états de choses dont les manifestations physiques sont complexes et turbulentes (par exemple la capacité de penser à tous les objets de valeur dans une chambre ou la capacité de penser seulement aux objets appartenant au Pape).

En revanche, les problèmes qui ne sont pas « friands de représentations » peuvent être expliqués par un couplage entre l’organisme et l’environnement qui évolue en temps réel et qui dépend de la présence du stimulus pour exister.

Dans un livre publié en 2010, Tyler Burge propose une autre façon de distinguer entre systèmes non-représentationnels et systèmes doués de véritables représentations mentales (Burge, 2010). Bien que le point focal du livre soit la perception, et la distinction entre sensation et représentation perceptive, l’un des buts du livre est de trouver des critères constitutifs pour la représentation mentale. Le point de départ est l’idée (largement acceptée) que pour qu’il y ait de la représentation il faut qu’il y ait possibilité de méprise représentationnelle. Pour Burge, plus précisément, il faut que les conditions de satisfaction jouent un rôle dans les explications scientifiques qui emploient les représentations. Quand on perçoit le monde, on fait face au problème de la sous-détermination : à partir de l’image en 2-D sur la rétine, le cerveau pourrait produire un nombre presque infini d’objets 3-D correspondants. Pourtant, la perception résout régulièrement ce problème et, pour Burge, nous présente le monde de façon objective. Burge explique la transition entre sensations et véritables représentations perceptives via les constances perceptives, par exemple la capacité de percevoir un objet comme étant de la même couleur sous des conditions de luminosité très différentes. Avec les constances perceptives vient l’objectivité, et avec l’objectivité vient la méprise représentationnelle : il existe des conditions sous lesquelles la perception représente correctement le monde. La représentation pour Burge est ainsi une notion normative, où les normes (d’objectivité) sont propres à la représentation, et ne peuvent pas être réduites aux normes de la théorie de l’évolution (voir section 4.a).

Enfin une façon d’identifier les véritables structures représentationnelles consiste à faire appel à la relation de « ressemblance structurelle » (Cummins, 1989; O'Brien & Opie, 2004; Ramsey, 2007). Cette relation est exemplifiée par les représentations non-mentales cartographiques, comme la carte d’un territoire. La ressemblance structurelle n’est pas une relation d’identité ni une ressemblance de premier ordre : c’est plutôt une relation qui préserve l’organisation structurelle du territoire visé par la carte de façon à faciliter l’usage de celle-ci par un agent dans un processus de navigation. Il est utile de développer la notion de représentation cartographique un peu plus en détail afin de comprendre comment cette notion aide à identifier le rôle des représentations mentales dans la cognition.

Une carte aide l’usager à accomplir des actions (comme naviguer) avec l’information fournie par la représentation. Ensuite, les cartes sont « détachées » de ce qu’elles représentent (le territoire), par contraste avec des outils comme les détecteurs de fumée qui n’ont de fonction que quand le stimulus est présent. Enfin, les cartes peuvent méreprésenter et les usagers peuvent s’en rendre compte et adapter leur comportement en conséquence. Par exemple, si un quartier a été détruit, mais qu’il est encore représenté sur la carte, alors la carte est erronée. L’usager qui remarque l’erreur peut modifier son action, en décidant de ne pas aller dans le quartier détruit, et corriger la carte avec la nouvelle information.

Dans le cas mental aussi, pour qu’une structure soit représentationnelle, trois facteurs doivent être réunis : l’information est exploitée pour guider l’action, la représentation peut s’activer en l’absence de l’état de choses qu’elle représente, et le système qui utilise l’information doit être capable de détecter l’erreur dans l’information reçue. La notion d’erreur ici s’articule sur deux niveaux : a) la carte encode de l’information qui ne correspond plus à l’état de choses qu’elle est censée représenter ; b) cette information fausse peut-être remarquée par l’usager et utilisée pour ajuster l’action. On peut se demander alors si pour qu’une structure soit représentationnelle il suffit qu’elle puisse méreprésenter, ou s’il faut aussi que l’erreur soit détectable par l’organisme ou le sous-système cognitif afin d’être corrigée (Gładziejewski, 2016; Gładziejewski & Miłkowski, 2017).

Débats spécifiques sur les représentations mentales 

Ici nous allons présenter quelques débats spécifiques sur les représentations mentales.

Naturalisation des contenus mentaux

Suivant une approche qui remonte à Brentano (1874), la notion d’intentionnalité est considérée comme la « marque du mental ». Cette thèse peut être déclinée en deux sous-thèses :

Seuls les états mentaux peuvent être intentionnels ;Si des choses autres que les états mentaux sont intentionnelles, leur intentionnalité peut être réduite à l’intentionnalité mentale.

Si seuls les états mentaux sont intentionnels et si les états mentaux ne sont pas physiques, ceci pose un problème pour le physicalisme, la thèse selon laquelle tout phénomène doit trouver sa place dans le monde physique et être expliqué en termes purement physiques. En effet, le physicalisme et la thèse de Brentano forment un ensemble de propositions mutuellement incompatibles (Jacob, 2004) :

Seuls les états mentaux sont intentionnels ;Tout ce qui existe est physique ;Les états mentaux ne sont pas physiques.

Un philosophe physicaliste non-éliminativiste à propos du rôle du contenu mental dans l’explication du comportement ne peut pas accepter la thèse c) et doit rendre compte des caractéristiques sémantiques des états mentaux avec contenu (comme la méprise représentationnelle) en termes physiques. Le but du projet de naturalisation du contenu mental est donc de bâtir l’intentionnalité à partir d’ingrédients purement physiques (Dretske, 2002).

Différents projets de naturalisation du contenu des représentations mentales ont été proposés afin de répondre à ce défi. Une présentation exhaustive de tous les projets de naturalisation du contenu est au-delà de la portée de cet article. Ici on va passer en revue les deux approches les plus influentes, c’est-à-dire la sémantique informationnelle impure (Rupert, 1999; Dretske, 2002; Ryder, 2004), et la sémantique basée sur la consommation (Papineau, 1984 ; Millikan, 1989 ; Neander, 2017). Les deux approches sont souvent groupées sous le label de « téléosémantique » en raison du fait que toutes deux font appel à la notion de « fonction » afin de naturaliser l’intentionnalité. Une approche informationnelle pure (sans fonctions) a été défendue par Fodor, avec la théorie de la dépendance nomique asymétrique (Fodor, 1990).

Les théories de la sémantique informationnelle partent de la notion d’information naturelle (voir section 1.a). L’information naturelle est un type de relation d’indication, qui est presque (mais pas tout à fait) de la représentation (Dretske, 2002). Un exemple d’information naturelle est quand la présence de la fumée signale la présence du feu, ou bien quand la présence de taches rouges sur le visage signale la présence de la rougeole. Pour la théorie informationnelle ce qui compte est la relation de covariance : il est nécessaire que quand un système S possède la propriété P, alors le système R possède la propriété D, c’est-à-dire il existe une dépendance nomique (dérivant d’une loi) entre les deux. La covariance naturelle n’est pas suffisante pour naturaliser le contenu, puisqu’elle ne nous donne pas les caractéristiques sémantiques nécessaires pour qu’une structure soit représentationnelle (voir section 1.b) : la méprise représentationnelle, l’aspectualité, la direction d’ajustement. Pour résoudre le problème de la méprise représentationnelle, Dretske fait appel à la notion de fonction naturelle issue de l’apprentissage individuel (fonction ontogénique) : un signe naturel est sélectionné au cours de l’apprentissage afin d’indiquer certains états de choses dans l’environnement. Ainsi, A représente B si la fonction de A est d’indiquer B de façon fiable. Si tout marche bien la fonction est accomplie et A représente B ; en revanche, quand la fonction n’est pas accomplie, A méreprésente B.

Par contraste, les théories basées sur la consommation (Millikan, 1989) détournent leur attention du système qui produit de l’information pour se concentrer sur le système qui consomme de l’information, c’est-à-dire le système qui utilise les représentations mentales pour accomplir des tâches, et remplacent les fonctions issues de l’apprentissage par les fonctions issues de l’évolution. Plus précisément, pour Ruth Millikan le contenu d’une représentation est donné par la façon dont cette représentation est utilisée par des systèmes cognitifs qui reçoivent le signal. Les systèmes consommateurs ont été sélectionnés par les mécanismes de sélection naturelle afin de réagir à certains types de représentations. Prenons comme illustration l’exemple préféré de Millikan : la danse des abeilles. Quand des abeilles dansent pour signaler la présence du nectar dans un lieu, ce signal est consommé par les abeilles qui voient la danse et qui volent vers le lieu indiqué. Le comportement des abeilles contribue à leur survie et à la reproduction de la ruche. Ainsi le contenu de la représentation est l’injonction impérative « il faut voler vers ce lieu ».

La sémantique des rôles fonctionnels s’oppose aux théories téléosémantiques : ce qui donne le contenu aux représentations sont les relations inférentielles dans lesquelles entrent les représentations mentales (Harman, 1973; Loar, 1981). Cette position s’inspire du fonctionnalisme et de l’approche étroite de l’individuation des contenus mentaux (voir section 1.c), et elle embrasse l’holisme au sujet du mental, la thèse selon laquelle les états mentaux forment un système de telle manière que l’individuation d’un état mental ou de son contenu dépend constitutivement de son rapport aux autres états mentaux.

Cette courte sous-section ne rend pas justice à la complexité des approches naturalistes de l’intentionnalité, mais elle donne un bref aperçu du problème. Le débat sur la naturalisation du contenu mental est loin d’être résolu et une vive discussion se poursuit aujourd’hui sur la meilleure façon de naturaliser le contenu, et sur les avantages et limites des approches téléosémantiques, et sur la force des objections aux projets de naturalisation.

En guise de conclusion, nous pouvons esquisser ainsi une cartographie partielle des positions actuelles sur le projet de naturalisation. Pour certains philosophes, comme Hutto et Myin (2013), les limites du projet montrent qu’on ne peut pas naturaliser le contenu et que nous devons éliminer les représentations mentales de nos explications du comportement (voir Miłkowski, 2015a et Matthen, 2014 pour des réponses). Une autre position possible est d’abandonner le projet de naturalisation, mais sans abandonner pour autant le projet de comprendre la nature de l’intentionnalité des états mentaux. Un exemple est l’approche selon laquelle l’intentionnalité est constitutivement liée à la conscience phénoménale (voir dernier paragraphe section 4.d.). Une autre réponse possible est de continuer à développer le projet de naturalisation, en présentant des nouvelles versions de la théorie téléosémantique (voir les livres récents de Neander, 2017 et Shea, 2018). Des nouveaux projets de recherche dans cette veine sont la « neurosémantique », le projet de naturalisation du contenu des représentations neuronales (Morgan & Piccinini, 2018 ; Ryder, 2004), et le projet de naturalisation dans une perspective mécaniste de l’explication psychologiques (Miłkowski, 2015b). Enfin, notons que l’approche de nombreux chercheurs en sciences cognitives est d’utiliser la notion de représentation mentale comme entité théorique, sans se poser la question « philosophique » de la naturalisation du contenu.

Le débat sur le format des représentations mentales

L’idée que nous pensons par images n’est pas nouvelle. La théorie des images mentales a été discutée par les philosophes britanniques de l’époque moderne, qui souvent considéraient les idées (les entités avec lesquelles on pense) comme représentant à la manière d’images. Hobbes a écrit que les idées dans l’esprit sont des « perceptions estompées » (Hobbes, 1651/2008) ; Locke parle d’« images peintes dans nos esprits » (Locke, 1690/1979) ; Hume décrit les idées comme des copies des impressions sensorielles (Hume, 1738/2000); et enfin Berkeley défend sans doute la version la plus explicite de la position dans les Principes de connaissance humaine (Berkeley, 1734/1998).

Mais il ne faut pas oublier la distinction entre deux traditions à propos de représentations mentales discutées en section 1 : on distingue entre l’approche des représentations mentales basée sur l’introspection, et l’approche des représentations mentales comme postulats théoriques. Dans cette sous-section nous nous intéressons à la question de savoir si le format des représentations mentales peut être non-linguistique.

Le débat sur le format des représentations mentales se focalise sur le véhicule, et doit être séparé du débat sur les types de contenu des états mentaux, par exemple si le contenu est propositionnel ou pas, ou s’il est constitué par une proposition Russellienne, Frégéenne, ou un ensemble de mondes possibles (voir Jeff Speaks sur les différentes façons de comprendre le débat (Speaks, 2005)).

On trouve ci-dessous un tableau récapitulatif des formats possibles du véhicule représentationnel 

 

Débat sur le type de format des représentations mentales
Digital Analogue
Linguistique Iconique
Cartographique


Une autre façon de comprendre comment certaines représentations mentales pourraient être comme des images est d’appliquer la distinction de Goodman entre représentations analogues et représentations digitales (Goodman, 1976) au cas mental (Dretske, 1981), où analogue signifie que la représentation ne porte pas simplement de l’information du type « x est P », mais elle porte nécessairement en plus de l’information cachée dans « x est P ». Pour rendre cela concret, on cite Dretske : « Si je te dis simplement « La tasse contient du café », ce signal (acoustique) transporte l’information que la tasse contient du café en format digital. Il n’y a pas d’information plus spécifique que l’information sur la tasse (ou le café) et sur le fait qu’il y a du café dans la tasse. Tu ne sais pas combien de café il y a dans la tasse, quelle est la largeur de la tasse, si le café est sombre…Si, en revanche, je prends une photo de la scène et je te montre l’image, l’information que le café est dans la tasse est véhiculée de façon analogue. La photo t’informe sur le fait qu’il y a du café dans la tasse en te disant, à peu près, combien de café il y a dans la tasse, la forme, la dimension, et la couleur de la tasse, et ainsi de suite. » (Dretske, 1981, p. 137).L’hypothèse du langage de la pensée considère que les représentations mentales ont un format quasi-linguistique. Mais une alternative possible est que certaines représentations mentales aient un format iconique et représentent comme des images et non pas comme des mots. C’est peut-être le cas des représentations perceptives ou des représentations utilisées dans l’imagerie mentale. Comment comprendre la différence entre représentations iconiques et non-iconique ? Une façon est de faire appel à ce que Fodor nomme le « principe de l’image » : une représentation iconique ne possède pas de décomposition canonique, mais elle est soumise au principe sémantique selon lequel si P est une image de X, alors des parties de P sont des images de parties de X (Fodor, 2007).

Comment prouver, empiriquement, que nous faisons parfois appel à des représentations au format d’image ? Dans les années 1970, Stephen Kosslyn a utilisé certaines données empiriques pour soutenir l’hypothèse que certaines représentations ont un format d’image. Une source de soutien pour cette hypothèse vient des expériences sur la rotation mentale : il a été démontré que le temps qu’il faut pour identifier dans l’imagination si une image correspond à la rotation d’une autre est approximativement le temps qu’il faudrait pour faire tourner l’image (Kosslyn, Thompson, & Ganis, 2006). La question de la bonne interprétation de ces données expérimentales a donné naissance au « débat sur l’imagerie mentale », dans lequel s’opposent d’un côté Kosslyn, qui défend les représentations en format analogue, et de l’autre Pylyshyn et Fodor, qui défendent l’idée que toutes les représentations sont en format digital (linguistique) (voir Tye, 2000 pour une présentation du débat).

Il est important de noter ici que Kosslyn ne défend pas l’idée qu’on pense littéralement par images, mais bien plutôt une théorie fonctionnelle des images mentales (Tye, 2000). Les représentations mentales implémentées dans le cerveau ne possèdent pas de propriétés spatiales correspondantes aux propriétés des objets qu’elles représentent, mais elles se comportent comme si elles en possédaient. Le modèle de la manière dont l’esprit pense par images est celui d’un ordinateur digital qui projette une image découpée en pixels sur la matrice d’un écran. Ce qui fait que la représentation est en format d’image est le fait que les processus cognitifs qui l’utilisent sont sensibles aux propriétés structurelles encodées dans les représentations.

L’existence des cartes cognitives, comme celles utilisées par les fourmis pour rentrer vers leur nid, soulève aussi la question de l’existence de représentations mentales en format non linguistique. Comme nous l’avons vu, Fodor (dans la lignée de Michael Dummett et Donald Davidson) a soutenu que tout processus de pensée engage des représentations quasi-linguistiques, par l’argument général suivant :

La pensée est systématique ;Afin d’expliquer cette systématicité nous devons postuler des représentations mentales avec une certaine structure ;Cette structure implique que les représentations mentales seraient constituées par des composantes qui sont récurrentes et systématiques ;Ceci est possible seulement si les représentations mentales sont en format quasi-linguistique.

En défendant l’idée que des représentations mentales puissent avoir un format cartographique, Elisabeth Camp conteste la conclusion d), c’est-à-dire qu’un système composé des parties discrètes avec des règles de combinaison systématiques peut être seulement de type linguistique (Camp, 2007, p. 152). Un système cartographique est un système non-linguistique structuré en parties discrètes combinables via des règles systématiques. La thèse de Camp n’est pas que les règles de combinaison soient les mêmes pour les représentations linguistiques et celles cartographiques : les principes combinatoires sont différents, mais ils sont systématiques tous les deux.

Les cartes se situent entre les images et le langage. Les images n’ont pas de principe « grammatical » sauf le « principe de l’image » énoncé par Fodor : elles sont isomorphes à ce qu’elles représentent selon de multiples dimensions (syntaxiques et sémantiques). Les cartes, en revanche, sont isomorphes selon une seule dimension, la structure spatiale. Par exemple, la distance entre éléments d’une carte correspond (une fois la différence d’échelle prise en compte) à la distance entre objets dans le monde. Camp écrit : « Là où le principe syntaxique qui combine les constituants dans les cartes repose sur un isomorphisme assez direct, quoique sélectif, le principe sémantique qui fait correspondre ces constituants aux objets et aux propriétés du monde peut être assez indirect et arbitraire. (…) [T]outes les cartes utilisent des constituants discrets et récurrents avec une sémantique hautement arbitraire, et les combinent selon des règles systématiques pour produire des représentations complexes systématiquement liées » (pp. 158 - 159). Pour Camp, la conclusion d) de l’argument de Fodor est tout simplement fausse : il existe des représentations systématiques qui ne sont pas linguistiques.

Représentations tacites 

Dans le langage de la pensée chaque symbole mental est stocké dans la mémoire et correspond à un contenu donné. Mais il est possible que des représentations ne soient pas explicitement stockées dans la mémoire. La présentation classique de cette possibilité vient de Dennett : « Dans une conversation récente avec le créateur d’un programme qui joue aux échecs, j’ai entendu la critique suivante d’un programme rival : « il pense qu’il doit sortir la reine tôt. ». Cette attribution d’une attitude propositionnelle au programme est très utile et sert à prédire son comportement, puisque, comme le créateur a poursuivi, on peut compter sur le fait de chasser cette reine sur l’échiquier. Mais, bien qu’on puisse trouver plusieurs niveaux de représentation explicite dans le programme, on ne trouve aucune occurrence symbolique (token) explicite approximativement synonyme avec « Je dois sortir ma reine tôt. ». Le niveau d’analyse auquel appartient la remarque du créateur décrit des caractéristiques du programme, qui sont, de façon entièrement innocente, des propriétés émergentes des processus computationnels qui ont une « réalité d’ingénierie ». Je ne vois aucune raison de croire que la relation entre le discours à propos des croyances et le discours à propos des processus psychologiques soient plus directs que ça. » (Dennett, 1977, p. 279).

Dans cet exemple de Dennett l’information n’est pas encodée de façon explicite dans le système, c’est à dire dans un énoncé dans le langage de la pensée, un algorithme, ou une instruction ; elle est au contraire implémentée dans le système de façon implicite. Ce que Dennett suggère dans ce passage est que certaines règles émergent de la mise en œuvre de règles explicites et des structures de données.

Pourquoi a-t-on besoin d’une notion de représentation tacite ? Une source de motivation est la menace d’une régression à l’infini dans l’introduction de règles : afin de pouvoir utiliser des symboles et appliquer des règles nous avons besoin de postuler une entité (un « fantôme dans la machine » pour utiliser l’expression de Ryle, qui a le premier soulevé ce problème) qui sache comment manipuler les symboles et appliquer des règles. Ou pour décrire cela en termes mécanistes : afin d’appliquer des règles la machine devrait posséder des instructions pour appliquer les règles et aussi des instructions pour appliquer les instructions pour appliquer les règles, et ainsi de suite. L’introduction de représentations tacites aide à arrêter la régression, en postulant un type de connaissance pratique (know-how) incarnée dans l’architecture du système, qui ne demande pas la présence d’un fantôme ou d’un mécanisme d’interprétation et de manipulation. Il est important de noter que cette notion n’est pas purement théorique : les ordinateurs nous montrent comment la connaissance pratique tacite peut être implémentée dans un système. Dans le cas d’un ordinateur, on sait que l’ordinateur est capable de suivre certaines règles (les instructions), mais il n’a pas d’instructions explicites, en plus, sur comment suivre ces règles. Ainsi, la notion de représentation tacite complète la théorie représentationnelle-computationnelle de l’esprit par une façon de représenter qui ne demande pas de symboles explicites, règles écrites, voire un interprète, pour appliquer les règles et manipuler des symboles.

Le statut des représentations tacites est controversé. D’abord, on retrouve dans la littérature scientifique d’autres usages que celui de Dennett du même terme, qui est identifié parfois avec « inconscient », parfois avec « inactif », parfois avec « information suggérée », mais pas explicitement donnée. Un problème méthodologique est de démêler tous ces usages dans les sciences cognitives. Ensuite, la notion de représentation tacite n’a pas été utilisée seulement dans le cadre de la théorie computationnelle classique, mais aussi dans le connexionnisme, avec un but différent. En effet, les connexionnistes disent souvent que dans une représentation distribuée et inactive l’information est représentée tacitement. Pour Ramsey (2007, chapitre 5) ce type de représentation échoue à accomplir le « défi de la description du travail » et ainsi n’est pas une véritable représentation mentale.

Représentations mentales et conscience 

Dans cette sous-section l’on va discuter brièvement de la relation entre représentations mentales et conscience (voir entrée « conscience » http://encyclo-philo.fr/conscience-gp/ ; et aussi la revue de la problématique par Pautz, à paraître). Cette relation est particulièrement centrale pour les états perceptifs et sensoriels, comme les états visuels, olfactifs, tactiles, gustatifs, auditifs, voire proprioceptifs et intéroceptifs. Afin d’esquisser les contours de cette relation, nous allons utiliser un exemple. Quand je suis en train de regarder un coucher de soleil au bord de la mer, mon état perceptif peut être décrit comme ayant deux aspects. Le premier aspect est son contenu, c’est-à-dire la représentation de la rougeur et de la ligne d’horizon entre le ciel et la mer, etc. Le deuxième aspect est mon expérience subjective, l’effet que cela fait (Nagel, 1974) d’avoir l’expérience du coucher du soleil. Cet aspect est le facteur phénoménal, qualitatif, conscient de mon état perceptif occurrent.

Les deux aspects peuvent être détachés : dans une perception subliminale mon état perceptif reste représentationnel, mais je n’ai pas l’expérience phénoménale associée. De l’autre côté, il est plus controversé que je puisse avoir un état phénoménal sans représenter de propriété associée. Le débat sur les représentations et la conscience concerne donc la question de savoir si la conscience (c’est-à-dire l’expérience phénoménale) peut être réduite à la représentation mentale. Il existe deux camps opposés : selon certains philosophes, et notamment Michael Tye (Tye, 1995b) et David Rosenthal (Rosenthal, 1993), l’état conscient (subjectif, phénoménal) peut être réduit à l’aspect représentationnel ; selon d’autres philosophes, et notamment Ned Block (Block, 1990) et David Chalmers (Chalmers, 1996), l’aspect conscient n’est pas réductible à l’aspect représentationnel.

Les théories représentationnelles de la conscience peuvent être classées le long de deux axes. Le premier axe est la force de la réduction : des positions basées sur une réduction relativement faible (comme la survenance des propriétés phénoménales sur les propriétés représentées) aux positions basées sur une réduction forte (comme l’identité entre propriétés phénoménales et représentationnelles). Le deuxième axe est le niveau de la représentation qui rend un état conscient : on a d’un côté les théories représentationnelles de premier ordre, où les contenus représentationnels auxquelles la conscience est réduite sont ceux de l’état conscient même (Tye, 1995b), et de l’autre côté, les théories représentationnelles de deuxième ordre (Rosenthal, 1993), où l’état représentationnel qui rend un autre état conscient est une pensée de deuxième ordre, ou une perception interne qui porte sur l’état d’ordre inférieur.

Sans doute l’argument le plus connu contre la position représentationaliste est l’argument du spectre inversé, dont nombre de variations ont été proposées. Une variation est celle de Block (1990), qui nous demande d’imaginer une planète (« la Terre inversée »), qui ressemble exactement à la terre, sauf que certaines couleurs sont inversées sur le spectre par rapport aux nôtres (par exemple si un terrien a l’expérience du bleu en regardant une myrtille, un terrien inversé a l’expérience du jaune en regardant une myrtille). Cependant, les comportements et les termes utilisés sur Terre inversée sont les mêmes que sur la Terre : le terrien inversé voit une myrtille et dit qu’elle est bleue, même si son expérience est celle d’une myrtille jaune. Selon Block, un terrien transporté sur Terre inversée, et doté de lentilles qui renversent les couleurs, après un certain temps, adaptera ses représentations mentales au nouvel environnement (c’est-à-dire ses attitudes propositionnelles et les contenus de ses états mentaux seront les mêmes que ceux des terriens inversés), mais son expérience phénoménale restera la même. Le but de l’expérience de pensée est de montrer qu’il existe des cas possibles, où l’expérience phénoménale et les représentations correspondantes ne sont pas alignées, et donc que nous pouvons avoir une expérience phénoménale sans un contenu représentationnel associé.

Pour terminer cette sous-section un autre débat concernant la relation entre représentations mentales et consciences est le débat sur l’« intentionnalité phénoménale », une position philosophique selon laquelle la phénoménalité est l’origine de toute intentionnalité, et non pas l’inverse (Mendelovici & Bourget, 2014; Loar, 2003). Plus précisément, cette approche essaie d’expliquer l’intentionnalité des états mentaux au niveau personnel par leur aspect phénoménal, par opposition aux théories téléosémantiques présentées dans la sous-section 4.a, qui essaient d’expliquer l’intentionnalité par des relations informationnelles et historiques. Par exemple, en voyant une myrtille bleue le fait que mon état perceptif soit à propos de la myrtille bleue est dû à (voire constitué par) mon expérience de la bleuité de la myrtille. L’approche de l’intentionnalité phénoménale existe en plusieurs variantes, et fait face à un certain nombre de critiques, notamment concernant l’intentionnalité des états cognitifs (comme les croyances et les désirs) qui ne sont pas censés avoir d’aspect phénoménal, sauf si on défend, en plus, la thèse de la « phénoménologie cognitive » (Chudnoff, 2015; Kriegel, 2015), et l’énigme des états intentionnels non-conscients, répandus dans les explications psychologiques.

Bibliographie

Adams, Fred, & Aizawa, Ken. (2010). Defending the bounds of cognition. In Richard Menary (Ed.), The Extended Mind (pp. 67--80): MIT Press.

Anscombe, G. E. M. (1957). Intention: Harvard University Press.

Aydede, Murat. (2009). Is feeling pain the perception of something? The Journal of Philosophy, 106(10), 531-567.

Bechtel, William, & Abrahamsen, Adele. (1991). Connectionism and the mind: An introduction to parallel processing in networks: Basil Blackwell.

Bennett, Jonathan. (1971). Locke, Berkeley, Hume; Central Themes: Oxford University Press UK.

Bennett, Maxwell R, Dennett, Daniel, Hacker, Peter, & Searle, John. (2007). Neuroscience and philosophy: Brain, mind, and language: Columbia University Press.

Bennett, Maxwell R, & Hacker, Peter Michael Stephan. (2003). Philosophical foundations of neuroscience (Vol. 79): Blackwell Oxford.

Berkeley, George. (1734/1998). A Treatise Concerning the Principles of Human Knowledge (Jonathan Dancy Ed.): Oxford University Press.

Block, Ned. (1990). Inverted earth. Philosophical perspectives, 4, 53-79.

Block, Ned. (2018). If perception is probabilistic, why does it not seem probabilistic? Philosophical Transactions of the Royal Society B: Biological Sciences, 373(1755), 20170341.

Brentano, Franz. (1874). Psychologie vom empirischen Standpunkt. Leipzig: Duncker & Humblot. Tr. Fr. Brentano Franz. (2008). Psychologie du point de vue empirique. Vrin.

Burge, Tyler (1979). Individualism and the Mental. Midwest Studies in Philosophy4(1), 73-121.

Burge, Tyler. (1992). Philosophy of language and mind: 1950-1990. The Philosophical Review, 101(1), 3-51.

Burge, Tyler. (2010). Origins of objectivity: Oxford University Press.

Camp, Elisabeth. (2007). Thinking with maps. Philosophical Perspectives, 21, 145-182.

Carruthers, Peter. (1998). Conscious thinking: Language or elimination? Mind and Language, 13(4), 457-476.

Chalmers, David J. (1996). The conscious mind: In search of a fundamental theory: Oxford University Press. Tr. Fr. Chalmers, David J. (2010). L’Esprit conscient : À la recherche d’une théorie fondamentale. Les éditions d’Ithaque.

Chalmers, David J. (2003). The nature of narrow content. Philosophical Issues, 13, 46-66.

Chemero, Anthony (2009). Radical Embodied Cognitive Science. Bradford.

Chisholm, Roderick M. (1957). Perceiving: A Philosophical Study: Cornell University Press.

Chomsky, Noam. (1957/2002). Syntactic structures: Walter de Gruyter. Tr. Fr. Chomsky, Noam. (1969). Structures syntaxiques. Seuil.

Chomsky, Noam. (1995). Language and nature. Mind, 104(413), 1-61.

Chudnoff, Elijah. (2015). Phenomenal Contrast Arguments for Cognitive Phenomenology. Philosophy and Phenomenological Research, 90(2), 82-104.

Churchland, Patricia Smith. (1989). Neurophilosophy: Toward a unified science of the mind-brain: MIT press. Tr. Fr. Churchland, Patricia Smith (1999). Neurophilosophie. L’esprit-cerveau. PUF.

Churchland, Paul M. (1992). A neurocomputational perspective: The nature of mind and the structure of science: MIT press.

Clark, Andy. (1998). Being there: Putting brain, body, and world together again: MIT press.

Clark, Andy. (2015). Surfing uncertainty: Prediction, action, and the embodied mind: Oxford University Press.

Clark, Andy, & Chalmers, David. (1998). The extended mind. Analysis, 58(1), 7-19.

Crane, Tim. (2009). Is perception a propositional attitude? The Philosophical Quarterly, 59(236), 452-469.

Crane, Tim. (2015). The mechanical mind: A philosophical introduction to minds, machines and mental representation: Routledge.

Cummins, Robert. (1989). Meaning and mental representation: MIT Press

Cummins, Robert. (2000). "How does it work" versus "what are the laws?": Two conceptions of psychological explanation. In F. Keil & Robert A. Wilson (Eds.), Explanation and cognition (pp. 117-145): MIT Press.

Davies, Martin. (2015). Knowledge–Explicit, implicit and tacit: Philosophical aspects. In J. D. Wright (Ed.), International encyclopedia of the social & behavioral sciences (pp. 74-90). Oxford: Elsevier Ltd.

Dennett, Daniel. (1969/2010). Personal and sub-personal levels of explanation: pain. In Content and consciousness (pp. 101-108): Routledge.

Dennett, Daniel. (1977). Critical Notice of Jerry Fodor, The Language of Thought (New York, 1975). Mind, 86, 265-280.

Dennett, Daniel. (1987). The Intentional Stance: MIT Press. Tr. Fr. Dennett Daniel (1990). La stratégie de l'interprète, Paris, Gallimard.

Dennett, Daniel. (1988). Evolution, error and intentionality. In The Intentional Stance (pp. 287-322): MIT Press.

Dennett, Daniel, & Kinsbourne, Marcel. (1992). Time and the observer: The where and when of consciousness in the brain. Behavioral and Brain sciences, 15(2), 183-201.

Dennett, Daniel. (1994). The myth of original intentionality. In  Eric Dietrich (Ed.), Thinking Computers and Virtual Persons (pp. 91-107). Academic Press.

Descartes, René. (1644/2009). Principes de la philosophie: première partie: sélection d'articles des parties 2, 3, 4, lettre-préface: Vrin.

Dretske, Fred. (1981). Knowledge and the Flow of Information (Vol. 92): MIT Press.

Dretske, Fred (1986). Misrepresentation. In R. Bogdan (ed.), Belief: Form, Content, and Function. Oxford University Press. pp. 17--36.

Dretske, Fred. (1991). Explaining behavior: Reasons in a world of causes: MIT press.

Dretske, Fred. (2002). A Recipe for Thought. In David J. Chalmers (Ed.), Philosophy of Mind: Classical and Contemporary Readings: Oup Usa.

Dreyfus, Hubert L. (2002). Intelligence without representation–Merleau-Ponty's critique of mental representation The relevance of phenomenology to scientific explanation. Phenomenology and the cognitive sciences, 1(4), 367-383.

Egan, Frances. (2014). How to think about mental content. Philosophical Studies, 170(1), 115-135.

Figdor, Carrie. (2018). Pieces of mind: The proper domain of psychological predicates: Oxford University Press.

Fodor, Jerry. (1975). The Language of Thought (Vol. 87): Harvard University Press.

Fodor, Jerry. (1981). The mind-body problem. Scientific American, 244, 114-125.

Fodor, Jerry. (1987). Psychosemantics: The problem of meaning in the philosophy of mind (Vol. 2): MIT press.

Fodor, Jerry. (1990). A theory of content and other essays: The MIT press.

Fodor, Jerry. (2007). The revenge of the given. In Brian P. McLaughlin & Jonathan D. Cohen (Eds.), Contemporary Debates in Philosophy of Mind (pp. 105-116): Blackwell.

Fodor, Jerry, & Pylyshyn, Zenon W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition, 28(1-2), 3-71.

Frege, Gottlob (1892). Über sinn und bedeutung. Zeitschrift für Philosophie und philosophische Kritik100, 25-50. Tr. Fr. Frege, Gottlob. Sens et dénotation. Écrits logiques et philosophiques,1971, p. 102-126.

Friston, Karl. (2010). The free-energy principle: a unified brain theory? Nature reviews neuroscience, 11(2), 127-138.

Gallistel, Charles R. (2007). Dead reckoning, cognitive maps, animal navigation and the representation of space: An introduction. In Margaret E. Jefferies & Wai-Kiang Yeap (Eds.), Robotics and cognitive approaches to spatial mapping (pp. 137-143): Springer.

Gibson, James J. (1979/2014). The theory of affordances. In The Ecological Approach to Visual Perception (pp. 119-136): Psychology Press.

Gładziejewski, Paweł. (2016). Predictive coding and representationalism. Synthese, 193(2).

Gładziejewski, Paweł, & Miłkowski, Marcin. (2017). Structural representations: causally relevant and different from detectors. Biology and Philosophy, 32(3), 337-355.

Goldman, Alvin & de Vignemont, Frédérique (2009). Is social cognition embodied? Trends in Cognitive Sciences 13 (4):154-159.

Goodman, Nelson. (1951). The Structure of Appearance (Vol. 3): Harvard University Press.

Goodman, Nelson. (1976). Languages of Art. Indianapolis: Hackett. Tr. Fr. Goodman, Nelson (2011). Langages de l’art. Pluriel.

Gould, James L. (1990). Honey bee cognition. Cognition, 37(1-2), 83-103.

Grice, H Paul. (1957). Meaning. The Philosophical Review, 377-388.

Harman, Gilbert. (1973). Thought: Princeton University Press.

Harman, Gilbert. (1975). Language, thought, and communication. Minnesota Studies in the Philosophy of Science, 7, 270-298.

Haugeland, John. (1985). Artificial Intelligence: The Very Idea (Vol. 38): MIT Press.

Haugeland, John. (1998a). Having thought: Harvard University Press.

Haugeland, John. (1998b). Representational genera. In Having thought: Essays in the metaphysics of mind (pp. 171-206). Cambridge: Harvard University Press.

Hobbes, Thomas. (1651/2008). Leviathan (J. C. A. Gaskin Ed.): Oxford University Press.

Hohwy, Jakob. (2013). The predictive mind: Oxford University Press.

Horgan, Terence. (1997). Connectionism and the philosophical foundations of cognitive science. Metaphilosophy, 28(1‐2), 1-30.

Huemer, Michael (2001). Skepticism and the Veil of Perception. Rowman & Littlefield.

Hume, David. (1738/2000). A Treatise of Human Nature: Being an Attempt to Introduce the Experimental Method of Reasoning Into Moral Subjects (David Fate Norton & Mary J. Norton Eds.): Oxford University Press.

Hurley, Susan L. (1998). Consciousness in Action. Harvard University Press.

Hutto, Daniel D. & Myin, Erik (2013). Radicalizing Enactivism: Basic Minds Without Content. Cambridge, MA: MIT Press.

Jacob, Pierre. (2004). L'intentionnalité: Problèmes de philosophie de l'esprit: Odile Jacob.

Kiefer, Alex, & Hohwy, Jakob. (2018). Content and misrepresentation in hierarchical generative models. Synthese, 195(6), 2387-2415.

Kim Jaegwon (1996), Mind in a Physical World: An Essay on the Mind-Brody Problem and Mental Causation, Tr. fr. Kim Jaegwon (2006). L'esprit dans un monde physique – Essai sur le problème corps-esprit et la causalité mentale, Ithaque

Kiverstein, Julian & Rietveld, Erik (forthcoming). Scaling-up skilled intentionality to linguistic thought. Synthese:1-20.

Kosslyn, Stephen M, Thompson, William L, & Ganis, Giorgio. (2006). The case for mental imagery: Oxford University Press.

Kriegel, Uriah. (2015). The Varieties of Consciousness: Oxford University Press.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature521(7553), 436-444.

Lewis, David. (1980). Mad pain and Martian pain. In Ned Block (Ed.), Readings in the Philosophy of Psychology (Vol. 1, pp. 216-222).

Loar, Brian. (1981). Mind and Meaning: Cambridge University Press.

Loar, Brian. (2003). Phenomenal intentionality as the basis of mental content. In Martin Hahn & B. Ramberg (Eds.), Reflections and Replies: Essays on the Philosophy of Tyler Burge (pp. 229--258): MIT Press.

Locke, John. (1690/1979). An essay concerning human understanding (Peter H Nidditch Ed.): Oxford University Press.

Marcus, Gary (2001). The Algebraic Mind. MIT Press.

Marcus, Gary. (2018). Deep learning: A critical appraisal. arXiv preprint arXiv:1801.00631.

Marr, David. (1982). Vision: The philosophy and the approach: Freeman.

Matthen, Mohan (2014). Debunking enactivism: a critical notice of Hutto and Myin’s Radicalizing Enactivism. Canadian Journal of Philosophy 44 (1):118-128.

McCulloch, Warren S, & Pfeiffer, John. (1949). Of digital computers called brains. The Scientific Monthly, 69(6), 368-376.

McCulloch, Warren S, & Pitts, Walter. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5(4), 115-133.

McDowell, John. (1985). Functionalism and anomalous monism. In Brian P. McLaughlin & Ernest LePore (Eds.), Actions and Events: Perspectives on the Philosophy of Donald Davidson: Blackwell.

Mendelovici, Angela & Bourget, David (2014). Naturalizing intentionality: Tracking theories versus phenomenal intentionality theories. Philosophy Compass, 9(5), 325-337.

Miłkowski, Marcin (2015a). The Hard Problem Of Content: Solved (Long Ago). Studies in Logic, Grammar and Rhetoric 41 (1):73-88.

Miłkowski, Marcin (2015b). Satisfaction conditions in anticipatory mechanisms. Biology and Philosophy 30 (5):709-728.

Miller, George A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological review, 63(2), 81-97.

Miller, George A. (2003). The cognitive revolution: a historical perspective. Trends in cognitive sciences, 7(3), 141-144.

Millikan, Ruth G. (1989). Biosemantics. Journal of Philosophy, 86, 281-297.

Moran, Dermot (2013). Intentionality: Some Lessons from the History of the Problem from Brentano to the Present. International Journal of Philosophical Studies 21 (3):317-358.

Morgan, Alex (2014). Representations gone mental. Synthese 191 (2):213-244.

Morgan, Alex & Piccinini, Gualtiero (2018). Towards a Cognitive Neuroscience of Intentionality. Minds and Machines 28 (1):119-139.

Nagel, Thomas. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435-450. Tr. Fr. Nagel, Thomas (1983). « Quel effet cela fait-il d’être une chauve-souris ? » dans Questions mortelles, PUF.

Neander, Karen. (2017). A Mark of the Mental: A Defence of Informational Teleosemantics: MIT Press.

Newen, Albert ; De Bruin, Leon & Gallagher, Shaun (2018). The Oxford Handbook of 4E Cognition. Oxford: Oxford University Press.

O'Brien, Gerard, & Opie, Jon. (2004). Notes toward a structuralist theory of mental representation. In Hugh Clapin, Phillip Staines, & Peter Slezak (Eds.), Representation in mind (pp. 1-20): Elsevier.

Pacherie, Elisabeth (1993). Naturaliser l'intentionnalité: essai de philosophie de la psychologie. FeniXX.

Panaccio, Claude. (2017). Mental language: from Plato to William of Ockham: Fordham Univ Press.

Papineau, David. (1984). Representation and explanation. Philosophy of Science, 51(4), 550-572.

Pautz, Adam (forthcoming). Representationalism about Consciousness. In Uriah Kriegel (ed.), Oxford Handbook of the Philosophy of Consciousness. Oxford University Press.

Petzold, Charles. (2008). The annotated Turing: a guided tour through Alan Turing's historic paper on computability and the Turing machine: Wiley Publishing.

Piccinini, Gualtiero. (2008). Computation without representation. Philosophical Studies, 137(2), 205-241.

Prior, Arthur N. (1971). Objects of Thought. Clarendon Press.

Port, Robert F, & Van Gelder, Timothy. (1995). Mind as motion: Explorations in the dynamics of cognition: MIT press.

Putnam, Hilary (1975). The meaning of ‘meaning’. Philosophical papers2. Tr. Fr. Putnam, Hilary (1997). Les significations ne sont tout simplement pas dans la tête. in Pascal Ludwig (éd.), Le langage, Flammarion, p. 124-134)

Ramsey, William M. (2007). Representation reconsidered: Cambridge University Press.

Recanati, François (2008). Philosophie du langage (et de l’esprit). Folio Essais.

Rorty, Richard. (1979/2009). Philosophy and the Mirror of Nature: Princeton University Press. Tr. Fr. Rorty, Richard (2017). La philosophie et le miroir de la nature. Ed. du Seuil.

Rosenblatt, Frank. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386-408.

Rosenthal, David M. (1993). Thinking that one thinks. In Martin Davies & Glyn W. Humphreys (Eds.), Consciousness: Psychological and Philosophical Essays: Blackwell.

Rupert, Robert D. (1999). The best test theory of extension: First principle(s). Mind and Language, 14(3), 321–355.

Rupert, Robert D. (2011). Embodiment, Consciousness, and the Massively Representational Mind. Philosophical Topics 39 (1):99-120.

Russell, Bertrand. (1918/2009). The philosophy of logical atomism: Routledge.

Ryder, Dan. (2004). SINBaD neurosemantics: A theory of mental representation. Mind and Language, 19(2), 211-240.

Ryle, Gilbert. (1949). The Concept of Mind: Hutchinson & Co. Tr. Fr. Ryle, Gilbert (2005). La notion d’esprit. Petite bibliothèque Payot.

Searle, John R. (1979). What is an intentional state? Mind, 88(349), 74-92.

Searle, John R. (1983). Intentionality: An essay in the philosophy of mind: Cambridge University Press. Tr. Fr. Searle, John R. (1985). L’intentionalité. Essai de philosophie des états mentaux. Les Editions de Minuit.

Searle, John R. (1992). The rediscovery of the mind: MIT press. Tr. Fr. Searle, John R. (1995). La rédecouverte de l’esprit. NRF Essais Gallimard.

Segal, Gabriel MA. (2000). A slim book about narrow content: MIT Press.

Shea, Nicholas. (2018). Representation in cognitive science: Oxford University Press.

Smortchkova, Joulia, & Murez, Michael. (2020). Representational Kinds. In Joulia Smortchkova, Krzysztof Dolega, & Tobias Schlicht (Eds.), What are Mental Representations? : Oxford University Press. https://philpapers.org/rec/SMORK

Smortchkova, Joulia (2019). Review of Pieces of Mind: The Proper Domain of Psychological Predicates by Carrie Figdor. British Journal for the Philosophy of Science.

Speaks, Jeff. (2005). Is there a problem about nonconceptual content? The philosophical review, 114(3), 359-398.

Speaks, Jeff. (2010). Theories of meaning. In Stanford Encyclopedia of Philosophy.

Sprevak, Mark. (2013). Fictionalism about neural representations. The Monist, 96(4), 539-560.

Stampe, Dennis W. (1977). Toward a causal theory of linguistic representation. Midwest studies in philosophy, 2(1), 42-63.

Sterelny, Kim. (1990). The representational theory of mind: An introduction: Basil Blackwell.

Stich, Stephen, & Ravenscroft, Ian. (1994). What is folk psychology? Cognition, 50(1-3), 447-468.

Thomson, E., & Piccinini, G. (2018). Neural Representations Observed. Minds and Machines, 28(1), 191-235.

Tolman, Edward C. (1948). Cognitive maps in rats and men. Psychological review55(4), 189.

Tye, Michael. (1995a). A representational theory of pains and their phenomenal character. Philosophical perspectives, 9, 223-239.

Tye, Michael. (1995b). Ten problems of consciousness: A representational theory of the phenomenal mind: MIT Press.

Tye, Michael. (2000). The imagery debate: MIT Press.

Varela, Francisco ; Thompson, Evan & Rosch, Eleanor (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press. Tr. Fr. Varela, Francisco, Evan Thompson, et Eléanor Rosch (1999). L’inscription corporelle de l’esprit : Sciences cognitives et expérience humaine. Paris: Seuil.

Von Eckardt, Barbara. (1995). What is cognitive science? : MIT press.

Wittgenstein, Ludwig. (1953/1986). Philosophical investigations (G. E. M. Anscombe, Trans.): Basil Blackwell. Tr. Fr. Wittgenstein, Ludwig (2005). Recherches philosophiques. Gallimard.

 

Le travail sur cette entrée a été financé par le Conseil européen de la recherche (CER), sous la convention de subvention numéro 681422 du programme Horizon 2020 pour la recherche et l'innovation de l'Union Européenne. 


Joulia Smortchkova
University of Oxford
joulia.smortchkova@philosophy.ox.ac.uk