Langage (A)

Comment citer ?

Thommen, Tristan et Murez, Michael (2016), «Langage (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/langage-a

Publié en novembre 2016

 

Résumé

Le langage est un aspect ordinaire de la vie des humains. Il est si anodin d'apprendre, de parler et de comprendre notre langue maternelle qu'on ne remarque pas la complexité de ces phénomènes. Deux années à peine après la naissance, nous maîtrisons un riche système de connaissances lexicales et de règles destinées à la production et la compréhension d'énoncés du langage. Aucune autre espèce n'a une capacité de langage aussi développée, si bien que le langage pourrait être aux humains ce que la nage est aux poissons : une part de leur nature.

Le langage est par ailleurs l’outil de travail des philosophes. La philosophie du langage est donc importante pour toutes les autres branches de la philosophie. Au XXe siècle, la philosophie a connu un tournant linguistique, selon lequel les (pseudo-)problèmes philosophiques découleraient d’un manque de compréhension de la logique des langues naturelles. Le travail principal du philosophe consisterait alors à se pencher en détail sur la façon dont fonctionne le langage.

Aujourd’hui, peu de philosophes accordent encore à la philosophie du langage le statut de philosophie première. Plutôt que de mettre l’étude du langage au service d’ambitieux programmes (anti-)métaphysiques ou épistémologiques, les philosophes contemporains, qui travaillent en interaction étroite avec les linguistes, s’intéressent au langage naturel pour lui-même et tel qu’il est.

Même si on ne peut tracer de frontière très nette entre la linguistique et la philosophie du langage, les philosophes se distinguent par l’attention qu’ils prêtent à certaines questions plus englobantes et fondamentales, que nous introduirons brièvement dans cet article : qu’est-ce que le langage ? Que nous apprend-il sur la nature humaine ? Comment se rapporte-t-il à la réalité extra-linguistique ? Qu'est-ce que la signification ? Qu’est-ce que la communication ? Quel est le rapport entre langage et pensée ?


Table des matières

1. Langage et philosophie

2. La nature du langage

a. Qu'est-ce que le langage ?

b. Propriétés formelles du langage

3. Langage et réalité

a. Sens et référence

b. Anti-descriptivisme et externalisme

c. L'indétermination de la référence

4. Langage et communication

a. Deux modèles de la communication

b. Enrichissement pragmatique

c. Pragmatisme radical

5. Langage et pensée

a. La pensée en langue naturelle

b. La pensée comme manipulation de symboles

Bibliographie


1. Langage et philosophie

Au cours du XXe siècle, la philosophie a connu un tournant linguistique (Rorty 1967 ; voir aussi entrée "Philosophie du langage", pour un survol historique détaillé). Selon les partisans de cette conception de la philosophie, les (pseudo-)problèmes philosophiques découleraient d’un manque de compréhension de la logique des langues naturelles. Le travail principal du philosophe consisterait alors à se pencher en détail sur la façon dont fonctionne le langage, afin d’éviter de tels écueils. Les philosophes du langage idéal (par ex. Ayer 1936, Carnap 2002[1928], Russell 2009[1918], Wittgenstein(1922)[1921]) proposèrent, dans le but de se débarrasser de la métaphysique et de hisser la philosophie au rang des sciences, de remplacer nos langues courantes par des langues artificielles, logiquement parfaites. Les philosophes du langage ordinaire (par ex. Austin 1975, Ryle 2005[1949], Strawson 1952, et le second Wittgenstein 2001[1953]) pensaient au contraire que les tentatives de réformer les langues naturelles pour les besoins de la philosophie étaient surtout source de confusions supplémentaires. Afin de dissoudre les illusions métaphysiques, mieux valait selon eux faire le catalogue de la diversité des usages du langage au quotidien, en contexte. Si les partisans du langage idéal et ceux du langage ordinaire tiraient des conséquences opposées de la thèse selon laquelle les problèmes philosophiques sont essentiellement linguistiques, les deux camps partageaient cependant une même conception de la philosophie du langage comme occupant une place absolument centrale au sein de la philosophie.

Au XXIe siècle, avec l’essor de la philosophie de l’esprit (voir section "Philosophie de l’esprit") et le renouveau de la métaphysique (voir section "Métaphysique"), peu de philosophes accordent encore à la philosophie du langage le statut de philosophie première. Le langage est certes l’outil de travail des philosophes. S’ils veulent éviter nombre d’erreurs et de confusions, ils ont tout intérêt à faire très attention à la façon dont ils l’utilisent pour formuler leurs thèses et arguments. La philosophie du langage reste donc très importante pour toutes les autres branches de la philosophie. Mais plutôt que de chercher à réduire toutes sortes de thématiques philosophiques traditionnelles à des questions linguistiques, les philosophes du langage contemporains se concentrent sur leur objet d’étude propre : l’extraordinaire capacité des humains à utiliser des expressions linguistiques dotées de sens pour formuler et communiquer leurs pensées. Il y a là un phénomène suffisamment intéressant et mystérieux pour que les philosophes y prêtent attention. Ainsi, plutôt que de mettre l’étude du langage au service d’ambitieux programmes (anti-)métaphysiques ou épistémologiques, les philosophes contemporains, qui travaillent généralement en interaction étroite avec les linguistes, s’intéressent de plus en plus au langage naturel pour lui-même et tel qu’il est. Nombre de travaux philosophiques sont donc aujourd’hui consacrés à l’étude détaillée de diverses expressions ou constructions linguistiques (voir entrées "noms propres", "conditionnels", "pluriels", "quantificateurs", "généricité", "gradabilité", "contrefactuels" etc.).

Même si on ne peut aujourd’hui tracer de frontière très nette entre la linguistique et la philosophie du langage, les philosophes se distinguent par l’attention qu’ils prêtent à certaines questions plus englobantes et fondamentales, que nous introduirons brièvement dans cet article : qu’est-ce que le langage ? Que nous apprend-il sur la nature humaine ? Comment se rapporte-t-il à la réalité extra-linguistique (voir entrée "Référence") ? Qu'est-ce que la signification ? Qu’est-ce que la communication (voir entrée "Communication") ? Quel est le rapport entre langage et pensée ? Ces questions restent vivement débattues par les philosophes.

2. La nature du langage

a. Qu'est-ce que le langage ?

Le langage est un aspect ordinaire de la vie des humains. Il est si anodin d'apprendre, de parler et de comprendre notre langue maternelle qu'on ne remarque pas la complexité de ces phénomènes. Deux années à peine après la naissance, nous maîtrisons un riche système de connaissances lexicales et de règles destinées à la production et la compréhension d'énoncés du langage. Il semble qu'aucune autre espèce n'ait une capacité de langage aussi développée, si bien que le langage pourrait être aux humains ce qu'est la nage aux poissons : une part de leur nature. Quelle serait alors la spécificité des humains qui les rendrait seuls capables d'acquérir et maitriser une langue ? Qu'est-ce que le langage aurait de particulier ?

Descartes voyait dans le langage la manifestation d'une compétence très spéciale, qui non seulement distinguerait les humains des autres animaux, mais surtout révèlerait la nature non-matérielle de l'esprit :

Car on peut bien concevoir qu'une machine soit tellement faite qu'elle profère des paroles... mais non pas qu'elle les arrange diversement pour répondre au sens de tout ce qui se dira en sa présence, ainsi que les hommes les plus hébétés peuvent faire. (Discours de la méthode, partie 5)

Descartes trouvait en effet remarquable que les humains puissent, sans aucun effort particulier, prononcer de la manière qu'ils le souhaitent des phrases nouvelles et adaptées à des situations variées (Chomsky appellera cette propriété du langage l’"indépendance au stimulus"). Les phrases que vous lisez et comprenez à présent, par exemple, ne vous ont jamais été exposées auparavant. Vous êtes donc capable de comprendre n'importe quelle nouvelle phrase, pourvu qu'elle soit en Français. Mais comment un esprit fini peut-il produire, ou comprendre, un nombre de phrases en principe infini ? Il semblait y avoir là un processus fondamentalement créatif, ou productif, qu'une simple machine matérielle (Descartes concevait les autres animaux comme de telles machines) ne saurait reproduire : quelque chose comme l'âme semblait pour Descartes devoir être à l'œuvre. Chercher à comprendre la nature du langage, c’est donc aussi chercher à comprendre comment des créatures dotées d’esprits comme les nôtres peuvent exister dans un monde entièrement physique (voir section "Philosophie de l’esprit").

Nous venons de suggérer que le langage a quelque chose d’important à nous apprendre concernant l’esprit humain. Mais quand on pense naïvement à ce qu’est le langage, on ne pense généralement pas à quelque chose qui existerait dans la tête des gens. On pense plutôt à quelque chose qui semble se trouver dehors, dans le monde extérieur : l’ensemble des phénomènes publics et sociaux qui correspondent aux diverses langues naturelles, comme le français, l’anglais, etc. Par exemple, le texte de cet article participerait, d’une manière ou d’une autre, d'un objet social compliqué : la "langue française", utilisée par une certaine population, avec son histoire, ses institutions (l’Académie française), etc.

Avec le linguiste Noam Chomsky, il nous faut donc distinguer deux choses qu’on pourrait appeler "langage". Ce que Chomsky appelle le E-langage, le langage externe (ou extensionnel) ne doit pas être confondu avec le I-langage, le langage interne, individuel (ou intensionnel). Selon Chomsky, le E-langage, le langage comme réalité publiquement observable, n’est pas un objet suffisamment bien défini pour être susceptible d’être étudié de manière scientifique et rigoureuse. Le linguiste doit s’intéresser plutôt au I-langage, la composante individuelle et psychologique du langage – la faculté cognitive que possède chaque locuteur compétent d’une certaine langue donnée, qui fait qu’il est capable de produire et comprendre des énoncés.

Si l’on peut ne pas partager le scepticisme de Chomsky par rapport aux aspects "externes" du langage, il est utile de considérer que le langage, avant d’être au fondement des divers phénomènes sociaux rendus possibles par la communication, est avant tout une faculté psychologique remarquable que possèdent les individus. C’est la possession de cette faculté qui permet aux individus, en parlant entre eux, de former des cultures et des sociétés.

Dire qu’il y a une faculté de langage serait réducteur. Le langage est un phénomène complexe qui met en jeu plusieurs capacités distinctes. On peut donc l’étudier à différents niveaux. Ceux-ci correspondent à différentes branches de la linguistique (Morris 1938). Pour commencer, on peut étudier les propriétés acoustiques des sons du langage qui sont produits par l'appareil phonatoire (dans le cas des langues parlées ; voir entrée "langues des signes"), comme le son [l] ou le son [r]. C'est ce que fait la phonétique. Ensuite, selon les langues, des sons différents du point de vue de leurs propriétés acoustiques peuvent être perçus comme appartenant à une même catégorie. Nous formons une sorte d'alphabet mental arrangeant ces sons en catégories qui ne correspondent pas parfaitement aux propriétés acoustiques. Les locuteurs du japonais par exemple ne distinguent pas le /l/ du /r/, et les locuteurs français ne font pas usage de la différence entre deux sons [a] que les locuteurs d’un dialecte indien utilisent de façon productive. La phonologie est l'étude de ce type de représentations organisationnelles des sons dans la langue (voir entrée "phonologie"). Les différents sons dont dispose ainsi le locuteur dans son répertoire permettent de former des unités de sens, ou des mots. Les propriétés de formation des mots à partir d'éléments sous-lexicaux sont étudiées par la morphologie. Par exemple, le mot "interminable" est formé à partir du verbe "terminer", du suffixe "able", et du préfixe "in".

Une fois formés, les mots eux-mêmes ne sont pas agencés aléatoirement dans la phrase : les phrases que prononcent les locuteurs ne constituent en effet qu'une petite partie des possibilités d'agencement. L'organisation des mots dans une phrase suit des contraintes particulières, dont les locuteurs compétents du français ont une connaissance tacite, qui se manifeste dans leurs dispositions à produire et reconnaître des énoncés grammaticaux. Ils ne disent jamais spontanément, par exemple, "Je chocolat du mange", mais plutôt "Je mange du chocolat". La syntaxe est la discipline qui s'applique à mettre au jour les contraintes structurelles régissant l'agencement des mots dans la phrase, que ces contraintes soient spécifiques à la langue étudiée ou communes à toutes les langues (voir entrée "syntaxe").

Mais les phrases du langage sont plus que des énoncés bien formés. Les phrases sont en outre dotées de signification. La phrase "Ma grand-mère est malade" par exemple est un énoncé bien formé ; il y a bien un sujet, un verbe et un adjectif dans l'agencement prescrit par la syntaxe. La manière dont cet énoncé bien formé parvient à véhiculer l'information qu'un individu particulier - la grand-mère de la locutrice - a une propriété particulière - être malade - est l'objet d'étude de la sémantique (voir entrée "sémantique"). Ainsi, la sémantique s’intéresse à la manière dont le langage parvient à dire des choses, éventuellement vraies ou fausses, sur le monde. En particulier, elle s'intéresse à la signification des énoncés complexes, et à la façon dont celle-ci dépend de la signification des expressions simples qui les composent. Le célèbre exemple de Chomsky (1957) "Les idées vertes incolores dorment furieusement" suggère qu'un énoncé peut être bien formé sans pour autant avoir de signification, ce qui justifie la séparation entre syntaxe et sémantique.

Enfin, quand les énoncés sont utilisés dans la communication, leur signification peut être affectée par des éléments contextuels. Si je dis que "Ma grand-mère est malade" en réponse à un ami qui m'invite au cinéma par exemple, on interprétera ma réponse comme indiquant que je n'irai pas au cinéma. Pourtant, je n’ai pas littéralement dit cela. Je l’ai seulement laissé entendre à mon interlocuteur. C'est la pragmatique qui étudie ces processus d'enrichissement de la signification des phrases dans leur contexte d'énonciation (voir entrée "pragmatique"). La pragmatique s'intéresse aussi plus généralement, à la façon dont le langage permet non seulement de communiquer des informations, mais également d’agir sur le monde. Par exemple, quand un maire dit : « Je vous déclare unis par le mariage », elle n’utilise pas le langage simplement pour décrire la réalité telle qu’elle est. Elle la transforme, au moyen d’un énoncé dit performatif (Austin 1975, Reinach 1913, cf. entrée "actes de langage").

Pour résumer : les sons de la langue (phonétique) sont organisés en une sorte d'alphabet mental (phonologie), et forment ainsi des unités de sens qui se combinent en mots (morphologie). Les mots forment à leur tour des énoncés bien formés (syntaxe), et les énoncés ont une signification (sémantique) qui peut varier selon le contexte d'énonciation et permettent d’accomplir des actes de langage (pragmatique).

Aux différents niveaux d’analyse des phénomènes linguistiques que nous venons de distinguer, pourraient correspondre des mécanismes psychologiques, ou modules différents, dans la tête des locuteurs. Ces processus cognitifs ne sont pas nécessairement imperméables. Beaucoup de linguistes se penchent justement sur les interfaces entre différents modules. Néanmoins, il est important de remarquer que les mécanismes qui sous-tendent différentes compétences linguistiques sont, dans une large mesure, distincts au niveau neurologique. Certains patients atteints de lésions dans des aires très localisées du cerveau apportent une illustration frappante de cette modularité. Une lésion dans l'aire de Broca (gyrus frontal inférieur gauche) entraîne des troubles de production (e. g. vocabulaire réduit, articulation difficile, syntaxe diminuée), mais pas nécessairement de compréhension (le patient souhaite vraiment exprimer une idée, mais il n'y arrive pas). À l'inverse, des lésions dans l'aire de Wernicke (lobe temporal gauche) entraînent des troubles de la compréhension, mais pas nécessairement de la production, ce qui conduit les patients à prononcer des phrases bien formées dépourvues de signification (e. g. "il mou glouper la fime"). Ce type de dissociations (production/compréhension ou syntaxe/sémantique) apporte des arguments neurolinguistiques en faveur d'une modularité du langage.

D’après Chomsky (1957, 1959, 1980, 2009[1993]), le module syntaxique est inné : tout humain naîtrait avec une grammaire universelle. Bien sûr, certains aspects de la langue varient localement, et doivent être appris par l’enfant au contact des membres de sa communauté linguistique : le vocabulaire, les règles grammaticales précises (par ex. l’ordre Sujet-Verbe-Objet qu’on trouve en français et pas en japonais), etc. Cependant, s’inspirant de philosophes rationalistes comme Platon et Descartes, Chomsky avance des arguments qui visent à démontrer que le langage ne pourrait en aucun cas être entièrement acquis par l’expérience – et notamment pas à travers les mécanismes associatifs d’apprentissage postulés par les béhavioristes comme Skinner (1957), à la suite de Hume.

Pendant la phase d'acquisition du langage, l'enfant est face à un problème d'induction (voir entrée "Induction"). Exposé à un nombre fini (et même limité) de données linguistiques, il doit inférer les règles qui sont censées les gouverner. Par exemple, tout locuteur de l’anglais maîtrise la règle qui permet de formuler une question, en partant d’une phrase déclarative. Ainsi, prenez la phrase déclarative suivante :

(1) The man is tall.

Une version interrogative d’une telle phrase serait :

(1’) Is the man tall?

Au vu de ce résultat, une hypothèse simple serait que la règle pour former une question est qu’il faut prendre le premier verbe qu’on rencontre, dans l’ordre linéaire de la phrase, et le mettre au début. Mais une telle règle n’est pas correcte, comme on peut le constater quand on prend une phrase plus compliquée :

(2) The man who is tall is happy.

(2’) * Is the man who tall is happy?

(2’’) Is the man who is tall happy?

Si les règles syntaxiques étaient apprises par induction, on pourrait s’attendre à ce que les enfants produisent parfois des énoncés incorrects comme (2’), pendant la phase d’apprentissage. Des données indiquent que de telles erreurs sont extrêmement rares (Crain & Nakayama 1987), ce qui tend à suggérer que les enfants savent de façon innée que les règles grammaticales dépendent non pas de l’ordre linéaire des mots dans la phrase, mais de dépendances structurelles, et qu’ils maîtrisent tacitement des distinctions complexes comme celles entre le verbe de la proposition principale d’une phrase, et le verbe de la proposition subordonnée relative (voir cependant Ambridge, Rowland & Pine 2008, pour discussion).

De plus, là où le linguiste peut construire des données pour confronter ses hypothèses aux jugements des locuteurs natifs, l'enfant n'est face qu'à des données positives, c’est-à-dire des données que le système qu'il doit découvrir autorise (Legate & Yang 2002). Des données négatives seraient pourtant d'un intérêt majeur : savoir que la phrase 2’ n'est pas grammaticale permet d'emblée d'écarter certaines hypothèses. En d'autres termes, l'ensemble des règles de grammaire à l'œuvre dans la langue, telles qu'elles sont mises au jour par le travail des linguistes, est si vaste au regard de l'ensemble si limité de données linguistiques auxquelles est confronté l'enfant, qu'il est raisonnable de faire l'hypothèse qu'une bonne partie des principes linguistiques dont l'enfant démontre la maîtrise est innée. C'est l'argument dit de la pauvreté du stimulus sur lequel Chomsky fonde sa position innéiste.

La linguistique moderne a permis des avancées significatives en centrant la recherche sur l'individu (I-langage), c’est-à-dire sur la dimension synchronique de la langue (voir entrée "sciences cognitives"). Les linguistes essayent de mettre au jour les propriétés du système mental de l'individu qui lui permettent d'acquérir et maîtriser sa langue. Il y a cependant (au moins) deux aspects diachroniques, ou historiques, du langage que nous avons pour l’instant laissé de côté. Le premier concerne l'évolution des langues à travers les siècles, le second, l'évolution du langage d'un point de vue biologique. Il est clair que la langue évolue. Quand on écoute des enregistrements des années 50 par exemple, il est frappant de constater les différences dans la prononciation, la prosodie, le vocabulaire, les tournures de phrases etc. La langue, en plus d'être le résultat d'une compétence humaine, est aussi le réceptacle d'influences sociales.

Une seconde dimension diachronique importante est celle de l'évolution du langage, non pas à travers les décennies ou les siècles, mais à travers l'évolution de l'espèce humaine. Si la capacité de langage fait partie de ce avec quoi nous arrivons au monde, elle a pu être sélectionnée par l'environnement pour les avantages évolutifs qu'elle procurait. Quelle serait la fonction biologique du langage ?

Pour faire simple, deux théories sont ici en compétition. La première, dans la lignée de Chomsky, considère que le langage est avant tout un outil mental qui permet d'articuler des représentations, lesquelles peuvent être externalisées pour, par exemple, communiquer. L'avantage évolutif que procurerait le langage reposerait donc avant tout sur l'avantage qu'il donne à l'individu de pouvoir résoudre des problèmes en formant des représentations complexes de son environnement (e. g. la fabrication d'outils). Le fait que tant d'énoncés soient ambigus (e. g. "Le garçon regarde la fille avec les lunettes" ; est-ce le garçon ou la fille qui a des lunettes?), indiquerait que l'efficacité communicative n'est pas la priorité du langage, et donc probablement pas sa fonction biologique. La seconde hypothèse explorée par la recherche contemporaine est celle selon laquelle le langage a pour fonction de permettre aux humains de communiquer et collaborer (Tomasello 2008, voir aussi Grice 1989a). L'avantage évolutif qu'il procure reposerait donc sur une forte dimension sociale, en permettant par exemple d'échanger de l'information, de coordonner ses actions etc.

La nature "matérielle" (au sens large) de notre capacité linguistique n’est plus en doute aujourd’hui : la faculté de langage a une base biologique, tout comme la vision ou la digestion, et obéit aux principes de l’évolution, comme de nombreux autres aspects du vivant. Cependant, comme on l'a vu, le langage a des propriétés qui semblent le distinguer d'autres facultés biologiques. En particulier, l'aspect productif et créatif du langage, qui intriguait Descartes, paraît à la fois essentiel et mystérieux. Afin de résoudre ce mystère, il est nécessaire de comprendre les caractéristiques formelles qui rendent possible son implémentation biologique.

b. Propriétés formelles du langage

À la suite de Descartes, Chomsky a cherché à comprendre en détail ce qui fait la spécificité du langage. La propriété essentielle du langage, selon Chomsky, c'est qu'il nous rend capables de produire et comprendre en principe une infinité d'énoncés, à partir d'un nombre fini de mots. L'idée est empruntée à Humboldt, qui remarquait que la langue permettait de faire "un usage infini de moyens finis" (Humboldt 1836). Les locuteurs sont en effet capables de produire et comprendre des phrases auxquelles ils n'ont jamais été exposés auparavant. Dans l'énoncé "La mère de Fatima est gentille" par exemple, l'expression "La mère de" peut être réitérée à l'infini : "La mère de la mère de Fatima est gentille", ou "La mère de la mère de la mère de Fatima est gentille" etc., les énoncés résultants seront toujours grammaticaux. Beaucoup d'expressions dans les langues naturelles ont cette propriété de pouvoir être réitérées à l'infini sans affecter leur grammaticalité. Un autre exemple : il est possible d'ajouter l'expression "Quelqu'un croit que" devant n'importe quel énoncé, et ainsi former un nouvel énoncé (e. g. "Quelqu'un croit qu'il neige"). En répétant l'opération, on obtient "Quelqu'un croit que ... quelqu'un croit qu'il neige". C'est la récursivité de la syntaxe.

Bien sûr, il est possible qu'un nombre trop grand d'itérations rende dans les faits la phrase extrêmement difficile à comprendre. Une phrase de plusieurs milliers de mots par exemple est au-delà de toute capacité humaine d'interprétation. C'est ici qu'intervient la distinction importante qu'introduit Chomsky entre compétence et performance. Notre performance est limitée par des facteurs extérieurs au langage, comme la mémoire de travail, mais notre système linguistique est capable de générer ces phrases, il en a la compétence, en vertu de ses propriétés structurelles.

Notez que la récursivité n'est pas une propriété spécifique des langues naturelles, comme le français ou l'anglais. Dans un langage formel comme les mathématiques par exemple, la fonction successeur, qui à tout entier naturel n associe n+1, est récursive. Le successeur du successeur du successeur de 4 est 7 par exemple, et on peut ainsi appliquer la fonction à l'infini. Imaginez maintenant un programme informatique qui réalise cette fonction. Dès qu'on lui donne un nombre, le programme ajoute 1 puis affiche le résultat. Ce programme a une certaine compétence : quel que soit le nombre qu'on lui présente, il sera capable d'afficher son successeur. Il peut donc en principe traiter une infinité de nombres. Mais dans les faits, il n'atteindra jamais l'exhaustivité : sa durée de vie est limitée, et la machine sur laquelle il est implémenté a une puissance de calcul limitée. Ce sont là des limites de performance. Ce qui est intéressant cependant est que le logiciel a la compétence de pouvoir, en droit, traiter une infinité de stimuli. La récursivité de la syntaxe (e.g. "la mère de ... la mère de..." ou "quelqu'un croit que quelqu'un croit que....") est la manifestation d'une compétence semblable.

L'analogie avec un programme informatique est, pour Chomsky, presque littérale. Les avancées du XXème siècle en logique et en mathématiques (voir section "Logique") ont permis d'étudier les propriétés formelles de différents systèmes récursifs, et il est donc devenu envisageable de modéliser la compétence linguistique humaine à l'aide de ces nouveaux outils théoriques et descriptifs. La proposition était donc de traiter la compétence linguistique des humains comme un système de manipulation de symboles, au même titre que des langages formels tels que la logique, les mathématiques ou les langages de programmation.

La récursivité de la syntaxe a un pendant sémantique. Nous avons vu que quel que soit le nombre d'itérations d'une expression récursive, le résultat était grammatical ; mais en plus de cela, chacun des énoncés formés a une signification différente des autres. "La mère de la mère de Fatima est gentille" ne signifie pas la même chose que "La mère de Fatima est gentille", et ainsi de suite. Il semble donc que la signification de l'expression "La mère de" ait un impact direct sur la signification de l'énoncé dans lequel elle se trouve. Plus généralement, la signification d'une expression complexe semble être déterminée par la signification de ses parties, ainsi que par la façon dont celles-ci sont agencées. Il faut bien que la signification d'un énoncé complexe comme "Jean nage" vienne de quelque part. Or, de quoi d'autre que de la signification de "Jean" et de celle de "nager" pourrait venir la signification de "Jean nage" ?

L'idée que la signification d'une expression complexe est déterminée par la signification de ses parties (et la manière dont elles sont agencées) est le principe de compositionnalité. Ce principe s'applique à toutes les expressions complexes. Le sens de "la mère de Fatima" doit être déterminé par le sens des expressions qui la composent (ici "la", "mère", "de" et "Fatima") et la façon dont la syntaxe les combine. Ces combinaisons de significations permettent ainsi de fusionner des unités de sens pour en former de nouvelles, processus qui peut se réitérer. Un système fini de connaissances lexicales et syntaxiques et de règles de composition sémantiques nous permet ainsi de traiter un nombre en principe infini d'énoncés. Les propriétés formelles du langage telles que la récursivité et la compositionnalité permettent donc d'éclairer l'aspect productif du langage qui paraissait jusqu'alors mystérieux.

Ce principe de compositionnalité est probablement la contrainte sur la sémantique la plus unanimement acceptée. De quelque nature que soit la signification, la signification d'une expression complexe doit être déterminée par la signification de ses parties. Mais une question demeure : d'où vient le sens des parties ? Du sens des sous-parties ? Il faut bien s'arrêter quelque part pour éviter une régression à l'infini. Le principe de compositionnalité est très éclairant, mais insuffisant pour dissoudre l'énigme de la signification. Nous nous tournons donc à présent vers les recherches sur la nature de la signification.

3. Langage et réalité

a. Sens et référence

Reprenons l'énoncé "Jean nage". Cet énoncé à une signification, un locuteur normal peut le comprendre. Mais qu'est-ce que c'est exactement que de "comprendre" cet énoncé ? Comprendre un énoncé, c'est en saisir la signification. Mais qu'est-ce que la signification ? L'intuition pionnière de Frege, Tarski, et Montague, est de fonder la signification sur la notion de vérité. "Comprendre" des expressions complexes, ce serait être capable de les mettre en lien avec les aspects pertinents de la réalité extérieure au langage.

En première analyse, on peut dire que comprendre un énoncé, c'est être capable d'extraire ses conditions de vérité. Vous avez compris l'énoncé "Jean nage" si vous êtes capable de savoir dans quelles conditions l'énoncé est vrai, c’est-à-dire, si vous savez ce qu'une situation doit satisfaire pour que l'énoncé en soit une bonne description. Si vous avez la capacité, pour toute situation, de savoir si l'énoncé "Jean nage" décrit adéquatement cette situation, alors vous avez compris l'énoncé. "Jean nage" est vrai si Jean nage, et faux sinon. Contrairement aux apparences, cela n'est pas du tout trivial : par exemple, pour savoir que la phrase anglaise "John swims" est vraie si et seulement si Jean nage, il faut disposer de connaissances sémantiques spécifiques, il faut que certaines opérations aient lieu. Comme l'impose le principe de compositionnalité discuté plus haut, la signification de l'énoncé dépend de manière cruciale de la signification de ses parties : c'est parce que le nom propre "Jean" renvoie à l'individu Jean et parce que "nage" ne signifie pas "courir", que la phrase "Jean nage" est vraie dans les situations où c'est Jean qui nage et fausse sinon.

Mais la simple juxtaposition de "Jean" et de "nage" ne suffit pas encore à former un énoncé complexe vrai si et seulement si Jean nage. Il y a une différence importante entre une simple suite de mots et un énoncé linguistique susceptible d'exprimer une proposition (ce que Frege appelle des pensées), c’est-à-dire d'avoir une signification. Frege (puis Montague) propose une analogie avec la notion de fonction en mathématiques pour rendre compte de ce fait. Ainsi, de la même manière que la fonction successeur peut sélectionner 4 et renvoyer 5, la fonction "nage" peut sélectionner "Jean" et renvoyer une valeur de vérité (le Vrai si Jean nage, le Faux sinon). Là où "Jean" désigne un individu, on peut dire que "nage" est la fonction qui à tout individu renvoie vrai s’il nage et faux s’il ne nage pas. Ainsi, quand on fournit l'individu "Jean" à la fonction "nage", on obtient un énoncé vrai si Jean nage et faux si Jean ne nage pas ; autrement dit, on a dérivé ses conditions de vérité, sa signification. "Jean" et "nager" se combineraient donc de la même manière qu'une fonction et son argument. Avec cette idée d'application fonctionnelle, ce programme de recherche propose une sémantique qui d'un même coup implémente le principe de compositionnalité (les parties se composent comme une fonction et son argument), et statue sur la nature de la signification : une expression possède une signification dans la mesure où elle renvoie, ou fait référence, à un aspect de la réalité.

Quelle est la signification de e. g. "Jean" ? Il est clair que l'individu auquel cette expression renvoie joue un rôle. Une première hypothèse serait donc de dire que la signification de "Jean", c'est tout simplement l'individu Jean. C'est l'hypothèse dite de la référence directe, d'abord défendue par Mill (1843). Cette approche élémentaire se heurte à des difficultés, comme l'a remarqué Frege, du fait qu'il existe des expressions aux significations différentes qui renvoient aux mêmes objets dans le monde. Considérez l'exemple de l'étoile du berger, qui n'est autre que la planète Vénus. Les expressions "L'étoile du berger" et "Vénus" font donc référence au même objet dans le monde. Or, si la signification d'une expression n'est autre que ce à quoi elle fait référence, on s'attend, en vertu du principe de compositionnalité, à pouvoir substituer deux expressions coréférentielles l'une à l'autre sans affecter la signification des expressions plus complexes dans lesquelles elles figurent. Or, ce n'est pas toujours le cas. En particulier, l'énoncé "Jean sait que l'étoile du berger est une planète" n'a pas les mêmes conditions de vérité que "Jean sait que Vénus est une planète". En outre, un énoncé d'identité comme "L'étoile du berger est vénus", est autrement plus intéressant et informatif que "L'étoile du berger est l'étoile du berger". La signification ne se résume donc pas à la simple valeur référentielle. Frege distingue donc la référence du sens. La référence, c'est l'objet (la planète elle même) auquel les expressions "L'étoile du berger" et "Vénus" renvoient, c'est ce qu'il y a de commun entre ces expressions. Leur sens, c'est ce qui les distingue, c'est le mode de présentation de la référence.

Il ne faut pas confondre la distinction Frégénne entre sens et référence avec une autre distinction, celle établie par Saussure (1995) entre signifiant et signifié. Le signifiant, c’est l’aspect matériel du signe linguistique – par exemple, l’ "image acoustique" associée au mot, c’est-à-dire (en gros) ses propriétés phonologiques. Le signifié, c’est l’aspect conceptuel du signe linguistique – non pas la réalité externe à laquelle il renvoie (son référent), mais ce à quoi il renvoie dans l’esprit des locuteurs. Cependant, pour Saussure, le signifié n'est pas simplement subjectif, il a aussi une réalité sociale. Saussure insiste sur le fait que le rapport entre signifiant et signifié est "arbitraire" : c’est par convention que le mot "Vénus" exprime le concept de Vénus. Il aurait très bien pu exprimer autre chose, si les conventions du français avaient été différentes.

Frege ne nierait bien sûr pas que les aspects matériels d’un mot sont arbitrairement connectés à son sens. Cependant, le rapport entre sens et référence est très différent du rapport signifiant/signifié. Le sens pour Frege est censé jouer au moins deux rôles. D'une part, il correspond au mode de présentation du référent ; d'autre part, c'est lui qui détermine la référence (c'est lui qui fait que l'expression réfère à tel ou tel objet). Comment le sens accomplit-il ces tâches ? L’hypothèse de Frege, c'est que le sens d'une expression référentielle renferme un ensemble de propriétés, si bien que l'expression renvoie aux objets ayant ces propriétés. Par exemple, les expressions "Le successeur de Jacques Chirac" et "Le prédécesseur de François Hollande" renvoient à un même individu (à savoir Nicolas Sarkozy). Elles ont pourtant bien un sens différent, et cela parce qu'elles décrivent leur référence de façon différente. La propriété d'être le successeur de Jacques Chirac, encodée par la première expression, et la propriété d'être le prédécesseur de François Hollande, encodée par la seconde expression, sont deux descriptions différentes (deux modes de présentation), toutes deux satisfaites par la même personne. Ces propriétés sont aussi représentées dans l’esprit des locuteurs quand ils utilisent les expressions correspondantes.

b. Anti-descriptivisme et Externalisme

Avec Russell (1905), faisons un instant l'hypothèse qu’un nom propre ordinaire, comme "François Hollande", est en fait une sorte d'abréviation d’une description – par exemple, "Le 24ème président de la République française". Ainsi, l'expression "François Hollande" ferait bien référence à l'individu François Hollande, lequel satisfait la description. Mais imaginons maintenant que François Hollande ait perdu l'élection face à son concurrent le 6 mai 2012. D'après notre hypothèse de départ, le nom propre "François Hollande" ferait alors référence à quelqu'un d'autre que François Hollande, qui satisferait, dans ce scénario, la description "Le 24ème président de la République française". Cela ne paraît pas du tout exact. Si quelqu'un d'autre avait gagné l'élection et était ainsi devenu le 24ème président de la République française, ce ne serait pas François Hollande. Le nom "François Hollande" désigne donc un certain individu donné, et non l'individu quel qu'il soit qui satisfait la description. Notre hypothèse de départ semble être fausse.

Peut-être que la description choisie était trop simple ? Il ne semble pas que cela soit la source du problème. Si "François Hollande" avait une signification plus riche et complexe, comme "L'homme qui a tels et tels traits du visage et qui a fait telles et telles choses", on pourrait tout de même imaginer, par exemple, que François Hollande soit décédé à l'âge de 2 ans et ne satisfasse donc pas non plus cette description. En fait, il semble que pour toute description, si complexe qu'elle soit, on soit en mesure de construire un scénario contrefactuel tel que François Hollande ne satisfasse plus la description. La référence du nom propre "François Hollande" ne varie pas en fonction des scénarios. Par contraste, une description définie comme "Le 24ème président de la République française" fait référence à un individu, étant données les circonstances actuelles. Si les choses avaient été différentes, l'expression ferait référence à l'individu, quel qu'il soit, qui satisferait alors la description. Autrement dit la référence d'une description définie, contrairement à celle des noms propres, varie en fonction des scénarios. En remarquant cette rigidité des noms propres, Kripke (1972) identifie une mauvaise prédiction des théories de Russell et Frege sur la détermination de la référence des expressions linguistiques (voir entrées "Référence" et "Noms propres").

Kripke soutient que la référence d'un nom propre n'est pas déterminée par une description qui serait représentée dans l'esprit des locuteurs, mais plutôt par des relations historiques objectives entre l'expression et des éléments de la réalité. Si "François Hollande" fait référence à François Hollande, c'est parce que François Hollande a été nommé ainsi, et que quiconque utilise ce nom s'inscrit dans une grande chaîne de communication remontant jusqu'à ce "baptême" initial. Chaque utilisation du nom propre serait ainsi objectivement, historiquement, causalement, liée à l'individu François Hollande. Avec un tel lien objectif, la référence d'une expression n'a plus besoin d'être assurée par une description représentée dans l'esprit des locuteurs.

Les idées de Kripke sur la signification des noms propres impliquent une conception externaliste de la signification. L'externalisme est, pour faire simple, la thèse selon laquelle la signification, ou référence, des expressions est déterminée au moins pour partie par des facteurs extérieurs à l'individu qui utilise le langage. Au delà du cas des noms propres, Putnam (1975) cherche à falsifier l'hypothèse que la signification d'un nom commun comme "eau" est une description comme "liquide transparent inodore" (ou quelque autre description que ce soit) en montrant comment le terme se comporte dans des scénarios contrefactuels. L'idée d'imaginer des situations fictives pour évaluer une hypothèse peut à première vue surprendre, mais il faut remarquer que, lorsqu'il s'agit d'hypothèse sur une composante de notre compétence linguistique, une expérience de pensée est, très exactement, une expérience : on cherche à falsifier une théorie sur nos intuitions en observant le comportement de nos intuitions, dans des scénarios où la théorie est susceptible de faire de mauvaises prédictions (voir l'entrée "Expériences de pensée"). Cela dit, imaginez qu'il y ait quelque part une planète identique à la terre, à la différence que le liquide transparent et incolore qui coule dans ses fleuves n'est pas constitué de H20 mais d'une autre molécule, XYZ. Imaginez aussi qu'un locuteur terrien, qui ignore tout de la chimie, soit tout à fait compétent avec le terme "eau", et fasse un séjour sur la terre jumelle. L'hypothèse en question prédit que, si ce locuteur parle du liquide qui y coule comme de l'eau, il ne se trompe pas. Puisque la référence de "eau" est censée dépendre de la description "liquide transparent inodore", "eau" doit tout aussi bien s'appliquer à XYZ. Or, il semble que ce locuteur se trompe en réalité, parce que bien que XYZ ait toutes les apparences de l'eau, ce n'est pas de l'eau. De l'eau, c'est H20. De même que précédemment, on peut construire un scénario similaire pour toute description candidate.

Si la référence de "eau" n'est pas déterminée par une description représentée dans la tête des locuteurs, elle doit alors elle aussi être déterminée, du moins en partie, par des facteurs extérieurs. Quelle sorte de facteurs pourraient entrer en jeu ? Putnam suggère que la référence des termes d’ "espèce naturelle" comme "eau" pourraient être déterminée par une communauté d'experts (e. g. les chimistes), experts auxquels les usagers quotidiens du mot, comme vous et moi, délègueraient la tâche de fixation de la référence. Quand on dit que tel liquide est de l'eau, on est prêts à reconnaitre une erreur face à un scientifique nous démontrant qu'il ne s'agit en réalité pas de la bonne molécule. Là où les noms propres réfèreraient via des chaînes d'usages, les noms comme "eau" réfèreraient via des experts.

Le phénomène de l'indexicalité (Kaplan 1989, Perry 1993, Recanati 1993) constitue un troisième exemple en faveur de l'externalisme. Les indexicaux sont des expressions comme "je", "ici", "maintenant", dont la référence dépend du contexte dans lequel ils sont employés. Dans un sens élargi, on compte les démonstratifs (comme "ceci", "cela") parmi les indexicaux, puisque leur référence dépend aussi du contexte d’énonciation. Vous lisez probablement ce texte sur un écran d'ordinateur. Lorsque vous parlez de "cet écran", l'expression fait référence à l'écran que vous avez en face de vous, l'écran particulier sur lequel vos yeux sont posés en ce moment. Mais imaginez que demain, vous repreniez cet article où vous l'aviez laissé sur une tablette. Vous pouvez alors utiliser la même expression "cet écran", qui fera alors référence au nouvel écran que vous avez en face de vous. Le premier écran n'est pas le même que le second écran, alors que les expressions utilisées dans les deux cas étaient les mêmes. La référence n'est donc pas fonction de la signification conventionnelle de l'expression seule. La part conventionnelle de la signification correspondrait plutôt à une règle qui, étant donné un facteur externe du contexte d'énonciation, détermine une référence (une telle règle est ce que Kaplan appelle un "caractère"). Le facteur externe qui intervient ici dans la fixation de la référence repose sur des éléments du contexte (la présence de tel ou tel écran en face de vous, et peut-être un acte de "démonstration") extérieurs à la signification linguistique (voir aussi entrées "Philosophie du langage", "Référence", et "Indexicalité").

c. L'indétermination de la référence

On a vu que le lien entre les mots et les choses auxquelles ils font référence pouvait éclaircir la notion de signification, et mentionné différentes visions sur la nature de ce lien (le lien peut être assuré par des descriptions présentes à l'esprit des locuteurs par exemple, ou par des facteurs extérieurs). Certains auteurs, comme Quine (et à sa suite Davidson), suggèrent cependant que ce modèle de la signification, fondé sur l'explicitation d'une relation entre les mots et les choses extérieures, est trop simple.

Quine défend la thèse controversée selon laquelle la traduction des phrases, ainsi que la référence des mots qui les composent, sont indéterminés : on peut imaginer plusieurs théories sémantiques qui attribuent des référents ou significations substantiellement différents aux mêmes expressions, sans qu’il existe de données objectives qui permettent de trancher entre ces théories. Imaginez par exemple qu'un locuteur d'une langue inconnue prononce le mot "gavagai" à la vue d'un lapin. Nous pourrions alors former l'hypothèse que "gavagai" signifie "lapin". Quine remarque que le mot pourrait ici tout aussi bien signifier "nourriture", ou "fourrure", ou "allons chasser", ou encore "le temps sera mauvais demain". De nouvelles observations de l'usage que font les locuteurs de "gavagai" pourront éliminer certaines de ces hypothèses de traduction. Mais d’autres plus subtiles – « partie non détachée de lapin », « instanciation de la lapinité », etc. – semblent plus difficiles à réfuter. En effet, si je suis en présence d’un lapin, alors je suis toujours nécessairement aussi en présence de partie non détachée de lapin ou d’instanciation de la lapinité.

Plus généralement, Quine soutient qu'il n'y a pas de traduction déterminée de "gavagai", parce qu'il restera toujours un nombre infini d'hypothèses de traduction également susceptibles de rendre compte d'un nombre fini d'observations du comportement des utilisateurs du langage (Quine 1960). En effet, même si le locuteur de "gavagai" apprend le français, et qu’il répond "oui" quand je lui demande si "gavagai" signifie bien "lapin", il s’agit là simplement d’énoncés additionnels qui me sont donnés à interpréter, et qui sont eux aussi soumis, selon Quine, à la même indétermination. Ainsi, la signification qu’on donne à "gavagai" dépend de celle qu’on donne aux autres expressions utilisées par la personne qui emploie ce mot (par exemple, "oui" et "non"). En ajustant progressivement nos hypothèses sur ce que signifient les autres mots employés par cette personne (par exemple, que dans sa bouche, "oui" veut dire non), on peut arriver à préserver de la réfutation empirique toutes sortes d’hypothèses bizarres sur la signification des expressions qu’il emploie.

Si l’expérience de pensée de la "traduction radicale" que propose Quine nous invite à nous placer du point de vue de quelqu’un qui cherche à savoir quelle serait la signification d’une expression d’une langue inconnue, il s’agit bien d’une thèse métaphysique sur la nature de la signification en tant que telle, et non d’une thèse épistémologique sur notre capacité à découvrir ce que sont les significations des expressions. Quine défend en effet une conception holiste de la signification, selon laquelle les mots et les énoncés n’auraient pas de signification de manière isolée, mais seulement en rapport les uns avec les autres. Le sens d’un mot serait ainsi déterminé par les significations de l’ensemble des mots de la langue à laquelle il appartient.

Dans une optique semblable, Quine (1951, 1953) récuse la distinction traditionnelle entre énoncés analytiques, qui seraient vrais uniquement en vertu de la signification des termes qui les composent, et énoncés synthétiques, dont la vérité dépendrait à la fois de leur signification et de faits externes. Selon la tradition philosophique, un énoncé tel que "Les célibataires ne sont pas mariés." serait vrai analytiquement, simplement du fait de la signification de termes comme "célibataires" et "mariés", ce qui expliquerait qu’on puisse savoir qu’ils sont vrais a priori, indépendamment de l’expérience. Par contraste, un énoncé tel que "Les célibataires ne sont pas malheureux." est vrai ou faux pour des raisons empiriques, et doit donc être justifié par des données récoltées a posteriori. Quine objecte que toute tentative d’éclaircissement de la notion d’analyticité finit par être circulaire, puisqu’elle fait appel à d’autres notions également obscures, comme celles de "synonymie" ou de "nécessité", qu’on ne peut comprendre indépendamment de la notion même d’analyticité dont on était parti. Pour Quine, les énoncés analytiques ne sont pas de nature fondamentalement différente d’énoncés empiriques dont la vérité nous semble très fortement confirmée (comme "Il a déjà plu sur Terre."). On pourrait même imaginer des circonstances dans lesquelles nous serions enclins à les rejeter comme faux, face à des données suffisamment inattendues. Par exemple, Putnam (1962, 1965) suggère qu’on pourrait rejeter comme faux l’énoncé prétendument analytique "Les chats sont des animaux." si on apprenait que les chats sont en fait des robots téléguidés bien déguisés. Et on pourrait même être amené à rejeter certaines vérités logiques élémentaires, supposées analytiques par excellence, face aux avancées de la mécanique quantique (Putnam 1968).

Les thèses surprenantes de Quine – le rejet de la distinction analytique/synthétique, le holisme sémantique et l’indétermination de la référence – sont très liées à d’autres thèses qu’il défend par ailleurs, en particulier, sa conception holiste de la confirmation, et une forme d’empirisme proche du vérificationnisme. Selon le holisme de la confirmation, seules les théories complètes seraient susceptibles d’être confirmées par l’expérience (voir article "Holisme", section philosophie des sciences). L’empirisme de Quine, quant à lui, dicte que les seules données acceptables pour une théorie de la signification sont celles qui ont trait aux conditions empiriques observables dans lesquelles les expressions du langage sont employées. En combinant ces deux idées, on aboutit naturellement à une conception du langage dans laquelle les seuls facteurs possibles pouvant déterminer la signification sont l’ensemble des comportements linguistiques observables – ce qui semble, en effet, laisser la référence indéterminée, et rendre impossible d’assigner une référence à un mot pris isolément.

Davidson (1973, 1974) a une conception plus permissive que Quine des données acceptables pour une théorie sémantique : pour lui, on peut également faire appel aux états mentaux des locuteurs. On peut ainsi se fonder sur le fait qu’un locuteur tient certains énoncés pour vrais. Le problème, c’est que dans une situation d’"interprétation radicale" (semblable à la situation de traduction radicale de Quine), on ne peut pas savoir ce que croit un locuteur sans savoir la signification de ce qu’il dit. Pour sortir de ce cercle, on doit, d’un même coup, interpréter ce qu’il pense et ce qu’il dit. La solution Davidsonienne consiste à appliquer un "principe de charité" : pour interpréter le comportement humain, on fait l’hypothèse que celui-ci obéit à certaines normes de rationalité. Ainsi, on fait l’hypothèse que la plupart des croyances et des énoncés de notre interlocuteur sont vrais, non-contradictoires etc., et qu'ils sont plus ou moins semblables aux nôtres. Ceci permet, par exemple, de considérer que s’il y a un lapin, et que notre interlocuteur dit "Il y a un lapin", alors probablement c’est parce qu’il sait effectivement qu’il y a un lapin, et que son énoncé veut donc dire qu’il y a un lapin. C’est parce qu’en étant charitable on arrive à (partiellement) déterminer quelles sont les croyances de notre interlocuteur qu’on peut s’appuyer sur notre connaissance de celles-ci pour interpréter la signification de ses énoncés.

Cependant, Davidson considère que même le principe de charité ne suffit pas à dicter une interprétation unique. Il considère également que la signification d’un énoncé n’est rien d’autre que celle que lui attribuerait un interprète pleinement informé (Davidson 1986). Il s’ensuit que, comme Quine, Davidson accepte la thèse de l’indétermination de la référence et de la signification. Bien loin d’une conception binaire de la signification fondée sur le rapport de référence entre un mot et une entité dans le monde, Davidson (1982) en propose finalement une conception ternaire, qu’il élabore à travers la métaphore de la "triangulation" : il n’y a de signification et de référence objective possible que pour un locuteur rationnel, qui emploie le langage dans une situation d’échange inter-personnel. En effet, selon Davidson, "la rationalité est un trait social, que seuls les communicateurs possèdent" (2001, p. 105).

Si on peut reprocher à Davidson, et avant lui à Quine, de ne peut-être pas prêter assez attention à la dimension cognitive individuelle du langage, le langage possède indéniablement une dimension sociale. Toute philosophie du langage doit ainsi s’intéresser à la communication.

4. Langage et communication

a. Deux modèles de la communication

La communication humaine peut être vue comme un échange d'informations entre individus. Comment un individu source parvient-il à transmettre de l'information à un destinataire ? Il y a deux modèles en compétition. Le premier, qui est peut-être le plus intuitif, est le modèle du code. D'après ce modèle, inspiré des théories de l'information (Shannon et Weaver 1949), une locutrice qui souhaite transmettre une information à une autre locutrice encode l'information sous forme linguistique, transmet le signal correspondant via un canal de communication (du son dans l'air dans le cas des langues parlées), et le récepteur peut alors déchiffrer le signal pour en extraire le contenu. Le langage serait donc une sorte de code conventionnel partagé par les locuteurs. Par exemple, si vous souhaitez saluer une amie dans la rue, vous pouvez utiliser le terme "bonjour", qui encode cette information de manière conventionnelle. Si votre amie parle français, elle aura compris que vous la saluez en déchiffrant l'information contenue dans "bonjour", et la communication sera réussie. Ce modèle permet d'utiliser des outils formels et mathématiques pour analyser les différentes composantes de la transmission d'information entre locuteurs. Sa généralisation à toutes formes de communication (e.g. les images ou les textes) constitue le programme de recherche de la sémiotique (Eco 1976).

Le modèle du code parait si naturel qu'il est difficile d'en imaginer un autre. Pourtant, un second modèle suggère que ce qui est constitutif de la communication proprement humaine, ce n'est pas l'encodage et déchiffrage d'informations, mais plutôt un processus plus général de reconnaissance des intentions du locuteur. Réévaluons le cas où vous souhaitiez saluer une amie dans la rue. Est-ce qu'il était vraiment nécessaire d'utiliser le mot "bonjour" pour saluer ? D'abord, il y a d'autres mots qui remplissent la même fonction (e.g. "salut", "coucou" etc.), et aussi des gestes (e.g. un geste de la main ou de la tête). Un partisan du modèle du code soutiendrait que ce sont là différents moyens conventionnels que le système linguistique met à disposition des locuteurs pour encoder la même information : l'intention de saluer. Mais en réalité, quand vous voulez saluer votre amie, l'objectif n'est-il pas avant tout de communiquer à votre amie votre intention de la saluer (Searle 1969, Grice, 1989b) ? Et s'il est possible de parvenir à cette fin sans passer par un code conventionnel, alors le modèle du code est incomplet. Bien sûr, des expressions conventionnelles comme "bonjour" peuvent être de bons moyens de faire reconnaitre votre intention de saluer. Mais tout signe, même non-conventionnel, peut faire l'affaire, si votre amie reconnait que vous produisez ce signe pour communiquer votre intention de la saluer. Par exemple un clin d'œil, un sourire en haussant les sourcils, un claquement de doigt etc. peuvent parfois suffire à faire reconnaitre son intention de saluer. Doit-on en conclure que le clin d'œil, le sourire avec les sourcils haussés, le claquement de doigts etc. sont des signes qui encodent le salut de manière conventionnelle ? Les partisans du modèle inférentiel de la communication répondent que non, que tout ce qu'il faut pour saluer, c'est que dans le contexte où vous produisez le signe, votre amie soit à même de comprendre ce signe comme un salut. Nul besoin d'une convention préétablie, d'un code. Le salut est réussi si vous arrivez à rendre manifeste votre intention de saluer, par quelque moyen, conventionnel ou non, que ce soit (Grice 1989b, Austin 1975, Sperber et Wilson 1989).

Ce modèle n'est en principe pas incompatible avec la présence d'une certaine dimension conventionnelle dans les systèmes de signes. Le principal défaut du modèle du code est de généraliser une théorie de la communication à partir de cas conventionnels (comme "bonjour"), ce qui rend les cas non-conventionnels (comme le claquement de doigts) inexplicables. Le modèle inférentiel propose un modèle plus large, qui permet de rendre compte des cas non-conventionnels, et notamment des cas de communication non-linguistiques.

Comment le modèle inférentiel peut-il rendre compte des cas conventionnels comme une grande partie des cas de communication linguistique ? Une solution est de voir ces cas conventionnels, qui reposent sur un code, comme logiquement et chronologiquement secondaires. L'idée est la suivante : si vous utilisez un claquement de doigts pour rendre manifeste votre intention de saluer, cela peut fonctionner la première fois sur la base d'un mécanisme purement inférentiel. Votre amie explique votre action en supposant que vous avez l'intention de la saluer. Cela peut se passer à nouveau une deuxième fois, puis une troisième, etc. Au bout d'un moment, le signe (le claquement de doigts) peut finir par se conventionnaliser : il devient partie du code. Après ce processus de conventionnalisation, le claquement de doigts fonctionnera comme cela est prédit par le modèle du code. Mais pour en arriver là, il aura fallu au préalable un mécanisme de reconnaissance des intentions, comme on le voit à l'œuvre dans les cas de communication sans conventions préétablie. En plus de proposer une vision plus englobante de la communication, le modèle inférentiel possède donc l'avantage de pouvoir rendre compte de l'origine des conventions linguistiques.

b. Enrichissement pragmatique

Prenez la phrase "Je viendrai demain". Le modèle du code seul ne permet pas d'expliquer comment cette phrase peut être informative pour des locuteurs qui l'utilisent, parce que rien dans cette phrase seule ne nous permet de savoir à qui "je" fait référence, ou à quel jour se rapporte "demain". Le code semble simplement indiquer que "je" fait référence au locuteur et "demain" au jour suivant l'énonciation (il s'agit de leur caractère Kaplanien), mais cela n'est pas suffisant pour avoir une proposition dont le destinataire peut évaluer la vérité et la fausseté. Si vous découvrez un enregistrement audio de la phrase "Je viendrai demain", vous vous trouverez bien incapables de savoir ce qui est dit, sans savoir ni qui l'a prononcée ni quand elle a été prononcée. Seul le contexte d'énonciation peut me fournir ces informations. C'est seulement quand la phrase "Je viendrai demain" est énoncée en contexte, avec un locuteur connu et à un jour donné, que les destinataires peuvent avoir l'information complète. Le modèle du code n'est donc pas suffisant, ou du moins, certains éléments du contexte doivent pouvoir être ajoutés au contenu linguistiquement encodé. C'est le processus d'enrichissement pragmatique.

Il y a différentes espèces d'enrichissement pragmatique. Les termes comme "je" et "demain" sont des indexicaux : comme nous l'avons vu, leur référence n'est fixée qu'en contexte, selon une règle déterminée par l'expression elle-même ("demain" fait référence au jour suivant leur énonciation, "je" au locuteur etc.). Un second mécanisme d'enrichissement est celui des implicatures conversationnelles (Grice, 1989b). Imaginez que vous êtes professeur et qu'un étudiant souhaitant travailler avec vous vous montre cette lettre de recommandation écrite par un de ses anciens professeurs : "Bonjour, Cet étudiant est très bien habillé et toujours poli. Bien sincèrement.". À la lecture de cette lettre, on comprend pourquoi vous pourriez ne pas avoir envie d'accepter cet étudiant. Pourtant, la lettre ne dit littéralement que des choses positives. Pourquoi a-t-on alors l'impression que cette lettre est très négative ? C'est probablement parce que nous avons des attentes concernant le contenu de ce genre de lettres. En général, on s'attend à ce qu'une lettre de recommandation comprenne des choses positives sur les qualités intellectuelles de l'étudiant par exemple. Pourquoi ces compliments ne sont-ils pas dans la lettre ? Probablement parce que l'auteur de la lettre pense que l'étudiant n'a pas de qualités intellectuelles. Voilà le type de raisonnements pragmatiques qui pourrait être à l'origine du contenu négatif de la lettre, lettre qui ne contient littéralement rien de négatif.

Il faut remarquer que cette sorte d'enrichissement pragmatique est différente d'une implication logique (voire section "Logique"). Par exemple, la lettre implique logiquement que l'étudiant est bien habillé (puisqu'il est dit qu'il est bien habillé et poli). Si l'étudiant se présentait en haillons, on pourrait dire que l'auteur de la lettre a menti, ou qu'il ne connaissait pas bien son étudiant. L'auteur de la lettre s'engage donc sur la qualité de la tenue vestimentaire de l'élève. Par contre, il ne s'engage pas de la même manière sur l'absence de qualités intellectuelles. L'auteur aurait très bien pu envoyer une seconde lettre, sans se contredire, qui ajouterait : "Ce ne sont là que des qualités sans importance de cet étudiant. Il est surtout brillant et possède une intelligence hors pair". L'implicature est donc annulable, contrairement à l'implication logique. "L'étudiant est toujours très bien habillé et poli, et il n'est pas bien habillé" est une contradiction ; "L'étudiant est toujours très bien habillé et poli, et il est très intelligent" n'est pas contradictoire. L'enrichissement pragmatique de la signification de la lettre repose sur l'attribution de certaines intentions à l'auteur de la lettre, étant donnés certaines attentes, mais l'auteur n'a pas dit ce qu'on lui attribue, il l'a indiqué de manière indirecte, par implicature.

Il semble donc qu'il y ait (au moins) deux façons de transmettre de l'information, l'une directe et l'autre indirecte. On a vu qu'une différence essentielle entre ces deux sortes d'information est que la seconde est annulable : on ne s'y est pas vraiment engagé. Mais quand on dit quelque chose, qu'est-ce qui fait qu'on peut dans un cas s'y être engagé, et dans l'autre non ? Imaginez par exemple que vous vouliez inviter un ami qui vous plait dans votre lit après un premier rendez-vous galant. Vous pouvez dire, de manière directe "Tu veux venir dans mon lit", ou de manière indirecte, par exemple "Tu veux monter voir ma collection d'estampes japonaises". Nous tendons à préférer le second moyen, mais pourquoi exactement ?

Une notion clé est ici celle de connaissance commune (Lewis 1969). Quand on transmet une information au moyen du code, dans le sens littéral, l'information atteint un statut spécial, elle est transparente, ou publique. Les deux locuteurs ont désormais connaissance de l'information, savent que chacun d'entre eux connait l'information, savent que chacun sait que l'autre connait l'information etc. Il n'y a plus aucun doute possible sur l'information qui a été transmise, ni de doute sur le fait que chacun en a connaissance. Dans le second cas, l'information est transmise indirectement au moyen d'un mécanisme de lecture des intentions. Votre ami comprend que vous l'invitez dans votre lit, parce qu'il trouve étonnant que vous vouliez vraiment lui montrer une collection d'estampes japonaises et suppose que vous voulez en réalité lui signaler quelque chose d'autre. De même, vous compreniez l'intention de l'auteur de la lettre de recommandation parce qu'il était étonnant de ne pas y trouver de compliments sur l'intellect de l'étudiant. Dans ce cas, l'information passe, mais elle n'est pas nécessairement connaissance commune ; elle peut aisément le devenir. Dans certains cas, l'interlocuteur a connaissance de l'information, mais il ne peut pas être entièrement certain que vous voulez l'inviter dans votre lit. L'information est là, mais elle n'est pas transparente. Il y a toujours la possibilité qu'en fait, vous vouliez vraiment lui montrer des estampes japonaises. Cette possibilité vous permet d'ailleurs de pouvoir prétendre n'avoir jamais fait une telle proposition, si quelque chose ne se passait pas comme prévu. Vous vouliez simplement montrer votre collection à votre ami (Pinker et al. 2008). La notion de connaissance commune constitue un bon outil pour éclairer la différence entre le sens littéral, et cette sorte de sens enrichi indirectement, par des implicatures.

En plus de l'indexicalité et des implicatures, on peut mentionner une troisième espèce d'enrichissement d'origine pragmatique : le phénomène des présuppositions (voir entrée "Présuppositions"). Si je vous dis que "Je vais chercher ma sœur à l'aéroport", non seulement vous pouvez en inférer que je vais chercher ma sœur à l'aéroport, mais aussi que j'ai une sœur. Mais je n'ai pourtant pas dit que j'avais une sœur. D'ailleurs, si j'avais dit au contraire que "Je ne vais pas chercher ma sœur à l'aéroport", vous auriez tout aussi bien pu en déduire que j'ai une sœur. Si vous savez que je n'ai pas de sœur, il est difficile de savoir si l'énoncé est vrai ou faux. C'est l'usage de l'expression "ma" qui déclenche cette inférence, et la plupart des analyses des mécanismes sous-jacents de ce type de présupposition repose sur l'idée que les déclencheurs de présuppositions sont liés aux informations qui ont le statut de connaissance commune. Imaginez d'abord qu'il est connaissance commune que j'ai une sœur, c’est-à-dire que nous savons tous les deux que j'ai une sœur, que l'autre sait que nous le savons, et ainsi de suite. L'énoncé "Je vais chercher ma sœur à l'aéroport" est donc susceptible d'être vrai ou faux, il a des conditions de vérité bien établies. Imaginez maintenant que l'information n'était pas connaissance commune : par exemple, vous êtes persuadés que je n'ai pas de sœur. Mon usage de l'expression "ma sœur" est donc étrange. Plusieurs options s'offrent alors à vous : vous pouvez décider de mettre à jour vos connaissances et d'accepter l'idée que j'ai une sœur, ou alors supposer que j'ai simplement dit quelque chose d'absurde, qui n'est ni vrai ni faux, comme si j'avais dit "L'actuel roi de France est chauve". En tous les cas, c'est l'usage de "ma" qui déclenche ce phénomène, du fait qu'il a l'air de fonctionner de sorte que son complément soit connaissance commune. Quand vous inférez que j'ai une sœur du fait que j'ai utilisé l'expression "ma sœur" dans l'énoncé ci-dessus, vous acceptez de rendre cette information connaissance commune, pour que mon énoncé ne soit pas absurde. Il s'agit là du phénomène d'enrichissement pragmatique qu'on appelle accommodation (Stalnaker 1973, 1999).

c. Pragmatisme radical

En y regardant de plus près, on peut séparer les trois mécanismes pragmatiques discutés plus haut en (au moins) deux catégories (Recanati 2004). D'une part, on a des énoncés dotés d'une signification déterminée, de conditions de vérité, qui peuvent voir leur signification enrichie par le contexte. C'est le cas par exemple des implicatures. D'autre part, on a des énoncés qui n'expriment tout simplement pas de contenu déterminé indépendamment du contexte. C'est le cas par exemple des énoncés comprenant des expressions indexicales. Là où un énoncé avec un sens littéral (e.g. "ma grand-mère est malade") peut être enrichi dans le contexte (e.g. "je n'irai pas au cinéma"), les énoncés avec des indexicaux (e.g. "je", "ici") ou des démonstratifs (e.g. "ça") n'ont pas même de sens littéral sans apports contextuels.

Certaines conceptions radicales du pragmatisme considèrent que ce second cas est la règle générale, c’est-à-dire, que la signification est essentiellement liée au contexte. Selon ces théories, l'idée que des énoncés comme "ma grand-mère est malade" ont un sens littéral minimal que l'on pourrait abstraire du contexte et ne dériver qu'à l'aide de règles sémantiques, est illusoire (Sperber & Wilson 1989). En réalité, un énoncé ne serait doté d'une signification qu'en contexte, et selon les intentions du locuteur. Si on a l'intuition que "la neige est blanche" a une signification bien établie, même indépendamment du contexte, cela pourrait simplement être dû à des ressemblances très fortes entre les différents contextes où on peut imaginer un énoncé de cette phrase. En principe, selon le pragmatisme radical, toute dimension de la signification de n'importe quel énoncé du langage serait susceptible d'être interprétée différemment de ce que prédirait la supposée valeur conventionnelle.

Quoi qu'il en soit, il semble qu'une certaine dose au moins de raisonnement pragmatique doit être présente dans le système pour pouvoir rendre compte entre autres des phénomènes discutés ici. Le modèle de la communication proposé par Grice est en cela satisfaisant, mais notez qu'il repose, sans la définir, sur la notion d'intention. Selon ce modèle, nous extrayons la signification (enrichie) des énoncés grâce à l'attribution de certains états mentaux à celui qui les énonce. Les états mentaux des locuteurs préexistent donc aux énoncés. Par conséquent, si les termes des énoncés représentent la réalité, ce doit être parce que les états mentaux que ces termes expriment représentent la réalité. C'est l'hypothèse de l'intentionnalité dérivée : si le langage a un pouvoir représentationnel, c'est avant tout parce que la pensée elle-même a un pouvoir représentationnel, et que le langage exprime la pensée (Haugeland 1981, voir aussi Dennett 1978, 1987 pour contradiction). Les questions concernant le contenu sémantique ou la référence des expressions du langage peuvent en effet se poser quasiment à l'identique au niveau des représentations mentales, indépendamment de toute communication. Quand on pense à de l'eau, sans prononcer le mot du langage "eau", quel est le contenu de notre pensée ? À quoi fait-elle référence dans le monde extérieur, si référence il y a ? L'hypothèse de l'intentionnalité dérivée, en attribuant à la pensée une priorité par rapport au langage, requiert que l'on clarifie ces questions pour pouvoir expliquer la nature de la signification linguistique.

5. Langage et pensée

a. La pensée en langue naturelle

Si les énoncés linguistiques servent avant tout à exprimer des représentations mentales, il est légitime de questionner la nature des représentations mentales. De quoi sont-elles faites, et comment s'articulent-elles ? Une première possibilité, aujourd'hui largement abandonnée, est de faire l'hypothèse que nous pensons dans des termes, et avec les structures, de notre langue maternelle. Grosso modo, les francophones penseraient en français, les anglophones en anglais etc. C'est l'hypothèse de Sapir-Whorf (Sapir 1921, Whorf 1956), dont les versions les plus fortes sont aujourd'hui largement discréditées (Pinker 1994). Une conséquence directe de cette hypothèse est un relativisme linguistique : nos pensées dépendraient de la langue que nous parlons. Il est un sens trivial où cela est le cas : on ne peut par exemple penser à des mots du français que si l'on connait ces mots ; certaines de nos pensées dépendent donc de la langue que nous parlons. De plus, personne ne nie que la maîtrise d'une langue puisse élargir l'horizon de nos pensées. Sans langage, impossible de penser par exemple aux lois constitutionnelles, ou à un poème de René Char. Mais la version forte du relativisme linguistique de l'hypothèse Sapir-Whorf va plus loin que d'introduire une simple influence de certains aspects de la langue sur certains aspects de la pensée, elle implique que la pensée est massivement, voire entièrement, déterminée par la langue que nous parlons. C'est le déterminisme linguistique.

Considérez le terme "cheveux". En français, "cheveux" est dénombrable : on peut dire "des cheveux", "quatre cheveux" mais pas vraiment "du cheveux". L'indénombrable "sang" au contraire se combine facilement avec "du", et moins facilement avec des numéraux, ou au pluriel. Or, en anglais, "hair" ("cheveux") a toutes les propriétés d'un indénombrable : on ne compte pas les "hair", on ne le met pas au pluriel, on peut dire "I cut my hair" ("Je me suis coupé le cheveu") pour dire qu'on s'est fait une nouvelle coupe etc. D'après l'hypothèse de Sapir-Whorf, ce genre de contrastes inter-linguistiques impliquerait que les locuteurs de langues différentes auraient des conceptions différentes des objets en question. Ici par exemple, les anglophones auraient une conception des "cheveux" différente de celle des francophones : les anglais concevraient les cheveux comme une sorte de tout massif (comme du lait ou du sable), et les français les concevraient plutôt comme une somme d'éléments particuliers. De même, là où "soleil" est grammaticalement masculin en Français, il est féminin en Allemand ("die Sonne"). Le déterminisme linguistique impliquerait que les francophones ont une idée du soleil différente, ou peut-être plus masculine que celle des germanophones. Ou encore, les locuteurs d'une langue sans mot pour compter des quantités au-delà de 4 ou 5 (par exemple le Munduruku), ou pour "demain" (par exemple le Piraha), ne pourraient pas se représenter de grandes quantités, ou penser au jour suivant, respectivement.

Cette hypothèse de la détermination des structures mentales par les propriétés particulières du langage s'est avérée infondée. Tout d'abord, nous pouvons penser et manipuler des représentations mentales pour lesquelles nous n'avons pas de terme correspondant. On a par exemple découvert l'électricité avant de lui attribuer un nom. Ou encore, on peut avoir une idée très claire du petit morceau de métal sur l'attache d'une montre que l'on glisse dans les trous du bracelet pour la fixer à son poignet, et pourtant, peu de locuteurs savent que l'on appelle cet objet un "ardillon". La représentation mentale d'un ardillon ne peut donc pas être trivialement déterminée par le mot "ardillon". Par ailleurs, des travaux expérimentaux classiques sur les "images mentales" ont montré que les humains pouvaient se représenter visuellement des objets et les faire pivoter mentalement (Shepard & Metzler 1971). Essayez par exemple de faire tourner mentalement la lettre "E" (dans le sens horaire par exemple). Il s'agit là d'une activité mentale qui n'implique pas de termes du langage. Enfin, de nombreux travaux de psychologie expérimentale, notamment des travaux sur le développement de la psychologie de l'enfant (voir section 1) ont montré que les bébés, âgés de quelques mois à peine et donc bien avant la compétence linguistique, ont déjà des attentes très spécifiques vis à vis du monde qui les entoure. Ils s'attendent à trouver un monde constitué d'objets et de substances, avec des objets qui ont des mouvements continus, etc. (Spelke 1985, Spelke & Kinzler 2007). Notamment, il a été montré que la distinction entre objet solide et substance (sable, lait, sang etc.) n'est pas fonction de la distinction linguistique entre nom massif et nom comptable (Soja, Carey et Spelke 1991).

Ce type de théories et hypothèses que nous faisons sur le comportement du monde se forment si tôt dans le développement qu'il n'est pas possible que ce soit l'acquisition (voir l'entrée "acquisition") de notre langue naturelle qui en soit responsable. Cette partie de notre vie mentale préexiste au langage. Les bébés élevés dans un environnement francophone peuvent penser à des objets avant de savoir que "objet" est masculin en français, très certainement avant même de savoir ce que "objet" signifie (Pinker 1994).

b. La pensée comme manipulation de symboles

Si nous ne pensons pas dans les termes de notre langue, de quoi sont faites les représentations mentales ? Une possibilité alternative est de faire l'hypothèse d'un système de symboles mentaux que nous pourrions manipuler et articuler pour former des pensées, lesquelles nous pourrions, dans un second temps, externaliser pour les communiquer (voir section 3). On appelle "Mentalais" cet hypothétique langage de la pensée (Fodor, 1975, 1989, 2008, et entrée "Langage de la pensée"). L'argument principal mis en avant par Fodor en faveur de l'existence d'un tel langage de la pensée reprend les considérations discutées plus haut sur la productivité. Nous sommes des êtres finis, et sommes pourtant capables de comprendre n'importe quelle phrase arbitraire, et donc en principe une infinité de phrases. Mais le langage n'est pas seul à être productif. La pensée semble l'être également. Si vous possédez le concept de "rouge" par exemple (disons que vous êtes capables d'abstraire mentalement la propriété d'être rouge des objets auxquels elle s'applique), et disons celui de "poisson", alors vous êtes d'emblée capables de former une représentation d'un "poisson rouge". Vous pouvez donc former de nouveaux concepts à partir d'anciens concepts, et ainsi de suite. "Poisson rouge" pourra à son tour être combiné avec votre concept "petit" pour former un concept de "petit poisson rouge", etc. La pensée elle-même semble être productive. Si le langage est véritablement un moyen d'exprimer la pensée, il n'est pas étonnant finalement que l'on retrouve de la productivité dans le langage. Il s'agit donc d'expliquer cette productivité initiale, la productivité de la pensée. Comment peut-on expliquer une telle compétence sur la base de ressources finies ? Nous avons vu dans le cas de la syntaxe (partie 1.b) qu'un système de symboles récursifs était un bon moyen d'expliquer cela. Ainsi, de même que la productivité du langage nous a conduit à traiter le langage comme un système de manipulation de symboles, la productivité de la pensée nous conduit à postuler un système mental de manipulation de symboles. Si l’hypothèse du langage de la pensée s’avère justifiée, alors ce pourrait être ce langage mental, condition de possibilité du langage public, qui serait vraiment le propre de l’homme (voir par exemple Loewer and Rey 1991 pour discussion).

Bibliographie

Ambridge, B., Rowland, C. F & Pine, J. M. (2008). Is structure dependence an innate constraint? New experimental evidence from children's complex-question production. Cognitive Science, 32(1), 222-255.

- en français: Quand dire c'est faire, trad. G. Lane, Éditions du Seuil, Paris, 1970Austin, J. L. (1975). How to do things with words. Oxford: Oxford University Press.

Ayer, A. J. (1938). Language, Truth and Logic, London: Victor Gollancz.

Brentano, F. (1874/1911/1973). Psychology from an Empirical Standpoint, London: Routledge and Kegan Paul.

- en français: Psychologie du point de vue empirique, 1874-1911, éd. Vrin, "Bibliothèque des textes philosophiques", 2008.

Carnap, R. (2002)[1928]. La construction logique du monde, Paris: Vrin.

Chomsky, N. (1957). Syntactic Structures. The Hague/Paris: Mouton.

- en français: Structures syntaxiques, Paris, Éditions du Seuil, collection Points 1979.

Chomsky, N. (1959). Review of Skinner's Verbal Behavior, Language, 35: 26-58.

Chomsky, N. (1980). Rules and Representations. New York: Columbia University Press.

Chomsky, N. (2009)[1993]. Le langage et la pensée, trad. Louis-Jean Calvet et Claude Bourgeois, collection Essais Payot, Paris: Payot.

Crain, S. & Nakayama, M. (1987). Structure dependence in grammar formation, Language, 522-543.

Davidson, D. (1973). Radical Interpretation, Dialectica, 27: 314–28; reprinted in Davidson 2001b.

Davidson, D. (1974). On the Very Idea of a Conceptual Scheme, Proceedings and Addresses of the American Philosophical Association, 47: 5–20; reprinted in Davidson 2001b.

Davidson, D. (1982). Rational animals. Dialectica, 36(4), 317-327.

Davidson, D. (1986). A Coherence Theory of Truth and Knowledge. In E. Lepore, ed., Truth and Interpretation: perspectives on the philosophy of Donald Davidson, (Basil Blackwell).

Davidson, D. (2001). Subjective, Intersubjective, Objective, Oxford: Clarendon Press.

Dennett, D. C. (1978). Brainstorms, Philosophical Essays on Mind and Psychology, Montgomery, Vt.: Bradford Books.

Dennett, D. C. (1987). The Intentional Stance, Cambridge, Mass.: MIT Press.

- en français: La stratégie de l'interprète (1987), tr. P. Engel, Paris, Gallimard, 1990.

Descartes, R. ()[1637]. Discours de la méthode,

Eco, U. (1976), Theory of Semiotics, Indiana University Press: Bloomington.

Fodor, J. A. (1975). The Language of Thought, New York: Crowell.

Fodor, J. A. (1998). Concepts: Where Cognitive Science Went Wrong, New York: Oxford University Press.

Fodor, J. A. (2008). LOT2: The language of thought Revisited, Oxford: Oxford University Press.

Frege, G. (1882/1891/1904/1918-1923). Écrits logiques et philosophiques, trad. de C. Imbert, éd. Seuil, collection Points Essais (1971).

Grice, H. P. (1957). Meaning. The philosophical review, 377-388.

Grice, P. (1989a). Meaning Revisited. In Studies in the Way of Words (pp. 283–303). Cambridge, MA; London: Harvard University Press.

Grice, H. P. (1989b). Studies in the way of words, Harvard University Press.

Haugeland, J. (1981). "Semantic Engines: an Introduction to Mind Design", in J. Haugeland (ed.), Mind Design, Philosophy, Psychology, Artificial Intelligence, Cambridge, Mass.: MIT Press, 1981.

Humboldt, W. V. (1836). Über die Verschiedenheit des menschlichen Sprachbaues und ihren Einfluß auf die geistige Entwicklung des Menschengeschlechts, (Introduction à Über die Kawi-Sprache auf der Insel Java), 3 vol., Berlin, Dummler, 1836-1839, pp. 1-344, in Gesammelte Schriften, vol. 7, éd. D. Di Cesare, Paderborn, Schöningh, 1998.

- en français: La différence de construction du langage dans l’humanité et l’influence qu’elle exerce sur le développement spirituel de l’espèce humaine (Introduction à l’œuvre sur le kavi), tr. de P. Caussat, Paris, Seuil, p. 133-420, in Humboldt, 1974.

Kaplan, D. (1977). Demonstratives, in Themes From Kaplan (Almog, et al., ets.), Oxford 1989.

Kripke, S. A. (1972). Naming and necessity, Cambridge, Mass.: Harvard University Press.

- en français: La logique des noms propres, tr. de P. Jacob et F. Récanati, Paris, Les éditions de Minuit, collection "Propositions", 1982.

Legate, J. A., & Yang, C. D. (2002). Empirical re-assessment of stimulus poverty arguments, The Linguistic Review, 18(1-2), 151-162.

Levinson, S. C. (2000). Presumptive Meanings: The Theory of Generalized Conversational Implicature, Cambridge, MA: MIT Press.

Lewis, D. K. (1969). Convention: a philosophical study. Harvard University Press.

Loewer, B., & Rey, G. (1991). Meaning in mind: Fodor and his critics. Oxford, UK ; Cambridge, MA: Blackwell.

Montague, R. M. (1970). English as a formal language, in Visentini, Bruno, ed., Linguaggi nella società e nella tecnica, pp. 189-224. Edizioni di Communità, Milano.

Mill, J. S. (1843). A System of Logic: Ratiocinative and Inductive: Vol. I (Vol. 1). Library of Alexandria.

- en français: Système de logique déductive et inductive, collection Philosophie et Langage, éditions Mardaga (1995).

Morris, C. W. (1938). Foundations of the Theory of Signs. In O. Neurath, R. Carnap, & C. W. Morris (Eds.), International Encyclopedia of Unified Science (Vol. 1–2). Chicago: The University of Chicago Press.

Perry, J. (1993). The problem of the essential indexical and other essays (p. 3). New York: Oxford University Press.

Pinker, S. (1994). The language instinct. New York, NY: Harper Perennial Modern Classics.

- en français: L'instinct du langage, trad. de M. F. Desjeux, Paris, O. Jacob, 2013

Pinker, S., Nowak, M. A., & Lee, J. J. (2008). The Logic of Indirect Speech. Proceedings of the National Academy of Sciences of the United States of America, 105(3), 833–838.

Putnam, H., 1962, It Ain't Necessarily So, Journal of Philosophy, LIX: 658–671.

Putnam, H. (1965) [1975], “The Analytic and the Synthetic,” in his Philosophical Papers, vol. 2, Cambridge: Cambridge University Press.

Putnam, H. (1968) [1975], Is Logic Empirical? Boston Studies in the Philosophy of Science, vol. 5, eds. Robert S. Cohen and Marx W. Wartofsky (Dordrecht: D. Reidel, 1968), pp. 216–241. Repr. as “The Logic of Quantum Mechanics” in Putnam, H. Philosophical Papers, vol.1, 1975, pp. 174–197.

Putnam, H. (1975). The Meaning of Meaning, Philosophical Papers, Vol. II: Mind, Language, and Reality, Cambridge: Cambridge University Press.

- en français (extrait): Les significations ne sont tout simplement pas dans la tête, trad. de P. Ludwig, dans Le langage, Flammarion (GF Corpus), 1997.

Quine, W. V. (1951). Two dogmas of empiricism. The philosophical review, 20-43.

Quine, W.V.O, (1953) [1980], From a Logical Point of View, 2nd ed., Cambridge, MA: Harvard University Press.

- en français: Du point de vue logique, Vrin, Bibliothèque des Textes Philosophiques.

Quine, W. V. O. (1960). Word and Object, MIT Press

- en français: Le mot et la chose, trad. P. Gochet, Flammarion, collection Champs Essais, 2010.

Quine, W. V. O. (1969). Ontological Relativity and Other Essays. Columbia: Columbia University Press.

- en français: Relativité de l'ontologie et autres essais, trad. J. Largeault, Paris, Aubier-Montaigne, 2008

Recanati, F. (1993). Direct Reference, Wiley-Blackwell.

Recanati, F. (2004). Litteral meaning, Oxford: Oxford University Press.

- en français: Le sens littéral, trad. C. Pichevin, éditions de l'éclat, 2007.

Reinach, A. (1913). The A Priori Foundations of Civil Law, (trans. John Crosby), Aletheia, 3 (1983): 1–142.

Rorty, R. (1967). The Linguistic Turn. Chicago, University of Chicago Press.

Russell, B. (1905). On Denoting, Mind, 14, 479-493.

Russell, B. (2009)[1918]. The philosophy of logical atomism. Routledge, 2009.

Ryle, G. (2005)[1949]. La notion d'esprit, Paris: Petite bibliothèque Payot.

Sapir, E. (1921), Language: an introduction to the study of speech, New York: Harcourt, Brace, 1921.

- en français: Le langage. Introduction à l'étude de la parole. trad. de S. M. Guillemin, Paris, Petite bibliothèque Payot, no 104, 1970.

Sapir, E. (1964) [1931], "Conceptual categories in primitive languages" in, D. Hymes (ed.), Language in culture and society: a reading in linguistics and anthropology.

Saussure, F. d. (1995). Cours de linguistique générale, Paris, Payot, coll. "Grande bibliothèque Payot", 1995, (1ère ed. 1916), XVIII-520.

Searle, J. (1969). Speech Acts, Cambridge University Press.

Searle, J. (1980). Minds, brains and programs, The Behavioral and Brain Sciences, 3 (3): 417-24.

- en français: Esprits, cerveaux et programmes, trad. E. Duyckaerts, éd. Quaderni, N. 1, printemps 1987. pp. 65-96.

Searle, J. (1983). Intentionality, Cambridge: Cambridge University Press.

- en français: L'intentionalité, trad. C. Pichevin, Éditions de Minuit, collection "Propositions", 1985

Searle, J. (1992). The Rediscovery of the Mind, Cambridge, Mass.: MIT Press.

- en français: La redécouverte de l'esprit, trad. C. Tiercelin, éd. Gallimard, colelction NRF Essais, 1995.

Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. Urbana: University of Illinois Press.

Shepard, R & Metzler, J (1971). Mental rotation of three-dimensional objects. Science 171 (972): 701–703

Skinner, B. F. (1957). Verbal Behavior. Acton, MA, Copley Publishing Group, 1957.

Soja, N. N., Carey, S., Spelke, E. S. (1991). Ontological categories guide young children's inductions of word meaning: Object terms and substance terms. Cognition, 38(2), 179-211.

Spelke, E. S. (1985). Perception of unity, persistence, and identity: Thoughts on infants' conceptions of objects, in Jacques Mehler and R. Fox (eds.), Neonate Cognition: Beyond the Blooming Buzzing Confusion. Lawrence Erlbaum 89--113 (1985).

Spelke, E. S. & Kinzler, K. D. (2007), Core Knowledge, Developmental Science, 10: 89–96.

Sperber, D. et Wilson D. (1989). La Pertinence : Communication Et Cognition, Paris : Les Editions de Minuit.

Stalnaker, R. (1973). Presuppositions, Journal of Philosophical Logic 2 (4):447 - 457 (1973).

Stalnaker, R. (1999). Context and content. Oxford University press.

Strawson, P. F. (1952). Introduction to Logical Theory. London: Methuen.

Tarski, A. (1956), The concept of truth in formalized languages, Logic, semantics, metamathematics, 2, 152-278.

Tomasello, M. (2008). Origins of Human Communication, MIT Press.

Whorf, B. L. (1956). Language, thought and reality, MIT Press.

- en français: Linguistique et anthropologie, trad. C. Carme, Éditions Denoël, collection Bibliothèque Médiations (n° 90), 1969-1971.

Wittgenstein, L. (1922)[1921]. Tractatus logico-philosophicus, original English translation by F. P. Ramsey and C. K. Ogden, Kegan Paul (ed.), 1922.

- en français: Tractatus logico-philosophicus, trad. G. G. Granger, Gallimard, 2001

Wittgenstein, L. (2001)[1953]. Philosophical Investigations, Blackwell Publishing.

- en français: Recherches philosophiques, trad. F. Dastur, éd. Gallimard, 2005.

Tristan ThommenInstitut Jean Nicod/ENS Ulmthommen.tristan@gmail.com

Michael Murez

Institut Jean Nicod/ENS Ulm

michael.murez@ens.fr