Analytique / Synthétique (A)

Comment citer ?

Nerrière, Camille (2021), «Analytique / Synthétique (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/

Publié en octobre 2021

 

La distinction analytique/synthétique caractérise traditionnellement deux types d’énoncés : les énoncés analytiques sont ceux « vrais en vertu de leur seule signification » et les énoncés synthétiques sont ceux vrais en vertu de ce qui se passe dans le monde. De cette première caractérisation découle certaines conséquences. Si cela a un sens de dire que des énoncés sont vrais en vertu de leur seule signification, alors ils sont vrais peu importe ce qui se passe dans le monde et on sait qu’ils sont vrais sans faire appel à l’expérience empirique, ce pourquoi les énoncés analytiques ont pu être considérés comme nécessaires et a priori. Certains auteurs ont même pu soutenir que seuls les énoncés analytiques peuvent être nécessaires ou que tout énoncé nécessaire est en réalité analytique. Si la nécessité ne découle que du caractère analytique d’un énoncé, cela implique qu’il n’y a de nécessité que relative au langage, et non relativement aux choses elles-mêmes (nécessité métaphysique). Toutefois, l’idée qu’il puisse y avoir des énoncés « vrais en vertu de leur seule signification » est loin d’être évidente. En effet, généralement, un énoncé est vrai, certes, en vertu de ce que cet énoncé signifie (si « blanc » signifiait vert alors « la neige est blanche » serait faux), mais principalement parce que ce qu’il affirme est réalisé. Pourquoi en serait-il autrement pour les énoncés analytiques ? Pourquoi ne seraient-ils pas vrais aussi en vertu des caractéristiques du monde ? Par exemple, si l’énoncé « Jean est Jean » semble vrai en vertu du principe logique d’identité (« a = a »), n’est-il pas également vrai du fait que toute chose est identique à elle-même ? Dès lors, si la distinction peut de prime abord paraître intuitive, elle n’est pas sans poser problème. Comment la caractériser ? A-t-elle même un sens ? Ce sont ici les questions que nous examinerons dans cet article. Nous étudierons ici la genèse de la distinction, puis examinerons la controverse entre Carnap et Quine concernant la possibilité de caractériser une telle distinction pour finalement envisager les différentes réponses aux objections de Quine qu’elles s’inscrivent dans une perspective externaliste quant à la signification, réaliste ou encore néo-conventionnaliste.

 

 


 

Introduction

De quoi parle-t-on lorsqu’on évoque « la distinction analytique/synthétique » ? À quel type d’objet cette distinction s’applique-t-elle et quelle distinction est opérée parmi ces objets ? S’agissant du premier point, les énoncés aussi bien que les jugements ont pu être qualifiés d’ « analytiques » ou de « synthétiques ». Cependant, afin de ne pas introduire de complexité inutile à ce stade introductif, on considérera que les jugements peuvent s’exprimer par l’affirmation d’énoncés, et on cherchera à caractériser la distinction relativement à des types d’énoncés. On peut alors illustrer la distinction à l’aide des exemples suivants :
 

  1. Tous les célibataires sont non-mariés.

  2. Il pleut ou il ne pleut pas.

  3. Il y a une tasse à l’effigie de la famille royale d’Angleterre sur mon bureau.
     

Traditionnellement, (1) et (2) sont dits analytiques et (3) synthétique. Plus précisément (1) et (2) semblent vrais en vertu de leur signification. En vertu de ce que l’expression signifie, « être célibataire » implique que l’on est non-marié. (2), quant à lui, est une instance de loi logique, à savoir le tiers-exclus (p ou non-p). Si on admet que les termes logiques ont une signification, alors en vertu de la signification de la disjonction, un énoncé de la forme « p ou » est vrai si au moins un des deux disjoints est vrai. Dès lors, une disjonction qui contient une proposition et sa négation est toujours vraie ; c’est ce que nous « dit » le tiers exclu dont (2) est une instance. A l’inverse, c’est en vertu de faits empiriques - à savoir qu’il y a bien une tasse à l’effigie de la famille royale d’Angleterre sur mon bureau - que (3) est vrai.

Si la caractérisation en termes de « vérité en vertu de la signification » s’opposant à une « vérité en vertu des faits » est fondamentale, d’autres propriétés ont pu être attribuées aux énoncés analytiques, à savoir le fait d’être a priori et nécessaires. En effet, la vérité de (1) et (2) apparaît immédiatement, dès lors que leur signification est comprise et il n’est pas nécessaire d’aller vérifier dans le monde si tel est bien le cas, à la différence de (3) (caractère a priori). De plus, si les énoncés analytiques sont vrais en vertu de leur signification, il peut sembler, à première vue, qu’ils ne peuvent pas être faux (caractère nécessaire). A l’inverse, (3) aurait pu être faux, j’aurais pu choisir une tasse différente pour boire mon thé aujourd’hui.

Cependant, malgré la simplicité apparente de la distinction, chacune de ces caractéristiques charrie un grand nombre de présupposés philosophiques. Si un énoncé analytique est « vrai en vertu de sa signification », cette définition est tributaire de ce que l’on entend par « signification ». Tout changement dans notre théorie de la signification a des conséquences sur la caractérisation de la distinction analytique/synthétique. Les rapports avec la nécessité ou l’a priorité, quant à eux, peuvent s’en trouver modifiés ou supprimés, et les énoncés considérés traditionnellement comme analytiques devenir synthétiques. La distinction peut même devenir inconcevable.

Dès lors, bien que cette distinction soit de prime abord intuitive, sa caractérisation n’est pas sans poser problème. Pourquoi, malgré ces difficultés s’intéresser à une distinction qui peut sembler n’être que « langagière » ? Cela s’explique par l’usage qui en a été fait. Elle a été utilisée pour expliquer la nécessité ou l’a priorité, pour questionner ce qui relève ou non du domaine du sensé ou encore questionner ce qui est en jeu dans l’activité philosophique. En effet, si l’on considère que le rôle de la philosophie est d’accéder à des vérités nécessaires et a priori mais que ces dernières se réduisent à des propriétés « linguistiques » au sens où la nécessité et l’a priorité ne sont que des effets de nos manières de parler, certaines prétentions philosophiques peuvent être remises en cause. On comprend alors pourquoi une redéfinition de la distinction permettant de penser une nécessité non-linguistique ou tout simplement un rejet pur et simple de cette distinction ont pu apparaître cruciaux. D’où également l’importance des travaux visant à distinguer analyticité, nécessité et a priorité.

La genèse de la distinction

Il peut paraître étonnant, de prime abord, de parler de « genèse » de la distinction au sens où, si on accepte l’existence d’énoncés vrais en vertu de leur signification, il semblerait plus adéquat de parler de découverte. Toutefois, cette distinction est indissociable de problématiques philosophiques dans lesquelles elle sert d’outils de résolution. Parler de « genèse » de la distinction, c’est simplement prendre acte du fait que son utilisation comme notion centrale dans la résolution de certaines problématiques peut être datée.

La distinction kantienne

Si on convient du fait que l’on retrouve chez les empiristes britanniques - en particulier Locke et Hume - et chez Leibniz l’idée d’une distinction entre des relations de faits et des relations d’idées, l’introduction de la terminologie « analytique/synthétique », mais surtout la définition de cette distinction dans un cadre problématique c’est-à-dire l’utilisation de la distinction pour poser un problème philosophique central et y répondre, se trouve chez Kant.

La distinction est ainsi introduite par Kant, 1783 [1993] §267) : les jugements analytiques sont « simplement explicatifs et n’ajoutent rien au contenu de la connaissance », contrairement aux jugements synthétiques qui sont « extensifs et (…) accroissent la connaissance donnée ». Kant précise alors : « Des jugements analytiques se bornent à dire dans le prédicat ce qui a été réellement pensé dans le concept du sujet, bien que moins clairement et moins consciemment. (…).» Au contraire, un jugement synthétique « contient dans le prédicat quelque chose qu’on ne pensait pas réellement dans le concept général de corps ; donc elle accroit ma connaissance puisqu’elle ajoute quelque chose à mon concept, et c’est pour cela qu’il faut l’appeler un jugement synthétique. » Il ajoute ensuite : « Tous les jugements analytiques reposent entièrement sur le principe de contradiction, et ce sont par nature des connaissances a priori (…), je n’ai besoin d’aucune expérience supplémentaire, car c’est précisément cela qui constituait mon concept, et qu’il me suffisait de l’analyser, sans avoir à me mettre en quête de rien d’autre qui lui soit antérieur. »

La problématique kantienne relève de la théorie de la connaissance et porte plus particulièrement sur les conditions de possibilité d’une connaissance (métaphysique). La métaphysique a pour objet ce qui se situe « au-delà de l’expérience », elle ne peut être qu’a priori. Dès lors, affirmer que l’entreprise métaphysique n’est pas vaine suppose de montrer que des jugements a priori, c’est-à-dire formés sans recours à l’expérience sont possibles et que ceux-ci peuvent accroitre notre connaissance. Plus particulièrement, il faut montrer la possibilité de jugements a priori qui ne soit pas purement explicatifs et qui, par conséquent, accroissent notre connaissance. D’où l’introduction de la distinction entre analytique et synthétique : si celle-ci recoupe la distinction a priori/a posteriori, il ne peut pas y avoir de connaissance métaphysique.

En effet, cette distinction se caractérise, tout d’abord, relativement à un accroissement ou non de la connaissance. (Kant, 1781 (2001), AK III, 33-35) Un jugement analytique ne fait que dire explicitement ce qui était déjà pensé dans le concept, bien que confusément. Il s’agit uniquement, par l’analyse, d’une décomposition du concept en ses concepts partiels, d’où la dénomination de « jugement analytique ». A l’inverse, un jugement synthétique apporte des connaissances car il relie (synthèse) un sujet et un prédicat qui n’est pas pensé dans ce dernier. Par exemple, le jugement « tout corps est étendu » est analytique car le prédicat « étendu » appartient à celui de corps. En des termes non kantiens, on peut dire que, par définition, un corps est étendu. C’est une des propriétés qui fait de quelque chose un corps. Ce n’est pas le cas, pour Kant, de « Tous les corps sont pesants ». Lorsque l’on pense au concept général de corps, selon Kant, on ne pense pas (même confusément) à l’idée de lourdeur. C’est donc une découverte qui accroît notre connaissance à propos des corps.

A cette caractérisation en termes d’accroissement ou non de connaissance s’en ajoute une autre plus « logique » qui fait appel au principe de non contradiction. Si on considère de nouveau le jugement « tous les corps sont étendus », selon la définition kantienne des jugements analytique, sa négation - « quelques corps ne sont pas étendus » - est une contradiction. Deux questions doivent alors être soulevées. Quel est le lien entre cette seconde caractérisation et celle initiale en termes de contenu, et, en quoi un énoncé tel que « quelques corps ne sont pas étendus » est-il contradictoire ? Répondre à la seconde question permet d’éclairer la première. Si le jugement « tous les corps sont étendus » est analytique, c’est parce que le concept d’étendu est un concept partiel du concept de corps, qu’on peut faire apparaître à l’analyse. Dès lors, attribuer le fait de ne pas être étendu à un corps revient à affirmer une contradiction du type « S est P et non-P », à savoir « ce corps est étendu et non étendu » car, puisque dans le concept de corps, celui d’étendu est compris implicitement, juger qu’un objet tombe sous le concept de corps, c’est (implicitement) juger qu’il tombe sous le concept objet d’étendu. En d’autres termes, si je juge que cet objet est un corps, je lui attribue implicitement le fait d’être étendu, ce pourquoi affirmer que cet objet qui est un corps n’est pas étendu est contradictoire.

On comprend donc pourquoi un jugement analytique est a priori. Il est a priori car il n’est pas justifié par l’expérience mais découle de rapports entre concepts. Kant ajoute qu’un énoncé analytique est également nécessaire mais n’explicite pas si cette nécessité est purement « logique » (la négation d’un jugement analytique est contradictoire) ou si l’on a affaire à la nécessité qui découle des conditions de possibilité de l’expérience (catégorie ou intuition pure). Mais alors, si un jugement analytique est nécessaire et a priori, doit-on en déduire qu’un jugement synthétique est toujours contingent et a posteriori ? Non car ces trois distinctions ne se recoupent pas. Si la nécessité et l’a priorité découlent de la caractérisation première de l’analyticité, à savoir l’idée de contenance (dont découle la caractérisation en termes de contradiction), la contingence et l’a posteriorité ne découlent pas forcément du caractère synthétique du jugement, qui consiste à lier par synthèse un prédicat qui n’était pas déjà contenu implicitement dans le sujet à ce dernier. Si cette liaison peut supposer une expérience empirique, elle peut aussi supposer l’intuition a priori. Ainsi, les jugements mathématiques, pour Kant, sont synthétiques et a priori car ils dérivent non pas de l’expérience mais de la présentation des concepts mathématiques dans l’intuition pure. (Voir Kant, 1781 (2001), AK III, 469).

La caractérisation kantienne a pu sembler limitée, et ce pour deux raisons. Premièrement, elle a pu apparaître trop psychologique. Frege (Frege, 1884 [1970]) critique ainsi le psychologisme, c’est-à-dire le fait de justifier certaines connaissances par les processus de pensée des individus, ces processus pouvant être tout à fait singuliers ou relatifs à une époque ou une culture. Par exemple, une explication psychologique de la vérité de la proposition « 4+4=8 » consiste à décrire le processus de décompte opéré par le sujet. Ainsi, parler de « jugement » analytique, comme le fait Kant, inscrit la distinction dans une perspective psychologiste car ce qui fonde le caractère analytique d’un jugement est le fait que le prédicat est pensé dans le sujet. La distinction est dépendante de processus de jugements. On peut considérer que le fait d’avoir pensé implicitement un concept partiel ne justifie pas le caractère analytique et qu’il faut expliquer la relation entre un concept et sous-concept partiel de manière objective, c’est-à-dire indépendamment de la manière dont on appréhende ou pense cette relation. Si on considère par exemple le jugement « tout corps est étendu », rien n’exclut que le fait que le sujet ait pensé le concept d’étendu dans celui de corps soit contingent. Cela pourrait être lié à un contexte culturel (peut-être que dans certaines cultures on considère qu’il y a des corps non étendus). A l’inverse, partir du concept de corps et montrer qu’il est lié à celui d’étendu permet de fonder objectivement le jugement. Deuxièmement, la perspective kantienne s’inscrit dans une conceptualité aristotélicienne au sens où la forme des jugements est la forme sujet-prédicat et où il est fait référence à l’idée de concepts partiels contenus dans d’autres concepts, évoquant l’idée aristotélicienne de propriétés essentielles. L’avènement de la nouvelle logique amène également à reconsidérer la caractérisation de la distinction analytique/synthétique.

 

Frege : analyticité et logicisme

La distinction analytique/synthétique frégéenne s’inscrit dans une toute autre perspective philosophique que celle de Kant. Le logicisme a pour projet de fonder l’arithmétique en montrant que celle-ci se réduit à la logique. Pour autant, Frege fait référence à Kant et à sa distinction. Cela s’explique par le fait que la position frégéenne et logiciste s’oppose à la conception kantienne de l’arithmétique, plus proche d’une forme d’intuitionnisme, ce qui l’amène à reconsidérer le statut synthétique de l’arithmétique. Si celle-ci se réduit à la logique, alors l’arithmétique est, en un sens, déjà contenue dans la logique.

La distinction analytique/synthétique est introduite parallèlement à la distinction a priori/a posteriori dans Les Fondements de l’Arithmétique :

«  La distinction de l’a priori et de l’a posteriori, de l’analytique et du synthétique, ne concernent pas à mon avis le contenu du jugement, mais la légitimité de l’acte de juger. […] Quand on qualifie une proposition d’a posteriori ou d’analytique au sens où je l’entends, il ne s’agit pas des conditions psychiques, physiologiques et physiques qui ont permis de constituer le contenu de la proposition dans la conscience, ni de savoir par quel chemin on en vint, peut-être à tort, à la tenir pour vraie, mais des raisons dernières qui justifient notre assentiment.
[…] Si l’on ne rencontre sur ce chemin [celui consistant à remonter la preuve jusqu’aux vérité premières] que des lois logiques générales et des définitions, on a une vérité analytique - étant donné qu’on inclut dans ce compte les propositions qui assurent le bon usage d’une définition. En revanche, s’il n’est pas possible de produire une preuve sans utiliser des propositions qui ne sont pas de logique générale, mais concernent un domaine particulier, la proposition est synthétique. Pour qu’une vérité soit a posteriori il faut que la preuve ne puisse aboutir sans faire appel à des propositions de faits, c’est-à-dire à des vérités indémontrables et sans généralité, à des énoncés portant sur des objets déterminés. Si au contraire l’on tire la preuve de lois générales qui elles-mêmes ne se prêtent pas à une preuve ni n’en requièrent, la vérité est a priori. » (Frege, 1884 (1979), Introduction, 3)

Certaines lectures ultérieures (Quine, 1951 ; Boghossian, 1996) tendent à considérer que, pour Frege, seules les vérités qui suivent d’une déduction à partir des seules lois logiques et de définitions sont analytiques. C’est cependant une lecture discutable, car Frege affirme que ce qui permet la déduction des vérités analytique - définitions et lois logiques - est également analytique. Le domaine de l’analytique est donc coextensif au domaine logique, celui-ci correspondant à la logique développée grâce à la Begriffsschrift (Proust, 1986).

Une question peut surgir toutefois. Si l’arithmétique se réduit à la logique, comment expliquer le sentiment qu’une démonstration mathématique accroit notre connaissance si la conclusion est déjà contenue dans les prémisses ? (Frege, 1884 (1979), Conclusion, 88). La métaphore de la graine, utilisée par Frege, est en ce sens éclairante. Si la plante est contenue en germe dans la graine, je ne peux pas savoir avant de planter la graine ce qui va en résulter. Il en va de même pour l’arithmétique. Bien que la conclusion soit contenue dans les prémisses, je ne peux pas le savoir avant d’en avoir fait la démonstration. Cela rejoint la distinction frégéenne entre l’ « être-vrai » et le « tenir pour vrai ». L’être-vrai relève de ce qui est vrai « en soi », indépendamment de la connaissance qu’on en a. C’est donc une notion objective. Le tenir-pour-vrai porte sur la connaissance que nous avons de la vérité, c’est une notion psychologique. Dès lors, du point de vue de l’être-vrai, la conclusion de la démonstration est bien contenue dans ses prémisses mais il est nécessaire pour nous d’opérer cette démonstration pour le découvrir, ce pourquoi notre connaissance est accrue. Parce que Kant a une conception psychologiste de l’analyticité, il la condamne à la stérilité, mais si l’on distingue le point de vue objectif et le point de vue psychologique, la découverte de la conclusion d’une démonstration mathématique, même analytique, peut constituer un accroissement de nos connaissances.

Une question demeure. Si la logique fonde les vérités analytiques qui en découlent (et donc l’arithmétique), qu’est-ce qui fonde la logique elle-même ? En d’autres termes, qu’est-ce qui fonde les vérités logiques primitives à partir desquelles, conjointement aux définitions, s’opère les démonstrations ? Cette question oblitère le fait que, pour Frege, l’analytique s’identifie au logique et donc qu’il n’y a pas de vérités logiques primitives. Toutes les propositions logiques ont le même statut : elles sont vraies et on ne peut que les reconnaître comme telles. Est-ce à dire que la logique repose sur l’évidence et que celle-ci prend le relai en fondant les vérités qu’un système logique n’est plus à même de justifier ? La difficulté est que l’évidence est une notion psychologique, qu’elle relève du tenir-pour-vrai et non de l’être-vrai alors que les vérités logiques sont objectives. Dès lors, l’appel à l’évidence (Frege, 1893, Préface) ne peut pas jouer un rôle fondationnel. Dans une perspective rationaliste, bien qu’évidentes, les lois logiques tirent leur justification de leur contenu même mais quiconque les comprend d’une manière adéquate comprend qu’elles sont vraies.

S’attarder sur la genèse de la distinction analytique/synthétique permet ainsi de mettre en lumière plusieurs aspects de celle-ci. Premièrement, elle apparait au sein de problématiques de philosophie de la connaissance, comme un outil pour penser et répondre à ces dernières. Deuxièmement, elle est tributaire de conceptions logiques (au sens large) : logique aristotélicienne pour Kant, logique moderne pour Frege. Ces deux aspects permettent de comprendre l’utilisation de cette distinction pour penser ce que l’on peut connaître, et plus particulièrement, ce que l’on peut connaître en philosophie.

Analyticité, positivisme et conventionnalisme

Si la distinction analytique/synthétique est présente dans les travaux de Kant ou de Frege, ce n’est qu’avec le positivisme logique qu’elle apparaît comme véritablement centrale pour la philosophie. Comprendre les raisons de cette mise en avant est crucial pour comprendre à la fois l’utilité de cette distinction, mais également pour voir en quoi cela permet d’interroger et d’approfondir les caractérisations propres à cette distinction.

L’appropriation de la distinction par le positivisme logique

S’il serait réducteur et faux de considérer que les membres du Cercle de Vienne, à l’origine du positivisme logique, partagent les mêmes thèses, ils s’accordent néanmoins sur une conception empiriste et positiviste de la science qui s’accompagne d’un rejet de la métaphysique. Dans ce contexte émerge un débat autour du critère vérificationniste de la signification. L’idée centrale est la suivante : un énoncé doué de sens est vérifiable. Ce critère n’est cependant pas sans poser problème et a fait l’objet de nombreux débats et de redéfinitions. Cependant, l’idée générale peut être résumée, de manière certes réductrice, ainsi : la signification d’un énoncé est la différence que fait sa vérité pour l’expérience possible. Si l’on considère l’énoncé « il y a un lapin sur la face cachée de la Lune », on comprend quelle différence cela ferait dans le monde si cette phrase était vraie, ce pourquoi il est possible d’imaginer comment vérifier la vérité de cette phrase, et ce même avant l’avènement de technologies permettant de voyager sur la lune. A l’inverse, ce n’est pas le cas de l’énoncé « Le néant n’est rien », ce pourquoi il peut être rejeté, selon ce critère, dans le non-sens.

Une conséquence malheureuse semble alors apparaître immédiatement. Un énoncé nécessaire, étant toujours vrai, ne fait aucune différence pour l’expérience possible. Dès lors, doit-on rejeter tous les énoncés considérés traditionnellement comme nécessaires, y compris ceux de la logique et des mathématiques ? Les travaux de Wittgenstein permettent au Cercle de Vienne de sortir de cet embarras, puisqu’ils suggèrent de distinguer entre les énoncés métaphysiques apparaissant comme nécessaires mais dépourvus de sens et les énoncés mathématiques et logiques.

Les thèses développées dans le Tractatus sont riches et denses et sujettes à des querelles exégétiques. Néanmoins, il est possible de les résumer, bien que de manière simplifiée. La thèse qui intéresse particulièrement le Cercle de Vienne est celle selon laquelle les lois logiques sont des tautologies. Pour comprendre cela, il est nécessaire d’esquisser à grands traits la théorie tabulaire de la proposition. Il faut tout d’abord distinguer deux types de propositions : les propositions élémentaires et les propositions moléculaires. Une proposition élémentaire représente comme un tableau - d’où le nom de théorie tabulaire - un état de chose élémentaire possible. Elle est vraie si l’état de chose existe, fausse sinon. Par ailleurs, l’existence d’un état de chose est indépendante de l’existence d’un autre état de chose ce qui a pour conséquence que la vérité d’une proposition élémentaire est indépendante de la vérité d’une autre proposition élémentaire. Par ailleurs, pour comprendre une proposition élémentaire, il faut comprendre quel état de chose la rend vraie. Aux propositions élémentaires s’ajoutent les propositions générales qui sont des combinaisons de propositions élémentaires. La vérité ou la fausseté d’une proposition générale est alors fonction de la vérité ou de la fausseté des propositions élémentaires.

On considère deux propositions élémentaires p et q, représentant respectivement les états de choses α et β. p est vraie si α existe et q est vraie si β existe. Il est alors possible d’anticiper les différentes manières dont p et q peuvent se combiner et quelles valeurs de vérités peuvent résulter de ces combinaisons. Cela peut être représenté par le tableau suivant :

p et q peuvent être soit vraie soit fausse, ce qui fait quatre combinaisons possibles : p peut être vraie et q vraie, p peut être vraie et q fausse, p peut être fausse et q vraie, p peut être fausse et q fausse. C’est ce que représentent les deux premières colonnes. On peut ensuite déterminer de manière méthodique toutes les combinaisons qui peuvent en résulter. Il y a ainsi une combinaison possible qui donne la valeur vraie quelles que soient les valeurs de vérité des propositions élémentaires, une autre qui donne la valeur vraie dès lors qu’une des deux propositions est vraies, etc. L’important est que ce tableau peut être construit en considérant seulement toutes les valeurs de vérité qui peuvent résulter de la combinaison de deux propositions élémentaires. On peut ensuite éventuellement ajouter dans la première ligne la fonction logique à laquelle correspond ces valeurs de vérités, mais cela est en réalité, pour Wittgenstein, superflu et ne fait que témoigner du fait que dans nos langages imparfaits, on a besoin de connecteurs logiques parce qu’on ne peut pas simplement montrer les relations logiques.

Que se passe-t-il quand la « combinaison » de propositions élémentaires est ce qu’on considère comme une loi logique ? Pour le montrer, on peut considérer le tableau pour la proposition «  (p q) ⇒ (p q) » :

 

p

 

q

pq

pq

  

V

V

V

V

V

V

F

F

F

V

F

V

F

V

V

F

F

F

V

V

Avant toute chose, il faut introduire quelques termes de vocabulaire. Les quatre combinaisons de V et F sous p et q sont nommées possibilités de vérité. Les trois autres colonnes représentent respectivement les conditions de vérités de ψ, c’est-à-dire « pq », de , c’est-à-dire « pq » et de «   ». On nomme « fondements de vérité » les possibilités de vérités avec lesquelles la proposition évaluée donne son accord. Par exemple, les fondements de vérités de ψ correspondent aux possibilités de vérité de la colonne une.

On peut alors expliquer ce qui se passe quand on a affaire à des lois logiques, c’est à dire des propositions générales qui sont toujours vraies. Ces dernières donnent leur accord avec toutes les possibilités de vérité. Plus précisément, on remarque que les fondements de vérité de ψ sont fondements de vérités pour . En d’autres termes, quand ψ est vraie,  est vraie. La caractéristique d’une loi logique est donc que les fondements de vérité de l’antécédent sont inclus dans les fondements de vérité du conséquent, c’est une tautologie dont la validité ne dépend pas de ce qui se passe dans le monde.

Les lois logiques et les propositions mathématiques sont alors considérées comme dépourvues de sens, comme ne disant rien du monde. Elles sont de simples tautologies indiquant des propriétés logiques du langage. Dans cette perspective, les énoncés analytiques n’expriment aucune connaissance, ils montrent des relations logico-mathématiques internes au langage. La nécessité des énoncés mathématiques et logique ne vient pas de la spécificité des objets sur lesquels ils portent (à proprement parler ils ne parlent de rien) mais du fait qu’elles traduisent des propriétés du langage. A l’inverse, les énoncés métaphysiques qui ne relèvent pas de propriétés du langage mais prétendent tirer leur nécessité des objets sur lesquels ils portent peuvent être relégués dans le domaine du non-sens. On peut alors faire une dichotomie stricte entre les énoncés synthétiques, empiriques et vérifiables et les énoncés analytiques. Tout ce qui ne relève ni de l’un ni de l’autre est relégué dans le domaine du non-sens.

Le débat Carnap-Quine

La période syntaxique

La distinction analytique/synthétique a une importance toute particulière pour Carnap, membre du Cercle de Vienne. Malgré l’évolution de sa philosophie, elle demeure centrale en tant qu’outil pour penser le rôle de cette discipline. Au côté de l’influence wittgensteinienne, Carnap évoque également les débats concernant l’intuitionnisme en logique, c’est-à-dire la question de l’admissibilité ou non de règles logiques infinitistes, qui nous amène à des conclusions qu’on ne peut pas saisir par l’intuition. C’est le cas des règles du tiers exclus et de la double négation (respectivement « p ou non-p » et « non-non p ↔ p »). Si on cherche, par exemple, à démontrer une proposition p par l’absurde, il faut montrer que sa négation est absurde. On a donc non-non p donc p, même si on n’a pas d’intuition directe de p, au sens où on ne peut pas la démontrer par une démonstration directe. Pour Carnap, plutôt que de considérer le débat autour de l’intuitionnisme comme un débat à propos de ce qu’est la « vraie » logique, on peut considérer qu’il s’agit simplement de propositions de différents systèmes. L’idée carnapienne est donc de réduire les débats métaphysiques à des choix pragmatiques entre différents types de langage (Voir Carnap, 1934, V). Les premiers langages développées par Carnap sont des langages syntaxiques (1934), la sémantique n’étant pas encore assez développée pour que l’on puisse considérer des notions comme celles de « vérité » ou de « désignation » comme non métaphysiquement suspectes. La distinction analytique/synthétique y est caractérisée de la manière suivante : un énoncé est analytique s’il est valide, c’est-à-dire s’il est une conséquence des seules L-règles de transformation du langage (Carnap, 1934). Par L-règles, il faut entendre les règles logiques du langage. Les énoncés analytiques « traduisent » donc, en ce sens, des caractéristiques du langage.

En réalité, cette définition demande plus de précisions. On peut ici seulement noter la nécessité, pour Carnap, de prendre en compte les théorèmes d’incomplétude de Gödel qui disent que pour tout langage, il y a une phrase valide non démontrable. En ce sens, il n’est plus possible de définir l’analyticité relativement au fait d’être une conséquence des règles de transformation du langage. Carnap développe en ce sens différentes stratégies dans l’élaboration de LI et LII, les deux langages exposés dans la Syntaxe, dont, dans LII, la possibilité de considérer non pas seulement les propriétés définissables dans le langage mais toutes les propriétés.

Mais s’il est possible de construire des langages dans lesquels l’analyticité est définie, peut-on trouver une définition, valant pour tout langage, de l’analyticité ? Dans une partie consacrée à la syntaxe générale (1934, IV, §51), Carnap propose alors une définition, valant pour tout langage, des symboles logiques en opposition avec les symboles descriptifs. Cela passe par l’idée de détermination : les phrases composées uniquement de vocabulaire logique sont déterminées, c’est-à-dire valides ou contradictoires. Cependant, cette définition des symboles logiques n’est pas satisfaisante : il est possible de trouver des exemples de langages où des prédicats empiriques peuvent être introduits de manière à apparaître dans des phrases déterminées. (Voir MacLane, 1938 ; Creath, 1996)

Par conséquent, bien qu’il soit possible de donner une définition de l’analyticité dans des langages particuliers (ici LI et LII), nous n’avons pas de définition générale, pour tout langage syntaxique, de la notion d’analyticité.

Le tournant sémantique

Les travaux de Tarski concernant la définition logique de la vérité ont eu une influence majeure sur la pensée de Carnap, puisqu'ils ont conduit celui-ci à étudier les langages logiques, non plus d'un strict point de vue syntaxique, mais en prenant en compte des notions sémantiques comme celles de désignation et de vérité, notamment. Avec une définition de la vérité logiquement en ordre, il devient alors possible de faire de la sémantique de manière « non métaphysiquement suspecte ». Cela l’amène donc à redéfinir la notion d’analyticité dans le cadre de travaux sémantiques. Les langages en question comportent dans le métalangage des règles sémantiques c’est-à-dire des règles de désignation (qui stipulent quels sont les individus désignés par les constantes logiques et quelles propriétés ou relations sont désignées par les prédicats) et des règles de vérité qui permettent de déterminer si une phrase du langage est vraie.

On trouve ainsi une explication de l’analyticité proposée par Carnap, en termes d’états de choses (1947). Le langage comporte à la place des désormais classiques mondes possibles, des descriptions d’état. Une description d’état pour un langage L donné est un ensemble d’énoncés atomiques tel qu’il contient, pour tout énoncé atomique de ce langage L, soit cet énoncé, soit sa négation. Il s’agit donc d’une description exhaustive d’un monde possible, relativement à ce langage.

Carnap stipule tout d’abord la convention d’adéquation suivante :

« 2.1. Convention. Une phrase Si est L-vraie dans un système sémantique S si et seulement si Si est vraie dans S de telle manière que sa vérité puisse être établie sur la base des règles sémantique du système S seules, sans référence à des faits (extra-linguistiques). » (Carnap, 1947, §2)

On retrouve l’intuition qui parcourt toute l’œuvre de Carnap, à savoir qu’il y a quelque chose qui relève uniquement du langage et c’est en cela qu’il y a de l’analytique qui se distingue de ce qui fait référence à des faits, à savoir le synthétique.

La définition de L-vraie, adéquate à 2.1, se présente ainsi :

« 2.2. Définition. Une phrase Si est L-vraie (dans S1) =Df Si vaut pour toute description d’état dans (dans S1) » (1947, §2)

Toutefois, cette définition présuppose l’indépendance des propositions atomiques et ne permet pas de ressaisir tout ce que nous considérons comme des vérités logiques. En effet, une description d’état est un ensemble de propositions atomiques ou de négations de celles-ci, qui sont donc indépendantes les unes des autres. Or, des énoncés considérés comme analytiques tels que « tous les célibataires sont non-mariés » ne sont pas L-vrais dans un tel contexte : cela suppose un lien entre la désignation de « célibataire » et « non-mariés » et donc entre des propositions comme « x est non-marié » et « x est célibataire ». (Voir iv. pour une réponse à cette difficulté.)

Les objections de Quine

Les objections de Quine à l’encontre de la distinction analytique/synthétique sont nombreuses et, pour la plupart, dirigées contre Carnap car, comme le sous-entend « Les deux dogmes de l’empirisme » (Quine, 1951), la définition carnapienne apparaît, aux yeux de Quine, comme la plus aboutie, et si celle-ci est remise en question, alors il est fort probable que la distinction elle-même doive être rejetée.

  • L’impossible définition de l’analyticité en tant que telle (Quine, 1951)

La première objection soulevée par Quine, dans « Les Deux dogmes de l’empirisme » (Quine, 1951), contre la possibilité d’une distinction analytique/synthétique est assez générale et n’est pas dirigée spécifiquement contre Carnap.

Il faut tout d’abord préciser quel type d’énoncés analytiques est examiné. Quine distingue d’un côté, les vérités logiques et de l’autre, les énoncés réductibles à des vérités logiques par le biais de substitution de synonymes à synonymes. C’est typiquement le cas d’un énoncé comme « tous les célibataires sont non-mariés ». Ici, il s’agit de montrer que, lorsque nous avons affaire à ce second type d’énoncé, toute définition de l’analyticité est circulaire car on la définit par d’autres termes (« synonymie », « nécessité ») qui ne peuvent être eux-mêmes définis que grâce à la notion d’analyticité. Le seul cas de synonymie clair est celui où nous avons affaire à l’introduction d’une nouvelle notation comme abréviation d’une ancienne, mais cela est mis de côté comme étant marginal et insuffisant pour définir une notion d’analyticité.

A la suite de ces premières analyses, Quine examine la définition carnapienne de l’analyticité, qui lui semble la plus aboutie. Celle-ci pose alors le problème suivant. On souhaiterait savoir ce que veut dire « analytique » en tant que tel alors que les développements carnapiens ne proposent que des définitions particulières de l’analyticité. En d’autres termes, on aimerait savoir ce que signifie « analytique » pour tout langage et non avoir seulement à notre disposition des définitions particulières, à savoir « analytique dans L1 », « analytique dans L2 » etc. En réalité, un carnapien rétorquerait que nous savons ce qu’est un énoncé analytique pour un langage donné, c’est un énoncé dont la vérité découle des règles sémantiques seules du dit langage. La difficulté est qu’on ne comprend pas, selon Quine, ce que veut dire « règles sémantiques », si ce n’est qu’elles apparaissent dans la catégorie « règles sémantiques » d’un langage donné. On ne peut donc pas sortir de l’embarras de la relativité de la définition de l’analyticité aux langages donnés en la définissant par son rapport aux règles sémantiques car ces dernières sont également relatives à un langage. Dès lors, puisque cela dépend de ce que l’on a institué comme règles sémantiques, il devient possible de rendre n’importe quel énoncé analytique. Cette notion ne devient-elle pas alors triviale ?

  • Il n’y a pas d’énoncé non-révisable (Quine, 1951)

La seconde partie des « Deux dogmes de l’empirisme » est consacrée au deuxième type d’énoncés analytiques auxquels nous avons fait référence, à savoir les énoncés logiques et mathématiques. Ici c’est une autre caractéristique qui est examinée. Il faut avoir en mémoire que la première partie de l’article ne visait qu’à critiquer la possibilité de définir ce qu’est un énoncé analytique dans le cas où nous avons affaire à des énoncés réductibles à la logique par le biais de substitution de synonymes à synonymes. Il reste donc à examiner si la logique et les mathématiques ne demeurent pas analytiques. Afin de questionner cela, Quine examine ce qui lui semble être la caractéristique centrale de ces énoncés : la non-révisabilité (puisqu’ils ne se confrontent jamais à l’expérience mais ressaisissent des caractéristiques du langage). Reprenant alors un argument duhémien (Duhem, 1906/2007, 278), Quine soutient que ce n’est pas un énoncé isolé qui se confronte à l’expérience mais la théorie toute entière à laquelle il appartient, voire notre schème conceptuel global dont font partie la logique et les mathématiques. Cela se comprend notamment si l’on a en tête les arguments de Duhem : lorsqu’un énoncé est testé, cela suppose en réalité que nous l’avons déduit d’un ensemble d’énoncés. Dès lors, en cas d’expérience récalcitrante, nous ne pouvons pas considérer que c’est l’énoncé en question qui est réfuté, mais on peut choisir de réviser n’importe quel énoncé utilisé dans la déduction. Duhem illustre ce point par l’expérience d’Arago, censée départager entre la théorie émissionniste et la théorie ondulatoire de la lumière. De la première, il est possible de tirer la conclusion selon laquelle la lumière est plus rapide dans l’eau que dans l’air, et de la seconde, l’inverse. L’expérience est faite et on constate que la lumière est plus rapide dans l’air que dans l’eau, on en conclut donc que l’hypothèse émissionniste est fausse et que celle ondulatoire est vraie. On peut formaliser ainsi la réfutation de l’hypothèse émissioniste telle qu’elle est décrite ci dessus. E : hypothèse émissioniste ; V : la lumière est plus rapide dans l’eau que dans l’air. On aurait donc :

E → V

Non V

Donc non E

Mais en réalité, on n’a pas de déduction de V à partir de E (l’hypothèse émissioniste) mais de V à partir de la théorie de l’émission toute entière. On a donc une inférence de la forme :

E & H1 & H2 & … → V

Non V

Donc non E & H1 & H2 & …

En d’autres termes, ce n’est pas une hypothèse isolée mais la théorie toute entière qui se confronte à l’expérience et nous pourrions, en droit, réviser n’importe quel énoncé de la théorie.

Quine généralise cela au schème conceptuel tout entier. Celui-ci se confronte tout entier à l’expérience. Bien que nous soyons enclins à conserver nos énoncés logiques et mathématiques, du fait de leur rôle central, et à réviser des hypothèses empiriques, nous pourrions, en cas d’expérience récalcitrante, réviser n’importe quel énoncé, y compris ceux logiques. C’est pourquoi il ne peut y avoir, selon Quine, de séparation entre les énoncés analytiques et les énoncés synthétiques puisque tous se confrontent à l’expérience et tous peuvent être, en droit, révisés.

Ebbs (1997) note que l’on peut également lire cet article de la façon suivante. La première partie cherche à montrer qu’il n’y a pas de critères non-empiriques pour définir les énoncés analytiques tandis que la seconde montre qu’il n’y a pas non plus de critères empiriques. Il semble nécessaire de tout de même préciser que ce sont les énoncés réductibles à la logique par la substitution de synonymes à synonymes qui sont visés par la première partie des deux dogmes. Néanmoins, l’examen du critère empirique de non-révisabilité amène à remettre en cause non seulement l’analyticité de ces énoncés mais également celles des énoncés logiques et mathématiques.

  • Nous n’avons pas de pré-notion claire d’analyticité (Quine, 1960)

Une solution pourrait être de considérer que les définitions de l’analytique relatives à des langages construits ne font que ressaisir une notion pré-logique, qu’elles ne sont que des propositions d’explication de cette notion pré-logique qu’il faudrait clarifier. Le problème est qu’il ne semble pas y avoir de pré-notion claire de l’analyticité. Quine affirme que nous n’avons aucun critère en termes de comportement linguistique qui puisse nous permettre de saisir une telle pré-notion. Un exemple tiré du Mot et la chose (Quine, 1960) nous permettra de le comprendre. Quel critère comportemental avons-nous à notre disposition pour juger qu’un énoncé est analytique, si ce n’est le fait que les locuteurs acquiesceront toujours à celui-ci ? S’il s’agit du seul à notre disposition, c’est, selon lui, parce que nous ne pouvons pas parler en termes de significations puisque nous n’avons aucun critère empirique pour les déterminer (1960, 2) Or, un tel critère ne nous permet pas de distinguer entre des énoncés que nous considérerions comme analytiques tels que « il pleut ou il ne pleut pas » et des énoncés extrêmement généraux comme « il existe des chiens noirs ». C’est pour cette raison, selon lui, que nous n’avons pas de pré-notion claire de l’analyticité.

Les réponses de Carnap au défi quinien (Carnap, 1952, 1963a , 915-921)

  • Les postulats de signification

Une des difficultés soulevées était l’impossibilité de capturer l’analyticité d’énoncés tel que « Tous les célibataires sont non-mariés ». Dans un système sémantique comme celui de Carnap (1947) puisque les énoncés atomiques sont indépendants, il est possible de trouver des descriptions d’état où « a est célibataire » et « a est marié » sont tous les deux vrais. Pour répondre à ce problème, Carnap introduit des postulats de signification. On peut ainsi inclure le postulat suivant :

  1. Si x est célibataire, alors x est non-marié.

Si celui-ci vaut dans toute description d’état, alors on ne pourra plus y trouver, simultanément vrais « a est célibataire » et « a est marié ».

  • La relativité à des langages donnés n’est pas problématique en tant que telle

Personne n’a remis en cause jusque ici le fait que les phrases d’un langage logique L particulier soient identifiées comme telles, parce qu’étiquetées comme « formes de phrase de L » ou que les axiomes d’un langage logique particulier L soient reconnus uniquement parce que stipulés comme étant les « axiomes de L ». Pourquoi ce problème se poserait-il avec les règles sémantiques et en particulier avec les postulats de signification ? De plus, pourquoi cette exigence d’une pré-notion d’analyticité dans le langage naturel, définissable à partir de termes béhavioristes alors que la définition tarskienne de la vérité est acceptée par Quine ? Pourquoi ne pas considérer à l’inverse que la notion d’analyticité est une notion de sémantique pure, qu’il peut ne pas y avoir de notion pré-logique ou pré-sémantique et donc qu’elle est nécessairement relative à des langages ?

  • Toute explication ne présuppose pas un explicandum clair

Au fondement des deux dernières objections examinées, on retrouve l’idée que nous n’avons pas d’explicandum clair pour la notion d’analyticité, contrairement à celle de vérité. Afin de comprendre ce qui en jeu dans les objections de Quine, il faut bien voir qu’il s’agit fondamentalement d’un désaccord quant au travail philosophique et notamment quant au rôle de ce que Carnap nomme l’explication. (Carnap, 1950 ; 1962). Certaines notions formalisées par ce dernier dans des langages artificiels peuvent en effet être considérées comme des explications, et c’est le cas notamment de la notion d’analyticité. Une explication consiste à fournir un explicatum dans un langage formalisé d’un explicandum (notion vague et préscientifique à expliquer) appartenant au langage ordinaire. S’il est nécessaire, de fournir un explicatum, c’est que le caractère vague de la notion pré-scientifique pose problème et nécessite une clarification. Pour autant, le caractère vague et imprécis de cette notion appartenant au langage ordinaire est irréductible, ce qui signifie que lorsqu’un explicatum est fourni, il ne ressaisit pas complètement la notion première, puisqu’il s’agit justement d’éliminer cette imprécision problématique. Dès lors, nous ne pouvons pas parler d’explication vraie ou fausse mais d’explication plus ou moins utile. Toutefois, même si la vérité ou la fausseté sont ici inopérantes, il n’est pas tout à fait correct de dire que nous sommes parfaitement libres dans la construction de nos explications. Ou plutôt, en droit nous le sommes mais puisque ces explications visent à clarifier des notions pré-théoriques et à les rendre utilisables, Carnap donne quatre critères :

  1. L’explicatum doit être similaire à l’explicandum. Il faut une certaine proximité pour maintenir le lien entre les deux notions mais il faut qu’elles soient différentes puisque l’explication cherche à éliminer le caractère vague de la notion pré-théorique.

  2. L'exactitude

  3. La fécondité

  4. La simplicité

On comprend alors que toutes les définitions de l’analyticité (en termes de validité ou de L-vrai) sont autant d’explications de cette notion. Dès lors, il n’est pas problématique pour Carnap que nous ayons des définitions relatives à un langage puisque la pré-notion est si vague que seule l’explication permet de formuler une distinction claire. A l’inverse, pour Quine, l’impossibilité de déterminer une pré-notion claire d’analyticité implique que cette notion n’a pas de sens. A l’encontre de cela, Carnap affirme que nous n’avons pas besoin nécessairement d’un concept pragmatique pour justifier l’introduction d’un concept de sémantique pure, même s’il suggère qu’il est tout de même possible de déterminer un concept pragmatique d’analyticité et d’intension (Carnap définit l’ « intension » comme la signification d’une expression, par distinction d’avec l’extension. L’intension de « blau » en allemand est la propriété d’être bleue, alors que l’extension est la classe de tous les objets bleus.) (Carnap, 1955). Il examine en ce sens une procédure d’observation et de questions qui permettrait à un linguiste de déterminer non seulement les extensions mais aussi également les intensions. Carnap examine, entre autres, le cas du terme allemand « Pferd » et imagine une situation où un linguiste cherche à déterminer si ce terme signifie cheval, ou cheval ou licorne. Si l’on s’en tient à des procédures permettant de déterminer l’extension, on ne peut pas faire la différence car l’extension est la même. Pour déterminer l’intension de ce terme, il faut interroger le locuteur sur des cas possibles et lui demander s’il appliquerait le terme « Pferd ». Par exemple, accepterait-il de nommer « Pferd » un animal ressemblant à un cheval mais ayant une corne au milieu du front. L’idée est que l’on peut déterminer une procédure qui nous permette de déterminer les intensions des termes dans le langage ordinaire et donc éventuellement, l’analyticité.

Mais, même s’il est éventuellement possible de déterminer un explicandum de l’analyticité (être vrai en vertu de la signification, ne rien dire du monde, être irréfutable etc.) et si ces caractéristiques peuvent être utiles pour la construction de l’explicatum, il n’en demeure pas moins que seule l’explication pourra fournir une distinction claire et utilisable.

  • « Analytique » ne signifie pas « devant être toujours tenu pour vrai »

Pour finir, Carnap n’a jamais nié le fait que des énoncés considérés comme analytiques pouvaient être rejetés. Pour autant, cela ne veut pas dire que la distinction n’a pas de sens : celle-ci est interne à un langage donné, et il est possible d’abandonner un énoncé jusque là considéré comme analytique. On a alors affaire à un nouveau langage dans lequel on retrouve la distinction analytique/synthétique, mais où l’énoncé considéré comme analytique dans le langage précédent est désormais synthétique.

Un débat ancré dans des conceptions différentes du travail philosophique

Que conclure de ce débat ? Si la position carnapienne n’est pas sans poser problème, notamment en ce qu’elle ne semble pas fournir de définition de l’analyticité pour tout langage, on ne peut pourtant pas affirmer, comme il a pu être dit, qu’elle a été complètement invalidée par Quine. En effet, le débat ne porte pas tant sur la distinction en tant que telle, que sur le statut de la philosophie comme discipline. Si la distinction analytique/synthétique est cruciale pour Carnap, c’est qu’elle lui permet d’affirmer que la tâche du philosophe est purement « conceptuelle » : il s’agit de proposer ou d’examiner des langages dans lesquels des connaissances empiriques pourront être formulées. La découverte de ces connaissances ne relève pas de la philosophie mais bien des sciences empiriques. Quine, à l’inverse, dans une perspective naturaliste, inscrit la philosophie dans la continuité de la démarche scientifique et le refus de la distinction analytique/synthétique, ce qui lui permet de soutenir qu’il n’y a pas d’un côté un travail d’analyse conceptuel et de l’autre un travail d’enquête empirique. Dès lors, le rejet de la distinction telle qu’elle est pensée par Carnap ne se fonde peut-être pas tant sur des problèmes internes à sa position (si ce n’est les problèmes que nous avons mentionnés ci-dessus mais qui n’impliquent pas forcément l’abandon de ce type de distinction) que sur un désaccord quant à la conception du travail philosophique qu’une distinction ainsi conçue implique.

Stratégies post-quiniennes

Bien que les objections de Quine soient essentiellement dirigées contre la distinction carnapienne, il n’en demeure pas moins que ce n’est pas tant cette distinction particulière qui est visée que la possibilité même de trouver un sens à une telle distinction. Dans cette perspective, les nouvelles tentatives de définition de la distinction doivent considérer les objections de Quine comme devant être prises en compte afin d’examiner si elles menacent leur propre définition.

Il peut, en effet, y avoir quelque chose d’insatisfaisant dans les développements quiniens, à savoir le fait qu’ils semblent nier l’existence d’une distinction « intuitive ». C’est ce que notent Grice et Strawson (Grice & Strawson, 1956). Nier l’existence d’une telle distinction, c’est en effet considérer que tous les philosophes s’accordant sur l’existence de cette dernière ont eu tort - ce qui demeure possible - mais également que tous les philosophes qui se sont accordé sur les énoncés particuliers à considérer comme analytiques ont eu tort. En d’autres termes, il faut accepter que malgré l’accord relatif constaté dans la classification des énoncés, il n’y aurait en réalité aucune distinction réelle. Cette remarque soulève alors une sorte d’alternative : soit Quine s’est trompé et il faut montrer qu’il y a bien une telle distinction à faire et que celle-ci explique notre tendance à nous accorder sur la classification des énoncés comme « tous les célibataires sont non-mariés » soit il faut expliquer cette tendance par d’autres mécanismes et montrer ainsi que la distinction analytique/synthétique n’est pas opérante.

Un dernier enseignement doit être tiré du fait que le débat Carnap/Quine s’ancre dans des conceptions différentes de la philosophie. Cela a pour conséquence que les deux n’ont pas la même conception de la signification. En effet, le naturalisme de Quine l’amène à adopter une conception béhavioriste de la signification pour laquelle tout ce que nous avons à notre disposition relève de comportements verbaux (voir Quine, 1960). Carnap, quant à lui, traite de la signification relativement à des langages formalisés. Cela permet de mettre en relief la chose suivante. Si la notion d’analyticité est liée à celle de signification, au sens où on essaye de rendre compte de l’idée qu’il y aurait des énoncés dont la vérité ou la validité s’expliquerait leur signification, cette notion est nécessairement tributaire d’une conception de la signification. Dès lors, rejeter ou adopter une conception particulière de la signification peut amener à réexaminer la distinction analytique/synthétique.

Analyticité et externalisme de la signification

Analyticité et concepts liés à un groupe de lois (law-cluster concepts)

Quine notait la difficulté à considérer l’existence d’énoncés non-révisables et donc d’énoncés analytiques, ce à quoi Carnap répondait qu’il était égarant de considérer que les énoncés analytiques sont non-révisables. Seulement, réviser un énoncé analytique revient à changer de langage. Dès lors, pour donner sens à la distinction entre des énoncés analytiques et des énoncés synthétiques, si ces premiers peuvent être abandonnés, il faut pouvoir distinguer entre un changement théorique et un changement conceptuel. On aurait donc d’un côté des énoncés synthétiques, possiblement vrais ou faux, et dont le rejet exprimerait un changement de croyance (théorique) et de l’autre côté des énoncés analytiques dont le rejet témoignerait d’un changement conceptuel.

Putnam, dans « The Analytic and the Synthetic » (1962) interroge cette division. Il cherche notamment à montrer que ce que l’on a pu tenir pour des changements conceptuels relève en réalité de changements théoriques. Cette confusion révèle malgré tout quelque chose du statut particulier de certains énoncés. Il s’agit alors de substituer à la dichotomie énoncés analytiques/énoncés synthétiques, une classification censée rendre compte, de manière plus adéquate, de nos pratiques linguistiques et scientifiques.

Il examine, en ce sens, le cas de l’énergie cinétique et notamment le passage de la physique moderne à la relativité générale. Au sein de cette première théorie, l’équation « e=1/2mv2 » est considérée comme un énoncé immunisé contre la révision et plus particulièrement comme une définition de l’énergie cinétique. Toutefois, celle-ci est abandonnée par la théorie de la relativité. A-t-on affaire alors à un changement conceptuel, au sens où la définition de l’énergie cinétique se verrait modifiée ou bien à un changement théorique, l’équation « e=1/2mv2 » étant simplement fausse ? Considérer cet énoncé comme analytique permet d’expliquer pourquoi nous le pensions immunisé contre la révision. Mais, le fait même de sa révision peut nous amener à le considérer, à l’inverse, comme synthétique. Si tel est le cas, comment a-t-on pu le considérer comme non révisable ? Dans une perspective carnapienne, nous dirions que l’énoncé « e=1/2mv2 » était analytique dans le langage de la physique moderne, mais ne l’est plus dans celui de la relativité générale. Pour Putnam, cette lecture ne rend pas compte de nos pratiques linguistiques et, ici, de nos pratiques scientifiques. En effet, à ses yeux, Einstein, en modifiant la définition de l’énergie cinétique, considère celle-ci comme une nouvelle loi naturelle et considère « e=1/2mv2 » comme fausse. Cela ne peut alors se comprendre que si, dans les deux cas, il s’agit bien du même objet, à savoir l’énergie cinétique. Affirmer un désaccord relativement à une loi naturelle suppose de parler du même objet dont on rejette une ou des caractéristiques. Or, considérer « e=1/2mv2 » comme analytique suppose de penser le rejet de « e=1/2mv2 » comme un changement de signification et donc ne plus pouvoir rendre compte du désaccord, puisqu’on ne parlerait plus de la même chose.

Pour expliquer le fait que « e=1/2mv2 » ait pu être tenu comme immunisé contre la révision, Putnam introduit les notions de concepts liés à un groupe de lois (Law-cluster concept) et de principe cadre (Framework Principle). Les concepts liés à un groupe de lois apparaissent dans différents énoncés, dont certains expriment des lois scientifiques. Dès lors, il est possible d’en rejeter une sans changer le concept désigné. L’énergie cinétique peut alors être considérée comme un concept lié à un groupe de lois et le rejet de « e=1/2mv2 » n’implique pas une modification de l’extension du terme, puisque les autres énoncés ne sont pas modifiés.

Le fait que nous puissions considérer des énoncés comme immunisés contre la révision s’explique par l’existence de principes cadres. Ceux-ci sont des énoncés si centraux qu’ils sont employés comme auxiliaires dans un grand nombre de prédictions, sans qu’ils soient eux-mêmes menacés par des résultats expérimentaux. Seule la présence d’une théorie concurrente et plus performante peut nous amener à les rejeter. Ils sont comme nécessaires, mais seulement relativement à un ensemble de connaissances (Putnam, 1962).

Pour autant, Putnam ne nie pas, comme le fait Quine, que l’on puisse donner un sens à l’idée d’énoncés analytiques. « Les célibataires sont non-mariés » en est un, par exemple. Le sujet d’un énoncé analytique ne peut être qu’un terme lié à un seul critère (one criterion word), c’est-à-dire un terme dont un seul critère détermine la référence. On ne peut pas alors l’abandonner sans changer le sujet. Ce n’est toutefois pas une croyance basée sur la seule signification car cela repose sur la croyance empirique qu’il n’y a pas de lois naturelles à propos des célibataires.

On peut avoir le sentiment que les arguments de Putnam ne menacent pas la conception carnapienne de l’analyticité au sens où il ne montre pas de l’intérieur son incohérence. Mais ce serait ne pas comprendre la nature de leur opposition. Putnam, en faisant appel à des cas pratiques, essaye de montrer que la distinction analytique/synthétique ne permet pas de rendre compte de nos pratiques et du fait que le désaccord, dans le cas de l’énergie cinétique, porte bien sur la même chose. Carnap, quant à lui, refuse que l’on puisse exprimer un désaccord sans fixer un langage dans lequel en discuter. Pour Putnam, il est intelligible de considérer qu’il y a bien un désaccord entre les physiciens modernes et les tenants de la relativité générale et penser cela en termes de changements conceptuels ne permet pas de saisir adéquatement la pratique scientifique. En effet, comment comprendre que l’on continue de parler « d’énergie cinétique » et de l’appliquer aux mêmes phénomènes si ce terme n’a pas la même signification ? De plus, si l’on considère que le terme n’a pas la même signification selon les théories, on se trouve alors confronté au problème de l’incommensurabilité des théories scientifiques. (Sur la question du rapport de cette conception avec le réalisme, voir Ebbs (1997)).

Analyticité et désignateurs rigides

Si l'on considère que la conception de Putnam développée dans « The Analytic and the Synthetic » cherche à rendre compte de manière adéquate de nos pratiques, il n’en demeure pas moins qu’elle repose sur une conception particulière de la signification. On peut décrire cette dernière, à la suite de Kripke, comme le fait de considérer qu’un nom propre a sa définition fixée par un faisceau de descriptions voire que la signification d’un nom propre est un faisceau de description (Kripke, 1982), conception que Kripke rejette, de pair avec la conception descriptiviste de la signification, au profit de celle concevant les noms comme des désignateurs rigides. Considérons le nom propre « Aristote ». La conception descriptiviste de la signification considère que la signification d’ « Aristote » est une description et qu’Aristote signifie, par exemple, « Le disciple de Platon ». (Pour les difficultés d’une telle conception, voir Kripke, 1982, 1ère conférence). La conception de la signification comme faisceau de description considère que la signification d’ « Aristote » est donné par un ensemble de description : « le disciple de Platon » et « le précepteur d’Alexandre » et « l’auteur des Catégories », etc. Pour autant, la signification comme faisceau de descriptions ne signifie pas que la signification d’un terme est identique à la conjonction des descriptions. Seulement, il faut satisfaire un certain nombre de ces descriptions pour que le terme s’applique. Cette conception semblait permettre de répondre à certaines difficultés, notamment la possibilité pour un individu de toujours se voir appliquer un nom, même s’il lui « manque » une propriété. A l’inverse, si un nom est un désignateur rigide, « Aristote » désigne l’individu qui a été ainsi baptisé. Et c’est pour cet individu qu’on imagine des mondes contrefactuels dans lesquels, par exemple, il n’a pas été le précepteur d’Alexandre. Dès lors, même si la détermination de la référence a pu faire appel à une description, le terme a comme valeur sémantique un individu. Par exemple, si « Neptune » a été introduit comme « la planète qui perturbe l’orbite d’Uranus », « Neptune » réfère à la planète et la description définie « la planète qui perturbe l’orbite d’Uranus » ne fait pas partie de la signification du terme. Elle a seulement servi à déterminer cette signification. Cela amène alors à distinguer entre sémantique et métasémantique. Ce qui est sémantique relève de la signification tandis que ce qui est métasémantique relève de ce qui détermine la signification. En ce sens, « Neptune » a comme valeur sémantique un objet singulier bien que cette référence soit déterminée métasémantiquement par une description.

Les termes d’espèce, quant à eux, sont introduits de manière similaire. Soit le terme « eau ». On peut considérer qu’il a été introduit comme faisant référence à tout liquide ayant la même composition que l’échantillon ainsi nommé ou comme le liquide que l’on trouve dans les lacs, la mer ou la pluie. Cela ne signifie pas que « eau » est synonyme de « le liquide que l’on trouve dans les lacs, la mer ou la pluie » mais fait référence au liquide que l’on trouve, de fait, dans les lacs, la mer, ou la pluie.

Quelles conséquences la conception de la signification selon laquelle les noms sont des désignateurs rigides a-t-elle sur des notions telles que l’analyticité, la nécessité ou l’apriorité ? Les analyses de Kripke sont essentiellement connues pour leurs conséquences sur les notions de nécessité et d’apriorité, et en particulier leur dissociation. Etant donné qu’un nom est un désignateur rigide, il est possible de découvrir qu’un nom désigne la même chose qu’un autre nom. Dès lors un énoncé d’identité tel « Hesperus = Phosphorus », bien qu’exprimant une proposition nécessaire, peut être connu (et de fait a été connu) a posteriori. Il semble également possible d’identifier des cas de contingent a priori. Soit l’introduction du système métrique par la phrase « cette barre S mesure un mètre », la barre S étant un étalon de mesure. Par là même, on sait que cette barre mesure un mètre et on le sait de manière a priori. Pour autant, le fait que cette barre mesure un mètre est contingent.

Cela a-t-il des conséquences sur la définition de l’analyticité ? Premièrement, la distinction analytique/synthétique reposait jusqu’alors sur l’idée qu’il y avait quelque chose relevant de la signification et quelque chose relevant purement des faits. En ce sens, une conception descriptiviste de la signification permet de rendre aisément compte de l’analyticité. Ainsi si « Aristote » signifie « le disciple de Platon », alors « Aristote est le disciple de Platon » est « vrai en vertu de la signification ». A l’inverse, « Aristote a vécu 62 ans » est vrai en vertu des faits et donc est synthétique. Mais si les noms sont des désignateurs rigides, comment penser l’analyticité ? De plus, quelles sont les conséquences pour les liens supposés entre analyticité, nécessité et a priorité ?

Analyticité contingente

Dans son article « Démonstratifs », Kaplan (Kaplan, 1989) tire certaines conséquences d’une sémantique externaliste concernant certains énoncés analytiques. Cet article cherche à élaborer une logique des démonstratifs, à savoir des termes comme « je », « ici », « aujourd’hui », etc., c’est-à-dire des termes dont la référence change en fonction des contextes d’énonciations. Ainsi, « je » prononcé par Rudolf Carnap lors d’un dîner avec Quine, fait référence à Rudolf Carnap, alors que « je » prononcé par Quine lors de ce même dîner, fait référence à Quine. Pour autant, on a le sentiment que « je », bien que désignant des individus différents a bien une signification commune, à savoir « ‘je’ désigne le locuteur dans le contexte d’énonciation ». La règle disant que « ‘je’ désigne le locuteur » est nommée « caractère » par Kaplan et le caractère détermine ensuite un contenu en fonction des contextes d’énonciation, à savoir « je » désigne Carnap dans le premier cas, Quine, dans le second.

Cette conception, pourtant externaliste, permet de déterminer l’existence d’énoncés analytiques. Soit par exemple, « je suis ici maintenant ». Puisque « je » désigne le locuteur dans le contexte d’énonciation et qu’« ici maintenant » désigne le contexte d’énonciation, cet énoncé est toujours vrai, dans tous les contextes où il est énoncé. Pour autant, la proposition exprimée aurait pu être fausse. Il est tout à fait contingent que je sois aujourd’hui en train d’écrire à mon bureau et non en train de me promener en forêt. Dès lors, la conception externaliste semble rendre possible l’existence d’énoncés analytiques, dont l’analyticité s’explique, en un sens, par la signification. C’est donc le caractère de « je », d’ « ici » et « maintenant » qui explique l’analyticité d’un tel énoncé. Cependant, il n’est plus possible d’associer à l’analyticité la nécessité, puisque bien que cet énoncé soit toujours vrai, il n’en va pas de même de la proposition qu’il exprime, qui n’a rien de nécessaire.

La conséquence de l’externalisme semble dont être la suivante : l’analyticité ne devient pas impensable mais devient la propriété des énoncés seuls et non des phrases ou des propositions. Puisque la signification d’une phrase peut changer en fonction de son contexte d’énonciation, alors la phrase ne peut pas être analytique, seul l’énoncé peut l’être.

Sémantique bi-dimensionnelle

Les développements de Kaplan ont influencé le développement de sémantiques bi-dimensionnaliste, dont certaines essayent de donner sens à l’idée que l’on doit prendre en compte deux dimensions dans la signification (Chalmers, 2006). Plus précisément, il s’agit de concilier l'idée que la signification reflète ce qui est accessible a priori à un locuteur sur la base d’une réflexion idéale et l’idée que les noms sont des désignateurs rigides, dont on ne peut pas connaître a priori la référence. Par exemple, je sais a priori que « eau » signifie « liquide présent dans les lacs, la mer ou la pluie », mais le fait de savoir que « eau = H2O » est a posteriori. Ce genre d’analyses permet de réintroduire l'idée qu’il y a bien des liaisons nécessaires au niveau conceptuel.

En résumé, il s’agit de généraliser les analyses développées initialement pour les démonstratifs. Ce que montre l’exemple des énoncés du type « je suis ici maintenant », c’est qu’il y un aspect de la signification (le caractère) connu par tout locuteur compétent et qui permet de déterminer que l’énoncé sera toujours vrai, avant même de savoir quel contenu est exprimé, ce contenu étant par ailleurs, contingent. Ne peut-on pas généraliser ces analyses afin de lier de nouveau nécessité, a priorité et signification et ainsi rendre compte de l’idée qu’un aspect de la signification peut nous donner accès a priori à une certaine forme de nécessité ? Si l’on considère de nouveau « je suis ici maintenant », on voit que la proposition exprimée n’est pas nécessaire — il aurait pu se faire que je ne me trouve pas à mon bureau aujourd’hui — mais qu’il y a bien une autre forme de nécessité, à savoir l’énoncé est toujours vrai. On peut alors distinguer entre une nécessité métaphysique (ici la proposition exprimée n’est pas nécessaire en ce sens) et une nécessité épistémique (le fait qu’un énoncé soit toujours vrai) accessible par la simple connaissance d’un aspect de la signification (son caractère).

Chalmers considère ainsi, non pas seulement les démonstratifs mais toutes les expressions (et notamment les termes d’espèce). Il souhaite rendre compte du fait qu’il y a bien un aspect de la signification qui donne naissance à une connaissance a priori de la nécessité (épistémique). Pour cela, il faut considérer les mondes possibles deux fois : une fois comme monde actuel et une autre fois comme monde contrefactuel. On peut illustrer en examinant l’énoncé « l’eau est H2O ». Si on considère notre monde (que l’on nomme W1) comme étant actuel, non seulement cet énoncé est vrai mais il est également nécessairement vrai. « Eau » étant un désignateur rigide, il désigne la substance composée de H2O présente dans notre monde, dans tout monde considéré comme contrefactuel. Mais si on considère que le monde actuel est W2 où l’eau est un composé d’XYZ., alors « eau est H2O » est faux et c’est faux dans tout monde que l’on considère comme contrefactuel.

Mais on peut considérer, comme le fait Chalmers, qu’il y a une autre dimension de la signification, qui rend davantage compte de la dimension cognitive de la signification, et qui est, en quelque sorte, ce que l’on a à l’esprit quand on utilise l’expression, indépendamment de ce qui s’avère être désigné par celle-ci. On peut supposer, par hypothèse, que dans le cas de « eau », il s’agit de « liquide présent dans la mer, les lacs et la pluie ». On constate alors que, peu importe que le monde actuel soit W1 ou W2, l’énoncé « l’eau est le liquide présent dans la mer, les lacs et la pluie » est vrai dans tout monde contrefactuel. Et on sait cela, sans connaissance empirique à propos de la nature de l’eau. Cela signifie qu’il y a donc une dimension de la signification qui nous donne un accès a priori à la connaissance de la vérité dans tous les mondes possibles de l’énoncé « L’eau est le liquide présent dans la mer, les lacs et la pluie ». On retrouve donc ici une idée présente dans certaines conceptions traditionnelles de l’analyticité, à savoir que la signification (ici un aspect de la signification) permet d’accéder a priori à la vérité de certains énoncés et que la vérité de ceux-ci s’explique par leur signification.

Sémantique externaliste et formalisation de l’analyticité

Si l’exemple de l’énoncé « je suis ici maintenant » permet en effet de penser une possible définition de l’analyticité dans le cadre d’une sémantique externaliste, est-il possible de généraliser cela et de parvenir à une formalisation de cette notion ? C’est l’entreprise à laquelle s’attache Gillian Russell (2008). Celle-ci essaye ainsi de donner un sens à la distinction analytique/synthétique et à l’idée d’être « vrai en vertu de la signification » dans le cadre d’une sémantique externaliste. Le problème, selon elle, est que l’on ne comprend pas ce que veut dire « vrai en vertu de la signification », car la notion même de signification employée est ambiguë. Elle ajoute à la distinction kaplanienne entre caractère et contenu deux autres notions :

  • Le caractère : ce que le locuteur doit savoir pour être considéré comme comprenant l’expression.

  • Le contenu : la contribution du mot à ce que la phrase signifie. On considère qu’une phrase exprime une proposition. Ainsi, les phrases « Lucie est grande » et « Lucie is tall. » expriment les mêmes propositions. Une proposition est donc ce qui est signifié et susceptible d'être conservé lors d’une traduction. C’est aussi ce qui est vrai ou faux. Dès lors, le contenu d’un mot est sa contribution dans la détermination de la proposition exprimée par la phrase où il apparaît.

  • Le déterminant de la référence : une condition non-circulaire, telle que tout objet qui satisfait cette condition, satisfait l’expression et le fait en vertu de cette condition. Le déterminant de la référence est symbolisé par ↓ … ↓ . Le déterminant de la référence de « Neptune » est noté ↓Neptune↓ et celui-ci est « la planète perturbant la trajectoire d’Uranus ».

  • Le référent ou l’extension : l’objet ou l’ensemble des objets au(x)quel(s) le mot s’applique.

La thèse de Russell est alors la suivante : lorsque nous disons qu’un énoncé est vrai en vertu de sa signification, nous faisons référence aux déterminants de la référence.

Bien que Russell développe une définition de l’analyticité modale, relative aux contextes d’introduction, d’énonciation et d’évaluation, les problèmes posés par cette définition l’amène rapidement à envisager une définition métaphysique, en termes de déterminants de la référence. Elle s’appuie pour ce faire sur une intuition kantienne, à savoir l’idée qu’il y a bien des rapports de « contenance » entre des sujets et des prédicats. Toutefois, cette intuition se heurte à deux problèmes. Premièrement, il semble que nous nous accordions pour accepter comme « analytique » des phrases qui ne sont pas de la forme sujet-prédicat. De plus, ne faut-il pas poser à côté de l’idée de contenance, celle d’exclusion ? Russell se propose de répondre à ces deux difficultés de la manière suivante. Premièrement, en s’appuyant sur certains travaux sémantiques, elle introduit l’idée d’expression de sujet logique (ESL) et d’expression de prédicat logique (EPL), et de modificateur, permettant ainsi d’appliquer sa définition à des phrases qui n’ont pas la forme « S est P ». Parmi les exemples donnés, on trouve les deux suivants :

Les célibataires sont non mariés.

[Sont non-mariés] EPL ; [les célibataires] ESL

Les personnes pauvres ont moins d’argent que les personnes riches.

[ont moins d’argent] EPL ; [<les personnes pauvres ; les personnes riches>] ESL

Toutefois, si l’on considère le premier cas et que l’on explique son analyticité par un rapport de contenance entre l’EPL et l’ESL, que faire de l’énoncé :

Aucun célibataire est non-marié.

Il semble y avoir là aussi une relation de contenance. C’est pour cela qu’il faut inclure le concept de modificateur, qui est défini ainsi : un modificateur positif dit que la phrase est vraie si tous les objets qui satisfont la ESL satisfont la EPL (ex : le « est » de l’identité et de la prédication, le « si…alors »). Un modificateur négatif dit que la phrase est vraie si aucun des objets qui satisfont la ESL ne satisfont la EPL (ex : « aucun », « si… alors aucun »). Un modificateur neutre ne fait rien de tout cela (ex : « quatre » dans « quatre célibataires sont non-mariés », « la plupart »). Dès lors, le modificateur « aucun » dans « aucun célibataire est non marié » dit que la phrase est vraie si aucun des objets qui satisfont la ESL ne satisfont la EPL ce qui est faux.
La définition de l’analyticité procède alors ainsi. Tout d’abord, Russell introduit les principes de contenance et d’exclusion (Russell, 2009, 93-95) :

[Principe de contenance] Si le déterminant de la référence pour une expression E contient le déterminant de la référence pour une expression F, alors pour tout x, si x satisfait E relativement à une paire ordonnée <ci , cu>, où ci est un contexte d'introduction et cu un contexte d'énonciation, alors x satisfait F relativement à <ci , cu>.

[Principe d’exclusion] Si le déterminant de la référence pour une expression E exclut la déterminant de la référence pour une expression F, alors pour tout x, si x satisfait E relativement à une paire ordonnée <ci , cu>, où ci est un contexte d'introduction et cu un contexte d'énonciation,, alors x ne satisfait pas F relativement à <ci , cu>.

L’analyticité est alors définie ainsi :

Une phrase qui consiste en un modificateur (M), une expression de sujet logique (S) et une expression de prédicat logique P, est analytique si (i) la phrase peut être vraie même si (S) n’est pas satisfaite par quoi que ce soit et soit (ii) (M) est positif et ↓(S) ↓ contient ↓(P) ↓ ou M est négatif et ↓(S) ↓ exclue ↓(P) ↓. (Russell, 2009, 100)

Ainsi, si « Tous les célibataires sont non-mariés » est analytique, c’est parce que (M) est positif et que ↓célibataire ↓ est contenu dans ↓non-marié ↓.

Une difficulté peut toutefois se poser. Quel est le statut des déterminants de la référence ? Wikforss (2008) note l’ambiguïté de cette notion. S’agit-il d’une notion sémantique (relève-t-elle de la signification) ou d’une notion métasémantique (sert-elle à déterminer la signification) ? La fonction que Russell lui attribue semble de prime abord être plutôt métasémantique et similaire au rôle joué par les descriptions kripkéennes qui fixent la référence. Considérons en ce sens « Mohammed Ali est Cassius Clay » que Russell qualifie de pseudo-analytique. Cet énoncé est « pseudo-analytique » car il est possible que Mohammed Ali/Cassius Clay n’existe pas, mais cela n’est pas gênant pour l’analyse car il y a bien, selon Russell, une relation de contenance. Le déterminant de la référence de « Mohammed Ali » est le suivant : Elijah Muhammad introduit le nom « Mohammed Ali » en disant « utilisons ‘Mohammed Ali’ pour nommer Cassius Clay ». Mais s’il s’agit véritablement du déterminant de la référence, il a la même fonction que la description servant à introduire le nom « Vénus » comme « la planète qui perturbe la trajectoire d’Uranus ». Or, cette description ne fait pas partie de la signification de « Vénus » mais sert à fixer sa signification, à savoir sa référence. C’est donc une notion métasémantique. Il en va de même pour « utilisons ‘Mohammed Ali’ pour nommer Cassius Clay ». Cela ne semble pas faire partie de la signification de « Mohammed Ali » mais servir à fixer la référence de ce nom.

Bien que ce premier constat mette en péril l’idée de vérité « en vertu de la signification » puisque nous n’avons pas affaire à ce qui relève de la signification mais de ce qui permet de fixer la signification, peut-on tout de même penser une relation de contenance pertinente ? Cela ne semble pas être le cas. Une lecture hâtive peut nous faire penser qu’il y a bien une relation de contenance entre le déterminant de la référence de « Mohammed Ali » et celui de « Cassius Clay » puisque « Cassius Clay » apparaît dans le déterminant de la référence de « Mohammed Ali ». Mais il semble que ce ne soit pas tant le nom que l’individu qui apparaît dans le déterminant de la référence. En effet, on n’affirme pas « utilisons ‘Mohammed Ali’ pour nommer l’individu nommé ‘Cassius Clay’ » (car il peut y avoir plusieurs individus nommés ainsi) mais « utilisons ‘Mohammed Ali’ pour nommer Cassius Clay » (l’individu Cassius Clay). On peut imaginer, par ailleurs, que le déterminant de la référence de « Cassius Clay » est les parents du bébé Cassius Clay déclarant « appelons ce bébé [en le désignant] ‘Cassius Clay’ ». Dans ce cas, le nom « Cassius Clay » apparait dans le déterminant de la référence, tandis que dans le cas de l’introduction de « Mohammed Ali », c’est l’individu qui apparaît. Il n’y a donc pas de relation de contenance entre les déterminants de la référence.

Toutefois, la description faite des déterminants de la référence semble proche de la description que l’on pourrait donner des caractères. Peut-on considérer que les déterminants de la référence s’apparentent aux caractères, la différence étant épistémologique ? Dans le premier cas, il est possible, pour un lecteur compétent, de les ignorer mais pas dans le deuxième. (Wikforss, 2008) La difficulté, si l’on rapproche les déterminants de la référence de la notion de caractère est que cette notion ne semble plus pouvoir expliquer l’analyticité d’énoncés contenant des noms propres comme « Mohammed Ali est Cassius Clay ». En effet, le caractère est introduit par Kaplan pour rendre comptes des cas où la référence est sensible aux contextes d’énonciations, ce qui n’est pas le cas des noms propres dont la référence, pour Russell, est sensible aux contextes d’introduction. Toutefois, est-ce que la relation de contenance peut expliquer l’analyticité de phrases contenant des indexicaux telles que « je suis ici » ? (Cette phrase est citée par Russell elle-même) Mais si le caractère/déterminant de la référence de « je » est « le locuteur dans le contexte d’énonciation » et celui de « ici » « le lieu de l’énonciation », il est difficile de comprendre en quoi il y aurait une relation de contenance entre les deux.

Les seuls cas où il semble possible de donner véritablement sens à l’idée de contenance sont des cas similaires à « tous les célibataires sont non-mariés » c’est-à-dire des cas où on a affaire à des prédicats. En effet, on peut admettre que le déterminant de la référence de « célibataire » est « x est célibataire s’il est non-marié ». Cependant, ici, le déterminant de la référence s’identifie au contenu. Il semble donc que la vérité en vertu du déterminant de la référence soit intelligible uniquement lorsque le déterminant de la référence s’identifie au contenu et donc se réduise à la vérité en vertu du contenu. Or, cette notion n’est pas sans poser problème.

Analyticité et réalisme

Boghossian (1996), à la suite d’Harman (1967) soulève la difficulté suivante lorsqu’on parle de « vérité en vertu de la signification ». Comment le fait qu’un énoncé signifie ce qu’il signifie peut-il le rendre vrai ? Soit cela est trivial, soit cela est absurde. Si on comprend par là le fait que, si l’énoncé signifiait autre chose, il ne serait pas vrai, cela est évident. Si « blanc » signifiait en réalité vert, « la neige est blanche » serait faux. Mais cela vaut pour tout énoncé, analytique ou synthétique. Cependant, si on entend par là que le simple fait de signifier ce qu’il signifie rend l’énoncé vrai, alors c’est étrange, au sens où un énoncé est vrai si ce qu’il exprime est réalisé ; « la neige est blanche » est vrai si la neige est blanche. On ne comprend pas en quoi la signification de l’énoncé « le cuivre c’est du cuivre », par exemple, le rendrait vrai, ferait que cela soit le cas. N’est-ce pas aussi en vertu d’un trait du monde, à savoir que toute chose est identique à elle-même ? Pour cette raison, Boghossian rejette toute tentative de définition « métaphysique » de l’analyticité, c’est-à-dire toute définition de l’analyticité comme « vrai en vertu de la signification ».

Une conception épistémique de l’analyticité
 

En réponse à cela, Boghossian (1996, 2003) propose une conception épistémique de l’analyticité. Un énoncé analytique n’est pas « vrai en vertu de sa signification » mais « connaissable a priori en vertu de sa signification ». On se concentrera ici sur la version de l’argument telle qu’elle est développée dans l’article « Analyticity Reconsidered » (1996) puisque les amendements de (2003) ne semblent pas véritablement résoudre les difficultés posées par cette définition. (Pour une discussion complète des arguments voir Gluër, 2003 ; Jenkins, 2008, Ebert, 2005 ; Williamson, 2003, 2007 ; Margolis & Laurence, 2001). L’idée est la suivante : il y a quelque chose dans la manière dont la signification est fixée et dans la manière dont nous appréhendons la signification de certains termes qui explique que nous puissions par là même connaître a priori la vérité de certains énoncés. Les énoncés qui intéressent plus particulièrement Boghossian sont les énoncés logiques. Il distingue en effet les énoncés dits « frege-analytiques » qui sont analytiques car réductibles, par substitution de synonymes à synonymes à des lois logiques, et les énoncés logiques dont il faut expliquer l’analyticité, puisque dire qu’ils se réduisent à des lois logiques est trivial et ne peut pas expliquer leur analyticité.

Afin d’expliquer comment la simple compréhension de la signification des vérités logiques suffit à être justifié à les tenir pour vraies, Boghossian introduit la notion de définition implicite qu’il caractérise ainsi :

C’est en stipulant de manière arbitraire que certaines phrases logiques doivent être vraies, ou que certaines inférences doivent être valides, que nous attachons une signification aux constantes logiques. Plus spécifiquement, une constante logique particulière signifie cet objet logique, s’il y en a un, qui rend valide un ensemble spécifique de phrases ou d’inférences dans lesquelles elle apparaît. (Boghossian, 1996, 376)

La thèse de Boghossian peut être résumée ainsi. La signification des constantes logiques est fixée par la stipulation de la vérité de certaines phrases dans lesquelles ces constantes apparaissent et ces phrases sont constitutives de la signification de ces constantes. Par là même, nous savons que ces phrases sont vraies et nous sommes justifiés à les tenir pour vraies. Par ailleurs, ces phrases étant factuelles, savoir qu’elles sont vraies, c’est avoir une connaissance a priori de la vérité de ces phrases. L’argument prend la forme suivante :

Dire que A est épistémiquement analytique pour T [T = la personne qui pense] revient à dire que la simple connaissance que T a de la signification de A suffit pour que T ait une justification pour A, il n’y a pas besoin de soutien empirique. Et il semble qu’une sémantique du rôle conceptuel peut nous fournir un modèle qui explique que cela puisse en être ainsi. Dès lors, étant donnés les faits pertinents, il semble que nous puissions argumenter ainsi :

  1. Si C doit signifier ce qu’elle signifie, alors A doit être valide, puisque C signifie tout objet logique qui rend A valide.

  2. C signifie ce qu’elle signifie.

  3. A est valide.

Avant de commenter cet argument, quelques précisions doivent être faites. Boghossian s’appuie sur une sémantique des rôles conceptuels pour les constantes logiques, c’est-à-dire la thèse selon laquelle la signification des constantes logiques est données par le rôle qu’elles jouent dans certaines inférences. Ainsi, son utilisation des définitions implicites doit être comprise dans ce contexte. En simplifiant quelque peu, on peut dire que Boghossian affirme que c’est en stipulant que certaines phrases ou inférences sont vraies, que la signification des constantes logiques est donnée car les rôles joués par celles-ci dans les phrases ou inférences sont par là-même déterminés.

L’argument 1-3 est, toutefois, ambigu et cette ambiguïté dissimule une véritable difficulté. Comment comprendre 2. ? Doit-on le comprendre de manière triviale au sens où tout terme signifie ce qu’il signifie, ou de manière substantielle, à savoir comme affirmant qu’il y a bien quelque chose qui est signifié par C ? 1. correspond à la définition implicite d’une constante C. Or, comme l’évoque Boghossian, lorsqu’on définit implicitement un connecteur logique, on stipule la validité d’une inférence ou phrase logique. Dès lors, on sait déjà que la phrase ou l’inférence A est valide. L’argument 1-3 semble donc parfaitement trivial, si l’on comprend 2. de manière triviale car la conclusion est déjà donnée dès le début, à savoir que A. est valide. Cependant, cette lecture n’est pas fidèle à ce que cherche à montrer Boghossian. Il ne veut pas montrer que l’on a une connaissance a priori de la validité de A mais du contenu de A. En ce sens, 2. ne peut pas être compris trivialement mais comme affirmant qu’il y a bien un objet logique signifié par C. Mais comment la définition implicite de C et par là même la stipulation de la validité de A peut nous permettre de savoir qu’il y a bien un objet signifié par C ? Il semble qu’il faille une connaissance indépendante, à savoir qu’il y a un objet logique qui a certaines propriétés qui rendent A valide. (Pour une discussion plus détaillée de cette difficulté voir Gluër, 2003 ; Margolis and Laurence 2001) Ainsi, la saisie de la signification par définition implicite nous permet seulement de savoir qu’une phrase ou une inférence est valide et non de connaître ce qui est exprimé (le contenu). On ne comprend donc pas comment la connaissance de la signification nous donne une connaissance a priori.
 

Une réponse rationaliste ?

On pourrait être tenté de considérer qu’en réalité, la procédure décrite par Boghossian s’apparente à une forme de fixation de la référence. On fixe la signification de « C » en disant que « C » signifie tout objet rendant valide l’inférence A. En ce sens, une sémantique à la Katz (Katz, 1974) qui pose l’existence de signification et de rapport de signification auxquels tout locuteur compétent a accès pourrait être une solution.

Il s’agit ici de construire une théorie sémantique, c’est-à-dire un système de règles qui représentent ce qu’un locuteur compétent connaît de la structure sémantique de son langage, ce qui lui permet à la fois de comprendre les phrases mais aussi d’en construire de nouvelles. On trouve alors :

  • Des entrées de dictionnaire : ce sont des suites de symboles et chaque suite est composée de marqueurs syntaxiques (s’agit-il d’un nom, d’un verbe, etc.), de marqueurs sémantiques (ex : humain, animal etc.) et des distinctions (qui stipulent ce qui est spécifique à l’objet). Il est possible d’avoir plusieurs « chemins » si le mot est ambigu (s’il a plusieurs significations).

  • Des règles de projections : une fois déterminée la structure constituante de la phrase (sa syntaxe), on assigne une interprétation sémantique à chaque élément et on voit quel chemin doit être assigné à tel élément, étant donné sa combinaison avec d’autres éléments. On détermine ainsi la signification de chaque élément puis de la phrase toute entière.

L’analyticité se trouve alors définie ainsi : Soit une phrase de la forme S est P : si dans le chemin qui part du sujet et dans le chemin qui part du prédicat, on retrouve les mêmes marqueurs sémantiques et les distinctions, alors la phrase est analytique pour cette lecture. Si cela vaut pour toute lecture possible, alors elle est complètement analytique.

Cependant, dans la conception qui est celle de Katz, les significations ne sont pas ce qui détermine l’extension (même si elles y contribuent) mais apparaissent comme des entités séparées, platoniciennes, entretenant des rapports entre elles, rapports expliquant les relations d’antonymie et l’analyticité. Toute la question alors est : comment pouvons-nous accéder à ces entités et comment pouvons-nous être certains ou certaines que les entrées et règles retranscrivent bien les bons rapports de signification ? La réponse consiste à dire que nous avons des intuitions (Katz, 1964 ; BonJour, 1998), qui nous permettent de nous assurer que nous avons affaire au bon « système », comme une expérience qui viendrait vérifier ou tester une théorie. Le problème est alors de justifier le fait que l’intuition puisse être un bon guide, cette faculté apparaissant comme bien mystérieuse.
 

Vers un néo-conventionnalisme ?

L’argument de Boghossian contre la possibilité d’expliquer l’analyticité en termes de « vérité en vertu de la signification » semble s’appliquer également aux perspectives conventionnalistes soutenant que les énoncés analytiques sont vrais en vertu de conventions. En quoi nos conventions linguistiques pourraient rendre un énoncé vrai ? Les conventions portent sur le fait d’utiliser certaines expressions pour signifier certaines choses, elles ne peuvent pas rendre vrais certains énoncés.

Warren (2015) interroge cette objection classique à l’encontre du conventionnalisme. Il note que l’on comprend généralement la thèse conventionnaliste ainsi :

Le conventionnalisme à propos d’une branche du discours D (logique, mathématique, etc.) est résumé dans le principe schématique suivant :

Conventionnalisme : pour toute phrase φ dans D, nos conventions linguistiques C font que φ est vraie.

L’objection est alors la suivante. Si les conventions permettent de déterminer quelle proposition la phrase S exprime - par exemple la proposition p - elles ne peuvent pas faire que p. Warren pointe alors une ambiguïté dans l’expression « faire que » qui peut être sujette à deux lectures. La première lecture est métaphysique, et « faire que » signifie rendre vrai. En ce sens, il est absurde de considérer que les conventions font que p car des conventions linguistiques ne peuvent pas faire que cela soit le cas que p. La deuxième lecture est explicative. Tout le monde admet que les conventions expliquent en partie la vérité des phrases. Par exemple, c’est en partie parce que nos conventions font que le mot « neige » désigne la neige que la phrase « la neige est blanche » est vraie. La position conventionnaliste consiste seulement à affirmer qu’il y a des domaines dans lesquels les conventions expliquent entièrement la vérité des phrases D. Peut-on donner un sens à cette idée ?

Julh et Loomis (2009) proposent dans cette perspective une explication de l’analyticité en termes de stipulations. L’idée est que l’analyticité ne s’explique pas à cause de certaines relations de signification mais plutôt qu’il y a des relations de significations parce que nous l’avons ainsi stipulé. Pour comprendre la caractérisation de l’analyticité, il faut comprendre ce que l’on entend par stipulation.

Stipulation : La phrase S exprime une proposition p vraie (dans notre langage L). De plus, la proposition q, « que S exprime une proposition vraie (dans L) » ne peut pas être défaite par l’expérience. Aucune évidence empirique ne compte comme étant en faveur ou contre la vérité de q. (2009, 218)

Lorsque les locuteurs acceptent cette stipulation, on dit que S est analytique. Il faut toutefois préciser la nature des évidences empiriques. Que faire si l’on découvre qu’une communauté rejette cette règle ? N’est-ce pas alors une preuve empirique ? Cela ne peut-il pas contredire la stipulation et remettre en question l’analyticité de la proposition ? Il faut donc préciser : par preuve empirique, il faut entendre une preuve non linguistique.

On a donc, comme évoqué ci-dessus, une forme de renversement. La vérité des énoncés analytiques ne découle pas de leur signification mais le fait de ne pouvoir être défait empiriquement appartient à la signification de ces énoncés. Bien plus, ceux-ci ne sont pas « vrais » mais ont un statut épistémique différent, celui d’avoir été, par stipulation (tacite ou non), exclus des énoncés pouvant être défaits par l’expérience (et non pas vrais).
Une objection peut toutefois être faite. Quel critère avons-nous pour déterminer que, pour une phrase S, il y a une stipulation qui explique son caractère analytique ? Il semble en effet que ce genre de stipulations explicites n’appartient pas à nos pratiques linguistiques communes. Juhl et Loomis précisent qu’il peut s’agir d’une stipulation implicite. Mais quel critère avons-nous alors à notre disposition pour déterminer s’il y a bien une telle stipulation si ce n’est des critères vagues tels que la propension à acquiescer à une telle stipulation, le refus de la négation d’un énoncé analytique etc. En d’autres termes, on retrouve ici tous les problèmes posés par Quine dans Le Mot et la chose (Quine, 1960, 2) à propos de l’indétermination de la signification et de l’analyticité.

Conclusion

Malgré le caractère de prime abord intuitif de la distinction analytique/synthétique, on se heurte à de nombreuses difficultés lors qu’on essaye de la définir précisément. Tout d’abord, celle-ci étant dépendante de la notion de signification, toute tentative de définition doit s’appuyer sur une notion crédible de signification. Or, il n’est pas évident que nous puissions faire une distinction entre des énoncés analytiques et des énoncés synthétiques. Par ailleurs, s’il semble possible d’en donner une caractérisation logique, au sens où il est possible de construire dans des langages formels une caractérisation de l’analyticité, les difficultés surgissent lorsqu’on tente de la caractériser indépendamment de toute construction formelle, au sein du langage ordinaire. Est-ce à dire que cette notion n’a de sens que dans un langage formel ? Si cette conclusion semble insatisfaisante, du fait de l’intuition première concernant l’analyticité de certains énoncés tels que « tous les célibataires sont non-mariés », elle semble acceptable une fois précisée. Si l’on conçoit cette distinction comme une distinction exhaustive, séparant en deux catégories distinctes les énoncés de notre langage, cela ne semble pas rendre compte de nos pratiques langagières, du fait, notamment, de la fonction expressive du langage.

Cette conclusion permet alors d’envisager plusieurs choses. Premièrement, le fait que nous ayons affaire à des cas vagues dans le langage ordinaire n’est pas nécessairement un obstacle pour toute définition de l’analyticité. Deuxièmement, cela permet de sortir de l’embarras de la justification des diverses formalisations. Si celles-ci ne prétendent plus ressaisir la « bonne » distinction mais seulement être une explication (au sens carnapien) de l’analyticité, alors nous avons de nouveaux des critères opérants pour juger de telles explications, critères à la fois moins contraignants puisqu’ils ne prétendent pas ressaisir parfaitement la distinction et à la fois plus opérants car ils nous permettent de juger les différentes propositions d’explication. Dès lors la question devient pragmatique : les langages formels distinguant entre phrases analytiques et phrases synthétiques sont-ils utiles pour formaliser nos théories et rendre compte de nos pratiques scientifiques ?

 

Bibliographie

Ayer, A., Language, Truth and Logic, 1936, Harmondworth, Penguin Books Ltd, 1971.

Boghossian, P., « Analyticity And Conceptual Truth », Philosophical Issues 5, 1994, pp. 117-131.

Boghossian, P., « Analyticity Reconsidered », Noûs 30, 1996, pp. 360-391.

Boghossian, P., « Epistemic Analyticity : A Defense », Grazer Philosophische Studien 66, 2003, pp. 15-35.

BonJour, L., In Defense of Pure Reason : A Rationalist Account of a Priori Justification, Cambridge, Cambridge University Press, 1997.

Casullo, A., A Priori Justification, New York, Oxford University Press, 2003.

Casullo, A., « Analyticity and the A Priori », Canadian Journal of Philosophy 18, 2013, pp. 113-150.

Carnap, R., The Logical Syntax of Language, 1937, Londres, Routledge and Kegan Paul, 1967.

Carnap, R., Introduction to Semantic, 1942, Cambridge (Mass.), Harvard University Press, 1961.

Carnap, R., Signification et Necessité, 1947, trad. Rivenc, François et De Rouilhan, Philippe, Paris, Gallimard, 1997.

Carnap, R., « Meaning Postulates », Philosophical Studies 3, 1952, pp. 65-73.

Carnap, R., « Meaning and Synonymy in Natural Language », Philosophical Studies 6, 1955, pp. 33-47.

Carnap, R., Logical Foundations of Probability, 1950, Londres, Routledge & K. Paul, 1962.

Carnap, R., « Quine on Logical Truth » in Schilpp, Paul Arthur (ed.), The Philosophy of Rudolf Carnap, La Salle, Open Court, 1963.

Chalmers, D., « The Foundations of two-Dimensional Semantics, in Garcia-Carpintero, Manuel & Macia, Josep (eds.), Two-dimensional Semantics Foundations and Applications, New York, Oxford University Press, 2006, pp. 55-140.

Coffa, A., The Semantic Tradition From Kant to Carnap : To the Vienna Station, Cambridge, Cambridge University Press, 1991.

Julh, C. & Loomis, E., Analyticity, Londres, Routledge, 2009.

Duhem, P., La Théorie physique, son objet, sa structure, 1907, Paris, Vrin, 2007.

Ebbs, G., Rules-Following and Realism, Havard, Havard University Press, 1997.

Ebert P., « Transmission of warrant-failure and the notion of epistemic analyticity », Australasian Journal of Philosophy 83 (4):505 – 521, 2005.

Frege, G., Les Fondements de l’arithmétique (1884), trad. Imbert, Claude, Paris, Seuil, 1970.

Frege, G., Basic Laws of Arithmetic I & II (1893/1903), ed. Ebert et Rossberg, Oxford, Oxford University Press, 2013.

Gluër, K., « Analyticity and Implicit Definition » in Grazer Philosophische Studien 66, 2003.

Grice, H., & Strawson, P., « In Defense of a Dogma », Philosophical Review 65, 1956, pp. 141-158.

Gödel, K., On Formally Undecidable Propositions of Principia Mathematica and Related Systems, 1930, trad. Meltzer, Bernard, New York, Dover Publication, 1992.

Harman, G., « Analyticity Regained », Noûs 30, 1996, pp. 392-400.

Hume, D., Enquête sur l’entendement humain, 1748, trad. Malherbe Michel, Paris, Vrin, 2008.

Jenkins, C.S, « Boghossian and epistemic analyticity », Croatian Journal of Philosophy 22 (1):113-127, 2008.

Kant, E., Prolégomènes à toute métaphysique future, 1783 trad. Gibelin, Jean, Paris, Vrin 1984.

Kant, E., Critique de la raison pure, 1781 ; (1787), trad. Renaud, Alain, Paris, Garnier-Flamarion, 2006.

Kant, E., Logique, 1800, trad. Guillermit, Paris, Vrin, 1989.

Kaplan, D., « Demonstratives » in, Kaplan, Perry & Weittstein (eds.), Themes From Kaplan, Oxford, Oxford University Press. pp. 481-563 (1989) ; tr. fr : « Démonstratifs » dans B. Ambroise & S. Laugier (dir.), Textes clé de la philosophie du langage, II, Paris, Vrin, 2011.

Katz, J., « Where Things now stand with the analytic-synthetic distinction ? » Synthèse 28, 1974, pp. 283-319.

Katz, J., « Analyticity, Necessity, and the Epistemology of Semantics », Philosophy and Phenomenological Research, 1997, pp. 1-28.

Kripke, S., La logique des noms propres, 1980, trad. Jacob, Pierre & Recanati, François, Paris, Les Éditions de Minuit, 1982.

Margolis, E., & Laurence, S., « Boghossian on Analyticity », Analysis 61 (4):293-302, 2001.

Putnam, H., « It ain’t necessarily so », Journal of Philosophy 59, 1962, pp. 658-671.

Putnam, H., « Analyticity and Apriority : Beyond Wittgenstein and Quine », Midwest Studies in Philosophy 4, 1979, pp. 423-441.

Putnam, H., « The analytic and The synthetic », Minnesota studies in the philosophy of science; 3, 1962, pp 358-397.

Putnam, H., « The Meaning of ‘Meaning’ », Minnesota Studies in the Philosophy of Science 7:131-193, 1975.

Quine, W., « Truth by Convention », Journal of Symbolic Logic, 1936, pp. 77-106.

Quine, W., « Les deux dogmes de l’empirisme », 1951, in Du point de vue logique, 1953, trad. Laugier, Sandra (dir.), Paris, Vrin, 2003.

Quine, W., « Carnap et la vérité logique », 1954, trad. Bonnay, Denis, in Les voies du Paradoxe et autres essais, trad. Bozon, Serge & Plaud, Sabine (dir.), Paris, Vrin, 2011.

Quine, W., Le Mot et la chose, 1960, trad. Gochet, Paul, Paris, Flammarion, 1978.

Russell, B., The Principles of Mathematics, vol. 1, Cambridge Univ. Press, 1903

Russell, G., Truth in Virtue of Meaning, New York, Oxford University Press, 2008.

Salmon, N., « Analyticity and apriority », Philosophical Perpectives 7, 1993, pp. 125-133.

Tarski, A., « The Semantic Conception of Truth and the Foundations of Semantics », Philosophy and Phenomenological Research 4, 1943, pp. 341-376.

Williamson, T., « Blind Reasoning », Supplement to the Proceedings of the Aristotelian Society 77 (1):249-293, 2003.

Wittgenstein, L., Tractatus Logico-philosophicus, 1921, trad. Granger Gilles Gaston, Paris, Gallimard, 1993.

Warren, J., « The possibility of Truth by Convention », Philosophical Quarterly 65 (258):84-93, 2015.