Philosophie analytique (A)
Comment citer ?
Engel, Pascal (2019), «Philosophie analytique (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/philosophie-analytique-a
Résumé
Il est plus facile de dire ce qu’a été la philosophie analytique que de dire ce qu’elle est aujourd’hui. C’est d’autant plus difficile qu’il y a eu de nombreux styles d’analyse, souvent en conflit les uns avec les autres, et de nombreuses conceptions de ce qu’il convient d’analyser - Le langage ? Le monde ? La pensée ? Les concepts ? - et des conceptions diverses des limites de l’analyse. La plupart des philosophes de l’ école analytique considèrent que l’analyse détaillée et minutieuse des concepts est une tâche primordiale de la philosophie et se défient des philosophies totalisantes et synthétisantes, mais très peu souscrivent à l’idée que la philosophie consiste uniquement en des analyses, et qu’elle n’a jamais aucune aspiration à montrer, selon le mot de Wilfrid Sellars, comment les choses se tiennent ensemble au sens le plus large des mots « choses » et « ensemble ».
La philosophie analytique est née, à la fin du dix-neuvième siècle et au début du vingtième siècle, d’une réaction à la fois contre l’idéalisme kantien et hégélien en Europe et d’un rejet des théories naturalistes et psychologistes de la connaissance. Ses principaux représentants, principalement en Angleterre et en Autriche, défendaient alors des formes de réalisme en métaphysique, en logique et en éthique, et prônaient des méthodes plus exactes en philosophie, fondées sur l’analyse logique des propositions, la description précise et l’usage des mathématiques. La philosophie analytique s’est ensuite incarnée dans les thèses du positivisme logique viennois, qui revendiquait une méthode scientifique et sémantique en philosophie et rejetait la métaphysique. Elle a, vers le milieu du vingtième siècle, pris la forme d’une analyse non plus du langage de la science, mais du langage ordinaire, sous l’influence de la philosophie à Oxford. Vers la fin du vingtième siècle, la philosophie analytique a pris définitivement ses distances avec le positivisme, et elle a vu à la fois le retour de la métaphysique et des conceptions naturalistes de l’esprit contre lesquelles elle s’était à l’origine insurgée. Bien qu’elle ait aujourd’hui cessé d’être prioritairement fondée sur la philosophie du langage et de la logique et qu’elle se soit diversifiée en de multiples méthodes et étendue à tous les domaines de la philosophie, son identité demeure associée à l’importance donnée aux descriptions détaillées, aux formalismes logiques et à l’analyse linguistique, qui définissent plus un style qu’une méthode particulière. En devenant le principal courant philosophique mondial, elle a perdu son unité, mais ceux qui la pratiquent conservent une tradition et une attitude héritée de ses origines, fondée sur le primat de la vocation théorique de la philosophie.
Table des matières
1. Un siècle de philosophie analytique
a. Les origines autrichiennes, allemandes et britanniques
i. Le réalisme austro-britannique
ii. Le tournant du Tractatus
b. Le positivisme viennois et son destin américain
c. L’analyse oxfordienne du langage ordinaire
d. La dissolution du positivisme logique et le retour du naturalisme
e. Langage, esprit et action
2. Domaines et thèmes de la philosophie analytique contemporaine
a. La philosophie du langage
b. Philosophie de l’esprit
c. Métaphysique
d. Philosophie des sciences
e. Philosophie de la connaissance et épistémologie
f. Philosophie de la religion
g. Psychologie morale, éthique et politique
h. Philosophie sociale
i.La politique des analytiques
j. Esthétique et philosophie de l’art
h. La philosophie analytique et l’histoire de la philosophie
3. La soi-disant philosophie post-analytique et la nature de la philosophie analytique
Bibliographie
1. Un siècle de philosophie analytique
a. Les origines autrichiennes, allemandes et britanniques
i. Le réalisme austro-britannique
La philosophie analytique a ses racines dans la tradition leibnizienne chez Bolzano (1837), basée sur un fond aristotélicien et réaliste opposé à l’idéalisme de Kant (Prihonsky 1818) d’une part, et dans l’empirisme britannique classique, d’autre part. Mais elle est née à la fin du dix-neuvième siècle d’une réaction au néo-kantisme allemand et au néo-hégélianisme anglais, et d’une opposition au positivisme et au naturalisme évolutionniste. En Autriche les bases de la philosophie analytique sont jetées par Franz Brentano, qui développe une psychologie descriptive fondée sur l’intentionnalité des états mentaux (1874), une théorie du jugement et un réalisme des valeurs en éthique, ainsi que par ses disciples comme Meinong (1888) qui seront des références centrales pour les philosophes anglais comme George Stout (1886), le premier à utiliser explicitement la notion d’analyse comme méthode de la philosophie. Les élèves de ce dernier, G.E. Moore et Bertrand Russell, développeront à Cambridge, en opposition aux hégéliens Green, Bradley et Mc Taggart, des formes de réalisme. Moore avança une théorie du jugement qui identifiait la réalité à des propositions composées de concepts objectifs et une éthique fondée sur une forme de platonisme intuitionniste. Russell, s’appuyant sur sa refonte des mathématiques, jetait les bases du logicisme sur lequel il fondait une métaphysique atomiste et pluraliste, radicalement opposée à la fois au monisme idéaliste et au pragmatisme de James. Bradley soutenait, à l’instar de Leibniz, la thèse selon laquelle toutes les relations (comme « A est à gauche de B ») sont internes à leurs termes, et réduisait, à l’instar de Hegel, tout jugement sur un individu (comme « Socrate est assis ») à un jugement portant sur le Tout ou l’Absolu. Russell prend le contrepied de ces doctrines et soutient qu’il y a des individus et des faits particuliers, qui ont entre eux des relations externes. Une autre des idées centrales de Russell (dans son article « On Denoting » (1905), à bien des égards considéré comme fondateur du style analytique en philosophie) était que les termes singuliers, comme les noms propres et les descriptions définies, ne dénotent pas des entités isolément, mais à travers des expressions qu’on peut analyser logiquement. Cette méthode de paraphrase logique devint l’une des pierres de touche de la philosophie analytique du vingtième siècle. A la même époque, à Iéna, un mathématicien solitaire, Gottlob Frege, proposait une réforme complète de la logique, basée sur l’identification à celle-ci des mathématiques (1879) anticipant Russell de vingt ans. Sur ce socle logique, mais aussi sur fond d’un héritage de philosophie traditionnelle (Angelelli 1967), Frege développa des distinctions qui allaient être essentielles à toute la tradition analytique du vingtième siècle en philosophie langage : entre le sens (Sinn) et la référence (Bedeutung) des signes, entre concept et objet, et entre pensée objective et représentation subjective, entre psychologie et logique. Il mena en logique et en mathématiques un combat fondateur contre le psychologisme de son époque. Mais ses idées pionnières, qui font de lui le véritable fondateur de la tradition analytique, ne furent connues que bien plus tard et seuls quelques philosophes comme Russell y prêtèrent attention. L’un des élèves de Brentano, Edmund Husserl (1900) reprit et développa les critiques de Frege contre le psychologisme en logique, qui était porté aussi bien par les courants néo-kantiens que par les naturalistes comme Haeckel et Mach, pour qui la logique était un produit de l’évolution biologique. Les Italiens, par l’intermédiaire de Giuseppe Peano, contribuèrent à la refondation de la logique, mais les Français, tout à leur allégeance au cartésianisme, à l’intuitionnisme en mathématiques, au vitalisme de Bergson et au conventionnalisme de Poincaré, tinrent à distance l’objectivisme analytique, et résistèrent durablement à l’idée que la logique puisse gouverner la méthode en philosophie.
A cette époque du tournant du siècle, les différences entre les écoles autrichienne, allemande et britannique n’étaient pas très grandes. Toutes trois partageaient un solide arrière- plan aristotélicien, l’idéal d’une méthode descriptive en psychologie, un réalisme quant aux concepts et aux valeurs et l’idée que la logique est centrale et normative pour les autres parties de la philosophie. Au cœur de cette première vague de la philosophie analytique est l’idée que les valeurs et les normes, aussi bien épistémiques que morales, sont absolument objectives et irréductibles à toute genèse biologique, psychologique ou sociale. Ce platonisme radical tranche avec autant l’idéalisme des néo-kantiens et avec la conception herméneutique des sciences de l’esprit de Dilthey qu’avec le naturalisme évolutionniste. Il met l’accent sur l’autonomie et la réalité des universaux et particulièrement des relations, sur le pluralisme ontologique, et sur l’idée que l’analyse logique doit gouverner la théorie de la connaissance. Un autre aspect central est le refus de considérer, à la manière hégélienne, les idées comme relatives à leur époque, et le souci de les considérer comme vraies ou fausses indépendamment de leur contexte historique et culturel. Ce sont ces ingrédients qui allaient définir la doctrine que Russell (1911) appela « réalisme analytique », puis « atomisme logique » (1914) : la réalité est composée d’atomes indépendants, dotés de propriétés et de relations réelles, composant des entités complexes qui sont des faits, et que l’on connaît à la fois par des actes d’intuition et par l’analyse logique de propositions objectives. Dans le même temps, Moore reformulait les bases de l’éthique sur une théorie platonicienne des valeurs. Ce réalisme ontologique, logique, et moral n’est pas sans relation avec celui qu’avaient défendu Brentano et Husserl. Ce n’est pas sans justification que cet esprit platonicien s’est trouvé plus tard associé au groupe littéraire de Bloomsbury, qui prônait en art et en sciences une réforme spirituelle et morale, en particulier face aux valeurs sociales et guerrières du premier conflit mondial.
ii. Le tournant du Tractatus
L’alliance austro-britannique se réalisa dans le Tractatus de Wittgenstein (1921) qui reprenait, dans une synthèse originale, nombre de thèses de Russell et de Frege, mais qui les infléchissait dans une direction plus « transcendantale ». La logique devient la condition de la description de la forme du monde, qui est composé de faits atomiques, mais ses propositions cessent d’être vraies en vertu d’une réalité autonome. Cette forme logique, isomorphe aux faits du monde, peut être montrée, mais pas « dite ». L’insistance de Wittgenstein, dès cette époque, sur l’idée que les lois logiques sont des tautologies vides de sens qui sont des règles et non pas des vérités au sujet d’un monde autonome, allait infléchir sérieusement la philosophie analytique naissante dans un sens antiréaliste et linguistique, hostile à l’idée qu’on puisse, à partir de la logique, articuler une métaphysique et une épistémologie. Chez Wittgenstein la logique devient essentiellement un instrument de traque du non-sens – particulièrement du non-sens philosophique même - et la philosophie est conçue comme une « activité » et non pas une « doctrine ». Le Tractatus reprenait l’idée qu’avançaient déjà Russell et Moore, selon laquelle la philosophie, en devenant « analytique » consistait essentiellement en une méthode de clarification des pensées et du langage, mais il détachait cette méthode de toute ambition ontologique. Ce thème critique, le dogmatisme et les tendances mystiques de Wittgenstein en moins, allait durablement influencer les fondateurs du Cercle de Vienne, qu’ils se revendiquent, comme Schlick, de la tradition empiriste, ou que, comme Carnap, ils aient des prémisses kantiennes. Mais à partir de cette époque, la philosophie austro-allemande se divisa en deux camps. L’un garda l’inspiration de Brentano, et se développa autour de Husserl qui dès 1913 abandonnait son réalisme pour opérer un tournant idéaliste en phénoménologie. L’autre garda plutôt l’inspiration de Mach, et reformula les thèses du positivisme à partir de la nouvelle logique et de la révolution des idées en physique.
b. Le positivisme viennois et son destin américain
Le Cercle de Vienne que l’allemand Moritz Schlick fonda au début des années 1920 avec des philosophes, des mathématiciens et des physiciens, parmi lesquels Rudolf Carnap, Hans Hahn, Otto Neurath, Philipp Franck et Herbert Feigl, et qui avait des correspondants à Berlin, comme Hans Reichenbach, et en Pologne comme Alfred Tarski, revendiquait à la fois l’héritage de la philosophie de Russell et de son logicisme, celui de l’empirisme de Mach, et celui de la physique d’Einstein, en promettant une nouvelle alliance entre les sciences et la philosophie (Bonnet et Wagner 2006). Les fondateurs du Cercle étaient aussi bien des mathématiciens et des physiciens que des philosophes. Il se voulait une critique, au sens kantien, de la science, mais sur la base de doctrines anti-kantiennes : rejet du synthétique a priori, assimilation de l’a priori à l’analytique, défense de l’empirisme en théorie de la connaissance, et surtout dénonciation de la métaphysique comme paradigme du non-sens. L’une des thèses les plus discutées des positivistes viennois fut le vérificationnisme : toute proposition est un non-sens, si elle n’est pas fondée sur des comptes rendus d’expérience ou si elle n’est pas analytique, c’est-dire vraie en vertu de sa signification. Ce programme était fortement inspiré par le conventionnalisme de Poincaré selon lequel les lois scientifiques, y compris celles de la géométrie, sont des conventions. Il promettait d’instaurer « la méthode scientifique en philosophie » et de faire de la philosophie essentiellement une analyse du langage de la science, débarrassée de ses scories métaphysiques. Mais d’emblée ce programme, et le critère vérificationniste de la signification, rencontrèrent des objections, y compris au sein du Cercle. Carnap produisit, avec son Aufbau der Welt (1928), la plus ambitieuse synthèse de transcendantalisme kantien et d’empirisme (Proust 1986). Son projet était de reconstruire, sur la base de conditions empiriques minimales, et avec l’usage des seuls concepts de la logique des relations, l’ensemble de la connaissance et de la culture et de monter comment un savoir objectif est possible. Dans sa Syntaxe logique du langage (1934) il entreprit de reconstruire l’ontologie et les mathématiques sur la logique. Mais d’autres philosophes viennois, comme Neurath, doutaient de la possibilité de fournir une « base empirique » à la science. Ils rejetaient l’idée qu’on puisse tenir certaines propositions d’observation (synthétiques) comme des fondements pour la connaissance, et développaient une forme de holisme proche de celui de Duhem (et que reprendra Quine), selon lequel les énoncés scientifiques rencontrent l’expérience globalement, et non pas de manière isolée. Le vérificationnisme viennois fut aussi battu en brèche par Popper (1935) qui lui opposa son critère de réfutabilité des hypothèses, et développa une vision de la science plus proche du rationalisme critique kantien. La branche viennoise ne fut pas la seule. En Pologne l’influence autrichienne se manifesta surtout à travers l’œuvre du brentanien Twardowski, le fondateur de l’Ecole de logique Lvow-Varsovie, dont les grands représentants furent Lukasiewicz, Lesnievski et Tarski. L’empirisme viennois y fut toujours tempéré de réalisme aristotélicien.
A cette époque, on ne parlait pas encore de « philosophie analytique » pour désigner l’ensemble de ces courants européens. C’est essentiellement à partir des années 1940, lorsque le positivisme logique essaima aux Etats-Unis, essentiellement à la suite de l’exil des principaux membres du Cercle de Vienne à partir de la moitié des années 30, que ce terme prévalut. L’empirisme logique y rencontra les courants pragmatistes, qui partageaient avec lui l’idéal d’une philosophie scientifique et expérimentale, mais qui n’avaient pas toujours abandonné leurs bases idéalistes et hégéliennes. C’est à cette époque que la philosophie des sciences du positivisme prit son expansion et que se développèrent ce qu’on allait appeler ses « dogmes », qui étaient souvent moins des articles de doctrine que des hypothèses de travail collectif. C’était d’abord, sur le plan sémantique, la division tranchée entre les énoncés analytiques, vrais en vertu de leur signification, et les énoncés synthétiques, vrais en vertu de l’expérience, ainsi que l’idée, que Carnap reprit de Tarski, selon laquelle on peut définir la vérité de manière minimale, relativement à un langage, à travers le principe d’équivalence ‘P’ est vrai si et seulement si P. Ensuite, sur le plan épistémologique, la division entre les énoncés d’observation et les énoncés théoriques. Sur cette base les positivistes développèrent un ensemble de doctrines sur la probabilité, l’induction, la causalité et l’explication (notamment le modèle « déductif-nomologique » de Hempel, qui veut que toute explication soit une déduction à partir d’une loi et d’un fait). La philosophie, entre les mains des positivistes, devait se limiter à la construction d’une « logique de la science » et surtout procéder de manière scientifique, sur la base de l’expérience et de l’analyse logico-mathématique, en écartant les thèses portant sur l’éthique (réduite à l’expression des émotions), l’esprit (réduit au cerveau à travers la thèse de l’identité du mental et du physique), en distinguant, comme le prônait Carnap les questions « internes » au langage de la science, et les questions « externes » (comme celles de l’ontologie et de la nature des universaux). Les positivistes espéraient transformer la philosophie en lui donnant une tâche collective, essentiellement celle de l’analyse logique des théories scientifiques. Mais derrière les manifestes communs, les positions des membres de l’école positiviste demeuraient souvent conflictuelles, et les personnalités s’opposaient souvent. Wittgenstein avait peu de sympathie pour ce style collectif et pour les tonalités scientistes du programme viennois. Schlick était nettement fondationnaliste et empiriste en théorie de la connaissance, alors que Neurath était holiste et conventionnaliste. Carnap avait une conception foncièrement neutraliste de l’ontologie (qui n’est affaire que de choix pragmatique d’un langage), alors que d’autres auteurs penchaient pour des formes de nominalisme. Les notions modales sont pour Carnap des notions essentiellement sémantiques, qui n’engagent pas à postuler des essences ou des natures, et la logique doit se fonder sur des notions intensionnelles. C’est sur ces points que la divergence entre Carnap et Quine s’accentuera. Dès 1951, ce dernier dénonce les dogmes du positivisme que sont la distinction analytique/ synthétique et a division théorie/observation, et il propose un critère d’engagement ontologique (« être c’est être la valeur d’une variable ») qui implique l’abandon du neutralisme carnapien, et avoue sa préférence pour le nominalisme ontologique, l’extensionnalisme en logique, et l’exclusion des notions modales du langage de la science, avant de contester la notion même de signification.
c. L’analyse oxfordienne du langage ordinaire
La branche américaine et la branche britannique de la philosophie analytique avaient commencé à diverger dès le début du siècle. Russell et Moore avaient pris toutes leurs distances avec le pragmatisme de James et de Dewey, dans lesquels ils voyaient des formes de monisme idéaliste et d’instrumentalisme. Même s’il avait influencé les Viennois par son logicisme et sa conception scientifique de la méthode en philosophie, Russell n’a jamais rejeté le fondationnalisme en épistémologie ni la thèse de la réalité des universaux. Moore avait défendu une forme d’intuitionnisme réaliste en éthique bien éloignée de l’émotivisme des viennois et développait sa propre version de la philosophie du sens commun héritée des Ecossais. Le philosophe anglais le plus proche du pragmatisme, Frank Ramsey, qui était sans doute le seul vrai disciple anglais de Peirce, mourut trop jeune pour que ses contributions essentielles en logique et en théorie des probabilités (Ramsey 1930) soient reconnues de son vivant. Mais il influença néanmoins fortement Wittgenstein quand ce dernier revint à Cambridge au début des années 1930. Il y développa des thèses très différentes de celles du Tractactus rejetant le projet d’une analyse de la pensée à travers le langage idéal de la logique, critiquant les doctrines fondationnalistes en philosophie des mathématiques et en théorie de la connaissance. Il développait la descriptive des philosophes brentaniens (Mulligan 2012), en particulier en psychologie, à travers l’analyse des énoncés du langage ordinaire. Ce type d’analyse avait pour but de mettre à jour des règles « grammaticales » qui gouvernent le langage et la pensée, fondées sur des « formes de vie » elles-mêmes infondées en raison. L’influence des idées de Wittgenstein s’étendit de Cambridge à Oxford, où elle rencontra un fonds aristotélicien. La parution des Philosophische Untersuchungen en anglais traduit par Elisabeth Anscombe en 1958, celle du Concept of Mind de Ryle (1949) et les premiers essais de J.L. Austin allaient consacrer le type de philosophie qu’on a appelé « analyse du langage ordinaire ». Sa méthode consistait à produire, à partir d’un examen descriptif minutieux de différents types d’expressions de la langue anglaise, leurs trames d’usage, afin de déterminer des « cas paradigmatiques » de leur emploi. Cette analyse avait pour but de confronter ces usages ordinaires à ceux des philosophes et des logiciens, en vue de montrer que ceux-ci excédaient les limites du sens. La distinction du sens et du non-sens n’était plus réglée par la syntaxe ou la sémantique, ou par la logique, mais par l’usage. Cette méthode fit florès, notamment sous l’influence d’Austin (1961) qui l’appliqua aux verbes d’action et aux énoncés « performatifs ». Elle était une transposition au langage des analyses de Brentano et de ses disciples, et dans une grande mesure de celles de Moore, mais elle consacra l’idée, encore très répandue aujourd’hui, selon laquelle la philosophie analytique n’est rien d’autre qu’une analyse fine du langage ordinaire, et qu’elle consacre l’autorité du sens commun à travers l’usage linguistique. Austin lui-même concevait ses analyses comme une sorte de phénoménologie ou d’herméneutique du langage ordinaire, rejoignant, sur des bases très différentes, le neutralisme de Wittgenstein et de Carnap quant aux prétentions métaphysiques de la philosophie. Il critiquait, par son analyse des actes de langage et des performatifs, l’illusion «descriptiviste » d’une bonne partie de la philosophie analytique antérieure, et dénonçait les illusions des métaphysiciens tout autant que celles des logiciens. Mais d’autres philosophes d’Oxford, comme Strawson (1959), proposèrent des versions plus spéculatives de cette analyse du langage ordinaire. Ce dernier défendit à partir d’elle un projet de « métaphysique descriptive » où il s’agissait de reprendre le projet kantien d’une analyse des conditions de possibilité de l’expérience, non pas sur la base d’une théorie des facultés, mais sur la base d’une conception linguistique des concepts et des intuitions kantiennes. S’appuyant sur sa critique de la théorie de la dénotation de Russell, Strawson montrait que notre schème conceptuel commun est sous tendu par la référence à des individus dans un cadre spatio-temporel, et proposait ainsi de renouveler la philosophie transcendantale à partir de la philosophie du langage ordinaire, en rejetant tout projet « réformiste » basé sur la structure d’une langue logique idéale.
d. La dissolution du positivisme logique et le retour du naturalisme
A partir de la fin des années 1950, alors même que l’on assistait à ce que l’on a appelé l’âge d’or de la philosophie analytique, la philosophie des sciences du positivisme logique perdit sa prééminence. Les « dogmes » de la distinction entre des énoncés vrais uniquement en vertu de leur signification et des énoncés vrais en vertu de l’expérience, et de la distinction tranchée entre théorie et observation furent mis à mal lorsque des auteurs comme Norwood Russell Hanson et Thomas Kuhn, adoptant une perspective historique, montrèrent que l’observation est « chargée » de théorie et qu’il est impossible de concevoir le progrès scientifique sans reconnaître l’existence de « paradigmes » et de « révolutions » , dont une analyse logique de la structure des théories scientifiques a du mal à rendre compte. Mais c’est surtout la critique par Quine des idées de Carnap, qu’il a partagées longtemps, qui allait conduire à réviser les principes sur lesquels la philosophe positiviste reposait. La notion sémantique d’analyticité des positivistes viennois impliquait celle de synonymie ou d’identité de signification. Quine (1960) la mit en question sur la base de l’expérience de pensée de la « traduction radicale » destinée à montrer que la traduction, et donc la signification, est nécessairement indéterminée. Il adopta le principe holiste de Duhem, selon lequel la vérification des hypothèses scientifiques ne se fait pas sur des énoncés individuels d’observation, mais collectivement, en impliquant la science tout entière. L’idée d’une « structure de la science » indépendante des changements historiques, et reconstructible sur la base de l’expérience, s’en trouvait menacée. Quine rejeta deux autres idées centrales de Carnap. La première était son neutralisme ontologique, selon lequel on peut construire des langages à partir de règles sémantiques qui n’engagent pas à postuler des entités indépendantes de ce langage. La seconde était l’autonomie de la philosophie : à partir du moment où la philosophie ne pouvait plus être l’étude a priori des significations, il n’y entre elle et la science qu’une différence de degré et de généralité, et non pas de nature. Le naturalisme, que Quine réintroduisait avec sa critique de la signification mentale et de l’intentionnalité, implique qu’il n’y a pas une sphère autonome du mental, contrairement au principe de base de la phénoménologie, mais aussi que le langage et la théorie de la signification n’est pas l’arbitre ultime de la validité des énoncés philosophiques.
Le déclin des idéaux positivistes libéra la philosophie analytique de trois interdits. Le premier portait sur la métaphysique. A partir du moment où il n’était plus légitime de distinguer les questions « internes » au langage de la science et les questions « externes » portant sur sa référence des entités du monde, des problèmes tels que ceux de la nature de ces entités, de leurs propriétés universelles ou non, de la relation de nos énoncés à la réalité, pouvaient être posés à nouveaux frais. La métaphysique revint surtout sous la forme d’un renversement de la conception des modalités. L’un des dogmes positivistes – partagé par Wittgenstein et les Oxoniens - était qu’il n’y a de nécessité et de possibilité que linguistique. Quine n’acceptait ni l’idée qu’il peut y avoir de la nécessité dans les choses ni l’essentialisme. Mais ses élèves, comme David Lewis et Saul Kripke remirent au premier plan la question du réalisme modal. David Lewis (1973) reprit l’analyse carnapienne des énoncés contrefactuels ( de la forme « si p était le cas, q serait le cas ») mais la reformula en termes de la vérité de ces énoncés relativement à des mondes possibles. Kripke, à la suite de Ruth Barcan Marcus (1993) donna une sémantique pour la logique modale quantifiée et remit sur le tapis la question russellienne de la référence. Dans un article qui allait faire date, Naming and Necessity (1971, 1981), Kripke reformula la théorie purement dénotative des noms propres qu’avait jadis défendue Mill, et montra que les notions de nécessité et d’a priori n’étaient pas coextensives.
Le second interdit qui pesait sur les travaux des positivistes et des philosophes du langage ordinaire portait sur le problème des relations de l’esprit et du corps. Ou bien l’on l’évacuait au nom du béhaviorisme ou bien on le traitait comme un simple problème grammatical. Les philosophes australiens Jack Smart et David Armstrong remirent à l’honneur la théorie de l’identité esprit-cerveau, et ses difficultés conduisirent des philosophes comme Putnam (1965) à développer une conception rivale, le fonctionnalisme, qui identifiait les états mentaux à leur fonction ou à leur rôle causal, par analogie avec le logiciel d’un ordinateur. A la même époque la psychologie rompait avec le behaviorisme, la linguistique de Chomsky faisait du langage l’expression de l’esprit humain, et les sciences cognitives se constituaient. Les problèmes de la nature de la conscience, de la mémoire, des images, de la perception, et la discussion des grandes doctrines dualistes et matérialistes n’avaient jamais vraiment quitté la philosophie analytique. Mais la tentation de traiter du mental à partir de la signification des termes mentaux devint moins grande. La philosophie du langage, à la fin du vingtième siècle apparut plus souvent comme fondée sur la philosophie de l’esprit que l’inverse.
Le troisième interdit levé par le déclin du positivisme fut celui de la possibilité d’une théorie de la connaissance. En un sens les œuvres des Viennois appartiennent intégralement à ce qu’en allemand on appelle Erkenntnistheorie et anglais epistemology. Mais celles-ci se trouvaient le plus souvent assimilée à une théorie du langage de la science. Les philosophes anglais au contraire demeuraient préoccupés par le problème du scepticisme et de la validité des croyances du sens commun, qu’ils devaient essentiellement à l’influence de Russell et surtout de Moore., Les dernières notes de Wittgenstein sur la certitude témoignent de cette préoccupation également. Mais partir du moment où la théorie de la connaissance fut dissociée d’une théorie du langage, elle put reprendre ses droits. Les acteurs de ce renouveau aux Etats-Unis furent Roderick Chisholm, le principal représentant de la phénoménologie réaliste et Wilfrid Sellars, qui défendait une forme de kantisme. L’épistémologie s’attela à la définition du concept même de connaissance, comme croyance vraie justifiée, qu’un article fameux de E. Gettier (1963) avait contesté, et sur cette base des programmes d‘analyse de la notion de justification s’élaborèrent, tendant à unifier les théories de l’esprit, du langage et de l’action proposées par les philosophes analytiques de la fin du vingtième siècle.
e. Langage, esprit et action
Le déclin du positivisme dans les années 1960 fit perdre à la philosophie analytique son unité. Elle n’en conserva pas moins l’héritage des concepts et des méthodes qu’elle avait reçus de sa tradition, et ne cessa pas de se développer sous la forme de programmes destinés à expliquer les notions centrales de la philosophie. L’analyse de la notion de signification était une sorte de Graal pour les philosophes analytiques, au point qu’on pouvait croire qu’ils ne s’occupaient que de la question du sens et du non-sens dans le langage. Devait-on tenir cette notion comme primitive ou l’analyser en termes de référence des signes et en termes de conditions de vérité ? Fallait-il considérer les significations comme des entités mentales ou comme de entités abstraites ? Le scepticisme de Wittgenstein et de Quine quant à la possibilité de donner une analyse ultime et définitive de la notion de signification n’interdisait pas de fournir des théories et des explications systématiques de cette notion. Trois programmes en particulier occupèrent les philosophes du langage. Le premier était basé sur l’idée de Quine selon laquelle une théorie de la signification est d’abord une théorie de la traduction et de l’interprétation du discours. Il était avancé par Davidson (1984), qui proposait qu’une théorie de la signification pour une langue donnée prenne la forme d’une théorie de la vérité et des conditions de vérité dans le style de celle que Tarski (1930) avait proposée pour les langues formelles. Davidson entendait associer ce projet sémantique à une théorie de l’interprétation conjointe du langage, de la pensée et de l’action.. Le second était celui de Dummett (1973), qui proposait de partir de la notion frégéenne de sens comprise comme ce que comprend un locuteur et de celle de condition d’assertion, en s’inspirant de la logique intuitionniste. Sur cette base Dummett développait une métaphysique antiréaliste. Le troisième programme était celui avancé par Grice (1956), qui proposait de partir de la notion d’intention de communication et de fonder une sémantique sur des bases mentalistes. Qu’on recoure plus ou moins à des notions psychologiques, l’analyse de la signification et de la référence devaient, pour les philosophes analytiques, reposer sur des notions comme celle d’intention et de croyance. Sur cette base, Grice proposa une analyse de la conversation axée sur l’idée que celle-ci est réglée par des maximes qui ne portent pas seulement sur la vérité, mais sur la réussite et la pertinence des énoncés dans la communication. Cet engagement psychologiste, véritable retournement pour une tradition qui était partie du début du vingtième siècle d’un antipsychologisme de principe, pouvait varier. Il était minimaliste chez Davidson et maximaliste chez ceux qui, comme Fodor (1975) soutenaient, à l’instar de Chomsky, que le langage est un produit de l’esprit et que la signification est basée sur un « langage de la pensée » ou langage mental inscrit littéralement dans le cerveau.
Dummett avait postulé que depuis Frege le cœur de la philosophie devait être la philosophie du langage, et non l’épistémologie ou l’ontologie, et certainement pas une théorie de l’esprit et du mental. Mais la philosophie analytique des trente dernières années a rejeté en partie ce postulat. Aucun domaine ne l’illustre aussi clairement que la théorie de la référence. L’analyse des expressions référentielles (noms propres, descriptions, démonstratifs et indexicaux) a toujours été l’un des centres d’intérêt principaux des philosophes analytiques. C’est même l’attention prêtée à ce problème qui rend cette tradition très différente de celle du structuralisme post-saussurien (Pavel 1988). Mais comme l’avait déjà vu Russell (1940), il n’est pas possible de rendre compte des « particuliers égocentriques » (tels que je, ici, maintenant) sans supposer qu’il existe une indexicalité mentale. Toute la théorie de la référence repose sur l’idée que nous manipulons une information mentale (Evans 1982, Perry 1993, Recanati 2006). Searle fonde sa théorie des actes de langage sur l’intentionnalité du mental. Dummett (1993) voyait avec raison dans les origines fregéennes de la philosophie analytique des similitudes avec celles de la phénoménologie husserlienne. Mais on peut se demander aussi si la première n’est pas en fait revenue au psychologisme qu’elle avait initialement rejeté.
2. Domaines et thèmes de la philosophie analytique contemporaine
A la fin du vingtième siècle et au début du vingt et unième, on ne pouvait plus dire que les domaines de prédilection de la philosophie analytique se limitaient à la logique, à la philosophie des sciences et à la philosophie du langage. Non seulement cette image répandue de l’étroitesse des intérêts et des méthodes de la philosophie analytique était fausse dès les débuts du courant, puisque ses fondateurs autrichiens et anglais écrivaient autant sur la psychologie, la théorie de la connaissance, l’esthétique et l’éthique que sur les problèmes de la logique et du langage, mais chacun de ces domaines s’était développé de manière autonome, à la fois en raison de la professionnalisation et de la spécialisation accrues du travail philosophique et en raison de l’impossibilité pour les philosophes du vingtième siècle de pouvoir sérieusement maîtriser plusieurs domaines de compétence. L’image même que les philosophes analytiques entendaient donner d’eux-mêmes était plus proche de celle que proposait Locke du philosophe comme ouvrier et underlaborer que de celle du constructeur de systèmes à la manière des idéalistes allemands. Celle qui prévaut aujourd’hui est beaucoup plus éclatée. Presque tous les secteurs de la philosophie traditionnelle sont à présent représentés au sein du courant analytique, sans que l’un d’eux puisse revendiquer le statut de « philosophie première » par rapport aux autres. Dans les années 50, on pouvait avoir l’impression que les philosophes analytiques traitaient toutes les questions philosophiques sous l’angle du langage et de la signification linguistique, et qu’elle était , pour reprendre un terme de Ryle, un sujet de « second-ordre », autrement dit une philosophie au sujet des questions philosophiques et non au sujet des problèmes de premier degré qui occupent la philosophie traditionnelle. C’est pourquoi bien des livres portaient des titres comme « le langage de la morale », « la signification des énoncés mathématiques », ou le « langage du mental ». La confiance méthodologique en cette ascension sémantique, passant des choses aux significations, a vécu, et les philosophes analytiques sont revenus au premier degré, et on cessé de parler uniquement de significations. Mais ils n’ont pas pour autant abandonné l’idée que clarifier ce dont on parle est essentiel à la pratique philosophique, ni l’idée que le langage est souvent, bien plus que l’intuition, un guide. L’image qui ressort de leurs enquêtes est celle d’une recherche vivante, mais très diverse et cloisonnée , et au sein de laquelle les grands programmes du début du vingtième siècle ont laissé place à des entreprises plus locales et moins soucieuses de refonder la philosophie sur telle ou telle base unique. En ce sens, la philosophie analytique, qui n’a jamais aspiré à être systématique, apparaît encore plus comme un archipel, même si les entreprises systématiques n’y sont pas absentes.
a. La philosophie du langage
A ses origines chez Russell et Frege, la philosophie analytique du langage visait à redéfinir les notions centrales de signification, de proposition, de référence ou de prédication à partir du modèle d’une langue idéale, dont la logique nouvelle fournissait le modèle : la référence était analysée en termes de quantification, la prédication en termes d’association d’un prédicat à une variable, et la signification en termes de conditions de vérité. La logique fournissait un moyen de se libérer des formes de la grammaire et de l’usage des langues vernaculaires. Cet idéal fregeo-russellien était encore celui des positivistes logiques et surtout de Carnap (1947), qui entendait redéfinir les notions traditionnelles en termes d’une syntaxe et d’une sémantique logique et axiomatisée. Mais sous l’influence principalement du second Wittgenstein, puis des philosophes de l’école d’Oxford, l’idée qu’on ne peut analyser la signification qu’à partir des langues logiques a perdu son attrait, à la fois en raison du peu d’adéquation descriptive de ceux-ci et parce que les ressources critiques de la langue ordinaire pour la philosophie sont apparues au moins aussi riches, et souvent plus perspicaces que celles de la logique. L’accent mis sur l’usage linguistique et la conversation a conduit des philosophes comme Austin à insister sur l’idée que parler une langue est une forme d’action et à développer une théorie des actes de langage (qu’avait jadis formulée le phénoménologue Adolf Reinach), et Paul Grice à faire revivre l’analyse lockéenne de la signification en termes psychologiques. Ni Frege ni Russell n’avaient ignoré le fait que les langues vernaculaires, à la différence des langues logiques, contiennent nombre de termes indexicaux qui relativisent le sens au contexte, et les philosophes de tradition pragmatiste avaient suivi C.S. Peirce dans son idée qu’un des composants essentiels du signe est l’index, relatif au contexte de l’énonciation. Mais ils n’avaient pas envisagé l’option qu’ont adoptée nombre de philosophes du langage analytiques contemporains selon laquelle la signification linguistique pourrait être essentiellement pragmatique, reposant sur des types d’actes (Searle 1969) et sur des mécanismes démonstratifs qui relativisent les énoncés systématiquement à des facteurs subjectifs des locuteurs et à des contextes variables d’usage. Il est intéressant de voir que pratiquement toute la théorie de la référence, si centrale au sein de la philosophie analytique, s’est progressivement déplacée de la logique à la sémantique, puis à la pragmatique et à la théorie de l’intentionnalité et de la subjectivité. La question n’est plus de savoir s’il faut ou non inclure dans une analyse du sens les facteurs pragmatiques. Elle est de savoir jusqu’à quel point. L’option la plus radicale consiste à soutenir qu’il n’y a aucun élément de la signification qui échappe à la relativité contextuelle : toute signification est le produit des intentions de communication et de facteurs contextuels (Sperber-Wilson 1986). Comment alors rendre compte de la dimension sémantique et lexicale du sens ? La sémantique requiert des conditions de vérité, et les analyses de la signification en termes vériconditionnels ont continué de dominer la philosophe du langage, aussi bien dans la tradition chomskyenne que dans celle de la sémantique formelle (Montague 1970, Davidson 1984). On a abandonné l’idéal de construire une sémantique formelle universelle, mais la linguistique et la pragmatique formelles ont développé des analyses de la quantification, des adverbes, des termes de masse, des conditionnels et des temps verbaux qui excèdent en sophistication tout ce que les logiciens avaient imaginé. Plus spéculativement, les théories naturalistes de la signification de Dretske (1981) et Millikan (1993) ont voulu construire l’intentionnalité en termes causaux et informationnels, mais elles ne sont jamais parvenues à donner une analyse causale de la signification linguistique communication.
b. Philosophie de l’esprit
La philosophie de l’esprit est devenue, dans les dernières années du vingtième siècle la branche principale de la philosophie analytique, en grande partie sous l’influence des sciences cognitives et des progrès des neurosciences. Elle s’est développée dans trois domaines principalement : la métaphysique de l’esprit, la cartographie du mental et les théories des émotions, de l’action et de la perception.
La métaphysique de l’esprit a été dominée depuis les années 60 par la recherche de versions acceptables de matérialisme. La théorie de l’identité esprit-cerveau, reposant sur le modèle d’une réduction des lois du mental à des lois du physique, a paru improbable ou conduire à des formes d’élimination du mental, dont seuls des auteurs comme Churchland (1984) ont épousé sans sourciller les conséquences. La plupart des philosophes de l’esprit ont adopté des formes de matérialisme non réductionniste ou de fonctionnalisme selon lequel l’esprit n’est pas une substance, mais un ensemble de fonctions causales. Ces versions de naturalisme visaient à conserver l’identité des événements mentaux à des événements physiques, sans pour autant accepter que les lois de la psychologie se réduisent à des lois physiques (Davidson 1980, Fodor 1973). Leurs défenseurs ont adopté souvent le modèle d’une relation de dépendance du mental par rapport au physique, sans réduction, dont ils ont trouvé le modèle dans l’aristotélisme médiéval, la survenance du mental sur le physique. Mais il est loin d’être clair qu’il ne s’agisse pas d’une forme de réduction (Kim 1995, Kistler 2016). D’autres philosophes ont été tentés par des formes de dualisme ou de panpsychisme, qui rappellent la thèse du monisme « neutre » que défendaient James et Russell au début du vingtième siècle en remettant au centre de la philosophie de l’esprit une théorie de la conscience (Chalmers 1996).
Les travaux sur la relation de l’esprit et du corps des années 1950 et 1960 avaient tendance à placer plus ou moins sur le même plan tous les états mentaux et à les limiter à deux traits : conscience et intentionnalité. Mais cette division élémentaire ignore la diversité du domaine du mental, et la cartographie s’est complexifiée. On a distingué plus nettement la question de la représentation mentale et de l’intentionnalité de celle des qualia et des états dotés de propriétés phénoménales. On a dissocié plus nettement le domaine des attitudes propositionnelles (croyances, désirs, intentions, volitions) de celui des actions et des perceptions. Anscombe (1957) et Davidson (1980) tendaient à traiter l’intention comme une conjonction de désirs et de croyances et non comme un événement mental autonome. Mais cette conception est apparue de plus en plus comme étroite, et incapable de rendre compte des intentions antérieures aux actions et des plans. Les sciences cognitives ont incité de plus en plus les philosophes de l’esprit à rapprocher l’action et la perception, à analyser les relations entre celles-ci et la mémoire, d’abord sur le modèle, avancé notamment par Fodor (1983) de la modularité des fonctions mentales, puis à partir de modèles plus intégrés, donnant plus de place au soi dans la constitution de l’agir. Souvent absente des théories fonctionnalistes du mental, cette notion est devenue centrale dans les théories de l’esprit contemporaines, tout comme celle de connaissance de soi. La carte de l’esprit a été également redessinée par l’attention plus grande qu’on a porté à la nature des émotions, à leur variété, et à leur relations à la fois avec la rationalité et avec les valeurs (De Sousa 1987, Deonna et Teroni 2012). On a aussi redessiné le territoire des attitudes propositionnelles, en analysant non plus seulement la croyance, mais des attitudes de même famille, telles que les acceptations, les suppositions, les jugements, les espoirs et leurs relations à la cognition sur la cognition, ou métacognition (Proust 2016).
Les théories de l’intentionnalité avaient tendu à se diviser entre celles qui reposaient sur la notion de représentation mentale et celles qui la refusaient, et au sein des premières entre celles qui admettaient l’existence de représentations non conceptuelles et non linguistiques d’une part, et celles qui traitaient les représentations comme internes au cerveau ou nécessairement externes. Ces divisions entre des formes d’ « internalisme » et des formes d’externalisme » n’ont pas disparu, mais elles se sont radicalisées, opposant des conceptions néo-brentaniennes de l’intentionnalité et des formes de dualisme à des conceptions externalistes qui placent l’esprit au dehors dans l’environnement.
Les sciences cognitives ont redéfini le territoire de la philosophie de l’esprit et de la psychologie. Mais l’idée d’une compréhension scientifique de l’esprit comme partie de la nature qui leur est associée n’est pas loin de là, commune à tous les philosophes dans ce domaine. Beaucoup sont fidèles à l’idée wittgensteinienne et rylienne selon laquelle l’esprit n’est pas, comme la conscience selon Descartes, une intériorité ni une partie de la nature. Ils basent souvent leur rejet des sciences cognitives sur les arguments de Wittgenstein sur les règles et le langage privé (Bouveresse 1976), et sur le caractère essentiellement social du langage et de l’esprit. Mais si le mental se réduit à un ensemble de concepts propres à nos formes de vie et notre langage, on ne voit plus très bien en quoi il peut y avoir quelque chose comme une philosophie de l’esprit comme domaine autonome. L’horizon d’analyse est plutôt celui d’une anthropologie ou d’une philosophie sociale, dont les relations avec les sciences sociales proprement dites sont peu claires.
c. Métaphysique
La métaphysique et l’ontologie, même si elles furent largement absentes de la séquence positiviste et post-wittgensteinienne de la philosophie analytique, ont été toujours centrales : chez les brentaniens, chez Russell et Moore, et depuis la critique quinienne du positivisme, tous les philosophes qui ont mis les modalités aucentre de leurs théories, comme David Lewis, Saul Kripke, ou qui ont formulé des théories des universaux, des essences et de la causalité. Pratiquement tous les problèmes classiques de la métaphysique, comme celui de la nature du mental et de sa relation au physique, ou celui du libre arbitre, sont revenus sur le devant de la scène à la fin du vingtième siècle.
Les problèmes de la nature des substances (individus ou faisceaux de propriétés ? entités continues ou tranches spatio-temporelles (Benovksi 2010) ? , propriétés (universaux ou individus abstraits (« tropes »), nominalisme strict ?) de la nature de l’espace (substantiel ou relationnel), du temps (présentisme ou éternisme ?) de l’identité (matérielle ou formelle ?), de la nature du nécessaire et du possible, de la causalité et des lois, des dispositions et des natures sont revenus au premier plan. Les problèmes classiques de l’ontologie (y a-t-il des genres d’être et des catégories ? des modes d’existence ?) et de l’onto-théologie (Dieu est-il un être ? si oui lequel ? existe-t-il ?) sont restés centraux (Mulligan 2000, Nef 2004). Mais ils ont été également redessinés. On peut penser ici à la manière, sans équivalent au sein de la philosophie contemporaine, dont s’est développée la philosophie de la vérité. Russell, au début du vingtième siècle, avait opposé les théories de la vérité comme correspondance à celles comme cohérence des hégéliens et aux théories pragmatistes. Mais la gamme des théories possibles de la vérité s’est étendue, incluant diverses conceptions minimalistes reposant sur l’idée qu’il n’y a rien de plus dans la vérité que le simple principe d’équivalence de « Il est vrai que p » et de « p », et des théories qui analysent la vérité non plus comme une relation de correspondance mais comme fondée sur des entités dans le monde rendant vraies les propositions, les « vérifacteurs » (Armstrong 2003, Monnoyer 2004), ce qui n’est autre que ce qu’Aristote appelait l’être en tant que vrai. En ce sens la théorie de la vérité est devenue partie intégrante de la métaphysique contemporaine (Engel 2002, Künne 2005).
Les deux philosophes qui ont le plus contribué au renouveau de la métaphysique analytique sont David Armstrong et David Lewis. Le premier a développé une métaphysique scientifique et matérialiste fondée sur une théorie des universaux (1979), une forme d’atomisme logique reconnaissant l’existence autonome de faits et d’états de choses. Le second a construit une métaphysique fondée sur l’idée qu’il y a une infinité de mondes possibles tout aussi réels que le monde réel, reliant des individus et des faits isolés (Lewis 1986), qu’il a appliquée à l’analyse des contrefactuels, de la causalité, du temps, et des lois de la nature. A peu près toutes les positions doctrinales classiques ont été occupées : des formes de néo-aristotélisme (Lowe 2006), de néo-leibnizianisme (Wiggins 1981) réintroduisant en métaphysique des substances, des dispositions et des essences (Fine 2005) face à des positions néo-humiennes et antiréalistes. La philosophie analytique positiviste du vingtième siècle avait mis à l’écart les métaphysiques de la nature non seulement des post-kantiens, mais également des savants et des évolutionnistes, comme Helmholtz, Herschel et Peirce. Mais celle du vingt et unième siècle ne craint pas de ressusciter la métaphysique de la nature sous la forme d’une métaphysique scientifique réaliste, mariant des théories ontologiques des catégories fondamentales de la réalité avec les explications des sciences contemporaines (Esfeld 2008, Tiercelin 2011).
La métaphysique du libre arbitre n’a pas échappé au retour des alternatives traditionnelles : entre libre arbitre et déterminisme, et entre ces deux positions et le compatibilisme qui entend les réconcilier, et qui fut longtemps l’article de base de la philosophie anglophone depuis Hobbes et Hume à travers l’analyse conditionnelle : la liberté est le pouvoir de faire autrement si l’on veut. Les analyses contemporaines les plus intéressantes dans le camp libertarien (Van Inwagen 1994) ou dans le camp déterministe (Pereboom 2006) n’ont pas réellement modifié ces oppositions (Michon 2011). Harry Frankfurt (1971) et Dennett 2003 ont élargi le spectre des arguments compatibilistes, l’un en distinguant le niveau non réflexif du niveau réflexif du mental, l’autre en mariant la liberté à l’évolution biologique. Les kantiens pourraient trouver que peu de progrès ont été faits depuis que la Dialectique transcendantale avait rejeté dos à dos ces antinomies comme insolubles. Mais dans ce domaine de la métaphysique comme dans d’autres, on peut dire que les efforts des philosophes analytiques, s’ils n’ont pas conduit à des résolutions de ce que Renouvier appelait les « dilemmes de la métaphysique pure », ont permis de préciser les implications de ces thèses, de les formuler de manière plus fine et de les dramatiser au moyen d’expériences de pensée inédites. Peut-être le progrès en philosophie tient-il à ces avancées modestes, mais réelles, que les philosophes analytiques ont promues, bien plus qu’à la reprise de positions que tout le monde connaît depuis l’Antiquité. L’orfèvrerie conceptuelle est peut-être plus riche que l’or du Rhin hegelien.
d. Philosophie des sciences
On présente souvent la philosophie des sciences analytique du vingtième siècle comme si elle s’était réveillée de son sommeil dogmatique en abandonnant les distinctions canoniques des positivistes entre énoncés analytiques et synthétiques, entre théorie et observation, ou entre contexte de justification et contexte de découverte, pour devenir plus proche de l’histoire et de la sociologie des sciences, principalement depuis le livre de Thomas Kuhn, La structure des révolutions scientifiques (1962). C’est en partie vrai, mais l’héritage des concepts et des problèmes de l’âge d’or du positivisme a continué de peser. Les philosophes des sciences s’occupent moins que jadis du problème du fondement de l’induction, des paradoxes de la confirmation (comme celui des émeraudes (Goodman 1947), ou de l’interprétation des probabilités, mais les discussions restent centrées sur les « trois R » : Rationalité de la science, nature des Révolutions scientifiques, Réalisme et antiréalisme. Les deux premières positions ont été au cœur de ce que l’on a appelé la « guerre des sciences », opposant diverses formes de relativisme et de constructivisme social à une science officielle supposée rigide et normalisatrice. La troisième opposition est centrale. A la suite de Putnam (1975) nombre d’arguments en faveur du réalisme scientifique se sont basés sur des prémisses sémantiques : les termes scientifiques théoriques, tels qu’ « électron » ou « quark » ont une référence comparable à celle des termes d’espèce naturelle, indépendante des théories dont ils font partie. Mais ces arguments réalistes sont insuffisants s’ils ne se fondent pas aussi sur une ontologie et une théorie de la connaissance. Les réalistes en philosophie des sciences ont défendu deux sortes d’ontologie : des ontologies substantielles, postulant l’existence d’entités telles que des causes, des propriétés ou des dispositions réelles, un espace et un temps réels, et des ontologies minimales, telles que des structures ou des ensembles de relations, ainsi qu’une notion substantielle de vérité scientifique. Epistémologiquement ils défendent l’argument « pas de miracle » (ce serait un miracle si les succès de la science n’étaient liés à aucune réalité sous-jacente) et soutiennent que l’inférence abductive ou à la meilleure explication garantit l’existence de propriétés réelles (Psillos 1999). Les antiréalistes leur opposent les arguments de la sous-détermination des théories par l’expérience, l’ »induction pessimiste » (la science s’est souvent trompée, elle pourrait bien le faire de nouveau), et le fait que le succès de la science est parfaitement possible sans qu’elle repose sur autre chose que l’adéquation à des données observables (Van Fraassen 1981). L’antiréalisme est encore renforcé par l’usage par la science contemporaine de simulations et de données massives traitées informatiquement, qui conduisent à préférer des idéalisations, des modèles et des représentations des données qui rendent le réalisme douteux. Refusant de choisir entre ces alternatives nombre de philosophes des sciences ont adopté des formes de pragmatisme ou de quiétisme : la science a bien assez de succès sans qu’on ait besoin de postuler des ontologies lourdes (Kitcher 2001) ou des conceptions réalistes de la vérité scientifique (Fine 1985).
On retrouverait des oppositions parallèles en philosophie des mathématiques et de la logique, où s’affrontent traditionnellement des formes de platonisme, de constructivisme et de nominalisme. Les théorèmes d’impossibilité de Gödel, qui montrent qu’il peut y avoir des énoncés vrais mais non démontrables, la hiérarchie des ensembles infinis et la pratique des mathématiques qui opèrent avec des entités abstraites, vont dans le sens du réalisme et du platonisme (Maddy 1992). Mais la tradition intuitionniste et constructiviste entend s’en tenir au fini et aux preuves constructives (Dummett 1991) et les nominalistes entendent éliminer toute entité abstraite (Field 1989). En adaptant l’argument aristotélicien contre la théorie platonicienne des idées-nombres, Benacerraf (1973) a soutenu que toute position plausible en philosophie des mathématiques devait répondre au défi de pouvoir expliquer la connaissance mathématique en termes d’une relation causale entre ses objets et le sujet connaissant, et a suggéré qu’on devait abandonner la conception platonicienne des nombres comme objets, pour adopter l’idée que les mathématiques portent sur des structures.
On rencontrerait aussi des problèmes semblables en philosophie de la logique, mais le défi que celle-ci doit relever est plus celui de l’existence d’une pluralité de logiques, soit extensions de la logique classique, comme la logique modale et la logique du second ordre, soit non classiques, comme les logiques à plusieurs valeurs, dialéthistes ou paraconsistantes, ou dynamiques. Faut-il s’en tenir à un pluralisme ou à un relativisme de bon aloi qui rappelle le principe carnapien de tolérance (« en logique il n’y a pas de morale, tout le monde peut prendre le système qui lui convient ») ou bien à une forme d’absolutisme n’admettant que la logique classique (Williamson 2014) ? Mais s’il n’y pas une seule logique correcte, comment la logique peut-elle être normative pour la pensée ?
e. Philosophie de la connaissance et épistémologie
Le terme grec de gnoséologie, qu’on utilisait encore dans la tradition scholastique pour désigner la théorie des sources et des critères de la connaissance, céda la place, à la fin du dix-huitième siècle à l’allemand Wissenschaftstheorie.titre du grand livre de Bernard Bolzano, qui désignait la théorie de la science et de ses méthodes, puis à la fin du dix-neuvième siècle Erkenntnistheorie, aux allures post-kantiennes, qui devient en anglais epistemology.. Mais la théorie de la connaissance analytique pris une forme assez différente à partir des années 1960. L’un de ses problèmes centraux a été celui de définir la notion de connaissance et de tester la définition classique de celle-ci comme croyance vraie justifiée. Gettier (1963) donna quelques contre-exemples à cette définition, qui engendrèrent une vaste littérature destinée à donner une analyse plus satisfaisante de la connaissance propositionnelle. Pour certains, la condition manquante repose sur l’accès que le sujet peut avoir à ses raisons et à ses justifications de croire, qu’on peut formuler soit en termes de fondements (Chisholm 1963) soit en termes d’une cohérence entre croyances (Lehrer 1991). Pour d’autres la définition de la justification doit être externe au sujet, et reposer sur des processus causaux fiables (Goldman 1986) ou sur des dispositions ou capacités vertueuses dont l’agent est dans une certaine mesure responsable (Sosa 2007, Greco 2010). Le second problème central de l’épistémologie analytique a été celui de donner une réponse au scepticisme radical. Si des scénarios tels que ceux du Malin génie cartésien sont possibles, comment la connaissance peut-elle l’être ? Ni le scepticisme radical (Unger 1980), ni la réponse du sens commun (G.E.Moore 1925) ne sont totalement satisfaisants. On peut adopter diverses stratégies : redéfinir la notion de justification en adoptant des notions plus fortes en termes d’infaillibilité des croyances ou en termes de fiabilité, ou en adoptant des notions plus faibles, comme celle d’autorisation épistémique, ou bien encore en admettant que la connaissance et la justification sont contextuelles, relatives aux conditions pragmatiques de leur usage (Engel 2007). On peut aussi reformuler la position dogmatique, en admettant que la notion de connaissance est primitive et que toutes les autres notions doivent être définies en termes de cette notion primitive (Williamson 2000). Nombre de ces travaux se sont basés sur une philosophie de la perception et sur des théories de l’intentionnalité perceptive (Dokic 2004).
Mais même si la tâche de définir la connaissance semble vaine, la gnoséologie peut s’appuyer, grâce à la psychologie cognitive, sur une analyse de ses sources. Contre la stratégie classique des philosophes analytiques qui repose sur l’analyse conceptuelle s’est développée une forme de psychologie des notions cognitives , appuyée sur des expériences et des tests, qui a prétendu prendre le nom de « philosophie expérimentale ». Elle a abouti à une contextualisation extrême des notions du connaître et à un empirisme radical évacuant toute notion normative (Cova 2012). A l’inverse, d’autres théoriciens de la connaissance ont remis en premier plan des notions comme celle de connaissance a priori et d’intuition, souvent en vue de redéfinir une forme de rationalisme (Peacocke 2003).
On a reproché à la philosophie analytique de la connaissance d’être trop ouvertement individualiste, en se fondant sur les croyances d’un sujet individuel et abstrait, et en ignorant le caractère social de la connaissance. Ce reproche est venu surtout des conceptions relativistes et constructivistes pour lesquelles le concept de connaissance est essentiellement social, mais aussi de la part des théoriciens analytiques qui ont voulu l’étendre en particulier en analysant le problème classique, depuis Hume et Reid, de la nature et des justifications du témoignage. Ce que l’on a appelé épistémologie sociale a consisté à explorer toutes les manières dont les croyances sont collectives et en quoi elles peuvent étendre nos connaissances individuelles, dans des institutions telles que des jurys, des écoles et universités, l’expertise et internet (Goldman 1999). Cette branche très active de l’épistémologie à la fois élargit son domaine et tend à le redéfinir comme analyse du savoir collectif, tout en gardant son ancrage normatif.
f. Philosophie de la religion
La philosophie analytique de la première moitié du vingtième siècle avait fortement refusé toute relation avec la théologie et la philosophie de la religion, à la fois parce que pour les Viennois le discours théologique ou religieux était le paradigme du non-sens, mais aussi qu’une bonne partie de la pensée théologique, en Angleterre et aux Etats Unis en particulier, avait pris un tour hégélien. Dans la seconde moitié du vingtième siècle en Europe, l’influence de la phénoménologie existentielle et de l’herméneutique dans ce domaine avait creusé les oppositions entre le style continental des questions de théologie et le style analytique. Mais des liens existaient néanmoins, surtout à travers la tradition thomiste, même si celle-ci restait étrangère dans sa majorité aux développements de la nouvelle logique. Mais dans les pays où cette dernière était prise au sérieux, en particulier en Grande Bretagne et en Pologne, l’alliance entre les préoccupations des logiciens et celles des théologiens produisit des œuvres qui allaient renouveler la philosophie de la religion au sein même du courant analytique.
Ce fut le cas avec Peter Geach et Elisabeth Anscombe, deux philosophes catholiques britanniques d’ascendance thomiste qui furent aussi élèves de Wittgenstein, et marièrent leur arrière-plan aristotélicien aux préoccupations de l’auteur des Investigations philosophiques. Geach (1969) usait de la logique pour reformuler les doctrines traditionnelles de la théologie, et Anscombe (1957, 1991) reformulait celles de la psychologie morale et de l’éthique. Avec Anthony Kenny (1963) ces auteurs représentèrent ce que l’on a appelé le « thomisme analytique » oxonien. Mais tous les philosophes influencés par Wittgenstein n’étaient pas thomistes : ainsi Dummett, lui-même catholique, défendait une forme d’antiréalisme, et sa thèse selon laquelle la philosophie du langage est la philosophie première ne se marie pas aisément avec une forme de réalisme thomiste, ni avec l’idée qu’on pourrait articuler directement des thèses théologiques en philosophie. Une bonne partie de la philosophie de la religion post-wittgensteinienne tendait à traiter le discours sur la religion comme du non-sens ou comme « ce dont on ne peut parler » (Philipps 1976). Les choses changèrent du tout au tout, lorsque la philosophie analytique se libéra, à la fin du siècle dernier, de son abstinence métaphysique. Le thomisme reprit ses couleurs théologiques, et la métaphysique et l’épistémologie de la religion se libérèrent de leur sommeil antidogmatique. Le théisme, la question de l’existence de Dieu et de la nature divine sortirent des limbes de l’ineffable et du non-sens, et redevinrent des objets de discussion par les philosophes de l’école analytique. Les logiciens n’avaient jamais vraiment déserté en fait le territoire des preuves de l’existence de Dieu, puisque la preuve ontologique restait au cœur de la réflexion sur les modalités et l’a priori (Oppy 1996). La vieille discipline de la théologie naturelle, qui avait plus ou moins disparu quand l’argument du dessein divin avait été mis à mal par Hume puis par le darwinisme, ou qui s’était mué, chez les philosophes émergentistes comme Samuel Alexander ou dans la process metaphysics de A.N. Whitehead (1929) en une théorie du divin comme fin de la nature, ressurgit. L’un de ses principaux inspirateurs fut à Oxford Richard Swinburne (1996), qui proposait un argument épistémologique en faveur de l’existence de Dieu, supposé établir, sur la base du calcul des probabilités, que la probabilité de l’existence de Dieu est très élevée. Le théisme analytique se heurta néanmoins à des arguments humiens redéployés (Mackie 1983). L’épistémologie se mit de la partie, et toute une école de théorie de la connaissance américaine reprit le thème calviniste d’un sensus divinatis qui se révèlerait dans notre croyances primitives de sens commun, et que la divinité aurait elle-même implanté dans nos natures (Plantinga 2000). Le débat classique entre James et Clifford (1859, 2017) sur l’éthique de la croyance redevint plus vif que jamais. Celui portant sur le libre arbitre n’avait en fait jamais réellement quitté non plus le devant de la scène.
L’intérêt de ces développements en philosophie de la religion ne tient pas simplement au fait que les discussions internes à ce domaine se sont renouvelées, et ont sans doute fait partie de ce que l’on a appelé un « retour de la religion » au sein des sociétés contemporaines. Il tient au fait que croyants ou athées, les thèses, concepts et les méthodes employées par les philosophes analytiques sont très proches qu’il s’agisse de métaphysique, d’épistémologie et de théologie. Une discussion a été rendue possible sur ces sujets, par le fait même que la culture de l’argument et de la preuve, qui est celle des philosophes analytiques en général, a été partagée, quelles que soient les positions doctrinales adoptées. Mais il est clair aussi que quand il s’agit des prémisses ou des conclusions théistes, les désaccords les plus profonds demeurent. Que la logique, la métaphysique et l’épistémologie analytiques soient devenues des outils communs aux philosophes de la religion aussi bien qu’aux athées et aux agnostiques ou plus simplement à ceux pour qui ces enjeux sont étrangers ne fait pas de ces derniers des convertis ni des théologiens pour autant. La philosophie de la religion doit-elle rester fidèle à l’arrière-plan Aufklärer de la philosophie analytique ou revenir à ses bases scolastiques et à l’arrière-plan aristotélicien de cette même philosophie?
g. Psychologie morale, éthique et politique
L’éthique et la philosophie pratique ont toujours été des domaines centraux de la philosophie analytique. G.E. Moore ne concevait pas sa révolte contre l’idéalisme hégélien anglais et contre l’utilitarisme de son époque sans la refondation de l’éthique, comme l’indique son livre le plus célèbre, Principia Ethica (1903). Moore y défendait l’irréductibilité de la notion de bien à toute définition, en particulier naturaliste, en termes de bonheur et d’utilité, et proposait une conception platonicienne de l’éthique, sur la base de l’intuition morale. En réaction à ce réalisme moral, qui avait des affinités avec celui qu’avait défendu Brentano, les positivistes adoptaient, sous l’influence du subjectivisme de Hume, des conceptions émotivistes et expressivistes de l’éthique, selon lesquelles les jugements moraux sont l’expression de nos sentiments (Ayer 1936). Dans un esprit plus kantien, mais néanmoins avec l’objectif de s’appuyer sur une forme de conséquentialisme, Richard Hare (1950) défendit l’idée que l’éthique impliquait des prescriptions et des impératifs universalisables. Ses élèves, comme Bernard Williams rejetèrent cet utilitarisme et défendirent des conceptions plus relativistes (1985) de l’éthique, ancrées dans la culture et dans l’histoire. La tradition aristotélicienne en éthique, très forte à Oxford, était représentée par Elisabeth Anscombe et Philippa.Foot, qui défendaient un réalisme fondé sur l’idée d’un bien naturel et d’une éthique de la vertu comme excellence, repris en partie par Mc Dowell (Ogien 2004). Mais l’expressivisme ne perdit pas ses droits, dans les versions subtiles qu’en donnèrent Gibbard (1991) et Blackburn (1998).
Un trait fondamental caractérise la réflexion éthique des philosophes analytiques et de la philosophie anglo-saxonne en général : les discussions de méta-éthique sur la nature des jugements moraux et leur signification, ne sont jamais dissociées d’une réflexion sur la nature de l’action, du raisonnement pratique et du libre arbitre, et d’une manière générale de la psychologie morale. La question centrale est alors celle de la motivation : si nous reconnaissons comme vrais certains jugements éthiques ou normatifs, ces jugements seront-ils suffisants pour nous motiver à agir moralement ou selon les normes en question ? Cela suppose à la fois que nous soyons libres de faire ce que ces jugements prescrivent ou déclarent bon de faire, et que nous ayons les raisons d’agir appropriées. Or il nous arrive d’avoir les meilleures raisons possibles mais de ne pas être capables, ni même de désirer agir selon ces jugements, comme dans les cas de « faiblesse de la volonté » ou d’akrasia si centraux dans l’éthique de Platon et d’Aristote. Ici la psychologie morale rencontre la théorie de l’action. Décider, agir intentionnellement ou avec une intention relève-t-il de causes ou de raisons ? Ces raisons doivent-elles, comme le veut la conception humienne de la motivation, nécessairement reposer sur des désirs ? Ou bien la notion de raison est-elle primitive par rapport à celle de désir ? Quand une action ou une décision sont-elles rationnelles et la rationalité est-elle normative au sens où elle est capable de nous guider dans nos choix ? Ces questions ont rendu centrale en méta-éthique la question de la nature des raisons et le problème de savoir si toutes les notions normatives ne devaient pas être traduites en termes de raisons d’agir. Les grandes synthèses de Derek Parfit (2011) et de John Skorupski (2010) ont rendu à la méta-éthique du début de ce siècle toute l’importance qu’elle avait au début du précédent. En particulier, un chapitre de la philosophie née à la fin du dix-neuvième siècle, la théorie des valeurs, est devenue une partie très active de la métaphysique et de la méta-éthique (Hirose et Olsson 2015). Un vaste champ de recherches, au croisement des théories de la normativité, de la logique déontique, de l’économie du bien-être et de la philosophie des raisons et des valeurs, a pris une place plus ou moins centrale au sein non seulement de la philosophie pratique mais aussi de la philosophie théorique. L’une des questions centrales dans ce domaine est celle de savoir si les notions normatives (celles de devoir, de valeur, de norme) aussi bien dans le domaine pratique que dans le domaine épistémique peuvent s’exprimer en termes de raisons (Scanlon 1998, Broome 2013) ou bien si les notions axiologiques doivent rester fondamentales.
h. Philosophie sociale
Pendant longtemps la philosophie des sciences sociales s’est réduite, au sein du courant analytique, à la question que les philosophes allemands de la fin du dix-neuvième siècle, comme Dilthey et Weber, avaient mise au premier plan, de savoir si des disciplines comme l’histoire, l’économie, la psychologie et la sociologie devaient recourir à l’explication causale ou bien adopter une méthode « compréhensive ». Les positivistes logiques, comme Carl Hempel (1965) soutenaient qu’elle est du premier type, et des historiens comme William Dray (1957) qu’elle est du second type. Un écho de cette controverse se retrouva au sein de la philosophie de l’action, où s’opposaient les conceptions de Wittgenstein et d’Anscombe, pour lesquels les raisons des actions sont irréductibles à des causes, et les conceptions de Davidson (1980) pour lequel les deux types d’explications sont compatibles. La controverse est toujours vivante (Von Wright 1971), mais elle est devenue celle de savoir s’il n’y a pas plusieurs notions de causalité ainsi que plusieurs notions de raisons (Elster 1989). L’autre question majeure de la philosophie des sciences sociales a porté sur l’opposition, à la fois épistémologique et ontologique de la nature des explications et des entités sociales : faut-il concevoir et expliquer les phénomènes collectifs en termes d’entités collectives sui generis, ou en termes d’agrégations d’individus, et recourir à des explications holistes ou individualistes ? L’ »individualisme méthodologique » défendu par Popper dans les années 1940 ainsi que par les positivistes a longtemps été dominant en économie, et les modèles importés de celui-ci dans les sciences sociales se sont imposés à la sociologie, en opposition à des conceptions holistes ou centrées sur des notions comme celle de règle empruntée à Wittgenstein (Winch 1957) ou d’institution (Descombes 1996). Mais là aussi les choses se sont complexifiées. Des philosophes comme Philipp Pettit (1993, 2005) ont proposé des formes de « holisme individualiste » qui donnaient une place à l’action sociale collective sans pour autant accepter une ontologie d’entités collectives, et une philosophe comme Margaret Gilbert (2003) a défendu l’idée d’actions conjointes fondées sur un engagement collectif. Tous deux soutiennent que les groupes ne sont pas de simples agrégats d’individus et ont « un esprit propre ». L’accent a été mis sur des processus plutôt que sur des entités sociales autonomes. L’ontologie sociale s’en est trouvée enrichie (Livet et Nef 2009).
i.La politique des analytiques
On a souvent reproché aux philosophes analytiques ne pas s’occuper des questions concrètes ou « mortelles », qui occupent le grand public et auxquelles les philosophes existentialistes et ceux pour qui la philosophie doit avant tout intervenir dans la cité se consacrent. On leur a aussi reproché de ne guère s’occuper de questions politiques. Mais même si l’éthique concrète ou appliquée fut d’abord minoritaire au sein du courant analytique, elle a fini par dominer le domaine, avec des travaux sur l’éthique animale et environnementale, sur l’éthique médicale et la politique, ou sur l’éthique des technologies. Il y a des livres de philosophie analytique sur le plaisir, la mort, le bonheur ou l’absurde, tout autant qu’il y en a dans les traditions non-analytiques. C’est surtout le domaine politique qui a connu la plus grande expansion. Ici le trait central de la tradition anglo-américaine analytique en philosophie politique est que cette tradition n’a jamais séparé cette dernière de la philosophie morale. Alors que la tradition hégélo-marxiste considère essentiellement l’éthique comme l’affaire des belles âmes éloignées des réalités du pouvoir et de l’action concrète, les philosophes de tradition anglophone on toujours tenu que la justification d’une doctrine politique ou d’une action dans le domaine de la cité n‘est jamais dissociable d’une justification éthique, déterminant la nature du bien ou du juste. On dira peut-être que c’est parce qu’ils partent traditionnellement d’un fonds libéral hérité de penseurs tels que Stuart Mill, plus attentif aux libertés individuelles qu’aux mouvements de l’histoire. Mais qui pourrait penser que les travaux sur la justice, les droits, le sens de l’action publique et politique qui fleurirent à la fin des années 1960 était étrangers au mouvement des droits civiques et à la guerre du Viet Nam ? Que ceux des années 2000 sur l’environnement n’ont rien à voir avec les urgences planétaires ?
L’œuvre la plus caractéristique de la philosophie politique analytique est la Théorie de la justice (1971) de Rawls, qui repose sur une conception kantienne et constructiviste de la morale, et qui vise à déduire, sur la base de principes de justice, les conditions d’une société et d’un régime politique juste. Aucun livre n’a eu autant d’influence dans la philosophie contemporaine et n’a autant été discuté (Boyer 2017). Rawls essaie d’y combiner une théorie du juste et une théorie du bien, et de donner les fondements d’une société démocratique. Il affirmera plus tard refonder le libéralisme politique. Le livre de Rawls produisit à la fois un renouveau de la tradition kantienne en éthique et une réaffirmation des théories des droits individuels (Nozick 1976) et collectifs (Dworkin 1977). Il suscita aussi l’opposition de philosophes qui lui reprochaient de proposer une vision éthérée de la justice et d’ignorer que la justice ne s’applique pas identiquement partout (Sandel 1980, Walzer 1985). Le libéralisme rawlsien tout comme le libéralisme classique ont été critiqués à la fois du point de vue de conceptions réalistes en éthique (Larmore 1996) et du point de vue d’un renouveau de la tradition républicaine, à partir des travaux historiques de Quentin Skinner notamment par des auteurs tels que Philip Pettit (1997). Ces travaux ont conduit à revisiter la distinction classique de Benjamin Constant entre la liberté politique comme absence d’interférence et la liberté comme non domination.
Les engagements politiques concrets des philosophes analytiques sont assez rares ( Putnam fut un militant marxiste, Dummett a défendu les réfugiés et lutté contre le racisme en Grande-Bretagne, Williams a présidé le comité sur la censure). A l’instar de Russell, qui s’engageait pour le pacifisme et la démocratie mais séparait cet engagement de son travail en logique et en philosophie théorique, la plupart des philosophes analytiques n’ont pas considéré, à la différence de la plupart de leurs collègues « continentaux » qu’il y a un lien d’essence entre les positions que l’on prend en métaphysique ou en philosophie en général et les positions que l’on prend en politique. .Le marxisme analytique, dont les principaux représentants sont Jon Elster (1985) et Gerald Cohen (1978) est plus proche de la théorie du choix rationnel que de la dialectique hégélienne. Mais c’est surtout à partir des doctrines utilitaristes que se sont formulées les positions de philosophes partisans des droits des animaux (Singer 1975) ou en éthique environnementale (Broome 2012) et en éthique des populations. Mais là encore, les philosophes analytiques ont tendu à se spécialiser dans tel ou tel domaine. Ils acceptent la visée globalisante de la philosophie comme un idéal, mais n’ont jamais cru qu’on pouvait, à la manière de Hegel et de Marx, avoir une théorie globale qui rendrait compte à la fois de l’être, de la connaissance, de la morale, de la société et de la politique et qu’il y aurait des relations systématiques entre tous ces domaines. Ils ont refusé de fonder leurs thèses sur une philosophie générale de l’histoire et de la culture qui rendrait compte de tous ces domaines.
j. Esthétique et philosophie de l’art
La philosophie autrichienne avait une réflexion en esthétique sur les formes et la perception, ainsi que sur les valeurs esthétiques. Mais ces questions disparurent dans une large mesure au sein des courants analytiques, essentiellement sous l’influence des conceptions émotivistes des valeurs. Elles reparurent dans les années 1960, surtout quand Goodman (1968) développa une théorie originale des productions artistiques fondée sur la notion de langage symbolique. Goodman introduisit la rigueur du logicien dans l’esthétique, à la fois en traitant les oeuvres d’art, notamment visuelles, comme des systèmes de symboles, mais aussi en introduisant des distinctions fécondes, comme celle entre les arts autographiques où la reproduction d’une œuvre – même tout à fait exacte – n’acquiert jamais un statut d’authenticité (peitnure), et arts allographiques où l’œuvre peut être instanciée de multiples fois (musique), et des distinctions comme celles des représentations analogues et des représentations digitales, ou des notions comme celle d’exemplification. Mais Goodman laisse de côté toutes les questions évaluatives de l’esthétique. Des philosophes comme Wollheim (1968) et Arthur Danto (1974) les réintroduisirent et renouvelèrent également la réflexion analytique sur l’art. Ces travaux des années 1960 gardaient encore un fort ancrage dans la philosophie du langage et avaient en commun avec les conceptions structuralistes un fort anti-psychologisme (Cometti, Morizot et Pouivet 1997). Mais la génération suivante de philosophes de l’art leva cet interdit, et développa des conceptions de la perception esthétique fondées sur des notions comme celles de simulation et d’empathie (Currie 2004) et sur des théories des émotions, sur la base desquelles on construisit des théories de la fiction et de l’imagination. La philosophie de la littérature, champ longtemps inexploré des analytiques, est devenue un domaine très actif (Lamarque 2009). L’esthétique analytique est à présent un domaine très développé, qui va de philosophies de la littérature et des arts visuels à des philosophies de la musique, et qui conjugue ontologie de l’oeuvre d’art et épistémologie (Pouivet 2010). Elle n’hésite plus à parler de beauté et de réalisme esthétique et de la valeur morale et cognitive des œuvres d’art (Zemach 1997, Talon Hugon 2015). Cette orientation est d’autant plus intéressante qu’elle entre en conflit avec la tendance fortement anti-théorique et antimétaphysique de la majeure partie de l’esthétique analytique.
h. La philosophie analytique et l’histoire de la philosophie
La marque distinctive de la philosophie analytique fut longtemps ce que l’on a appelé une conception wiggish ou « collégiale » de sa relation à l’histoire de la philosophie : ou bien les philosophes analytiques ignoraient délibérément la philosophie du passé pour développer systématiquement leurs propres vues comme s’ils étaient les premiers à discuter un sujet, ou bien ils considéraient les auteurs du passé comme des collègues, avec lesquels ils auraient pu entrer directement en conversation. A cette conception est associée couramment l’idée, qui était celle de positivistes, selon laquelle il y a un progrès en philosophie, tel que les problèmes du passé puissent trouver leur solution dans le futur, à travers une discussion qui maintienne constantes les problématiques, les concepts et les significations du passé et celles du présent et du futur. Mais cette attitude a paru à tous les historiens de la philosophie à la fois naïve et fausse : le sens des œuvres du passé de l’histoire de la philosophie n’est jamais transparent, et ces œuvres ne sont jamais face aux lecteurs d’aujourd’hui utilisables à la manière dont on pourrait se servir dans un magasin aux idées et aux problèmes. Les historiens, et d’une manière générale la plupart des philosophes « continentaux » pour qui la philosophie est indissociable de son histoire, et consiste essentiellement en une reprise réflexive et interprétative des doctrines du passé, qui ne peut jamais simplement supposer que celles-ci sont directement traduisibles dans les termes de celles du présent, ont rejeté cette conception qu’il jugent naïve. A cette réaction s’associe celle de lassitude ou de mépris, de la part des historiens, face à la manière dont les philosophes analytiques souvent réinventent la roue, en ignorant que les doctrines qu’ils discutent et croient inventer ont été défendues, et souvent longuement discutées, dans le passé. Inversement, les philosophes analytiques reprochent à leurs collègues historiens d’exagérer la difficulté à traduire des concepts et des problèmes et leur relativité à un système et une époque, et d’interdire toute discussion et confrontation systématique d’une œuvre du passé avec les problématiques du présent. En d’autres termes, faut-il traiter l’histoire de la philosophie comme une reconstruction des doctrines du passé apte à nourrir la réflexion d’aujourd’hui, avec le risque de leur être infidèle, ou bien comme une interprétation ou un récit de ces œuvres, avec le risque de les traiter comme des « intraduisibles » et de rendre la tâche d’interprétation infinie (Panaccio 2019)?
Quelle que soit la manière dont on peut résoudre ce conflit, on doit constater que l’image usuelle du philosophe analytique comme ignorant de l’histoire et coupé de toute référence aux doctrines de ses prédécesseurs et du passé philosophique, est largement fausse. Nombre de philosophes analytiques, y compris les plus systématiques, se sont nourris des écrits du passé et ont souvent écrit des livres dans lesquels non seulement ils entendaient reconstruire les doctrines, mais aussi où ils prétendaient contribuer à l’histoire de la philosophie. Ainsi Russell discuta-t-il les doctrines de Leibniz (1900), Moore celles de Hume et de Reid, Strawson (1966) écrivit un grand livre sur Kant, Anscombe ne cessa de dialoguer avec Aristote, et se développa, notamment en philosophie ancienne, à Oxford puis aux Etats Unis, une école d’historiens de la philosophie qui à la fois usaient des outils de la philosophie contemporaine et étaient respectueux des doctrines du passé (Barnes 2007). En France, un historien comme Jules Vuillemin (1985) ne sépara jamais son travail de lecture attentive aux textes et aux structures des oeuvres et de la reconstruction et de la discussion systématique des philosophes du passé. Les philosophes analytiques eux-mêmes se sont penchés sur l’histoire de leur courant, et il existe de nombreux travaux sur l’histoire de la philosophie analytique. Dans une large mesure, l’opposition entre l’approche historique et l’approche systématique s’est réduite.
3. La soi-disant philosophie post-analytique et la nature de la philosophie analytique
En un siècle, le paysage intellectuel qui avait fait paraître la philosophie analytique en rupture avec les autres courants de la philosophie a bien changé. L’unité géographique de cette philosophie, qui était au départ un courant essentiellement autrichien et anglais, s’est progressivement dissoute, d’abord quand le positivisme essaima en Europe, puis aux Etats Unis, puis quand elle devint un courant mondial, qui a pu à un moment apparaître comme la lingua franca de la philosophie. Mais le fait que la langue véhiculaire de philosophie mondiale soit devenue aujourd’hui l’anglais ne signifie en rien que les productions philosophiques dans cette langue relèvent de l’école analytique. Il y a aujourd’hui une philosophie analytique germanophone, hispanophone, italophone, et même francophone, et non plus seulement anglophone. Mais il y a aussi beaucoup de philosophie « continentale » en anglais.
Mais au fond, cette unité perdue exista-t-elle ailleurs que dans le projet positiviste et dans son incarnation américaine au milieu du siècle dernier ? Ce que l’on appelle « philosophie analytique » fut en fait, rétrospectivement, non pas un courant mondial, mais l’agrégation de traditions nationales très spécifiques. Malgré des intérêts et des doctrines communes, il y a des différences profondes dans le style, la manière de penser et les méthodes de la philosophie analytique en Grande Bretagne, en Pologne, en Autriche, en Allemagne, aux Etats Unis et en Australie. Même en Grande Bretagne on ne philosophe pas de la même manière à Oxford et à Cambridge ou en Ecosse. Ni à Vienne et à Graz. Rien de commun, au départ, entre le style autrichien et le style allemand en philosophie analytique. Ni entre ceux-ci et la branche scandinave qui produisit des auteurs aussi originaux que Jaakko Hintikka (1962) et Dagfinn Føllesdal. La philosophie analytique d’aujourd’hui affiche ses exigences professionnelles, son universalisme scientifique et académique, mais les traditions universitaires locales, associées à des chaires tenues par des professeurs-phares, demeurent très vivantes, quand bien même le système académique s’est profondément américanisé et transformé en un marché global. Ces différences s’accentuent encore plus dans les pays où, comme l’Italie, l’Espagne et surtout la France, l’influence des courants associés à la philosophie analytique a été très faible, voire nulle, jusqu’avant la fin du vingtième siècle. Seul en fait un pays comme la France a longtemps résisté systématiquement à son influence. La force du spiritualisme et du bergsonisme, qui privilégient l’intuition par rapport au concept, la défiance cartésienne des Français pour la logique comme discipline de la pensée, l’existence d’une tradition propre de positivisme plus historique qu’analytique et la puissance de la phénoménologie existentielle, ont fait que les thèmes du Cercle de Vienne, puis de la philosophie analytique britannique ont tardé à se diffuser au pays de Comte, de Poincaré, de Canguilhem, de Sartre et de Merleau-Ponty. Les rares disciples des Viennois, comme Louis Rougier, la mort précoce des rares logiciens, comme Jean Nicod, Jean Cavaillès et Jacques Herbrand, et l’isolement de ceux qui plus tard, comme Jules Vuillemin, Gilles Granger et Jacques Bouveresse essayèrent de proposer une philosophie un peu plus exacte et argumentative, ne purent permettre à la philosophie analytique d‘avoir longtemps un statut autre que marginal. Mais les choses ont, comme ailleurs, changé, et une sorte d’œcuménisme et de pluralisme prévaut, rendu plus aisé par le fait que les philosophes analytiques eux-mêmes ont cessé de promouvoir les thèses et les méthodes partagées qui donnaient à leur courant son caractère d’école. Lentement, des traditions jadis étrangères, où l’on ne citait qu’à l’intérieur de son camp, se sont ouvertes. Des philosophes analytiques ont pris leur inspiration chez des « continentaux » et vice versa. Ce fut d’autant plus facile quand les deux traditions avaient des racines communes. Ainsi la phénoménologie réaliste de l’école de Brentano et du premier Husserl a tellement en commun avec la philosophie analytique de la première moitié du vingtième siècle et au-delà, que les obstacles intellectuels au dialogue des deux traditions diminuent. Lorsqu’en revanche on essaie de faire dialoguer la tradition herméneutique avec la philosophie analytique, les difficultés sont plus grandes, et les crispations plus fréquentes. La dissolution des idéaux intellectuels initiaux du courant analytique - rendre la philosophie scientifique et exacte - et l’échec à réaliser ses programmes - reconstruire la connaissance sur des bases fermes, parvenir à des standards de rigueur universels empruntés à la logique, et surtout parvenir à définir des notions centrales telles que celles de signification, de vérité, d’universaux, de connaissance, de bien ou de justice – ont conduit nombre de philosophes à prendre leurs distances vis-à-vis de ces idéaux. Ils ont souvent conduit à abandonner ces mêmes idéaux, pour défendre des positions qui très souvent ne différaient pas de celles de la philosophie « continentale » : primat de la dimension herméneutique dans l’analyse du langage et en ontologie, rejet de l’analyse logique, assimilation de la philosophie à une discipline plus proche de la littérature et des arts que de la science, insistance sur sa dimension culturelle et politique. Des philosophes venus eux-mêmes au départ de la tradition analytique, tels que Rorty (1979), Putnam (1990), Cavell (1979), Brandom (1994) et McDowell 1994) en sont venus à rejeter l’héritage analytique et à défendre des positions proches de celles du post-modernisme : relativisme, affirmation de l’indétermination du sens, rejet de la métaphysique, de l’épistémologie et des morales universalistes, et surtout des ambitions systématiques en philosophie. Chez nombre d’entre eux, ces positions sont inspirées par une lecture de Wittgenstein comme penseur anti-théorique et partisan d’une forme essentiellement thérapeutique de philosophie, visant plus à détruire les mythologies et les illusions de la philosophie qu’à articuler des thèses au moyen d’arguments.
Comment un auteur comme Wittgenstein, qui avait été formé dans la tradition autrichienne, qui fut à ses débuts l’un des principaux interlocuteurs de Russell, de Moore et des positivistes viennois, et qu’on pourrait à bien des égards considérer comme l’auteur le plus central de la tradition analytique, a-t-il pu, à la fin du vingtième siècle, devenir la principale source d’une philosophie qui se présente non seulement comme « post-analytique » mais aussi hostile aux principes rationalistes qui l’avaient inspirée ? Ces retournements sont conformes en partie à l’hostilité que l’auteur du Tractatus eut toujours vis-à-vis non seulement du Cercle de Vienne, mais aussi de la philosophie d’Oxford et même de Cambridge, ainsi qu’à son refus de l’image qu’a toujours voulu donner d’elle-même la philosophie analytique, d’un travail collectif et théorique. Que leurs positions soient ou non celles de Wittgenstein lui-même, nombre des travaux contemporains inspirés par le second Wittgenstein ou se réclamant de lui défendent : (i) une forme de « quiétisme », selon laquelle les problèmes philosophiques, en particulier ceux de la métaphysique, sont illusoires, (ii) des formes de pragmatisme, selon lesquelles le sens est déterminé par les conditions contextuelles d’usage et la cognition par l’action, (iii) de relativisme selon lesquels le savoir n’a pas d’autre fondement que dans nos « formes de vie » sociales, (iv) d’expressivisme, selon lesquelles les propositions philosophiques, en particulier en éthique, ne sont ni vraies ni fausses, mais l’expression de notre nature humaine et de notre situation anthropologique. Mis à part le rejet de la métaphysique, ces doctrines n’ont plus rien à voir avec celles qui constituèrent, un siècle durant les articles de base de la philosophie analytique, et leurs défenseurs prennent plus souvent leurs références chez Heidegger, Dewey, voire Levinas que chez Frege, Russell ou Carnap. Leurs auteurs préfèrent édifier qu’argumenter, raconter plutôt que démontrer, et leur mode d’écriture favori est plus poche de la lecture herméneutique de textes que l’analyse et de la description précises. Ils accusent la philosophie analytique d’être scientiste, naturaliste, naïvement métaphysique, scholastique et logiciste. Le fossé est aussi profond entre des auteurs comme Rorty ou Stanley Cavell et les logiciens et métaphysiciens analytiques contemporains que celui qui pouvait exister au début du vingtième siècle entre le pragmatiste idéaliste F.C Schiller et les Cambridgiens Russell et Moore. On a même l’impression que le commentaire ironique que faisait Ramsey au sujet du « Wovon man nicht spechen kann … » de Wittgenstein – « ce dont on ne peut parler, on ne peut pas le siffler non plus » - pourrait s’appliquer à un grand nombre de productions post-wittgensteiniennes contemporaines, qui sont devenues en France une sorte de concerts de sifflements, voire de chansons, puisque, comme le veut le dicton, dans ce pays tout finit par elles.
Il est clair que cette philosophie « post-analytique », qui se présente comme une sorte de pot-pourri de pragmatisme, d’herméneutique et de wittgensteinisme n’a plus grand-chose à voir, à part quelques références lointaines, avec la philosophie analytique, ne serait-ce que parce qu’ elle prend des formes anti-théoriques fortement opposées aux tendances théoriques défendues classiquement par les fondateurs du mouvement et leurs continuateurs au vingtième siècle. Mais son existence, et le fait que nombre de courants jadis hostiles ou étrangers à la philosophie analytique se recommandent de cette épithète - thomisme « analytique », marxisme « analytique », pragmatisme « analytique », hégelianisme « analytique », sans parler du « féminisme analytique » – conduit à se demander s’il reste encore des critères distinctifs de ce type de philosophie..
La philosophie analytique n’est plus depuis longtemps un ensemble de doctrines, attachées à une école. Le spectre des doctrines philosophiques a été presque entièrement parcouru depuis les origines de la philosophie analytique. Tantôt la métaphysique a été cultivée, et des formes de réalisme, d’antiréalisme, d’empirisme, de rationalisme variées ont été proposées, tantôt elle a été bannie, au nom de formes de neutralisme, d’éliminativisme ou de quiétisme. Les thématiques ont porté sur presque tous les domaines classiques de la philosophie : logique, ontologie, épistémologie, éthique, esthétique, philosophie politique, mais aussi philosophie de l’histoire, de la littérature, de la musique, et même des thèmes romantiques ou existentialistes, tels que la mort, l’absurde, l’amour ont donné lieu à des traitements « analytiques ». Si elle se prête à toutes les thématiques, peut-on dire alors que ce qui distingue les philosophes analytiques des autres types de philosophie tient à leur méthode ? Il est tentant de le dire si l’on tient compte de l’importance des méthodes logiques, de l’analyse linguistique, de la description minutieuse des cas et de l’usage des expériences de pensée et des paradoxes qui sont souvent la marque des écrits analytiques. Mais nombre de travaux dans cette tradition ne sont ni basés sur des méthodes logiques ou linguistiques, ni n’usent d’expériences de pensée. On a soutenu aussi que ce qui était spécifique à la philosophie analytique était un ensemble d’arguments, comme celui du langage privé de Wittgenstein, ou celui de l’indétermination de la traduction de Quine. Il est vrai qu’on trouvera peu de discussions de ces arguments chez des heideggeriens. Mais certains auteurs « post-modernes » les ont utilisés pour montrer que le sens est toujours indécis et l’ontologie impossible. On ne peut pas dire non plus que les arguments sceptiques radicaux, comme celui du Malin Génie, soient spécifiques aux philosophes analytiques. On a souvent dit aussi que ce qui distinguait le style analytique est le souci de l’argument et de la clarté. Mais ce n’est pas un critère absolu : bien des livres qui relèvent de la tradition phénoménologique sont argumentatifs et clairs. On pourrait aussi dire que la philosophie analytique, est par rapport à la philosophie post-kantienne et surtout post-heideggerienne, celle qui demeure la plus fidèle aux canons de la philosophie classique. Mais même si Descartes, Spinoza ou Leibniz, et surtout la plupart des philosophes médiévaux, comme Thomas d’Aquin, peuvent être souvent « analytiques » dans leurs écrits, la grande différence tient au fait que peu de philosophes analytiques sont soucieux de construire des systèmes. Leur manière d’écrire repose le plus souvent sur l’article de revue, la discussion spécialisée avec les pairs, et bien des philosophes analytiques influents et importants n’ont jamais écrit de livre. Le critère tient-il à une certaine pratique, qu’on a souvent assimilée à celle de la philosophie professionnelle et académique ? Il est vrai qu’à la différence de nombre de leurs collègues « continentaux », peu de philosophes analytiques ont le souci d’être « populaires » ou d’écrire pour le grand public. Mais même ce critère a cessé d’être distinctif. Peut-on alors se contenter qu’une notion aussi vague que celle d’un style ou d’une attitude commune, ou conclure simplement, faute de pouvoir le cerner, que la philosophie analytique a vécu ?
On a pu soutenir que tout ce qui reste d’elle est la référence à un certain nombre d’auteurs, et des « ressemblances de famille » entre les thèmes et les modes d’écriture de ceux qui la pratiquent (Glock 2005). Bernard Williams a pu dire dans le même esprit qu’il n’y a entre philosophie analytique et philosophie continentale qu’une « différence sans distinction ». Pourtant, si l’on jette un coup d’œil rétrospectif sur un siècle de philosophie analytique, on ne peut qu’être frappé par un ensemble de traits communs, qui ne sont ni des doctrines, ni des méthodes spécifiques qui seraient associées à un certain type d’attitude propre à une tradition assez clairement définie. Cela conduit à relativiser l’idée selon laquelle la philosophie analytique aurait perdu tout trait distinctif.
Il y a en effet un cœur de doctrines et de méthodes qui forment le pôle ou le centre de gravité de la philosophie analytique. Ce sont :
- Réalisme métaphysique et cognitif : Il y a un monde objectif, indépendant de nous, qui peut être connu, au moins en principe.
- Atomisme Ce monde objectif a une structure, et il est composé d’éléments simples : des individus, des propriétés, des faits et des relations, qui se combinent en entités plus complexes, des faits et de états de choses
- Analyse logique et anti-psychologisme Cette structure est reflétée par des propositions, qui sont vraies ou fausses et ont une signification objective et que l’on peut analyser logiquement indépendamment des états mentaux par lesquels nous les appréhendons.
- Primat du sens commun. Notre connaissance de base du monde prend sa source dans le sens commun, même si celui-ci est le plus souvent corrigé, voire réfuté, par la connaissance scientifique
- Opacité du langage. Notre savoir de sens commun nous vient de la perception, du raisonnement et du langage. Mais aucun de ces moyens n’est transparent. Nous devons résister aux illusions que le langage peut introduire, améliorer nos raisonnements et pour cela la logique est un outil indispensable.
- Réalisme normatif. Nos énoncés moraux et normatifs sont, au moins de prime abord, vrais ou faux. Ils sont objectifs ; nos raisons de croire le sont aussi
- Progressisme : Il y a du progrès en philosophie : pas nécessairement sur les thèses, mais sur leurs formulations, sur la clarté que nous pouvons avoir sur les problèmes et l’amélioration de nos méthodes et de nos concepts. La métaphilosophie analytique est réaliste : la philosophie articule des raisons objectives et des normes réelles en vue de parvenir à une vérité objective.
- Anti-pragmatisme : nos croyance ne sont pas des actions ni sous le contrôle de notre volonté, nous ne créons pas le monde avec nos théories.
On aura reconnu dans (i)- (viii) les principales doctrines et méthodes de la philosophie analytique au tournant du siècle, chez le premier Russell, chez Moore, mais aussi chez nombre de philosophes autrichiens. Il est évident que même si on les retrouve dans certains courants aujourd’hui c’est sous des formes très différentes et qu’elles ont été en fait rejetées par la plupart des philosophes analytiques ultérieurs. Elles ne peuvent être considérées comme caractéristiques ni même constitutives de la philosophie analytique ni individuellement ni leur conjonction. Mais elles sont néanmoins centrales, au sens où, même quand des philosophes postérieurs ont adopté d’autres thèses, ou des thèses opposées, ils se sont situés par rapport à elles et les ont prises comme des points fixes à partir desquelles définir leurs positions (Mc Bride 2014, 2017). Plus un philosophe s’en éloigne, moins il ressemble à un philosophe analytique. Ces thèses constituent ce que l’on pourrait appeler un sens commun analytique, une position de base que reconnaissent et respectent tous les philosophes analytiques, même s’ils entendent s’en démarquer. Même quand un philosophe analytique souscrit à l’empirisme en théorie de la connaissance ou à l’antiréalisme, il prend le réalisme comme une position par défaut à partir de laquelle il se définit. Même quand il défend le nominalisme en ontologie, ou l’instrumentalisme en philosophie des sciences, le réalisme est son adversaire, et il fait sens. Quand il adopte des positions cohérentistes ou holistes c’est par contraste avec des formes d’atomisme. Quand un philosophe de l’esprit adopte une forme de matérialisme éliminativiste, il prend comme point de départ notre compréhension ordinaire du mental. Quand un philosophe analytique comme Strawson défend une forme de kantisme, c’est pour traiter notre « schème de sens commun » comme condition de possibilité de toute compréhension du monde, de notre langage et de nos actions. Et même si la plupart des philosophes analytiques rejettent le recours à des notions telles que l’évidence ou l’intuition, quand ils les retrouvent ce n’est jamais pour rejeter la confiance qu’ils ont dans l’outil logique et dans son pouvoir normatif. Par conséquent, plus on est proche du pôle constitué par ces doctrines plus on est proche de l’esprit et du style de la philosophie analytique, et même quand on s’en éloigne, elles restent un référent et un canon. Il est bien possible qu’à part le premier Russell très peu de philosophes analytiques aient accepté toutes ces thèses. Mais un philosophe qui rejetterait l’ensemble de ces thèses en bloc et qui n’en comprendrait pas les enjeux ne pourrait plus être considéré comme analytique. En ce sens certaines formes contemporaines de pragmatisme et d’hégélianisme, même quand elles se parent du terme « analytique » s’écartent de plus en plus loin du centre de la galaxie, parce qu’elles ne cessent de proclamer qu’elles ont « dépassé » la querelle du réalisme et de l’anti-réalisme, et se gtrouvent dans un espace conceptuel qui n’est plus assignable à ces catégories. Il est donc faux de dire, comme l’a dit un jour Putnam, qu’une philosophe qui soutiendrait des thèses radicalement opposées à celles qui sont courantes chez les philosophes analytiques pourrait encore être un philosophe analytique, s’il avait le souci de donner des arguments, des analyses précises et des descriptions minutieuses. Si ce philosophe venait à soutenir, comme Michel Foucault, que les distinctions entre vérité et fausseté et entre raison et déraison sont un partage historiquement situé et visant à établir des formes de domination sociales, il abandonnerait les articles de base de la philosophie analytique, qui est en ce sens une philosophie parfaitement classique, au sens où elle tient les distinction du vrai et du faux, celle de la raison et de l’absence de raison, et celle du droit et du fait comme fermes et définitives. Si ce philosophe venait de plus à soutenir que le réel est le rationnel, et qu’il ne peut pas y avoir de pensée abstraite en dehors de la totalité et de l’esprit objectif d’une époque, alors il s’éloignerait à des milliers d’années lumières du cœur de la philosophie analytique, qui repose sur la possibilité et la réalité de la pensée abstraite, et peut-être par la possibilité de ne pas être de son temps. S’il venait, enfin, à soutenir que la philosophie n’a plus aucune vocation théorique et qu’elle doit exclusivement s’attacher à la morale et à la vie, alors il n’aurait plus aucun rapport avec la philosophie analytique.
Bibliographie
Angelelli, I. Studies on Frege and Traditional philosophy, Springer 1967, tr.fr 2010 Paris Vrin,
Anscombe, G.E.M. 1957 Intention, Blackwell, Oxford, tr. Fr Paris Gallimard 1998
1958 “ Modern Moral Philosophy”, in Collected Philosophical Papers, Blackwell,
Oxford, vol. III, tr. fr in Klèsis, 2008 , https://www.revue-klesis.org/pdf/Anscombe-Klesis-La-philosophie-morale-moderne.pdf
1991 Collected Philosophical Papers, 3 vol. Oxford Wiley Blackwell
Armstrong, D. 1979 Universals and Scientific Realism, Cambridge: Cambridge University Press
2003 A world of States of Affairs, Cambridge: Cambridge University Press
Ayer, A.J. 1946 Language, Truth and Logic, London : Gollanz, tr.fr Paris Flammarion 1956
Barnes, J. 2007, Truth, etc. Oxford: Oxford University Press
Benovski , J. 2010 Le puzzle philosophique, Paris, Ithaque
Austin J.L 1961 How to do things with words, tr.fr. Paris, Seuil 1966
Benacerraf, P. 1973 "Mathematical Truth", The Journal of Philosophy, 70: 661-679.
Blackburn, S. 1998 Ruling Passions, Oxford, Oxford University Press
Bolzano, B. 1837 Wissenschaftslehre 2nd rev. ed. by W. Schultz, Leipzig I, tr.fr Paris Gallimard 2011
Bonnet,C. et Wagner, P. 2006 dir. L’âge d’or de l’empirisme logique, Vienne- Berlin- Prague 1929-1936, Paris, Gallimard
Bouveresse J. 1976 Le Mythe de l'intériorité : Expérience, signification et langage privé chez Wittgenstein, Paris , Minuit
Brandom, R. 1994,Making it Explicit, Harvard, Harvard University Press
Boyer, A. 2017 Apologie de Rawls, Paris, PUF
Broome, J. 2012. Climate matters: ethics in a warming world. New York: W.W. Norton
2013, Rationality through Reasoning, Oxford: Wiley-Blackwell
Carnap , R. 1928 Der logische Aufbau der Welt, Meiner, Hamburg, tr. Fr Paris, , Vrin 2002
1935 Der Logische Syntax der Sprache, Vienne: Julius Springer
1947 Meaning and Necessity, tr.fr. Paris Gallimard 1997
Cavell, S. 1979 The Claims of Reason, Wittgenstein, Skepticism and Tragedy, tr. Fr Paris, Les voix de la raison, Seuil 1989
Chalmers, D. 1996 The conscious Mind , tr.fr L’esprit conscient, Paris, Ithaque, 2009
Chisholm R. 1966 Theory of Knowledge, Englewood Cliffs: Prentice Hall, 2nd ed 1973
Churchland, P. 1984 Matter and Consciousness, MIT Press, 1984, tr. Fr Dijon Champ Vallon 1997
Cohen, G. 1978 Karl Marx's Theory of History: À Defense, Princeton, Princeton University Press
Clifford, W.K. 1879 “The Ethics of Belief”, in Lectures and Essays, London : Mc Millan
Tr.fr Gauthier, L’immoralité de la croyance religieuse, Marseille, Agone
Cometti, J.P., Morizot, J et Pouivet, R. 2000 Questions d’esthétique, Paris, PUF
Cova, F.dir. 2013 La psychologie expérimentale, Paris, Vuibert
Currie, G. 2004 Arts and Minds, Oxford: Oxford University Press
Danto A 1974 The Tranfiguration of the commonplace, tr.fr. Paris, Seuil 1989
Davidson, D. 1980 Essays on Actions and Events, tr.fr PUF 1991
1984 Inquiries into Truth and Interpretation tr.fr Chambon 1993
Dennett D. 1987 The intentional Stance, Cambridge Mass MIT Press, tr.fr. Paris Gallimard 1991
2003 Freedom Evolves, Viking, New York, tr. fr Paris, Odile Jacob 2009
Deonna, J. et Teroni, F. 2008 Qu’est-ce qu’une émotion ? Paris, Vrin, tr.engl. Routledge 2012
Descombes, V. 1996, Les institutions du sens, Paris, Minuit 1996
De Sousa, R. 1987 The Rationality of Emotions, Cambridge, Mass, MIT Press
Dokic, J. 2004 Qu’est-ce que la perception ? Paris, Vrin
Dray, W. 1957, Laws and Explanations in History, Oxford, Oxford University Press
Dretske , F. 1981 Knowledge and he Flow of information Blackwell, Oxford
Dummett,M. 1973 Frege , Philosophy of Language, Duckworth, London
1993 The Logical Basis of Metaphysics, Harvard, Harvard University Press
1988 Ursprünge der analytischen Philosophie, Frankfurt a. M.: Suhrkam , tr. engl
Origins of Analytic Philosophy, Duckworth London, tr.fr Paris Gallimard 1996
Dutant, J. & Engel , P. 2005 dir. Philosophie de la connaissance, Paris, Vrin
Dworkin, R. 1977 Taking Rights Seriously, Harvard: Harvard University Press, tr. fr Paris PUF 1999
Elster, J 1985 Making Sense of Marx, Cambridge: Cambridge University Press, tr.fr. PUF 1993
1989 Nuts and Bolts for the Social Sciences , Cambridge University Press, second
ed. Explaining social Behaviour, Cambridge University Press, 2007
Engel , P 1997 La dispute, Paris, Minuit
2000, dir. Précis de philosophie analytique, Paris, PUF
2002 Truth, Acumen, Bucks , réed Routledge, London 2011
2007 Va savoir, Paris, Hermann
Esfeld, M. 2012 Physique et métaphysique: une introduction à la philosophie de la nature. Lausanne: Presses polytechniques et universitaires romandes.
Evans, G. 1982 The Varieties of reference, Oxford : Oxford University Press
Feigl, H. and Sellars, W. eds, 1952 Readings In Philosophical Analysis, Englewood Cliffs, Prentice Hall
Fine, A. 1986 Unnatural Attitudes: Realist and Antirealist Attachments to Science”, Mind, 95(378): 149–177, tr.fr In Laugier, S et al.. ed. Philosophie des sciences, Paris, Vrin 2010
Fine, K. 2005 Modality and Tense, Oxford: Oxford University Press
Fodor, J.1973 The Language of Thought , Cambridge Mass, Cambridge University Press
1983 The Modularity of Mind , Cambridge Mass: MIT Press tr.fr. Paris, Minuit 1983
Frankfurt, H. 1971. “Freedom of the Will and the Concept of a Person,” Journal of Philosophy, 68: 5–20, tr. Fr . in M. Jouan (dir.), Psychologie morale, Paris: Vrin
Frege G. 1879, Begriffsschrift , tr.fr Idéographie, Paris,Vrin
1891 „Uber Sinn und Bedeutung“, tr. Fr in Ecrits philosophiques, Paris, Seuil 1971
Geach, P.T. 1969 God and the soul. London, New York: Routledge & Kegan;
Gettier , E. 1963 , Is Justifed true Belief knowledge?” , Analysis, tr.fr. in Dutant & Engel 2005
Gibbard, A.1991 Wise Choices, Apt Feelings, Harvard, Harvard University Press, tr. Fr. Paris Seuil 1993
Gilbert, M. 2003, Marcher ensemble: Essais sur les fondements des phénomènes collectifs, Paris,PUF
Glock H.G. 2006 What is Analytic philosophy? Cambridge, Cambridge University Press , tr.fr, Folio. Gallimard 2010
Goldman, A. 1986, Epistemology and Cognition, Harvard : Harvard University Press
1999, Knowledge in a Social World, Oxford: Oxford University Press
Goodman , N. 1947 Fact, fiction and Forecast, Hackett, Indianapolis, tr.fr Paris Minuit 1987
1968 Languages of Art , Hackett, Indianapolis, tr. Fr J.Morizot, J.Chambon 1992
Greco, J. 2010 Achieving Knowledge Cambridge, Cambridge University Press
Grice H.P. 1956 “Meaning”, The Philosophical Review, 66: 377–388.
1992 Studies in the Ways of Words , Harvard: Harvard University Press
Hare, R. 1952 The language of Morals, Oxford: Oxford University Press
Hempel, C.J. 1965 Aspects of scientific Explanation, Free Press, New York
Hintikka, J. 1962 Knowledge and Belief, Ithaca, Cornell University Press
Hirose I and Olson, J. ed 2015 The Oxford Handbook of Value Theory , Oxford: Oxford University Press
Horwich , P. 1991 Truth , Oxford: Oxford University Press
Husserl, 1900 Logische Untersuchungen, vols I-III Halle, Niemeyer, tr. Fr Recherches logiques, Paris PUF , 1959
Jacob, P. 1981 dir. De Vienne à Cambridge, Paris, Gallimard
Kim, J. 1995 Philosophy of Mind , Boulder, Co, Westview tr; fr 2005 Paris, Ithaque
Kenny, A. 1963 Action, Emotion and Will. London: Routledge
Kistler, M. 2016 L’esprit materiel, Ithaque, Paris
Kitcher , P. 201 Science, Truth, and Democracy, Oxford University Press, tr.fr. Paris, PUF 2009
Kripke, S. 1981 (1970) Naming and Necessity , tr.fr. Paris Minuit 1985
Kuhn, T. 1961, The Structure of scientific Revolutions, Chicago: University of Chicago Press, tr. fr. Paris, Flammarion 1970
Künne, W. 2003 Conceptions of Truth, Oxford, Oxford University Press
Lamarque, P. 2009 The Philosophy of literature, Oxford: Wiley Blackwell
Laudan, L 1993 Science and relativism, tr. Fr, ed Matériologiques 2017
Lehrer , K. 1990 Knowledge , Boulder Co:Westview ,
Lewis, D. 1973 Counterfactuals, Blackwell Oxford
1986 On the plurality of Worlds, Blackwell: Oxford, tr. Fr. L’Eclat 2007
Livet, P et Nef, F. 2009, Les êtres sociaux, processus et réalité, Paris Hermann.
Lowe, E.J. 2006 The four category ontology , Oxford :Oxford University Press
Mackie, J.L., 1983, The Miracle of Theism: Arguments for and Against the Existence of God, Oxford: Clarendon Press
McBride , F. 2014 “Analytic philosophy and its synoptic commission: towards the epistemic end of days, Royal Institute of Philosophy Supp., Cambridge University Press 74, 221-36
2018 On the Genealogy of Universals: The Metaphysical Origins of Analytic
Philosophy , Oxford: Oxford University Press
Marconi, D. 1991 La philosophie du langage aux XXème siècle , combas, L’Eclat
Marcus, R.B 1995 Modalities, Oxford: Oxford Universiy Press
McDowell, J. 1995, Mind and World, Harvard, Harvard University Press, tr.fr Paris Vrin 2008
Meinong, A. 1888-1902 Uber Annahmen Leipzig: J. A. Barth.
Michon, C. 2011 Qu'est-ce que le libre arbitre ?, Paris : Vrin,
Michon C et Pouivet, R. (éd.), 2010 Philosophie de la religion : approches contemporaines, Paris, Vrin
Moore.G.E. 1903 Principia Ethica, Cambridge, Cambridge University Press, tr.fr Paris, PUF
1925: “A Defense of Common Sense” in J. H. Muirhead ed., Contemporary British Philosophy, London: Allen and Unwin, 193-223., tr.fr in Armengaud, F. G.E. Moore et la naissance de la philosophie analytique, Paris Klincksiek 1986
Mulligan , K.2000 « Métaphysique et ontologie », in Engel 2000 dir.
2012 Wittgenstein et la philosophie autrichienne
Monnoyer, J.M. 2004 ,dir. La structure du monde, Paris, Vrin
Nef, F. 2007, Qu’est-ce que la métaphysique? Paris, Gallimard folio
Nozick, R.1976 Anarchy, State and Utopia, Harvard, Havard University Press, tr.fr Paris, PUF 1986
Ogien , R. dir. 1995 Le réalisme moral , Paris, PUF
Oppy,G , 1995, Ontological Arguments and Belief in God, Cambridge: Cambridge University Press
Panaccio, C. 2019 Récit et reconstruction, Paris Vrin
Pap, A. 1958 Semantics and Necessary Truth: An Inquiry Into the Foundations of Analytic Philosophy. New Haven: Yale University Press,
Parfit, D. 2011-2016, On What Matters, 3 vol. Oxford: Oxford University Press
Pavel , T. 1988 Le mirage linguistique, Paris, Minuit
Peacocke C. 2003 The Realm of Reason , Oxford: Oxford University Press
Pereboom D. 2006 Living without Free will , Cambrige, Cambridge University Press
Perry, J. 1993 The Problem of the Essential Indexical and Other Essays., Oxford, Oxford University Press
Pettit, P. 1997 Republicanism, Oxford : Oxford University Press, tr.fr Gallimard, Paris 1998
Philipps, D.Z. 1976, Religion Without Explanation, Oxford: Blackwell
Plantinga, A. 2000, Warranted Christian Belief, Oxford, Oxford University Press
Popper, K. R 1935 Logik der Forschung,Sringer, Vienne, tr.fr Paris, Payot 1973
Pouivet, R. 1997, Après Wittgenstein, Saint Thomas, Paris, PUF
2008 Philosophie contemporaine, Paris PUF, seconde ed 2017
2010 L’ontologie de l’œuvre d’art, Paris, Vrin
Prihonsky, F. 1818 Der Neuer anti Kant, tr. Fr Bolzano contre Kant, le nouvel anti Kant, Vrin 2006
Proust, J. 1986 Questions de forme, Paris, Fayard
2016 The Philosophy of Metacognition, Oxford, Oxford University Press
Psillos, S. 1999 Scientific Realism: How Science Tracks Truth, Routledge, London.
Putnam, H. 1965 “Minds and Machines” in Philosophical papers, vol 2, Cambridge,
Cambridge University Press 1975.
1975 “The meaning of “meaning””, in Philosophical papers, vol 2, Cambridge,
Cambridge University Press
1990 Realism with a Human Face, , Cambridge: Harvard University Press, tr.fr 1994.
Quine W.V.O 1951 “Two Dogmas of Empirism”, in From a logical point of view, Harvard, tr.fr Paris, Vrin 2007
1960 Word and Object , Harvard , Harvard Universty Press, tr. Fr Paris Flammarion
Ramsey, F.P. 1930 The foundations of Mathematics and other Essays, ed revisée 1991
Philosophical Papers, ed . Mellor, Cambridge, Cambridge U Press, tr;fr sous la dir. de P. Engel et M. Marion, Logique, philosophie et probabilités, Paris, Vrin 2003
Rawls, J. 1971 A Theory of Justice , Harvard:Harvard University Press, tr.fr Paris, Seuil 1986
Récanati , F. 2009 Philosophie du langage (et de l’esprit), Paris, Gallimard
Russell, B. 1900 , The Philosophy of Leibniz, Cambridge University Press, tr. frAlcan 1908
1905 « On denoting », Mind 14, No. 56,479-493 , tr.fr in Ecrits de logique et de philosophie, Paris PUF
1911, “Le réalisme analytique”, Société Française de Philosophie, Bulletin 11:53 (1911), repris dans Ecrits de logique et de philosophie, Paris, PUF
1914 The Philosophy of Logical Atomism, tr. Fr in Ecrits de logique et de philosophiees, Paris, PUF
1940 Inquiry into Meaning and truth, Routledge, London, tr. R Paris, Flammarion 1969
Ramsey, F.P 1930 The foundations of Mathematics and other Essays, tr.fr , Logique, philosophie et probabilités , Paris, Vrin
Scanlon, T. 1998 What we owe to each other, Harvard: Harvard University Press
Searle, J. 1969 Speech Acts , Cambridge: Cambridge University Press, tr.fr. Paris, Hermann 1972
Sellars, W. 1963 Science, Perception and Reality, Routledge, London
Singer, P. 1975 Animal Liberation, New York: Random House, tr.fr Payot, Paris, 2012
Skoruspki, J. 2010 The Domain of Reasons, Oxford: Oxford University Press
Smart, J.J.C. 1962 Philosophy and Scientific Realism, Cambridge, Cambridge University Press
Smith , B. 1995 , Austrian Philosophy, Open court, La Salle, Ill.
Sosa, E. 2007 A Virtue Epistemology , Oxford: Oxford University
Sperber, D. & Wilson, D. 1986, Relevance, Communication and Cognition, Oxford Blackwell, tr.fr. Paris Minuit 1989
Stadler , F. 2001 The Vienna Circle. Studies in the Origins, Development, and Influence of Logical Empiricism. Springer, Wien and New York
Stout, G. 1886 Analytic Psychology , London, Allen and Unwin
Strawson , P.F.1959 Individuals , London, Methuen, r;fr Paris, Seuil 1972
1966, The Bounds of Sense, London: Methuen
Swinburne, R. 1996, Is There a God?, Oxford: Oxford University Press, tr. fr Clavier, Paris, Vrin 2014.
Tarski, A. 1936 « The semantic conception of truth » in H.Feigl & H. Sellars 1952 , tr.fr. in G.
Granger, dir. Logique, sémantique, métamathématque, Paris, Armand Colin
Talon-Hugon , C. 2015 Morales de l’art, Paris, PUF
Tiercelin, C. 2005, Le doute en question, Paris, l’Eclat , 2eme ed. 2015
2011 Le ciment des choses, Paris, Ithaque
Unger, P. 1980 Ignorance, Oxford: Oxford University Press
Van Inwagen, P 1986 An essay on Free will, Oxford: Clarendon Press
Von Wright, G.H. 1971, Explanation and Understanding, Routledge, London, tr. fr Expliquer
et comprendre Paris, Ithaque, 2017
Vuillemin , J 1968 Leçons sur la première philosophie de Russell, Paris, Armand Colin
1985 Nécessité ou contingence, l’aporie de Diodore et les sytèmes philosophiques, Paris, Minuit
Walzer, M. 1980 Spheres of Justice, tr.fr Sphères de justice, Paris, Seuil
Wiggins, D. 1981 Sameness and Substance , Oxford, Blackwell, seconde ed. Oxford 2011
Williams, B 1985, Ethics and the limits of philosophy, London, Penguin, tr. Fr. Paris Gallimard 1990
Williamson, T. 2000 Knowledge and its limits , Oxford, Oxford University Press
2014 Modal Logic as Metaphysics Oxford, Oxford University Press
Whitehead, A.N. 1929 Process and Reality: An Essay in Cosmology. ed. rev., Free Press 1978, tr. fr Paris, Gallimard, 1995
Wittgenstein , L 1922, Tractatus logico-philosophicus, tr.fr Granger, Gallimard
1951 Philosophische Untersuchungen, Blackwell Oxford, tr. Fr Rigal, Gallimard
Wohlleim, R. 1968 Art and Its Objects, Harmondsworth: Penguin Books, tr.fr. Aubier, Paris, 1994
Winch, P 1957 The Idea of a Social science , tr.fr L’idée d’une science sociale, Paris, Gallimard,
Zemach, E. 1997, Real Beauty, University of Pennsylvania Press, tr.fr. Presses universitaires de Rennes
Pascal Engel
EHESS
pascal.engel@ehess.fr