La philosophie de A à Z

Search Results for: éthique artificielle

By admin

Ethique artificielle (GP)

Publié en janvier 2019

L’éthique artificielle ou, plus largement, l’éthique appliquée à l’intelligence artificielle est le domaine de l’éthique qui se demande ce qui est bon, juste ou vertueux dans la mise en œuvre des systèmes d’intelligence artificielle. Comme c’est souvent le cas en éthique, les réponses sont complexes, diversifiées et elles dépendent beaucoup du contexte. C’est pourquoi, du point de vue méthodologique, il importe de se défier tout autant de la panique morale qui voit des robots tueurs et des pentes glissantes partout, que de la hype – pour reprendre le terme de Paula Boddington (2017) – c’est-à-dire du battage médiatique et de sa fascination pour la nouveauté au détriment de l’esprit critique.

Sans doute l’intelligence artificielle (IA) a-t-elle déjà une longue histoire : la fameuse conférence de Dartmouth souvent considérée comme son acte fondateur fut organisée par John McCarthy durant l’été 1956. Mais c’est avec l’émergence de l’apprentissage profond – deep learning en anglais – que plusieurs avancées spectaculaires, comme la reconnaissance d’image ou la traduction automatique, ont récemment eu lieu. Depuis quelques années, cette forme d’apprentissage automatique qui fonctionne au moyen de réseaux de neurones artificiels, plus ou moins inspirés des neurones biologiques, est devenue si efficace qu’elle soulève des questions éthiques avec une grande acuité – et parfois, peut-être, une certaine confusion. Il faut d’ailleurs noter que les systèmes d’IA sont de plus en plus présents dans la vie quotidienne des gens et qu’il y a de bonnes raisons de penser que ce n’est qu’un début.

L’éthique de l’IA est une discipline transversale. Elle est étroitement liée à la philosophie de la technique (Franssen et al. 2015), à l’éthique des robots (Lin et al. 2012), des données massives et de l’information (Floridi 2010). Elle peut également recouper l’éthique de la guerre : une machine autonome pourrait-elle prendre la décision de tuer? (Jeangène Vilmer 2016), l’éthique publique : qui devrait décider des normes liées aux IA?, la bioéthique : quelle place donner aux algorithmes d’aide à la décision médicale?, la philosophie sociale et politique : comment gérer les conséquences de l’automatisation sur l’emploi?, le droit : comment protéger les données personnelles?, ou l’éthique environnementale : comment atténuer l’empreinte écologique de l’IA?

C’est parce que tout ce qui est techniquement possible n’est pas moralement souhaitable que nous avons besoin d’une éthique de l’IA. Tout comme le droit et les sciences politiques (Calo 2017), cette branche de l’éthique appliquée analyse les enjeux normatifs d’un champ de l’activité humaine qui est à la fois récent, fortement diversifié et en évolution constante. S’il est probablement trop tôt pour discerner des paradigmes ou des théories dominantes, on peut déjà s’adonner à cette tâche philosophique importante qui consiste à identifier et regrouper les problèmes. Que nous apprend un rapide tour d’horizon ?

1. Types d’IA

Sans entrer dans la question délicate de définir l’intelligence artificielle (et même l’intelligence naturelle), on peut toutefois distinguer entre elles les IA ou ces suites d’opérations que sont les algorithmes selon leur fonction (Abiteboul et Dowek 2017) : calculer, classer, archiver, communiquer, diriger (voiture), fabriquer (robot), modéliser.

Par ailleurs, on trouve souvent dans la littérature, à la suite de John Searle (1980), une division – contestée – entre IA forte et faible : une IA forte serait « vraiment » intelligente et capable de comprendre les informations qu’elle traite, tandis qu’une IA faible peut simuler des comportements intelligents, mais n’a pas de croyances, de désirs ou d’autres états mentaux authentiques. Il n’existerait à l’heure actuelle que des IA faibles.

On peut toutefois préférer à cette distinction celle, plus descriptive, entre IA étroite et générale. Une IA étroite désigne un système dont les compétences sont spécifiques à un domaine, tandis qu’une IA générale serait capable, comme l’humain, de s’adapter à des domaines ou des environnements nouveaux. Une fois encore, on peut dire qu’il n’existe pour le moment que des IA étroites.

Enfin, une IA peut être plus ou moins avancée, notamment par comparaison avec l’intelligence humaine. Ainsi, le programme AlphaGo, qui est plus performant que les meilleurs joueurs de go, est une IA avancée, bien qu’étroite et faible. C’est aussi le cas des voitures autonomes – qui sont des robots de transport. Une hypothétique superintelligence, comme HAL9000 dans 2001 L’Odyssée de l’Espace, serait, quant à elle, une IA forte, générale et (super) avancée.

2. Types de problèmes

Ces différents types d’IA et les technologies qui les mettent en application soulèvent des problèmes variés qu’on peut, là aussi, chercher à classifier. Ainsi, certains enjeux sont d’abord de nature épistémique, c’est-à-dire liée à la connaissance : c’est notamment le cas avec la question de l’opacité des processus de décisions automatiques, parfois qualifiée comme « problème de la boite noire » (Knight 2017). En effet, la technique de l’apprentissage profond avec ses nombreuses couches de neurones artificielles donne des résultats impressionnants dans certaines tâches (comme la reconnaissance d’images), mais souvent au prix de la transparence du processus. Cette opacité, voire cette impénétrabilité de l’IA, est préoccupante lorsqu’il est requis d’expliquer et de justifier la décision prise par un algorithme.

De nombreux problèmes soulevés par l’IA sont de nature directement éthique, c’est-à-dire qu’ils concernent la manière dont un agent (une entité qui agit) devrait se comporter à l’égard d’un patient moral (une entité qui peut subir un tort). Par exemple, devant une collision inévitable, que devrait faire une voiture autonome? Comment devrait-on la programmer? Ces questions sont difficiles, mais elles peuvent au moins être anticipées (Bonnefon et al. 2016). Ce n’est pas le cas pour de nombreux problèmes qui tiennent aux conséquences involontaires du déploiement de l’IA.

Plus précisément, on peut envisager trois types de risque. L’IA peut être « trop stupide » : c’est ce qui arrive avec les bogues ou les accidents (de voitures autonomes, par exemple), et qui donne lieu à des recherches sur la sécurité et la robustesse. Il faut aussi s’inquiéter des usages malveillants d’une IA qui menacent la sécurité numérique, physique ou politique (Brundage et al. 2018) : cyberattaques renforcées par l’IA, détournement de voitures autonomes par des terroristes, manipulation de masse via les réseaux sociaux. Un troisième type de risque, plus spéculatif, pourrait venir de ce que l’IA est « trop intelligente ». Mark Tegmark (2018) imagine ainsi plusieurs scénarios où une superintelligence hostile parvient à tromper les humains qui veulent la maintenir sous contrôle.

Il est également possible de classer ces risques selon qu’ils sont à long, moyen ou court termes. S’il est peu probable qu’une superintelligence ne soit développée avant plusieurs dizaines d’années, l’impact de l’automatisation sur l’emploi ou des robots sur les relations humaines se profilent à un horizon de quelques années. De leur côté, l’opacité des algorithmes, la sécurité des systèmes informatiques ou le manque de diversité dans l’industrie et la recherche sont des enjeux tout à fait actuels.

Enfin, on remarquera que certains problèmes sont anciens – comme la propagande politique – mais qu’ils sont démultipliés ou exacerbés par les systèmes d’IA. On trouve aussi de nombreux problèmes d’actions collectives ou de coordination : la campagne internationale Stop Killer Robots insiste par exemple sur les risques d’une course vers le bas analogue à la course aux armes nucléaires, avec cette crainte supplémentaire que la technologie ne rende le coût humain et financier des attaques plus faibles – et donc leur probabilité plus élevée. L’éthique de l’IA est toutefois aussi confrontée à des problèmes inédits : par exemple, dans quelle mesure un système autonome est-il un agent responsable de ses actes ? Devrait-on bannir les robots sexuels pour ne pas perturber le respect du consentement entre humains?

Il est bien sûr possible d’envisager d’autres classifications – par exemple selon les valeurs morales en jeu. Dans la suite de cette entrée, ce sont les types de relations entre l’IA et l’humain qui serviront de fil conducteur.

3. Servir l’humain

Il ne fait guère de doute que le projet qui anime la recherche en IA et les politiques publiques qui l’accompagnent pourraient se résumer à une idée simple : l’IA doit être au service de l’humain, voire des êtres sensibles en général (comme le propose la Déclaration de Montréal pour un développement responsable de l’IA). À plusieurs égards, les choses semblent bien engagées et il est permis d’espérer de nombreux bénéfices dans toutes les régions du monde – y compris en Afrique qui est bien équipée en téléphones intelligents (Belot 2018).

Ces bénéfices sont très variés : un système peut aider des cultivateurs à économiser l’eau, la reconnaissance d’images médicale améliore la performance des radiologues tandis que les voitures autonomes promettent une baisse drastique du nombre d’accidents – lesquels sont principalement dus à des erreurs humaines, là où une IA ne boit pas, ne s’endort pas et respecte le Code de la route. Mais ces bénéfices n’en soulèvent pas moins des questions de juste répartition et d’accessibilité. On peut ainsi redouter des inégalités entre les pays qui dominent l’IA et les autres, tout comme, au sein de chaque société, une « fracture numérique » entre celles et ceux qui maitrisent ces nouveaux outils et les autres.

De façon générale, on peut dire que les bénéfices qu’on peut attendre du développement de l’IA – et de l’utilisation des données massives, et de la recherche opérationnelle, tant ces domaines sont aujourd’hui étroitement liés – ont souvent trait à l’optimisation : trouver les meilleurs moyens de parvenir à une fin, devenir plus efficace. À long terme, l’automatisation pourrait même avoir pour conséquence de libérer l’humain du travail ou, à tout le moins, de lui éviter les tâches les plus ingrates. Il faut enfin noter que l’information ayant cette particularité d’être reproductible à faible coût, les bénéfices de l’IA peuvent être facilement démultipliés. L’hypothèse de l’IA Amicale (Friendly AI) consiste précisément à imaginer une superintelligence bienveillante et les moyens d’y parvenir (Yudkowsky 2008). Cela soulève bien sûr de nouvelles questions. Quel serait le bon design initial et comment s’assurer qu’une telle IA reste fiable, c’est-à-dire qu’elle ne se reprogramme pas pour être hostile?

4. Asservir l’humain

Cette propension de l’IA à se dupliquer facilement a son revers. Les conséquences néfastes peuvent, elles aussi, se propager « à la vitesse de l’information ». Pour l’humain, le risque ultime est celui de son asservissement, voire de son anéantissement. C’est ce qu’on nomme un risque existentiel (Bostrom 2002). Or, si la collision de la terre avec un astéroïde ou une épidémie incontrôlable menace sans doute l’humanité, l’hypothèse d’une IA générale, avancée et hostile peut aussi être envisagée (Bostrom 2014). Ce type de scénario est souvent associé à la notion de singularité technologique, soit l’hypothèse – débattue (Ganascia 2017) – d’un seuil au-delà duquel une « explosion d’intelligence » (Good 1965) bouleverse les sociétés humaines de façon imprévisible. Autrement dit, la singularité désigne cet instant où l’humanité serait dépassée par sa création et perdrait sa position de surplomb.

Si elle n’implique pas nécessairement la singularité, l’expérience de pensée de l’usine à trombones (paperclip maximizer) illustre néanmoins un risque existentiel. Nick Bostrom (2003) nous demande d’imaginer une IA qu’on aurait programmée, sans malice aucune, pour produire des trombones de bureau. En l’absence d’autres consignes, cette IA développe des moyens toujours plus efficaces pour s’acquitter de sa tâche, ce qui pourrait ultimement aboutir à une catastrophe: en mobilisant par exemple toutes les ressources disponibles dans l’univers pour produire toujours plus de trombones. Dans le même ordre d’idée, Eliezer Yudkovski (2008) nous rappelle l’importance d’optimiser ce que nous valorisons vraiment: « la folie de programmer une IA pour implanter le communisme ou tout autre régime politique, c’est que vous programmez des moyens plutôt que des fins ». Mais si une IA devient autonome, comment faire pour qu’elle ne veuille pas faire de mal à l’humain?

C‘est déjà cette question qui motivait les lois de la robotique imaginées par Isaac Asimov en 1942 (Asimov 1962). La première loi stipulait par exemple qu’ « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger. » Mais comme en témoignent souvent les nouvelles d’Asimov, ces lois demeurent insuffisantes et n’endiguent pas les risques d’une superintelligence hostile. Pour beaucoup de chercheurs, le meilleur rempart contre de telles dérives serait de développer des IA dont les objectifs soient « alignés » avec les valeurs humaines.

5. Remplacer l’humain

Un risque moins spéculatif et à plus court terme consiste dans les pertes d’emplois, conséquence prévisible de l’automatisation. Ce sont les fonctions cognitives du système intuitif – le système 1 de Kahneman (2012) – qui semblent les plus aisément automatisables par les algorithmes d’apprentissage profond et donc remplaçables : conduire, trier, reconnaitre des visages. Plusieurs n’hésitent pas à parler d’une quatrième révolution industrielle dont les impacts se feront ressentir dans de nombreux secteurs (Ford 2015). Les estimations sont très variables : entre 47% (Frey & Osborne 2013) et 9% (OECD 2016) des emplois devraient être largement automatisés. À terme, tous les métiers seront touchés par l’IA, mais les conducteurs et les caissiers davantage que les archéologues.

Ce n’est pas forcément une mauvaise nouvelle. Car ce remplacement des humains par des machines signifie une croissance de la productivité et une création de richesse (à tout le moins, plus de biens et de services seront échangés). Dès lors, c’est la question de la juste répartition de ces nouvelles richesses qui doit être posée – et celle de la meilleure théorie de la justice distributive. C’est dans ce contexte que les promoteurs d’un revenu universel (Van Parijs 2004) trouvent des oreilles attentives aussi bien à gauche qu’à droite. En effet, un revenu de base pourrait protéger les humains des aléas de l’IA. Pourtant, dans le monde de l’économie numérique, la tendance actuelle est plutôt à une concentration toujours plus importante des richesses, en particulier autour des GAFA : Google, Amazon, Facebook et Apple. On peut légitimement craindre une croissance des inégalités économiques et sociales. Yuval Harari (2017) imagine pour sa part un futur où une oligarchie d’humains améliorés contrôlerait une masse de gens devenus inutiles et qui tueraient le temps en se plongeant dans les drogues ou des jeux en réalité virtuelle.

Mais le problème du remplacement est loin de ne concerner que l’économie. On peut s’inquiéter des pertes de compétences liées à l’autonomisation des tâches (comme conduire une voiture ou parler une langue étrangère). Et qu’est-ce que le développement des robots, des chatbots ou des algorithmes de recommandations va changer aux relations interhumaines (Tisseron 2015) ? Plusieurs redoutent même une transformation de la « nature humaine ». Certains voient dans le transhumanisme, ce mouvement qui prône – pour le dire vite – l’amélioration de la condition humaine par les technologies, un projet visant à remplacer homo sapiens. Dans le domaine de la prise de décision morale (tribunal de justice, systèmes d’armes létaux autonomes), l’humain doit sans doute se méfier de l’ « objectivité algorithmique » et ne pas s’exonérer de ses responsabilités. Enfin, se profile quelque chose comme une nouvelle question existentielle : qu’est-ce que l’humain et à quoi sert-il si une machine peut le remplacer ?

6. Surveiller et discriminer l’humain

Les données numériques sont de plus en en plus massives (big data) grâce à de nombreux capteurs : clics, textes, photos, vidéo, données de géolocalisation, biométriques, médicales… Si elles sont une manne pour la recherche en sciences sociales (Stephens-Davidowitz 2017), elles concentrent aussi une puissance inédite entre les mains d’une poignée d’entreprises (Galloway 2018). En effet, ces entreprises ont le monopole sur la plupart de nos données personnelles. Que faire ? Certains préconisent de les monétiser (Lanier 2013), d’autres d’en faire un bien commun (Mazzucato 2018).Mais que ces données soient possédées par l’État ou le secteur privé, la mise en place d’une nouvelle société de contrôle, voire d’une véritable dictature numérique, n’est pas à exclure.

Un autre problème surgit qui a trait au consentement : en effet, il paraît souvent abusif de considérer que les utilisateurs ont cédé leurs données de façon libre et éclairée. La vie privée semble aussi menacée par les traces laissées volontairement ou non sur le web, constituant ainsi une « ombre numérique » qui nous suivrait éternellement. Le « droit à l’oubli » ou à désindexer certaines informations préjudiciables dans les moteurs de recherche est une réponse possible.

Par ailleurs, comme l’a bien montré Cathy O’Neil (2016), les algorithmes nourris aux données massives peuvent créer ou renforcer des biais, (re)produisant ainsi des discriminations injustes. En effet, l’ensemble d’apprentissage d’un algorithme influence la qualité de ces résultats : « garbage in, garbage out » disent les programmeurs. Or, un ensemble de données peut être incomplet, opaque, non représentatif ou biaisé (Campolo et al. 2017). Par exemple, les catégories « réceptionnistes » et « femmes » sont fortement corrélées sur le web (et dans le monde réel) ; utiliser ces données brutes pour développer un algorithme d’embauche ou d’éducation ne fera qu’automatiser un statu quo contestable. Qui plus est, l’opacité des algorithmes signifie que ce n’est souvent qu’après coup que l’on découvre une discrimination – comme ce fut le cas aux États-Unis avec COMPAS, un système d’aide à la décision des juges défavorisant les Afro-américains (Angwin et al. 2016).

De même, on peut se demander s’il est opportun que des robots ou des chatbots s’inscrivent dans les stéréotypes de genre moralement problématique – avec une voie féminine, douce et serviable, par exemple. Enfin, comme avec toute technologie, l’IA reflète les valeurs de ses créateurs. On peut donc craindre avec Kate Crawford (2016) que la surreprésentation dans ce secteur d’une certaine catégorie (les hommes blancs riches) ne rende le développement de l’IA inadapté aux besoins et aux intérêts des êtres humains dans toute leur diversité. Ceci étant dit, il n’en demeure pas moins vrai que l’IA, utilisée de façon transparente et avec prudence, peut certainement réduire nos biais trop humains et améliorer de nombreuses prises de décision.

7. Manipuler l’humain

Une dernière source d’inquiétude réside dans la propension de l’IA et des données massives à renforcer la manipulation. Ainsi, les deepfakes, ces vidéos ou ces voix de synthèse produites grâce à l’apprentissage profond et qui semblent plus vraies que nature peuvent être utilisées pour leurrer des individus ou des groupes. À terme, la confiance envers les médias et entre les gens, ce ciment social, pourrait être profondément érodée. Est-ce vraiment ma banquière qui m’a laissé ce message vocal ou un faussaire malveillant ?

Mais la manipulation peut aussi être parfaitement légale puisqu’un bon nombre d’applications sont développées pour accaparer l’attention des utilisateurs à leur insu. Pour l’ex design ethicist de Google, Tristan Harris (2016), on peut voir les téléphones portables comme des équivalents de machines à sous qui, avec leurs notifications incessantes, leurs boutons « like » ou leur scrolling sans fin proposent au cerveau humain des gratifications immédiates auxquelles il est difficile de résister. Avec les réseaux sociaux, c’est notre besoin de comparaison et d’approbation sociale qui est fortement sollicité et pourrait même générer une véritable dépendance (Alter 2017). La peur de manquer quelque chose (FOMO ou fear of missing out en anglais) se développe telle une nouvelle anxiété sociale et augmente encore la consultation compulsive de certaines applications.

Ces phénomènes de capture et de manipulation de l’attention sont étroitement liés au modèle d’affaires qui prévaut dans l’économie numérique. Si bon nombre de services sont offerts gratuitement, c’est parce que ce sont les utilisateurs qui sont le véritable produit. En effet, des plateformes comme Google ou Facebook vendent à leurs clients la possibilité de micro-cibler des messages de façon si efficace et insidieuse que les médias traditionnels voient leurs revenus publicitaires chuter drastiquement. Il faut dire que ces sociétés possèdent des informations très précises et personnalisées – une étude devenue célèbre montre ainsi que l’analyse des likes d’un utilisateur de Facebook permet prédire avec une bonne fiabilité ses traits psychologiques et autres attributs personnels (Kosinski et al. 2013). Dans l’affaire Cambridge Analytica, c’est ce type de micro-ciblage qui a été utilisé pour influencer les élections américaines de 2016.

Il faut enfin noter que cette personnalisation du web produit des bulles de filtrage (filter bubble) : PageRank, par exemple, l’algorithme de Google, tient compte de vos recherches passées afin de vous présenter des résultats qui, en devançant vos attentes, induisent un risque d’isolement (une bulle). Plus largement, les systèmes de recommandations personnalisées pourraient faire perdre aux utilisateurs le sens d’un espace politique commun (Pariser 2011). Il s’ensuit des défis importants pour le bon fonctionnement démocratique.

Conclusion : l’IA comme sujet de l’éthique

On le voit, l’éthique appliquée à l’IA couvre un vaste domaine qui est encore largement en friche. Pour conclure, deux autres régions de ce domaine méritent d’être mentionnées, celle où l’IA n’est en quelque sorte plus l’objet de l’éthique (et un simple outil pour les humains), mais un véritable sujet de l’éthique. On peut d’abord se demander si les robots devraient avoir des droits (Gunkel 2014). Plus précisément, quels sont les critères qu’une IA devrait remplir pour être considérée comme un patient moral, c’est-à-dire une entité qui peut subir un tort moral ? On peut enfin réfléchir à la possibilité de développer une IA qui soit un agent moral, c’est-à-dire une entité qui possèderait une responsabilité morale. Ce dernier domaine, parfois nommé l’éthique des machines, envisage donc des robots capables de prendre des « décisions morales » – en un sens qui reste à préciser (Wallach & Allen 2009, Chauvier 2016). Est-ce possible ? Est-ce souhaitable ? Il est même permis d’imaginer qu’un jour une IA générale nous aidera à identifier ce qui est bon, juste ou vertueux – bref, à faire de l’éthique.

Bibliographie

Abiteboul et Dowek (2017), Le temps des algorithmes, Éditions Le Pommier.

Alter, Adam. (2017) Irresistible: the rise of addictive technology and the business of keeping us hooked. Penguin Press.

Angwin, Julia et al. (2016), « Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks, » ProPublica.

Asimov, Isaac. (1967), Les robots, trad. P. Billon, Paris, J’ai lu.

Belot, Laure. (2018), Dossier : La créativité africaine dopée par l’IA. Le Monde.

Boddington, Paula. (2017), Toward a code of ethics for Artificial Intelligence, Springer.

Bostrom, Nick. (2002), « Existential Risks: analyzing human extinction scenarios and related hazards », Journal of Evolution and Technology, vol.9.

Bostrom, Nick. (2003), « Ethical Issues in Advanced Artificial Intelligence » in Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics.

Bonnefon, J. F., Shariff, A., & Rahwan, I. (2016), The social dilemma of autonomous vehicles. Science, 352, 1573-1576.

Bostrom, Nick. (2014), Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

Brundage, Miles et al. (2018), The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. Future of Humanity Institute.

Calo, Ryan. (2017), « Artificial Intelligence Policy: A primer and a Roadmap. » 51 UC Davis L. Rev. 399-453.

Campolo, Alex et Madelyn Sanfilippo, Meredith Whittaker, Kate Crawford. (2017), Report 2017, AI Now.

Chauvier, Stéphane. (2016), « Éthique artificielle », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique.

Crawford, Kate. (2016), « Artificial Intelligence’s White Guy Problem » The New York Times, June 25, 2016.

Floridi, Luciano (ed). (2010), The Cambridge Handbook of Information and Computer Ethics, Cambridge University Press.

Ford, Martin. (2016), Rise if the Robots: Technology and the threat of jobless future. Basic Books.

Franssen, Maarten, Lokhorst, Gert-Jan et Poel, Ibo. (2015), « Philosophy of Technology » dans Edward N. Zalta (ed.), The Standford Encyclopedia of Philosophy.

Frey, Benedikt et Michael A. Osborne. (2013), « The Future of Employment: How susceptible are jobs to computerization? » Technological Forecasting and Social Change 114.

Galloway, Scott. (2018), Le règne des quatres : l’agenda secret d’Amazon, Apple, Facebook et Google. Édito.

Ganascia, Jean-Gabriel. (2017), Le mythe de la singularité, Éditions du Seuil.

Good, I. J. (1965), Franz L. Alt; Morris Rubinoff, eds., « Speculations Concerning the First Ultraintelligent Machine », Advances in Computers, Advances in Computers, Academic Press, 6: 31–88

Gunkel, David. (2014). « A vindication of the rights of machines. » Philosophy and Technology, 27, 113–132.

Harari, Yuval Noah. (2017), Homo Deus: une brève histoire de l’avenir, Albin Michel.

Harris, Tristan. (2016), « How Technology Hijacks People’s Minds – from a magician and Google design ethicist ». Observer.

Jeangène Vilmer, Jean-Baptiste. (2016) « Diplomatie des armes autonomes : les débats de Genève », Politique étrangère 3:2016.

Kahneman, Daniel. (2016) Système 1 système 2 : les deux vitesses de la pensée. Champs Flammarion.

Knight, Will. (2017), « The Dark Secret at the Heart of AI » MIT Technology Review.

Kosinski, Michal; David Stillwell et Thore Graepel. (2013) « Private traits and attributes are predictable from digital records of human behavior ». PNAS. 110 (15) 5802-5805.

Lanier, Jason. (2013), Who owns the future? Simon and Schuster.

Lin, Patrick; Abney, Keith et Bekey, Geogre (Eds.). (2012). Robot ethics: The ethical and social implications of robotics. Cambridge, MA: MIT Press.

Mazzucatol, Mariana. (2018), Let’s make private data into a public good. MIT Technology Review.

O’Neil, Cathy (2016), Weapons of Math Destruction: How Big Data Increase Inequality and Threatens Democracy. Crown.

OECD (2016), « Automation and Independent Work in a Digital Economy », Policy Brief on The Future of Work, OECD Publishing, Paris.

Pariser, Eli. (2011), The Filter Bubble: What the Internet Is Hiding from You, New York, Penguin Press.

Searle, John. (1980), « Minds, Brains and Programs », Behavioral and Brain Sciences, vol. 3, n° 3, p. 417-424.

Stephens-Davidowitz, Seth. (2017), Everybody Lies: big data, new data and what the Internet can tell us about who we really are. Dey Street Books.

Tegmark, Mark. (2018), La vie 3.0: Être humain à l’ère de l’intelligence artificielle, Dunod.

Tisseron, Serge. (2015), Le jour où mon robot m’aimera. Vers l’empathie artificielle, Paris, Albin Michel.

Van Parijs, Phillipe. (2004), « Basic Income: A Simple and Powerful Idea for the twenty-first century ». Politics and Society.

Wallach, Wendell et Colin Allen. (2009), Moral Machines: Teaching Robots Right from Wrong Oxford, Oxford University Press.

Yudkowski, Eliezer. (2008), « Artificial Intelligence as a positive and negative factor in Global Risk », In Global Catastrophic Risks, edited by Nick Bostrom and Milan M. Ćirković, 308–345.
New York: Oxford University Press.


Martin Gibert
Université de Montréal
martin.gibert@gmail.com


Comment citer cet article? 

Gibert, M. (2019), « Ethique artificielle », version Grand Public, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/etique-artificielle-gp/

By admin

Ethique Evolutionniste (A)

Publié en janvier 2017

Résumé 

On explore les implications de la théorie de l’évolution pour la morale depuis sa formulation par Charles Darwin et Alfred Russel Wallace au 19e siècle. L’éthique évolutionniste, au sens large, désigne les principaux usages qui sont faits des théories et des données empiriques issues de la biologie de l’évolution afin d’aborder les questions éthiques. Cela inclut le projet scientifique consistant à expliquer les origines de la morale et les projets proprement philosophiques consistant à réfléchir aux conséquences qui en découlent pour l’éthique normative et la métaéthique.


Table des matières

1. Qu’est-ce que l’éthique évolutionniste ?

2. Histoire de l’éthique évolutionniste

a. Darwin et les origines du sens moral
b. Darwinisme social et darwinisme prosocial

3. Les origines de la morale : approches contemporaines

a. La sociobiologie
b. Écologie comportementale humaine et psychologie évolutionniste

4. Éthique normative et évolution : de l’être au devoir être

a. La loi de Hume et le sophisme naturaliste de G. E. Moore
b. Les arguments évolutionnaires en faveur de théories normatives et les critiques généalogiques restreintes

5. Métaéthique et évolution

a. Les critiques généalogiques globales

i. Les pilules Napoléon
ii. Le dilemme darwinien

b. Les arguments évolutionnaires en faveur de théories métaéthiques

i. La théorie de l’erreur
ii. Le constructivisme
iii. L’expressivisme
iv. Le réalisme naturaliste

Conclusion

Bibliographie


1. Qu’est-ce que l’éthique évolutionniste ?

Le terme « éthique évolutionniste », au sens large, désigne divers usages qui sont faits des théories et des données empiriques issues de la biologie de l’évolution afin d’aborder les questions éthiques. On peut distinguer trois principaux usages, soit 1) expliquer les origines de la morale, 2) justifier ou critiquer certains principes moraux ou certaines théories éthiques normatives et 3) justifier ou critiquer certaines théories métaéthiques.

Dans le premier cas, il s’agit de rendre compte du phénomène empirique complexe qu’est la morale en utilisant les ressources de la biologie de l’évolution (et d’autres disciplines connexes). Les chercheurs peuvent s’intéresser à l’un ou l’autre des quatre grands problèmes identifiés il y a plus de cinquante ans par l’éthologiste Nikolaas Tinbergen, soit (i) la valeur adaptative, (ii) l’ontogénie, (iii) la phylogénie et (iv) le mécanisme. Ainsi, on peut se demander à propos d’un trait donné : à quoi sert-t-il ? Comment se développe-t-il durant la vie de l’organisme ? Comment a-t-il évolué au cours de l’histoire de l’espèce ? Comment fonctionne-t-il ? (Tinbergen, 1963; Bateson et Laland, 2013). Ces questions sont complémentaires. Idéalement, nous parviendrions à y répondre pour l’ensemble des comportements (entraide, partage de ressources, etc.), émotions (honte, culpabilité, etc.), capacités générales (jugement moral, intériorisation de normes, etc.), intuitions ou croyances particulières (l’inceste est mal, les tricheurs doivent être punis, etc.) que nous associons à la morale et qui sont susceptibles de recevoir une explication évolutionnaire. Les résultats de ce projet scientifique peuvent avoir des implications importantes pour l’éthique normative et la métaéthique.

En ce qui concerne l’éthique normative, il est possible, d’une part, que l’évolution soit directement une source de normes morales. Il s’agit sans doute de l’usage le plus controversé des données provenant de la biologie, à la fois pour des raisons historiques et pour des raisons proprement philosophiques. Sur le plan historique, les dérives eugénistes au cours des 19e et 20e siècles hantent encore les mémoires. Le souvenir de ces dérives passées s’accompagne sur le plan philosophique d’un débat quant à la possibilité de tirer des conclusions normatives à partir de prémisses descriptives. La « loi de Hume » et le « sophisme naturaliste » identifié par G.E. Moore sont, à cet égard, des références incontournables.

Il est possible, d’autre part, que l’évolution ait des conséquences normatives plus indirectes. Les origines évolutionnaires de certaines de nos intuitions ou croyances morales pourraient semer le doute sur leur justification, par exemple.

En ce qui concerne la métaéthique, la question qui a fait l’objet des débats les plus vigoureux est sans doute celle de savoir si les origines évolutionnaires de la morale remettent en question la possibilité qu’il y ait des vérités morales objectives. Les théories métaéthiques réalistes, qui défendent l’existence de telles vérités, ont été la cible d’arguments à cet effet. De nombreux philosophes ont également suggéré que les considérations relatives à l’évolution offraient un certain soutien à leurs théories métaéthiques de prédilection. On constate d’ailleurs que presque « toute la gamme des positions métaéthiques imaginables a été défendue » de cette façon (Clavien, 2009, p. 1269).


2. Histoire de l’éthique évolutionniste

a. Darwin et les origines du sens moral

L’idée selon laquelle l’éthique peut bénéficier de l’apport de la biologie n’est pas nouvelle. On trouve déjà chez Aristote des réflexions qui vont en ce sens (Salkever, 1990). Ce n’est toutefois qu’à partir du milieu du 19e siècle, avec la formulation de la théorie de l’évolution par la sélection naturelle par Charles Darwin et Alfred Russel Wallace, que se développa l’éthique évolutionniste proprement dite. Darwin était conscient que sa théorie avait des implications majeures pour l’espèce humaine, y compris en ce qui concerne la morale. Le caractère controversé du sujet l’incita toutefois à faire preuve de retenue au moment de la publication de L’Origine des espèces (1859). Il fallut attendre 1871, et la publication de La filiation de l’homme, avant qu’il ne rende publiques ses réflexions sur le sujet. Il se concentra surtout sur la question des origines de notre « sens moral » (Lewens, 2007).

L’un des problèmes qui lui posait le plus de difficultés consistait à expliquer les comportements altruistes observés dans la nature. Si la sélection naturelle élimine progressivement toutes les variations qui sont délétères pour un organisme, comment expliquer que certaines castes d’insectes sociaux (abeilles, fourmis, etc.) soient stériles, mais qu’elles consacrent néanmoins leurs efforts à aider leurs semblables, souvent même au péril de leur vie ? Les hommes courageux qui étaient prêts à se rendre au front afin de protéger les leurs n’auraient-ils pas péri en plus grand nombre que les autres, laissant les couards et les traîtres proliférer à leurs dépens ? La solution de Darwin au problème de l’altruisme fut d’invoquer ce que l’on appelle aujourd’hui la « sélection de groupe » : les groupes qui sont composés d’individus altruistes bénéficient d’un avantage en matière de survie et de reproduction par rapport aux groupes qui sont composés d’individus égoïstes. Les instincts sociaux, la sympathie en particulier, aurait ainsi été acquis afin de profiter à la communauté. Darwin était d’avis que toute créature dotée de tels instincts dont les facultés intellectuelles atteindraient le niveau de développement qu’elles atteignent chez les humains posséderait dès lors un sens moral (Darwin, 1871; Gayon, 1992).

b. Darwinisme social et darwinisme prosocial

Dès sa formulation, nombreux sont ceux qui se sont appuyés sur la théorie de l’évolution afin d’élaborer leurs théories éthiques et politiques ; les uns afin de supporter le « crédo du conflit », les autres celui de la coopération (Clavien, 2009, p. 1262). L’un des exemples les plus célèbres du premier type d’usage est le darwinisme social, défendu entre autres par Herbert Spencer, William Graham Sumner et Hernst Haeckel. Les darwinistes sociaux estimaient que « la loi de la survie du plus fort » à l’œuvre dans la nature, dans la mesure où elle est une source de progrès, devrait aussi guider les affaires humaines. Cela impliquait notamment que l’État s’abstienne de venir en aide aux plus démunis, puisque cela aurait favorisé la survie et la reproduction de groupes perçus comme faibles.

Un cousin de Darwin, Francis Galton, se consacra pour sa part à étudier la possibilité d’améliorer l’espèce humaine par la reproduction sélective des individus jugés supérieurs et par la limitation de la reproduction des individus jugés inférieurs. Dans Inquiries into Human Faculty and its Development (1883), il proposa le terme « eugénisme » afin de décrire ce programme de recherche. Les idées de Galton connurent un succès considérable au cours de la première moitié du 20e siècle, une période au cours de laquelle de nombreux États adoptèrent des politiques eugénistes. Des stérilisations forcées eurent lieu par milliers, notamment aux États-Unis, en Suède, en Norvège, en Suisse et au Canada. C’est toutefois en Allemagne, sous le régime nazi, que survinrent les pires excès. Pas moins de 400 000 stérilisations furent pratiquées sur des personnes atteintes de « maladies » que l’on croyait héritables (alcoolisme, schizophrénie, etc.) (Gillham, 2001).

Notons que du point de vue du rôle de l’État, le darwinisme social et l’eugénisme prescrivaient des conduites contraires. Dans le premier cas, l’État devait se contenter de laisser la compétition faire son œuvre (sélection naturelle), tandis que dans le second, l’État devait intervenir directement afin de guider la reproduction des meilleurs éléments et d’empêcher celle des mauvais (sélection artificielle). Les deux mouvements étaient toutefois en partie motivés par une même crainte, répandue à l’époque, soit celle d’une éventuelle dégénérescence de la race humaine. En effet, Darwin et plusieurs de ses contemporains étaient d’avis que « la sélection naturelle n’agissait plus dans les sociétés modernes étant donné que les plus faibles n’étaient pas éliminés » (Paul, 2003). Les traits désavantageux de ces individus, incluant des traits acquis dont on croyait à tort qu’ils étaient héritables, risquaient donc de se répandre, ce qui menaçait à plus ou moins long terme la lignée.

Les propositions des darwinistes sociaux et des eugénistes découlaient d’une conception de la théorie de l’évolution qui été remise en question, sinon abandonnée depuis. Pensons, par exemple, à l’idée selon laquelle l’évolution est un phénomène essentiellement « progressiste », à la conception lamarckienne de l’hérédité des caractères acquis ou encore aux présuppositions malthusiennes au sujet de la croissance des populations (Richards, 1987). Notons que plusieurs penseurs de l’époque s’opposaient vivement à la « conception gladiatoriale » de l’évolution mise de l’avant par les darwinistes sociaux (Dugatkin, 1997). Darwin lui-même, bien qu’il partageât dans une certaine mesure la crainte que l’espèce humaine puisse dégénérer, estimait que le remède consistant à ne pas s’occuper des plus faibles était pire que la maladie. La sympathie que nous éprouvons à l’égard des plus vulnérables était selon lui une manifestation des plus nobles aspects de la nature humaine (Lewens, 2007). Le célèbre prince anarchiste Pierre Kropotkine, qui était un naturaliste aguerri, considérait pour sa part que la meilleure arme dans la lutte pour la survie était en fait l’entraide. La leçon à tirer de l’évolution n’était pas de laisser libre cours à la compétition, mais bien plutôt de l’éviter à tout prix (Harman, 2014).


3. Les origines de la morale : approches contemporaines

a. La sociobiologie

Darwin et ses contemporains ont défendu des conceptions de l’hérédité qui n’ont plus cours aujourd’hui. Certaines avancées dans les sciences biologiques ont depuis permis de repenser à nouveaux frais le problème de l’altruisme évoqué précédemment. La solution de Darwin à ce problème, rappelons-le, faisait appel à la sélection de groupe. Or les modèles de ce type firent l’objet de critiques assez virulentes au cours des années 1960 (Williams, 1966) et ils furent abandonnés au profit de modèles centrés sur les gènes. Avant de présenter plus en détail ces travaux, il convient d’introduire une distinction importante entre l’altruisme biologique et l’altruisme psychologique.

Un comportement est altruiste au sens biologique s’il impose un coût à celui qui le manifeste et qu’il bénéficie à un ou plusieurs autres organismes. Les coûts et les bénéfices sont mesurés en fonction de leur contribution à la valeur sélective des organismes concernés. Le comportement des fourmis ouvrières est altruiste en ce sens : elles renoncent à tout succès reproductif au profit de la reine, dont la principale fonction est la reproduction. Cependant, il est pour le moins improbable que les fourmis ouvrières agissent ainsi parce que le bien-être de la reine leur tient à cœur. Autrement dit, elles ne font pas preuve d’altruisme au sens psychologique. L’altruisme psychologique requiert la présence de motifs (intentions, jugements, etc.) ou de motivations (émotions, désirs, etc.) qui témoignent d’un souci envers autrui. Il est plausible que les humains, et peut-être d’autres animaux, soient capables d’altruisme en ce sens. Les travaux scientifiques peuvent chercher à expliquer l’une ou l’autre de ces formes d’altruisme, voire les deux, mais il est essentiel de ne pas perdre de vue qu’elles sont (relativement) indépendantes. Du point de vue de la philosophie morale, c’est sans doute l’altruisme psychologique qui présente le plus grand intérêt (Clavien, 2010).

À partir de l’élaboration de la théorie synthétique de l’évolution, qui devint dans les années 1950 la « version moderne accréditée du darwinisme » (Gayon, 2009, p. 323), on pense l’évolution en termes de changements de fréquences alléliques. Cela explique en partie l’insistance sur les modèles génocentrés dans les années subséquentes. La théorie de la sélection de parentèle du biologiste William D. Hamilton (1964), qui s’inscrit dans cette veine, fut l’une des contributions les plus importantes à la résolution du problème de l’altruisme. Elle permit d’expliquer la stérilité des castes ouvrières chez les insectes sociaux sans faire appel à la sélection de groupe. En raison d’une particularité du mode de reproduction de certaines espèces, les sœurs ouvrières sont davantage apparentées entre elles (≈75%) qu’elles ne le seraient avec leurs propres filles (≈50%). En aidant leurs consœurs, elles ont donc davantage de chance d’augmenter la représentation de leurs gènes dans les générations subséquentes qu’en se reproduisant.

Un fort degré d’apparentement est, en principe, une condition susceptible de favoriser l’évolution de comportements altruistes quelle que soit l’espèce considérée. C’est ce qu’exprime la règle de Hamilton : pour que l’altruisme biologique soit évolutionnairement viable, il faut que rB-C > 0, où r représente le coefficient d’apparentement entre un acteur et un bénéficiaire, B le bénéfice obtenu et C le coût encouru par l’acteur. Chez les humains, certains estiment encore aujourd’hui que la sélection de parentèle est « presque certainement responsable de l’émotion prosociale basique qu’est la sympathie », qui se serait développée dans le contexte d’interactions parents-enfants (Tomasello, 2016; pour une critique récente de la théorie de la sélection de parentèle, voir Nowak et al. 2010).

Robert Trivers élabora pour sa part la théorie de l’altruisme réciproque (1971), qui permit d’expliquer l’évolution de la coopération entre individus non-parents. Si les individus interagissent fréquemment et qu’ils sont en mesure d’ajuster leurs comportements en fonction de leurs expériences passées – en coopérant avec les coopérateurs et en évitant les tricheurs par exemple – ils seront susceptibles d’en retirer des bénéfices considérables à long terme. Trivers suggéra que sa théorie pouvait rendre compte des mécanismes psychologiques régulant les comportements altruistes chez l’humain. Il mentionna entre autres l’amitié, l’inimité, la gratitude, la confiance, la suspicion et la culpabilité.

C’est également au cours de cette période que l’on commença à explorer les possibilités offertes par la théorie des jeux. John Maynard Smith introduisit la notion de stratégie évolutionnairement stable afin de décrire les stratégies qui, lorsqu’elles sont suivies par la plupart des membres d’une population, ne sont pas susceptibles d’être renversées par des mutants (des individus adoptant une autre stratégie). Ces nouvelles méthodes permirent d’étudier de manière formelle les conditions auxquelles la coopération pouvait évoluer et se maintenir dans une population.

À la fin des années 1970, une époque où les ordinateurs en étaient encore à leurs balbutiements, Robert Axelrod organisa un tournoi virtuel. Il invita des chercheurs de tous horizons à soumettre des programmes informatiques déployant diverses stratégies lors de dilemmes du prisonnier réitérés. Le programme qui l’emporta, soumis par le psychologue Anatol Rapoport, était de loin le plus simple. Il ne comportait que quatre lignes de code. La stratégie qu’il employait, tit-fot-tat, consistait à coopérer à la première rencontre et à répéter ensuite ce que l’autre joueur avait fait au tour précédent (faire défection si l’autre joueur avait fait défection et coopérer s’il avait coopéré). La même stratégie l’emporta à nouveau lors d’un second tournoi comptant davantage de participants. Ces résultats étonnants ont incité de nombreux chercheurs à étudier les multiples facettes du dilemme du prisonnier et à développer des modèles toujours plus réalistes (p. ex. : en incorporant du bruit, la possibilité de choisir ses partenaires, etc.) afin d’éclairer les origines de la coopération dans la nature (Axelrod, 1984; Nowak, 2011).

Edward O. Wilson synthétisa les travaux sur les comportements sociaux des animaux dans un ouvrage majeur publié en 1975 : Sociobiology : The New Synthesis. Le dernier chapitre, qui était consacré aux applications possibles de la sociobiologie chez l’humain, engendra une controverse majeure (au point de figurer en page couverture de Time Magazine) qui dura plusieurs années. Wilson fut accusé, souvent à tort, de défendre le déterminisme génétique, le sexisme, le racisme, l’eugénisme, les inégalités économiques et sociales, l’esclavage, le génocide, etc. (Pinker, 2002). Le souvenir des dérives eugénistes des 19e et 20e siècles, et plus généralement les risques qui sont associés aux tentatives de biologiser la culture et la nature humaine, expliquent en partie la forte opposition à l’ambitieux projet de Wilson de « retirer temporairement l’éthique des mains des philosophes et de la biologiser » (Wilson, 1975, p. 562).

En raison de cette controverse, peu de chercheurs de nos jours se réclament ouvertement de la sociobiologie (bien qu’ils continuent d’étudier le comportement social animal de la même manière sous d’autres appellations disciplinaires). En ce qui a trait à l’étude du comportement social humain, plusieurs approches évolutionnaires contemporaines sont issues de la sociobiologie. L’écologie comportementale humaine et la psychologie évolutionniste, entre autres, ont donné lieu à des travaux forts intéressants en lien avec l’évolution de la morale.

b. Écologie comportementale humaine et psychologie évolutionniste

L’écologie comportementale humaine et l’anthropologie évolutionnaire sont des branches de l’anthropologie qui étudient l’évolution de traits comportementaux héritables au sein de différents types d’environnements. Une prémisse centrale de ces disciplines est que les stratégies adoptées dans différents environnements, que ce soit sur le plan de l’approvisionnement en nourriture, du mariage ou de la reproduction, sont adaptatives. Certains ont suggéré, par exemple, que la polyandrie pratiquée dans certaines régions du Tibet est adaptative dans un contexte où les terres agricoles sont rares. Les frères maximiseraient leur succès reproductif en se mariant à la même femme et en exploitant ensemble une même ferme (Crook et Crook, 1988; Laland et Brown, 2002). D’autres auteurs ont avancé que la coévolution gène-culture (que l’on traite parfois comme une approche évolutionnaire distincte) offre la meilleure explication de l’ubiquité des normes prosociales. Ils défendent une forme de sélection de groupe dite culturelleselon laquelle les groupes qui ont de telles normes prospèrent davantage que les autres. Ils insistent tout particulièrement sur le rôle clé que joue la punition dans le maintien celles-ci (Boyd et Richerson, 1992; Henrich and Boyd, 2001; Fehr et Fischbacher, 2003; Gintis et al., 2008).

Plutôt que de se concentrer sur les comportements, la psychologie évolutionniste s’intéresse aux mécanismes psychologiques qui les produisent. Il s’agit sans doute de l’approche la plus populaire. On associe souvent cette discipline aux thèses défendues par « l’école de Santa Barbara », dont les figures principales sont Leda Cosmides et John Tooby. Selon ces derniers, l’esprit humain comprendrait de nombreuses adaptations qui auraient évolué en réponse à des problèmes récurrents dans l’environnement ancestral (le Pléistocène). Puisque les mécanismes psychologiques évoluent lentement, l’esprit humain n’aurait pas subi de changements majeurs depuis cette époque. Notre boîte crânienne abriterait, en quelque sorte, un « esprit de l’âge de pierre » (Cosmides et Tooby, 1997, p. 85). Pour cette raison, on peut s’attendre à ce que les comportements humains soient souvent maladaptatifs dans un environnement moderne. De nombreuses études menées dans cette perspective portent sur la cognition morale. Cosmides et Tooby ont avancé, par exemple, que l’esprit humain est doté d’une machinerie spécialisée dans la compréhension des échanges sociaux qui faciliterait entre autres la détection des tricheurs (Cosmides et Tooby, 1992). Plus récemment, Jonathan Haidt a développé un modèle selon lequel la morale repose sur six bases psychologiques ayant des origines évolutionnaires distinctes : 1) souffrance/soin, 2) réciprocité/tricherie, 3) loyauté/trahison, 4) autorité/subversion, 5) sainteté/dégradation et 6) liberté/oppression. Les individus et les cultures diffèreraient en ce qui concerne l’importance qu’ils accordent à l’une ou l’autre de ces dimensions, mais certaines intuitions morales seraient à peu près universelles (Haidt, 2012).

Une caractéristique importante des travaux scientifiques sur l’évolution de la morale est leur interdisciplinarité. Aux contributions de la biologie proprement dite s’ajoutent celles de la psychologie, de l’anthropologie, des neurosciences, etc. Cela est manifeste en ce qui concerne l’étude de l’évolution de la coopération et de l’altruisme, des sujets qui, on l’aura remarqué, ont reçu énormément d’attention. Des chercheurs ont :

  1. développé des modèles mathématiques permettant d’étudier les conditions favorables à l’évolution de la coopération et de l’altruisme (Hauert, 2013)
  2. proposé une reconstruction des principales étapes historiques ayant conduit à leur évolution (Tomasello, 2016)
  3. étudié le comportement d’individus provenant de tous les coins de la planète lors de jeux économiques (jeu de l’ultimatum, jeu du dictateur, etc.) impliquant le partage de ressources (Ensminger et Henrich, 2014)
  4. étudié des peuples de chasseurs-cueilleurs dont le mode de vie est vraisemblablement similaire à celui de nos ancêtres (Bohem, 2012)
  5. comparé les comportements d’enfants humains et de primates non-humains dans diverses tâches coopératives (Warneken, 2013)
  6. étudié les mécanismes qui sous-tendent les comportements prosociaux sur le plan neurobiologique (Numan, 2014)
  7. etc.

Ainsi, bien que la tâche de fournir une généalogie de l’altruisme et de la coopération comporte son lot de difficultés et demeure en partie spéculative, des progrès importants ont été réalisés ces dernières années. On peut en dire autant en ce qui concerne certaines émotions morales (l’empathie, la culpabilité, la honte, etc.), certaines tendances évaluatives particulières (favoriser les membres de la famille ou du groupe d’appartenance, éviter l’inceste, etc.) et certaines capacités plus générales (jugement moral, intériorisation de normes, etc.) qui ont aussi retenu l’attention des chercheurs. Présenter en détail l’ensemble de ces travaux exigerait de trop longs développements. D’autres résultats d’études empiriques et, surtout, l’interprétation qu’en ont offerts les philosophes, seront introduits en temps opportun. L’aperçu offert dans la présente section devrait néanmoins fournir une base suffisante à l’exploration des liens possibles entre le projet scientifique consistant à expliquer les origines de la morale et les projets philosophiques que sont l’éthique normative et la métaéthique. Ce sera l’objet des deux prochaines sections.


4. Éthique normative et évolution : de l’être au devoir-être

L’éthique normative s’intéresse aux questions morales de premier ordre. Que devons-nous faire ? Devons-nous chercher à maximiser le bonheur, agir par devoir ou encore développer nos vertus ? Or on peut se demander en quoi les travaux scientifiques sur l’évolution de la morale, qui visent à décrire ce qui est, sont pertinents lorsqu’il s’agit de déterminer ce qui doit être. La célèbre « loi de Hume » ne suggère-t-elle pas qu’il est impossible de tirer des conclusions évaluatives à partir de prémisses descriptives ? Par ailleurs, les tragiques exemples du darwinisme social et de l’eugénisme, dont il a été question précédemment, ne devraient-ils pas avoir servi de leçon à ceux qui seraient tentés de contrevenir à cette loi ? La plupart des philosophes contemporains sont sensibles à ce genre d’objections et ils acceptent par conséquent que « la prudence et le faillibilisme devraient être les mots d’ordre de l’éthicien évolutionniste » (Casebeer, 2003, p. 67). Cela dit, plusieurs demeurent convaincus que la biologie de l’évolution et l’éthique normative peuvent et doivent aller de pair.

a. La loi de Hume et le sophisme naturaliste de G. E. Moore

Les ouvrages d’éthique normative et de métaéthique qui adoptent une perspective évolutionnaire abordent presque invariablement la question des rapports entre le domaine empirique et le domaine normatif. Les deux arguments les plus discutés sont la loi de Hume et le sophisme naturaliste identifié par G.E. Moore (voir entre autres Casebeer, 2003 chapitre 2; Joyce, 2007, chapitre 5 et Kitcher, 2011, chapitre 7). Cela s’explique essentiellement par le fait que ces arguments offrent des raisons a priori de croire que les deux domaines ne font pas bon ménage. S’ils étaient décisifs, le projet de développer une éthique évolutionniste (ou toute autre forme d’éthique naturaliste) serait d’emblée voué à l’échec.

Dans un passage bien connu du Traité de la nature humaine (1740, p.65), Hume fait observer qu’il est fréquent que les auteurs qui élaborent des systèmes de morale, après avoir établi l’existence de Dieu ou avoir fait des observations sur les affaires humaines, glissent sans offrir d’explication vers des propositions qui sont reliées par doit ou ne doit pas plutôt que par les copules usuelles est ou n’est pas. Il lui paraissait inconcevable que cette nouvelle relation puisse être déduite des autres puisqu’elle en est entièrement différente. Il y a matière à débat quant à l’interprétation qu’il convient de faire de ce passage. Une interprétation influente, voire dominante, est que Hume y établi qu’il est logiquement impossible de déduire des conclusions normatives à partir de prémisses purement descriptives. C’est ce que l’on appelle parfois la loi de Hume (Hare, 1952) ou la guillotine de Hume (Black, 1964).

On attribue souvent ce même argument à G.E Moore en faisant référence à sa critique du « sophisme naturaliste » dans son œuvre majeure, Principia Ethica (1903). Or le sophisme naturaliste, tel que l’entendait Moore, ne consiste pas, du moins à première vue, à déduire une conclusion normative de prémisses descriptives. Ce qu’avance Moore, c’est que toute tentative de définir le bien en termes naturels est vouée à l’échec. Il reproche à plusieurs philosophes qui l’ont précédé, notamment les éthiciens évolutionnistes Herbert Spencer et Jean-Marie Guyau, d’avoir cherché à le faire. En effet, selon Moore, Spencer était manifestement influencé par les thèses selon lesquelles « meilleur » signifie « plus évolué » et « bien » signifie « plaisant ». Il admet néanmoins que les travaux de Spencer n’offrent pas « l’exemple le plus clair de l’utilisation du sophisme naturaliste afin de soutenir l’éthique évolutionniste » (Moore, 1903, p. 46).

Moore avance deux arguments visant à remettre en cause la possibilité d’offrir une définition ou une analyse du bien en termes naturels, soit l’argument de la question ouverte et l’argument de l’ajout de sens. Selon le premier argument, si « bien » signifiait vraiment « plaisant », la question « x est plaisant, mais x est-il bien ? » paraîtrait étrange aux yeux d’un locuteur compétent. Considérons la question suivante : « x est célibataire, mais x est-il non marié ? ». De toute évidence, celui qui se pose cette question est confus ou ne maîtrise pas très bien le concept « célibataire ». Pour tout locuteur compétent, il s’agit d’une question fermée. La question « x est plaisant, mais x est-il bien ? », par contraste, est une question qui demeure ouverte.

Selon le second argument, si « bien » signifiait « plaisant », affirmer que « ce qui est plaisant est bien » n’offrirait aucune information nouvelle. Cela reviendrait à affirmer que « ce qui est bien est bien ». Il semble pourtant qu’affirmer « ce qui est plaisant est bien » ne soit pas une simple tautologie. La conclusion que tire Moore est que « bien » est une propriété simple, non naturelle et inanalysable (Casebeer, 2003).

Les tenants de l’éthique évolutionniste peuvent offrir diverses réponses à ces objections. Il s’agit dans tous les cas de montrer que ni l’une ni l’autre ne représentent des obstacles insurmontables à leurs projets. Une manière d’y répondre consiste à rejeter la distinction entre jugements analytiques et jugements synthétiques sur laquelle elles semblent reposer. William Casebeer, en s’appuyant sur les arguments développés par W.O. Quine dans son célèbre article « Two Dogmas of Empiricism » (1951), adopte cette approche. Un inconvénient notable de cette manière de procéder est qu’elle fait appel à plusieurs thèses controversées. Il faut établir que les deux objections reposent effectivement sur la distinction analytique/synthéthique et montrer que cette distinction ne tient pas la route. Il est sans doute plus aisé de mettre en évidence d’autres limites bien connues des arguments de Hume et de Moore.

On sait, par exemple, que la loi de Hume, du moins telle que présentée ci-haut, admet des exceptions. Autrement dit, il est logiquement possible de dériver une conclusion normative à partir de prémisses purement descriptives. Les deux arguments suivants, bien qu’ils soient plutôt étranges, sont valides :

P1 : Ottawa est la capitale de Canada

Donc : Ottawa est la capitale du Canada ou tu ne devrais pas tuer ton prochain

Et :

Ottawa est la capitale du Canada et ce n’est pas le cas qu’Ottawa est la capitale du Canada

Donc : tu ne devrais pas tuer ton prochain

Le premier argument emploie la règle de l’introduction de la disjonction, tandis que le second emploie le principe d’explosion selon lequel on peut déduire n’importe quoi d’une contradiction. (Joyce, 2007, p. 153; Prior, 1960).

On pourrait objecter que les termes normatifs n’apparaissent pas de manière essentielle dans la conclusion de ces arguments. C’est-à-dire que l’on pourrait les remplacer par n’importe quel autre terme du même type grammatical et les inférences demeureraient valides. Considérant cela, peut-être que la loi de Hume devrait être amendée : on ne peut déduire une conclusion où des termes normatifs apparaissent de manière essentielle de prémisses purement descriptives. Il est toutefois possible de produire des exemples où les termes normatifs semblent figurer de manière essentielle. Philip Kitcher propose l’exemple suivant :

P 1 : Certains juifs (ceux qui ont reçu la croix de fer lors de la Première guerre mondiale) ont servi l’Allemagne avec honneur

Donc : Si nous devons respect et protection à ceux qui ont servi l’Allemagne avec honneur, il y a certains juifs à qui nous devons respect et protection.

Sans être décisifs, de tels contre-arguments montrent qu’il est difficile de formuler la loi de Hume d’une manière qui soit « à la fois précise et vraie » (Kitcher, 2011, p. 254-255). Par ailleurs, plusieurs ont fait remarquer que les philosophes qui adoptent une approche évolutionnaire ne cherchent pas forcément à déduire des conclusions normatives. Un argument tel que « les humains n’aiment pas être tués, donc on ne doit pas tuer des humains » n’est pas une déduction valide. On peut néanmoins l’envisager comme un enthymème dont la prémisse implicite est « on ne doit pas faire aux humains ce qu’ils n’aiment pas ». Cette prémisse, bien entendu, est elle-même normative. La question, comme le souligne Owen Flanagan, est de savoir si elle peut être défendue. Enfin, l’interdiction de recourir à la déduction n’interdit pas le recours aux inférences ampliatives qui sont employées couramment dans les autres domaines du savoir (Flanagan et al., 2014, p. 216-217).

Quant aux arguments de Moore, un contre-exemple classique est celui de l’eau et de H2O. Il est clair que les deux termes désignent la même substance. Néanmoins, la question « x est de l’eau, mais x est-il H2O ? » semble ouverte. Un locuteur compétent pourrait très bien ignorer la composition chimique de l’eau (c’était d’ailleurs le cas pour tous les locuteurs avant qu’on ne découvre ce fait). De plus, il semble qu’affirmer « l’eau est H2O » ne soit pas une tautologie, et ce même si les deux termes désignent la même substance. De façon analogue, on pourrait découvrir a posteriori que « bien » désigne une propriété naturelle telle que « plaisant » ou « plus évolué ». Pour cette raison, le naturalisme synthétique semble échapper entièrement aux arguments de Moore. Même en restreignant leur cible au naturalisme définitionnel ou analytique, il n’est pas clair que ces arguments soient convaincants. En effet, de nombreuses vérités conceptuelles ou analytiques ne sont pas du tout évidentes. Imaginons, par exemple, qu’une connaissance soit une croyance vraie et justifiée. Celui qui affirme que « x est une connaissance » peut très bien douter qu’il s’agisse d’une croyance vraie et justifiée sans pour autant faire preuve de confusion (Joyce, 2001). D’ailleurs, si toute les vérités a priori étaient immédiatement évidentes, la tâche de fournir des analyses, à laquelle se consacrent tant de philosophes, serait dénuée d’intérêt (Tappolet, 2000, p. 114).

Dans « Modern Moral Philosophy », G.E.M. Anscombe notait que l’accusation de sophisme naturaliste ne l’impressionnait guère puisqu’elle trouvait les présentations que l’on faisait de ce soi-disant sophisme incohérentes (1958, p. 2). De nombreux auteurs qui adoptent une perspective évolutionnaire semblent partager ce constat. Certains vont jusqu’à soutenir que c’est en portant une telle accusation que l’on commet un sophisme (Wilson, 1999, p, 273). Quoi qu’il en soi, s’ils ont raison d’affirmer qu’il n’existe aucune raison a priori de rejeter l’éthique évolutionniste, peut-être y a-t-il bel et bien des conclusions normatives à tirer de la biologie de l’évolution.

b. Les arguments évolutionnaires en faveur de théories normatives et les critiques généalogiques restreintes

On peut distinguer au moins trois manières dont les éthiciens évolutionnistes contemporains cherchent à justifier des théories normatives ou des principes moraux à partir de la biologie, soit 1) en faisant appel à une conception de la nature humaine, 2) en considérant la ou les fonctions de la morale ou 3) en cherchant à déterminer ce qui est adapté ou adaptatif. Notons que ces trois options ne sont pas mutuellement exclusives (Clavien, 2008, p. 313).

Plusieurs philosophes néo-aristotéliciens (Larry Arnhart, William Casebeer, etc.) ont recours à de telles stratégies. La détermination des fins de la vie éthique et des moyens d’atteindre le bonheur dépendent largement du genre de créature que nous sommes et la biologie a évidemment beaucoup à nous apprendre à cet égard. Le projet de naturalisation de l’éthique auquel aspirent ces philosophes suppose entre autres de « mettre à jour » certaines thèses que défendait Aristote mais qui, dans leur forme originelle, reposaient sur des présupposés incompatibles avec la biologie de l’évolution moderne (comme, par exemple, sa conception essentialiste des espèces). L’une des caractéristiques d’une bonne théorie normative selon ces auteurs est de faire preuve de réalisme psychologique, c’est-à-dire de ne pas exiger l’impossible. Ils reprochent souvent aux théories adverses de ne pas respecter ce critère. Le degré d’impartialité exigé par le conséquentialisme et l’exercice de pure raison auquel invitent les théories déontologiques en offrent de bons exemples. Les conceptions de la nature humaine et les fonctions qui sont attribuées à la morale varient considérablement d’un auteur à l’autre. Larry Arnhart, par exemple, identifie le bien au désirable. Il recense une vingtaine de désirs universels qui seraient issus de l’évolution, notamment les soins parentaux, l’amitié, le rang social, la beauté et le plaisir. Selon lui, la satisfaction de ces désirs est le critère à partir duquel il convient d’évaluer les modes de vies, les institutions, etc. (Arnhart, 1998).

Les considérations relatives à l’évolution peuvent servir non seulement à justifier des théories ou des principes moraux, mais également à les remettre en cause. Plusieurs auteurs ont mis de l’avant ce que l’on peut appeler des critiques généalogiques restreintes. Il s’agit de cibler une classe particulière de jugements moraux et de soutenir que leurs origines évolutionnaires les rendent peu fiables, injustifiés ou encore faux.

Les travaux de Daniel Kelly et Nicolae Morar offrent un bon exemple de ce type d’argument. Ces derniers s’intéressent à l’influence du dégoût sur nos jugements. Ils sont d’avis que le celui-ci ne devrait jouer aucun rôle sur les plans moral et social (Kelly, 2011; Kelly et Morar, 2014). L’évolution du dégoût aurait procédé en deux grandes étapes. Il s’agissait initialement d’une réponse visant à éviter les poisons et les parasites. Cette émotion aurait par la suite été cooptée par l’évolution afin de jouer un rôle sur le plan social (motiver le respect de certaines normes, éviter les interactions avec les membres d’autres groupes, etc.). Or le dégoût aurait conservé un certain nombre de caractéristiques de sa fonction première même lorsqu’il opère dans le domaine social : il élicite la crainte de la contamination, suscite le désir d’éviter son objet, soulève la nausée, etc. Si ces caractéristiques intrinsèques du dégoût sont avantageuses pour un organisme lorsqu’il s’agit d’éviter les poisons, elles ont cependant pour effet, selon les auteurs, de rendre cette émotion « impropre à être dirigée envers une entité ou un organisme qui fait partie du cercle moral » (2014, p. 165).

Un autre exemple d’une critique généalogique restreinte provient des travaux de Peter Singer et de Joshua Greene (Greene, 2003; Singer, 2005). Ces derniers s’appuient sur des hypothèses évolutionnaires et sur les résultats d’expériences neuroscientifiques afin de soutenir les théories conséquentialistes (voir l’article Utilitarisme) et de remettre en question les théories déontologiques (voir l’article Kant). La plupart des gens, peut-on croire, porteraient assistance à un enfant blessé qui se trouve devant eux s’ils le pouvaient, qu’importent les coûts. Cependant, ces mêmes gens dépensent régulièrement des sommes considérables pour des biens de luxe alors que cet argent pourrait être employé à sauver des dizaines d’enfants dans des pays lointains. Selon Singer et Greene, aucune raison valable ne justifie la différence de traitement entre les deux situations : la proximité physique avec une victime n’est pas une considération moralement pertinente. Ce qui pourrait expliquer la différence, selon eux, c’est la manière dont le cerveau humain est « programmé ». Nous avons évolué dans un environnement où il était souvent possible de venir en aide à des gens qui étaient près de nous et que nous connaissions, mais pas à des étrangers à l’autre bout du monde.

Ce qui vaut pour l’assistance à autrui vaut également pour les torts que nous pouvons leur infliger. Nous avons évolué dans un environnement où il était possible d’infliger des blessures, voire de tuer, d’une manière « directe et personnelle », mais pas d’une manière « indirecte et impersonnelle ». Il semble que les intuitions que nous avons dans certains scénarios fictifs, en particulier des variantes du célèbre problème du tramway, reflètent cela. Considérons les deux cas suivants :

Version 1 : Un tramway se dirige à toute allure vers cinq travailleurs qui ne pourront l’éviter. Il vous est possible d’actionner un levier qui fera dévier le tramway sur une voie secondaire où se trouve un seul travailleur. Ce dernier ne pourra pas non plus éviter le tramway. Actionner le levier est-il moralement acceptable?

Version 2 : Un tramway se dirige à toute allure vers cinq travailleurs qui ne pourront l’éviter. Vous vous trouvez sur un pont au-dessus de la voie. À vos côtés se trouve un homme très corpulent dont le poids suffirait assurément à arrêter le tramway. Pousser le gros homme est-il moralement acceptable?

Dans les deux cas, il y a une possibilité de sauver cinq personnes au prix de la mort d’une seule. Néanmoins, la plupart des gens estiment qu’il serait acceptable d’actionner le levier dans le premier scénario, mais qu’il ne serait pas acceptable de pousser le gros homme dans le second. À l’aide de l’imagerie par résonnance magnétique fonctionnelle, Greene et ses collègues ont observé l’activité cérébrale de sujets confrontés à ce genre de dilemmes. Leurs résultats suggèrent que les zones associées à la réflexion consciente s’activent plus dans le premier type de dilemmes (actionner le levier) que dans le second type de dilemmes (pousser le gros homme), tandis que les zones associées au traitement des émotions sont plus actives dans le second type de dilemmes que dans le premier type. Cela suggère la façon de tuer une personne (directe et personnelle vs. indirecte et impersonnelle) fait varier nos intuitions sur le caractère acceptable ou non de sacrifier une personne pour en sauver plusieurs, précisément dans la mesure où certaines d’entre elles suscitent des réactions émotionnelles plus violentes que d’autres. Si les hypothèses évolutionnaires avancées par Greene et Singer sont justes, c’est donc essentiellement le fait que la façon de tuer invoquée dans les scénarios ait ou non été possible pour nos lointains ancêtres qui explique ces réactions émotionnelles et les jugements moraux correspondants. Or il ne s’agit pas, à leur avis, d’un facteur moralement pertinent.

La leçon à tirer de ces résultats est que les origines évolutionnaires de nos intuitions morales dans ce genre de cas sèment le doute sur la justification des jugements moraux correspondants. De manière générale, les théories morales qui s’efforcent de rationaliser des intuitions que leurs origines évolutionnaires rendent suspectes sont susceptibles de faire fausse route. Selon Singer et Greene, les théories déontologiques présentent souvent ce défaut.

Les critiques généalogiques restreintes ont elles-mêmes fait l’objet de critiques. Certains estiment que les travaux empiriques sur lesquels s’appuient Singer et Greene ne font aucun travail philosophique. Leurs conclusions reposent ultimement sur des jugements normatifs, formulés à partir du proverbial fauteuil du philosophe, au sujet des considérations qui sont (ou qui ne sont pas) moralement pertinentes dans diverses situations (Berker, 2009). De plus, il n’est pas clair que la distinction entre les jugements qui ont une forte valence émotionnelle et les jugements qui sont davantage raisonnés corresponde précisément à celle entre les jugements typiquement déontologiques et les jugements typiquement conséquentialistes. En effet, on peut aisément imaginer des cas où le jugement utilitariste est celui qui se présente de manière intuitive et spontanée, et dans lesquelles parvenir au jugement déontologique requiert un raisonnement complexe qui va à l’encontre de nos émotions (Blackburn, 2014, p. 236). D’ailleurs, d’autres études neuroscientifiques suggèrent que c’est plutôt le fait que les jugements soient intuitifs ou contre-intuitifs qui cause les profils d’activité cérébrale observés, et non le fait qu’ils soient déontologiques ou conséquentialistes (Kahane et al., 2012). Enfin, la méfiance envers les émotions qui semble imprégner les travaux de Singer et Greene n’est pas partagée par tous. Supposer que les jugements qui sont informés par des émotions sont en quelque sorte des jugements de moindre conséquence serait, selon Simon Blackburn, un « simple résidu d’une idéologie de méfiance envers les émotions et du culte de la « raison » en tant que vecteur ou force indépendants dans notre prise de décision » (Blackburn, 2014, p. 236). Sans surprise, le débat persiste quant aux mérites des arguments offerts de part et d’autre (voir notamment Greene, 2014 pour des réponses à quelques-unes des critiques mentionnées ci-haut).


5. Métaéthique et évolution

L’objet de la métaéthique n’est pas de déterminer ce que nous devons faire, mais plutôt de répondre aux questions de deuxième ordre au sujet de la morale. Existe-t-il des vérités morales objectives ? Les assertions morales décrivent-elles une réalité morale ou expriment-elles plutôt les attitudes non-cognitives des agents ? Quel lien y a-t-il entre le jugement moral et la motivation ? (voir l’article Métaéthique) Les travaux scientifiques sur l’évolution de la morale ont été mobilisés de deux manières principales par les métaéthiciens, soit 1) afin de remettre en question les théories métaéthiques réalistes, selon lesquelles il existe des vérités morales indépendantes de l’esprit (voir l’article Réalisme moral) et 2) afin d’appuyer diverses théories métaéthiques.

a. Les critiques généalogiques globales

Les critiques généalogiques restreintes, dont il a été question dans la section précédente, remettent en question la justification de jugements moraux relevant d’une classe particulière, ceux qui sont influencés par le dégoût ou ceux qui sont typiquement déontologiques par exemple. Or certains auteurs ont également développé des critiques généalogiques globales qui remettent en question tous les jugements moraux (du moins tels que les conçoivent les réalistes moraux). Considérons brièvement deux versions des arguments évolutionnaires contre le réalisme moral parmi les plus influentes.

i. Les pilules Napoléon

C’est bien connu, les philosophes sont friands d’expériences de pensées ou, pour reprendre l’expression de Daniel Dennett, de pompes à intuitions (2013). Richard Joyce met à profit cet outil philosophique. Il propose d’imaginer qu’il existe une pilule qui fait croire à celui qui l’ingère que Napoléon a gagné la bataille de Waterloo et une autre qui fait croire qu’il l’a perdue. Supposons aussi qu’il existe un antidote pour chacune. Si une personne croit depuis toujours que Napoléon a perdu la bataille de Waterloo, mais qu’elle apprend éventuellement qu’on lui a donné à son insu une pilule « Napoléon a perdu », quelle attitude devrait-elle adopter par rapport à sa croyance ?

Joyce soutient qu’il est évident que la croyance doit alors être placée sur la liste des croyances douteuses et que la personne, à moins qu’elle n’obtienne de nouvelles preuves que Napoléon a perdu, devrait prendre l’antidote. Les informations sur la généalogie de la croyance ne montrent pas qu’elle est fausse (en l’occurrence, elle est vraie), mais elle mine sa justification. Si on remplace les croyances au sujet de Napoléon par des croyances morales et les pilules par la sélection naturelle, la même conclusion s’ensuit selon lui. Ce n’est pas parce qu’ils décrivent des aspects de la réalité que nous avons des concepts tels que l’obligation, la culpabilité, la rétribution et l’équité. C’est plutôt parce que formuler des jugements employant ces concepts augmentait la valeur sélective de nos ancêtres en les encourageant à adopter des comportements prosociaux. Nous devrions en conséquence « prendre l’antidote » et suspendre notre jugement au sujet de toutes les croyances impliquant ces concepts (Joyce, 2007, p. 179-182).

ii. Le dilemme darwinien

Sharon Street formule pour sa part l’objection sous la forme d’un « dilemme darwinien ». Si l’on suppose qu’il existe des vérités morales indépendantes de l’esprit, comme le croient les réalistes moraux, deux possibilités s’offrent à ces derniers : ils peuvent soit nier, soit affirmer l’existence d’une relation entre les pressions évolutives et les vérités morales.

La première option, nier l’existence d’une relation, conduit au scepticisme. Imaginons un bateau qui cherche à se rendre aux Bermudes au gré des vents et des marées. Les chances qu’il atteigne sa destination sont plutôt minces. De façon analogue, si les pressions évolutives nous ont poussés dans toutes sortes de directions sans égard aux vérités morales, les chances que nos croyances reflètent ces vérités sont infimes. Si le réalisme moral implique un tel scepticisme, il y a de bonnes raisons de croire que la théorie est fausse.

La seconde option, affirmer l’existence d’une relation, exige que le réaliste explique la nature de cette relation. Or Street estime qu’aucune explication scientifique acceptable n’est disponible. Quel avantage pourrait-il y avoir, en termes de succès reproductif, à percevoir des vérités morales indépendantes de l’esprit ? L’explication la plus plausible est que les attitudes évaluatives qui étaient les plus avantageuses pour nos ancêtres sur le plan de la survie et de la reproduction se sont imposées, et ce indépendamment de leur vérité ou de leur fausseté (Street, 2006).

En simplifiant considérablement, on peut dire que la structure de base des deux arguments est la suivante :

Prémisse causale : nos croyances morales sont expliquées par l’évolution

Prémisse épistémique : l’évolution est un processus insensible aux vérités morales

Donc

Nos croyances morales sont injustifiées / Le réalisme moral est (probablement) faux

Bien que les arguments évolutionnaires contre le réalisme moral soient à première vue relativement simple, les complications sont nombreuses.

Considérons d’abord la prémisse causale selon laquelle nos croyances morales sont expliquées par l’évolution. En un sens, cette prémisse est trivialement vraie. Dans la mesure où nous sommes des créatures issues d’une longue histoire évolutive, l’ensemble de nos traits, tant sur le plan physique qu’intellectuel, sont « expliqués » par l’évolution. La prémisse, pour présenter quelque intérêt, doit sans doute être plus précise. Dans The Evolution of Morality (2006), Joyce offre un traitement détaillé, sinon exhaustif, de la littérature sur l’évolution de la morale. Il traite des théories de la sélection de parentèle de l’altruisme réciproque, de la sélection de groupe, du rôle des émotions dans le jugement moral, de la contribution essentielle du langage, de l’hypothèse selon laquelle nous avons un sens moral, etc. Street se contente pour sa part d’offrir quelques exemples de tendances évaluatives favorisées par l’évolution, notamment la tendance à faire ce qui favorisera notre survie, à promouvoir les intérêts des membres de notre famille et à aider en retour ceux qui nous ont aidé. Elle suggère, peut-être un peu rapidement, que l’évolution a exercé une influence énorme sur le contenu de nos jugements évaluatifs. Il a été mentionné dans la section consacrée aux origines de la morale que les scénarios évolutionnaires possibles sont nombreux et qu’ils sont dans une certaine mesure spéculatifs. Il s’agit d’ailleurs d’un point sur lequel les réalistes moraux cherchent à répondre aux critiques généalogiques insistent souvent (Kahane, 2011; Shafer-Landau, 2012; FitzPatrick, 2015). Une question importante est donc celle de savoir à quel point les détails empiriques sont essentiels à une formulation adéquate de ces arguments. Une réponse quelque peu insatisfaisante, mais qui rallie des auteurs des deux camps, est qu’il vaut la peine d’évaluer les implications philosophiques des scénarios évolutionnaires même s’ils devaient s’avérer faux (Street, 2006, p. 113; Vavova, 2015, p. 104).

Considérons maintenant la prémisse épistémique selon laquelle l’évolution est insensible aux vérités morales. Pourquoi devrions-nous accepter que le fait d’avoir des croyances morales vraies n’augmente pas la valeur sélective des individus ? Il semble que dans plusieurs cas, le fait d’avoir des croyances vraies soit manifestement avantageux. Celui qui formerait des croyances au sujet des objets présents dans son environnement sans égard aux vérités à leur sujet risquerait fort de se heurter contre les arbres, de marcher vers les prédateurs, de tomber du haut des falaises, etc. Une différence possible entre ce cas et celui de la morale est que nous interagissons causalement avec les objets présents dans notre environnement, mais pas avec les propriétés morales. Cependant, ce ne sont pas tous les réalistes qui acceptent l’idée selon laquelle les propriétés morales sont causalement inertes. Plusieurs réalistes naturalistes croient que les faits moraux sont des faits naturels. S’ils sont, par exemple, « des faits à propos des interactions sociales qui supportent une coopération stable », on peut croire que les pressions évolutives y étaient sensibles (Sterelny et Fraser, 2016, p. 2). Il est donc possible que certaines versions du réalisme moral échappent aux arguments évolutionnaires. Il est généralement admis que la cible la plus évidente de ces arguments est le réalisme moral non-naturaliste. En effet, la plupart des non-naturalistes considèrent que les propriétés morales sont causalement inertes (Shafer-Landau, 2003; Enoch, 2011, mais voir Oddie, 2005).

Des difficultés demeurent pour ce qui a trait à la manière dont on devrait envisager la notion de sensibilité (ou d’insensibilité) aux vérités morales. La question est souvent abordée en termes de sensibilité contrefactuelle. Affirmer que les pressions évolutives sont sensibles aux vérités morales implique que si les vérités morales avaient été différentes, nos croyances morales auraient aussi été différentes d’une manière correspondante. Inversement, affirmer que les pressions évolutives sont insensibles aux vérités morales implique que si les vérités morales avaient été différentes, nous aurions malgré tout les mêmes croyances morales. Un problème avec ce genre de formulation est que bon nombre de réalistes moraux soutiennent que « les vérités qui unissent les propriétés morales aux propriétés naturelles sont métaphysiquement nécessaires » (Clarke-Doane, 2012, p 320). Par conséquent, si les vérités morales étaient différentes, les propriétés naturelles le seraient aussi. Et si les propriétés naturelles changeaient, nos croyances morales ne seraient plus les mêmes contrairement à ce qu’affirme la proposition contrefactuelle au sujet de l’insensibilité.

Afin d’éviter cette difficulté, on peut envisager la modalité pertinente comme étant la possibilité conceptuelle plutôt que la possibilité métaphysique. Ainsi comprise, l’idée est que, sur le plan conceptuel, les vérités morales auraient pu être à peu près n’importe quoi. Considérant l’immense espace de possibilités, ce serait une incroyable coïncidence que les pressions évolutives nous aient conduits vers les vérités morales qui existent effectivement. Une question qui se pose est donc celle de savoir s’il est conceptuellement possible que les vérités morales les plus fondamentales soient très différentes. Plusieurs réalistes moraux doutent que ce soit le cas. Russ Shafer-Landau et Terence Cuneo, par exemple, estiment que des contraintes conceptuelles limitent ce qui peut être considéré comme un système moral. Quiconque accepterait un ensemble de règles incluant l’apologie de la torture, du meurtre et du viol commettrait une erreur conceptuelle en considérant qu’il s’agit d’un système moral (Safer-Landau, 2012; Cuneo et Shafer-Landau, 2014).

Il y a plusieurs manières pour les réalistes de répondre aux critiques généalogiques globales. Une première possibilité, déjà évoquée, consiste à rejeter la prémisse causale voulant que l’évolution ait exercé une influence énorme sur le contenu des jugements moraux que nous acceptons. Une seconde possibilité consiste à identifier des jugements épistémiquement fiables et exempts d’influences évolutionnaires et à corriger à partir de ceux-ci les distorsions introduites par l’évolution. C’est ce que Shafer-Landau nomme la réponse naturelle (Shafer-Landau, 2012). Une troisième possibilité consiste à faire appel à certaines prémisses normatives. Supposons qu’il soit vrai que la douleur est mauvaise et que le plaisir est bon. Dans ce cas, il ne serait guère étonnant que l’évolution nous ait conduit à former des croyances qui coïncident jusqu’à un certain point avec les faits moraux. En effet, il y a de bonnes raisons de croire qu’éviter la douleur et rechercher le plaisir offre des avantages sur le plan de la valeur sélective (Skarsaune, 2011). C’est ce que David Enoch nomme les explications par un troisième facteur. Il s’agit sans doute du type de solution le plus populaire parmi les réalistes moraux (voir entre autres Copp, 2008; Wielenberg, 2010; Brosnan 2011, Enoch, 2011).

Le débat persiste quant aux promesses de ces solutions. La première possibilité dépend essentiellement de la résolution de questions empiriques controversées. Il paraît préférable à certains réalistes de développer une solution qui ne laisse pas leur théorie otage de la fortune empirique. Il n’est pas clair que la seconde solution permette de rendre compte de l’apparente corrélation entre les jugements moraux que nous acceptons et les vérités morales indépendantes postulées par les réalistes autrement que par un heureux hasard. En effet, même si l’on identifie certains principes moraux justifiés n’ayant pas été influencés par l’évolution, il faut également expliquer comment il se fait que plusieurs jugements que nous estimons être vrais sont le produit de telles influences (Aubé Beaudoin, 2015). La dernière solution soulève pour sa part la question de la légitimité de présupposer certaines vérités normatives dans le contexte d’une critique généalogique ciblant ces croyances. Certains y voient une pétition de principe (Street, 2008) tandis que d’autres croient que c’est acceptable (Wielenberg, 2010; Setiya, 2012).

b. Les arguments évolutionnaires en faveur de certaines théories métaéthiques

Les considérations relatives à l’évolution sont également mobilisées afin de soutenir certaines théories métaéthiques. En fait, comme il a été mentionné en introduction, presque toutes les positions métaéthiques, qu’elles soient antiréalistes, quasi-réalistes ou réalistes, ont été défendues de cette façon. Une exception notable est possiblement le réalisme moral non-naturaliste. Bien que les tenants de cette position soutiennent habituellement qu’elle est tout à fait compatible avec nos connaissances scientifiques, ils ont tendance à envisager l’éthique comme un domaine autonome ou a priori. Pour cette raison, les données empiriques, qu’elles proviennent de la biologie, de la psychologie ou de toute autre discipline scientifique, ne leur paraissent pas forcément pertinentes. Il s’agira dans cette section d’offrir un aperçu des liens possibles entre la biologie de l’évolution et diverses options métaéthiques, soit la théorie de l’erreur, l’expressivisme, le constructivisme et le réalisme naturaliste.

i. La théorie de l’erreur

Considérons en premier lieu la théorie de l’erreur, selon laquelle aucun jugement moral de premier ordre n’est vrai. Le discours moral, de ce point de vue, est comparable au discours au sujet des sorcières. Lorsque l’on affirme « cette femme est une sorcière », on lui attribue à tort certaines propriétés qui ne sont pas instanciées dans le monde (p. ex. : posséder des pouvoirs surnaturels). Lorsque l’on affirme que « tuer est mal », on présupposerait également à tort l’existence de certaines propriétés (p. ex. : être mal).

Les théoriciens de l’erreur reconnaissent habituellement qu’ils doivent expliquer comment nous en sommes arrivés à commettre systématiquement ce genre d’erreur (Mackie, 1977; Joyce, 2001; Olson, 2014). Les scénarios évolutionnaires offrent à cet égard des ressources intéressantes. Il est possible que le meilleur moyen pour la sélection naturelle d’assurer la force motivationnelle des jugements moraux, et donc de permettre aux humains de retirer les bénéfices de la coopération, soit de leur conférer une apparence d’objectivité. On peut illustrer cela à l’aide d’une analogie avec la religion. Certains estiment que les croyances religieuses sont adaptatives parce qu’elles favorisent la coopération et la cohésion sociale. Ces bénéfices ne peuvent toutefois être obtenus que si les agents croient bel et bien qu’il existe un agent surnaturel qui surveille leurs actions. L’objectivité de la morale pourrait donc être, en quelque sorte, « une illusion collective qui nous est imposée par nos gènes » (Ruse, 1986). Une manière de développer cette hypothèse consiste à défendre une forme de projectivisme moral. Selon cette position, bien que les propriétés morales semblent se situer hors de nous, dans le monde, il s’agit en fait d’une projection de nos émotions. L’idée remonte à Hume qui évoquait, dans le Traité de la nature humaine, la propension de l’esprit à se répandre sur les objets extérieurs. Selon Richard Joyce, l’un des principaux théoriciens de l’erreur contemporains, les considérations darwiniennes soutiennent cette position. La sélection naturelle aurait rendu possible le jugement moral en manipulant les centres émotionnels du cerveau (Joyce, 2007, p. 125).

ii. L’expressivisme

Le projectivisme est une position que l’on associe le plus souvent aux approches non-cognitivistes en métaéthique, notamment à l’expressivisme. Pour cette raison, les tenants de cette position peuvent très bien reprendre à leur compte le scénario qui vient d’être évoqué. Une différence importante entre les théoriciens de l’erreur et les expressivistes est que ces derniers rejettent la thèse voulant que les jugements moraux cherchent à représenter des faits. Ils tentent plutôt d’expliquer le sens des termes normatifs en décrivant les états mentaux que ces termes permettent d’exprimer. Cela implique de s’intéresser d’une manière ou d’une autre à la psychologie des agents moraux. Bien que les considérations darwiniennes ne soient pas forcément indispensables pour mener à bien un tel projet, elles peuvent néanmoins offrir des ressources pertinentes. Les travaux d’Allan Gibbard, l’un des plus éminents défenseurs de l’expressivisme, en offrent une bonne illustration. Dans Sagesse des choix, justesse des sentiments (1990), ce dernier met en évidence la fonction de coordination des jugements moraux. La capacité d’intérioriser ou d’accepter des normes serait selon lui une adaptation biologique propre aux humains. Par la discussion normative, ces derniers s’influencent mutuellement et ils parviennent à former un consensus au sujet de ce qu’il est rationnel de ressentir, de ce qu’il serait sensé de faire, etc. Les jugements moraux servent donc essentiellement à exprimer l’acceptation de certaines normes.

iii. Le constructivisme

Les constructivistes s’accordent avec les théoriciens de l’erreur et les expressivistes sur le fait qu’il n’existe pas de faits moraux indépendants de l’esprit, mais ils rejettent l’idée qu’aucun jugement moral ne puisse être dit vrai. Il y a des vérités morales, mais elles découlent du point de vue pratique des agents ou d’une certaine procédure de construction. Une question importante qui divise les constructivistes est celle de savoir si certaines conclusions morales substantielles découlent nécessairement de tout point de vue pratique. Les constructivistes kantiens répondent affirmativement à cette question, tandis que les constructivistes humiens y répondent négativement (Voir l’article Constructivisme métaéthique).

Ce sont surtout les constructivistes humiens qui mobilisent les arguments évolutionnaires. Selon Sharon Street, par exemple, l’attitude de « valoriser » (valuing) à partir de laquelle la morale est construite est un produit de l’évolution. Les pressions évolutives ont permis l’apparition de « créatures conscientes capables d’accorder de la valeur à certaines choses » (2012, p. 40) et c’est avec cette attitude qu’apparaissent également des vérités au sujet de ce qui a de la valeur. Le recours à la biologie de l’évolution permet, en principe, de tempérer le relativisme qu’implique la thèse voulant que les raisons d’agir d’un agent soit une fonction des points de départ évaluatifs contingents dont il est doté. En effet, si l’évolution a doté les humains d’un fonds de tendances évaluatives très largement partagées, on peut s’attendre à ce qu’il y ait une certaine convergence entre les points de vue pratiques des agents bien cela ne soit pas garanti par la nature même de la volonté ou de la raison pratique comme chez les constructivistes kantiens.

iv. Le réalisme naturaliste

Les trois positions dont il a été question jusqu’ici sont représentatives du consensus assez large voulant que les considérations darwiniennes profitent surtout aux théories métaéthiques antiréalistes (ou quasi-réalistes). Néanmoins, plusieurs auteurs ont soutenu que ceux qui croient que la morale est une adaptation biologique ont d’excellentes raisons d’être des réalistes moraux (Harms, 2000). Il y a, bien entendu, plusieurs manières de développer une telle suggestion. Il est possible de réduire les faits moraux à des faits fonctionnels au sujet des êtres humains(Casebeer, 2003), à des faits au sujet des besoins des sociétés (Copp, 1995), à des faits au sujet de la coopération et des pratiques et institutions qui la favorisent (Sterelny et Fraser, 2016), et ainsi de suite. Réduire les faits moraux à d’autres types de faits qui peuvent faire l’objet d’enquêtes empiriques permet de spécifier des conditions de vérités objectives pour les jugements moraux. Si x est un besoin pour une société, et que y permet de satisfaire ce besoin, le jugement « y est bien » peut être dit vrai indépendamment du point de vue quiconque. Notons que de telles approches admettent tout de même une certaine mesure de contingence : si notre histoire évolutive avait été différente, les faits moraux auraient aussi pu être différents.


Conclusion

On a parfois décrit la théorie de l’évolution comme un « acide universel » qui s’attaque à tous les concepts traditionnels et modifie ainsi profondément notre vision du monde (Dennett, 1995). La morale, bien entendu, n’y échappe pas. Notre compréhension des origines de ce phénomène a considérablement progressé depuis Darwin, bien qu’elle demeure imparfaite. Malgré les réticences de certains, les données issues de la biologie de l’évolution (et d’autres disciplines connexes) continuent, et continueront sans doute, d’être mobilisées par les philosophes qui œuvrent dans les champs de l’éthique normative et de la métaéthique afin de répondre aux questions les plus fondamentales : Avons-nous un sens moral ? Peut-on se fier à nos intuitions ? Existe-t-il des vérités morales objectives ? Cela contribue à faire de l’éthique évolutionniste un domaine foisonnant.


Bibliographie

Anscombe, G. Elizabeth M., « Modern moral philosophy », Philosophy, 33 : 124, p. 1-19, 1958

Arnhart, Larry, Darwinian natural right: The biological ethics of human nature, New York, SUNY Press, 1998

Aubé Beaudoin, Félix, « La réponse naturelle: une solution inadéquate au dilemme darwinien », Philosophiques, 42 : 1, p. 131-151, 2015

Axelrod, Robert M. The evolution of cooperation, New York, Basic books, 2006 (1984)

Bateson, Patrick, and Kevin N. Laland, « Tinbergen’s four questions: an appreciation and an update », Trends in ecology & evolution 28:12, p. 712-718, 2013

Berker, Selim, « The normative insignificance of neuroscience », Philosophy & Public Affairs, 37 :4, p. 293-329, 2009

Black, Max, « The gap between is and should », The philosophical Review, 73 :2, p. 165-181, 1964

Blackburn, Simon, « Human nature and science: A cautionary essay ». Dans: De Waal, Frans BM, Patricia Smith Churchland, Telmo Pievani, and Stefano Parmigiani, Evolved Morality: The Biology and Philosophy of Human Conscience, Leiden, Brill, 2014

Boehm, Christopher, Moral origins: The evolution of virtue, altruism, and shame, New York, Basic Books, 2012.

Boyd, Robert, and Peter J. Richerson, « Punishment allows the evolution of cooperation (or anything else) in sizable groups », Ethology and sociobiology, 13 :3, p. 171-195, 1992

Brosnan, Kevin, « Do the evolutionary origins of our moral beliefs undermine moral knowledge? », Biology & Philosophy 26 : 1, p. 51-64, 2011

Casebeer William D., Natural Ethical Facts : Evolution, Connectionism, and Moral Cognition, Cambridge, MIT Press, 2003

Clarke-Doane, Justin, « Morality and mathematics: The evolutionary challenge », Ethics, 122 : 2, p. 313-340, 2012

Clavien, Christine, « L’éthique évolutionniste: de l’altruisme biologique à la morale », PhD diss., Université de Neuchâtel, 2008

Clavien, Christine, « Évolution, société, éthique: darwinisme social versus éthique évolutionniste. Dans: Heams, Thomas, Philippe Huneman, Guillaume Lecointre, and Marc Silberstein, Les mondes darwiniens: l’évolution de l’évolution, Paris, Syllepse, 2009

Clavien, Christine, Je t’aide…moi non plus : biologique, comportemental ou psychologique: l’altruisme dans tous ses états, Paris, Vuibert, 2010

Copp, David, Morality, normativity, and society, New York, Oxford University Press, 2001

Copp, David, « Darwinian skepticism about moral realism », Philosophical Issues 18 : 1, p.186-206, 2008

Cosmides, Leda et John Tooby, « Cognitive adaptations for social exchange ». Dans : Barkow, Jerome H., Leda Cosmides, and John Tooby (eds), The adapted mind: Evolutionary psychology and the generation of culture, New York, Oxford University Press, 1992

Cosmides, Leda, and John Tooby, « The modular nature of human intelligence ». Dans: Scheibel, Arnold B., and J. William Schopf, The origin and evolution of intelligence, Boston, Jones & Bartlett Learning, 1997

Crook, J. et Crook, S. J., « Tibetan polyandry: problems of adaptation and fitness« Dans : L. Betzig, M. Borgerhoff Mulder et P. Turke (éds), Human Reproductive Behaviour: a Darwinian Perspective, Cambridge, Cambridge University Press, p. 97–114, 1988

Cuneo, Terence, et Russ Shafer-Landau, « The moral fixed points: New directions for moral nonnaturalism », Philosophical Studies, 171 : 3, p. 399-443, 2014

Darwin, Charles, De l’origine des espèces, Paris, Ligaran, 2015 (1859).

Darwin, Charles, La filiation de l’homme et la sélection liée au sexe, Paris, Champion Classiques, 2013 (1871)

Dennett, Daniel C., Darwin’s dangerous idea : evolution and the meaning of life, Londres, Penguin, 1995

Dennett, Daniel C., Intuition pumps and other tools for thinking, New York, WW Norton & Company, 2013

Dugatkin, Lee Alan, Cooperation among animals: an evolutionary perspective, New York, Oxford University Press, 1997

Ensminger, Jean, et Joseph Henrich (éds.), Experimenting with social norms: Fairness and punishment in cross-cultural perspective, New York, Russell Sage Foundation, 2014

Enoch, David, Taking morality seriously: A defense of robust realism, New York, Oxford University Press, 2011

Fehr, Ernst et Urs Fischbacher, « The nature of human altruism », Nature, 425: 6960, p. 785-791, 2003

FitzPatrick, William J., « Debunking evolutionary debunking of ethical realism », Philosophical Studies, 172 : 4, p. 883-904, 2015

Flanagan, Owen, Aaron Ancell, Stephen Martin et Gordon Steenbergen, « Empiricism and normative ethics : What do the biology and psychology of morality have to do with ethics? ». Dans: De Waal, Frans BM, Patricia Smith Churchland, Telmo Pievani, and Stefano Parmigiani, Evolved Morality: The Biology and Philosophy of Human Conscience, Leiden, Brill, 2014

Galton, Francis, Inquiries into Human Faculty and its Development, Burlington, Ostara Publications, 2012 (1883)

Gayon, Jean, Darwin et l’après Darwin, Paris, Kimé, 1992

Gayon, Jean, « Mort ou persistance du darwinisme? Regard d’un épistémologue », Comptes Rendus Palevol, 8 : 2, p. 321-340, 2009

Gibbard, Allan,  Sagesse des choix, justesse des sentiments: une théorie du jugement normatif, Paris, PUF, 1996 (1990)

Gillham, Nicholas W., A Life of Sir Francis Galton : From African Exploration to the Birth of Eugenics, New York, Oxford University Press, 2001

Gintis, Herbert, Joseph Henrich, Samuel Bowles, Robert Boyd et Ernst Fehr, « Strong reciprocity and the roots of human morality »,  Social Justice Research, 21 :2, p. 241-253, 2008

Greene, Joshua. « From neural ‘is’ to moral ‘ought’: what are the moral implications of neuroscientific moral psychology? », Nature Reviews Neuroscience, 4 :10, p. 846-850, 2003

Greene, Joshua D., « Beyond point-and-shoot morality: Why cognitive (neuro) science matters for ethics », Ethics,  124 :4, p. 695-726, 2014

Haidt, Jonathan, The righteous mind: Why good people are divided by politics and religion, New York, Pantheon, 2012

Hamilton, William D., « The Genetical Evolution of Social Behavior II », Journal of Theoretical Biology, 7 :1, pp. 17-52, 1964

Hare, Richard Mervyn, The language of morals, New York, Oxford Paperbacks, 1952

Harman, Oren, « A history of the altruism-morality debate in biology ». Dans : De Waal, Frans BM, Patricia Smith Churchland, Telmo Pievani, and Stefano Parmigiani, Evolved Morality: The Biology and Philosophy of Human Conscience, Leiden, Brill, 2014

Hauert, Christoph, « Mathematical Models of Cooperation ». Dans : Nowak, Martin A., (éd.), Evolution, games, and god, Cambridge, Harvard University Press, 2013

Henrich, Joseph et Robert Boyd « Why people punish defectors: Weak conformist transmission can stabilize costly enforcement of norms in cooperative dilemmas », Journal of theoretical biology 208:1, p.79-89, 2001

Harms, William F., « Adaptation and moral realism », Biology and Philosophy, 15 : 5, p. 699-712, 2000

Hume, David, Traité de la nature humaine 3. La morale, Paris, Flammarion, 1993

Joyce, Richard, The myth of morality, Londres, Cambridge University Press, 2001

Joyce, Richard, The Evolution of Morality, Cambridge, MIT Press, 2007

Kahane, Guy, « Evolutionary debunking arguments », Noûs, 45 : 1, p. 103-125, 2011

Kahane, Guy, Katja Wiech, Nicholas Shackel, Miguel Farias, Julian Savulescu, and Irene Tracey, « The neural basis of intuitive and counterintuitive moral judgment », Social Cognitive and Affective Neuroscience 7 : 4, p. 393-402, 2012

Kelly, Daniel. Yuck!: the nature and moral significance of disgust, Cambridge, MIT Press, 2011.

Kelly, Daniel, and Nicolae Morar, « Against the yuck factor: on the ideal role of disgust in society », Utilitas, 26:02, p. 153-177, 2014

Kitcher, Philip. The ethical project, Cambridge, Harvard University Press, 2011

Kurzban, Robert, Maxwell N. Burton-Chellew, and Stuart A. West, « The evolution of altruism in humans », Annual review of psychology, 66, p. 575-599, 2015

Laland, Kevin N. et Gillian R. Brown, Sense and Nonsense : Evolutionary Perspectives on Human Behaviour, New York, Oxford University Press, 2002

Lewens, Tim, Darwin, New York, Routledge, 2006

Mackie, John, Ethics: Inventing right and wrong, Londres, Penguin, 1990 (1977)

Moore, George Edward, Principia ethica, Londres, Cambridge University Press, 1993 (1903)

Nowak, M. A., C. E. Tarnita et E. O. Wilson, « The evolution of eusociality » Nature, 466 : 7310, p. 1057-1062, 2010

Nowak, Martin et Roger Highfield. Supercooperators: Altruism, evolution, and why we need each other to succeed, New York, Simon and Schuster, 2011

Numan, Michael, Neurobiology of social behavior: toward an understanding of the prosocial and antisocial brain, Academic Press, 2014

Oddie, Graham, Value, reality, and desire. New York, Oxford University Press, 2005

Olson, Jonas, Moral error theory: History, critique, defence, New York, Oxford University Press, 2014.

Paul, Diane B., « Darwin, Social Darwinism and Eugenics ». Dans : Jonathan Hodge et Gregory Radick (éds.), The Cambridge Companion to Darwin, Cambridge, Cambridge University Press, 2003

Pinker, Stephen, The Blank Slate : The Modern Denial of Human Nature, New York, Penguin Books, 2002

Pradeu, Thomas, « Philosophie de la biologie ». Dans: Barberousse, Anouk, Denis Bonnay, and Mikaël Cozic, Précis de philosophie des sciences, Paris, Vuibert, 2011

Prior, Arthur N. « The autonomy of ethics », Australasian Journal of Philosophy, 38: 3, p. 199-206, 1960

Quine, Willard V., « Main trends in recent philosophy: Two dogmas of empiricism », The philosophical review, p. 20-43, 1951

Richards, Robert, Darwin and the Emergence of Evolutionary Theories of Mind and Behavior, Chicago, University of Chicago Press, 1987

Ruse, Michael, Taking Darwin Seriously, Oxford, Basil Blackwell, 1986

Salkever, Stephen G., Finding the Mean: Theory and Practice in Aristotelian Political

Philosophy, Princeton, Princeton University Press, 1990

Segerstrale, Ullica, Defenders of the truth: The battle for science in the sociobiology debate and beyond », New York, Oxford University Press, 2000

Shafer-Landau, Rus, Moral realism: A defence, New York, Oxford University Press, 2003

Setiya, Kieran, Knowing right from wrong, New York, Oxford University Press, 2012

Shafer-Landau, Russ, « Evolutionary debunking, moral realism and moral knowledge », J. Ethics & Soc. Phil., 7 : 1, 2012

Singer, Peter, « Ethics and intuitions », The Journal of Ethics, 9: 3-4, p.331-352, 2005

Skarsaune, Knut Olav, « Darwin and moral realism: survival of the iffiest », Philosophical Studies 152 : 2, p. 229-243, 2011

Sterelny, Kim, et Ben Fraser, « Evolution and Moral Realism », The British Journal for the Philosophy of Science, p. 1-26, 2016

Street, Sharon, « A Darwinian Dilemma for Realist Theories of Value », Philosophical Studies, 27 :1, p. 109-166, 2006

Street, Sharon, « Reply to Copp: Naturalism, normativity, and the varieties of realism worth worrying about », Philosophical Issues, 18 : 1, p. 207-228, 2008

Street, Sharon, « Coming to terms with contingency: Humean constructivism about practical reason ». Dans : Lenman, James, et Yonatan Shemmer,  Constructivism in practical philosophy, New York, Oxford University Press, 2012

Tappolet, Christine, Émotions et valeurs, Paris, Presses universitaires de France, 2000

Tinbergen, Nikolaas, « On aims and methods of ethology », Zeitschrift für Tierpsychologie20 :4, p. 410-433, 1963

Tomasello, Michael, A natural history of human morality, Cambridge, Harvard University Press, 2016

Trivers, Robert, « The Evolution of Reciprocal Altruism », Quarterly Review of Biology, p. 35-57, 1971

Vavova, Katia, « Evolutionary debunking of moral realism », Philosophy Compass, 10 : 2 p. 104-116, 2015

Warneken, Felix, « The development of altruistic behavior: Helping in children and chimpanzees » Social Research: An International Quarterly,  80 : 2, p. 431-442, 2013

Wielenberg, Erik J., « On the evolutionary debunking of morality », Ethics, 120 : 3, p. 441-464, 2010

Williams, George Christopher, Adaptation and natural selection: a critique of some current evolutionary thought, Princeton, Princeton University Press, 2008 (1966)

Wilson, Edward O., Sociobiology : The New Synthesis, Cambridge, Harvard University Press, 2000 (1975) ¸

Wilson, Edward O, Consilience : The unity of knowledge, New York, Vintage, 1999


Félix Aubé Beaudoin

Université Laval
felix.aube-beaudoin.1@ulaval.ca

Comment citer cet article?
Aubé Beaudoin, F. (2017), « Ethique évolutionniste », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/ethique-evolutionniste-a/

By admin

Éthique Artificielle (A)

Publié en juillet 2016

Résumé

On appelle intelligence artificielle [IA] la partie de l’informatique qui a pour objet de créer des programmes informatiques capables de conférer à la machine dans laquelle ils sont implantés un comportement intelligent. On peut appeler éthique artificielle [EA] (robots ethics ou machine ethics sont des expressions plus communément utilisées) cette sous-partie de l’intelligence artificielle qui a pour objet de créer des programmes informatiques capables de conférer à la machine dans laquelle ils sont implantés cette forme particulière de comportement intelligent qu’est un comportement moral, un comportement sensible à la polarité du bien et du mal.

L’éthique artificielle, au même titre que l’intelligence artificielle, soulève évidemment des problèmes purement scientifiques et techniques, qui concernent au premier chef les logiciens et les informaticiens. Mais, comme l’intelligence artificielle dont elle est une partie, elle soulève aussi et peut-être d’abord des problèmes philosophiques relatifs à la manière de catégoriser les entités dans lesquels ces programmes sont implantés. Depuis l’article pionnier de Turing en 1950 (Turing & Girard 1995), les philosophes s’interrogent pour savoir si l’on peut affirmer qu’une machine dotée d’une intelligence artificielle est réellement une créature intelligente ou est réellement capable de penser, de comprendre, de juger, etc, ou bien si elle n’est qu’un simulacre d’intelligence (Searle 1980). Un nouveau chapitre s’est désormais ouvert dans cette réflexion sur l’intelligence artificielle : on ne demande plus seulement si une machine peut penser, mais si une machine peut être moralement vertueuse, si elle peut être louée ou blâmée pour ce qu’elle fait, si elle peut être tenue pour un agent moral de plein droit ou bien si elle n’est qu’un simulacre de tout cela.

Après avoir reconstitué le contexte de développement de l’éthique artificielle, cette entrée se propose de présenter les deux principaux problèmes philosophiques qu’elle soulève, celui du contenu d’une éthique artificielle et celui du statut des entités porteuses d’une telle éthique, en se focalisant sur les problèmes réels soulevés par l’éthique artificielle des robots que nous savons et souhaitons construire, par contraste avec les problèmes beaucoup plus spéculatifs que soulèveraient les robots imaginés par les auteurs de science fiction, si nous savions et souhaitions en construire de tels.


Table des matières

1. Pourquoi avons-nous besoin d’une éthique artificielle ? 

2. Quelle éthique ?

a. Une éthique artificielle est une éthique d’extension restreinte
b. Une éthique artificielle est une éthique de surface
c. Une éthique artificielle est moins rationnelle que situationnelle

3. Quelle responsabilité ?

a. Responsabilité pratique et responsabilité morale
b. La responsabilité muette des robots
c. L’enfance des robots

Conclusion

Bibliographie


1. Pourquoi avons-nous besoin d’une éthique artificielle ?

Le 14 février 2016 à Mountain View, aux États-Unis, une Google-car a heurté un autobus roulant à faible allure, sans faire aucune victime.

Ce banal accident de la circulation, analogue à des milliers d’autres se produisant chaque jour dans le monde, aurait pu rester ignoré de tous, s’il avait été occasionné par un livreur maladroit ou inattentif de la célèbre firme américaine. Mais si la presse internationale s’en est très largement fait l’écho dans les jours qui ont suivi, c’est en raison du statut de l’entité qui fut à la source de cet accident : l’accident de Mountain View est en effet le premier accident de la circulation impliquant un véhicule autonome.

Or qu’est-ce qu’un véhicule autonome ? Ce n’est pas un simple véhicule sans pilote humain embarqué. Un drone est un véhicule sans pilote humain embarqué, mais un drone est piloté à distance et en direct par un opérateur humain, il est un télé-véhicule. Un véhicule autonome est en réalité un robot autonome, doté certes d’un corps d’automobile, mais aussi et surtout d’une « âme » artificielle, faite de dizaine de milliers de lignes de programme informatique, articulées à des capteurs et senseurs variés, lui permettant de faire ce qu’un chauffeur de taxi fait chaque jour : transporter à leur demande ses clients d’un point à un autre, dans des conditions normales de circulation et en fonction de paramètres variés fournis par les clients : temps du transport, agrément du circuit, etc. Un véhicule autonome, c’est tout simplement votre propre voiture qui deviendrait votre propre taxi. Vous lui diriez, en vous installant sur la banquette arrière : « Je vais gare de Lyon, je suis pressé » et elle vous y mènerait, tandis que vous liriez tranquillement le journal ou mangeriez votre sandwich en regardant défiler les rues.

Si l’on appelle action un mouvement intentionnel dont l’agent contrôle en permanence l’adéquation au but qu’il cherche à atteindre, alors un véhicule autonome est ce que nous pourrions appeler un agent pratique artificiel modulaire [APAM].

Agent pratique parce qu’il poursuit intelligemment des buts pratiques, en adaptant de lui-même son comportement à ses objectifs, en prenant de lui-même des décisions pratiques appropriées à ses fins.

— Artificiel, parce que l’intelligence pratique dont il fait montre est une intelligence artificielle (IA), faite de lignes de codes informatiques gouvernant des séries d’impulsions électroniques.

Enfin modulaire, parce que sa spécificité, par rapport à un agent humain, est de ne couvrir qu’un spectre constitutivement limité de buts pratiques.

Les véhicules autonomes, dont, outre Google, la plupart des grands constructeurs automobiles mondiaux cherchent aujourd’hui à développer des prototypes, ne sont qu’une variété d’APAM. Les systèmes d’armes létaux autonomes (lethal autonomous weapons systems, cf. Sparrow 2007 et Arkin 2009) en sont un autre exemple significatif : certains, par exemple, gardent la frontière de la Corée du Sud vis-à-vis de son rival du Nord. Un autre exemple typique d’APAM sont les robots aides-soignants, qui assurent les soins quotidiens de malades dépendants (Borenstein & Pearson, 2012). Mais la gamme des robots d’assistance dépasse le seul registre médical : mentionnons simplement les robots d’assistance sexuelle (Levy, 2007).

Les APAM, à la différence des Robots d’Isaac Asimov ou de HAL 9000 dans 2001-L’odyssée de l’espace de Stanley Kubrick (Carl dans la version française), n’appartiennent pas à la fiction. Même si la plupart sont encore en voie d’expérimentation et de perfectionnement, leur développement pourrait atteindre un stade industriel dans un futur proche. Mais les défis que soulèvent la création et le déploiement des APAM ne sont pas seulement d’ordre scientifique et technologique. Comme l’importance accordée à l’accident de la Google-car le suggère, un APAM a vocation à évoluer dans un environnement social ordinaire, impliquant des êtres humains : un APAM peut donc, en raison des complications de la vie sociale, se trouver à la source de dommages plus ou moins graves occasionnés à des humains. Or si rares sont les créations technologiques à ne pas envelopper certains risques de dommages pour les humains, il y a une différence cruciale entre les risques impliqués par la grande majorité des artefacts technologiques nouveaux et ceux dont les APAM sont porteurs. Mettre en circulation un mécanisme technologique nouveau expose au risque inhérent aux processus naturels dont ce mécanisme est le théâtre : c’est la physique ou la chimie inhérente au nouvel artefact qui, sous certaines conditions, peuvent générer des dommages pour les humains. Mais ce n’est évidemment pas, ou seulement très marginalement, la physique ou la chimie des APAM qui peuvent représenter un risque pour les humains qui les croiseront : ce sont les décisions qu’ils peuvent prendre. Car un APAM, insistons-y, n’est pas un automate pratique, du type d’un distributeur automatique de billets de banque, réglé pour réagir de manière déterminée à certains stimuli ou à un certaines commandes. Un APAM est un agent pratique, qui possède certes une sphère de compétence pratique limitée, mais qui, à l’intérieur de son espace pratique fonctionnel, dispose d’une importante marge d’initiative : c’est lui, et non quelque téléguideur humain, qui prend des décisions en fonction des buts pratiques qu’il a à atteindre. C’est le véhicule autonome qui doit décider de freiner si des enfants traversent la rue hors des passages cloutés, quitte à nous faire rater notre train gare de Lyon. C’est le robot tueur qui doit décider de ne pas tirer s’il y a un doute sur le statut de la cible, au risque de permettre à un sniper ennemi de s’enfuir

Mettre en circulation des APAM soulève donc, à un certain point de vue, un banal problème de risque technologique. Mais la nature des APAM donne à la maitrise des risques dont ils sont porteurs une forme profondément originale : mettre en circulation des APAM dont le potentiel de risque soit, sinon annulé, du moins minimisé, suppose d’agir sur les procédures décisionnelles qui sont le cœur de leur intelligence artificielle, afin de garantir leur innocuité ou de minimiser les dommages qu’elles peuvent engendrer.

Or, cette innocuité décisionnelle ne peut se réduire à garantir la simple légalité des décisions de l’APAM. Un véhicule autonome, pour rester sur cet exemple, doit évidemment respecter les lois et règlements en usage dans le domaine de la conduite automobile, autrement dit le code de la route. Mais un « bon » véhicule autonome doit également être en mesure de faire face aux situations critiques inopinées auxquelles tout usager humain de la route peut être confronté : on attendra d’un « bon » véhicule autonome qu’il puisse accepter de mettre son passager en retard pour laisser passer un piéton, même si ce dernier est en dehors des passages protégés, ou qu’il puisse préférer verser sur le bas côté de la route, plutôt que de heurter un cheval traversant la route ou, plus radicalement, qu’il sache prendre la bonne décision s’il n’a le choix qu’entre heurter un autre véhicule et renverser un cycliste.

Annuler ou minimiser le risque dont les APAM sont porteurs passe donc par la possibilité de compliquer suffisamment leur intelligence pratique artificielle pour y intégrer, au delà du respect de certaines normes juridiques, ce qu’il faut bien appeler une éthique artificielle, autrement dit des lignes de programme garantissant que le comportement de l’APAM soit sensible aux droits, aux intérêts voire aux besoins de tous ceux que ses décisions pratiques pourront affecter. Rendre socialement acceptables les APAM, c’est donc les transformer en AMAM, en agents moraux artificiels modulaires.

Ce problème, profondément original, de la construction d’APAM dont le comportement puisse être tenu pour éthiquement acceptable voire responsable, qu’il s’agisse de véhicules autonomes, de robots tueurs opérant sur des théâtres de guerre ou de robots de confort, ne met pas seulement au défi les spécialistes d’intelligence artificielle, requis de mettre la moralité humaine en algorithmes informatiques. Il interroge tout autant les métaphysiciens et les philosophes de la morale, que la perspective de devoir qualifier d’agent moral une voiture ou un aspirateur ne peut manquer d’ébranler, si l’on songe notamment à la célèbre déclaration kantienne selon laquelle « l’humanité, en tant qu’elle est capable de moralité, c’est ce qui seul possède de la dignité » (Kant, 1994, 116).

2. Quelle éthique ?

Cette interrogation sur le statut ontologique des APAM évoque par plus d’un trait celle dont Alan Turing se faisait l’écho dans son célèbre article de 1950, au point qu’à l’instar de Turing, certains auteurs ont imaginé un « Moral Turing Test » (Allen et al. 2000) pour décider si un robot pouvait être considéré comme un agent moral artificiel. Nous allons revenir un peu plus loin sur la pertinence de ce « test », mais il est au moins une différence sur laquelle nous pouvons d’ores et déjà mettre l’accent.

a. Une éthique artificielle est une éthique d’extension restreinte.

Dans son article antérieur de 1936-37 sur les « Nombres calculables » (Turing & Girard, 1995), beaucoup plus décisif d’un point de vue scientifique, Turing a conçu ce qu’on appelle depuis une machine de Turing : une machine universelle [i.e. un ordinateur] capable, en principe, de traiter ou « calculer » toute question relevant de tout domaine de connaissance, moyennant son approvisionnement en bases de connaissances et en algorithmes de calcul idoines. Une machine de Turing peut « décider » ou « calculer » des questions de poésie aussi bien que des questions de physique ou d’échecs. Turing pouvait donc raisonnablement s’interroger, quelques années plus tard, sur la question de savoir si une machine de ce genre, qu’on imaginerait suffisamment pourvue en bases de connaissances et en algorithmes de calcul, pourrait être considérée comme une créature pensante. Or la différence entre le problème posé par Turing (« les machines peuvent-elles penser ? ») et celui soulevé par les APAM (« les machines sont-elles capables de moralité ? ») est qu’il est certain que la moralité des APAM ne peut rivaliser en extension avec la moralité des humains. Un humain est en effet un agent pratique universel, capable de poursuivre toutes sortes de fins dans toutes sortes de contextes, tandis qu’un APAM est un agent pratique modulaire, spécialisé dans la poursuite d’une gamme limitée de fins et évoluant dans des contextes pratiques limités. On peut sans doute imaginer, dans un cadre fictionnel, des APAU, autrement dit des agents pratiques artificiels universels et poser à leur propos une question semblable à celle que soulevait Turing, autrement dit se demander quel statut auraient ces créatures si nous savions et souhaitions en construire. Mais ce qui est réel ou en passe de l’être et qui répond en outre à des besoins humains bien identifiés, ce sont des APAM, auxquels de larges pans de la moralité humaine sont inapplicables : il serait clairement dénué de sens d’exiger d’un véhicule autonome qu’il soit modeste ou d’un robot domestique qu’il soit respectueux du jus in bello.

Si l’on entend donc raisonner sans fantasme sur le statut moral des APAM, il faut donc poser en principe qu’une éthique artificielle, au moins dans le contexte présent de nos capacités scientifiques et technologiques, ne peut être elle-même qu’un module détaché de l’éthique universelle des humains ou, si l’on veut une éthique humaine restreinte ou diminuée.

Certains auteurs proposent de ce point de vue une gradation entre éthique implicite, éthique explicite et éthique complète (Moor 2006) ou entre moralité opérationnelle, moralité fonctionnelle et moralité complète (Allen & Wallach 2009). Une moralité implicite ou opérationnelle est un réglage qui contraint le comportement d’un automate (du type distributeur automatique de billets) de façon à ce qu’il respecte certaines normes (ne distribuer de l’argent qu’à celui qui connaît le code de la carte) qui lui sont imposées par son concepteur humain. Une moralité explicite ou fonctionnelle consiste également en un certain nombre de règles, limitées à un contexte déterminé d’action, mais qui sont optionnellement mises en œuvre par l’agent artificiel : ainsi un APAM distributeur de billets, s’il en existait, pourrait moduler son application de la règle précédente selon la tête du client, qu’il analyserait via des capteurs adaptés : les clients réguliers n’auraient, par exemple, pas besoin d’entrer leur code. Quant à une moralité complète, c’est la nôtre, éventuellement transposée dans un APAU, s’il en existait.

Cette gradation est dans son principe pertinente : un APAM est plus qu’un automate, mais moins qu’un agent pratique universel. Cependant, qualifier de « complète » la moralité d’un agent pratique universel masque quelque peu, par son anthropocentrisme implicite, la vraie nature du problème. Si une créature n’était capable que de parler intelligemment de poésie et de cuisine et jamais d’aucun autre sujet, il y aurait un sens à dire que son intelligence serait incomplète. Mais par ailleurs, dans le domaine limité qui serait le sien, cette créature pourrait avoir une intelligence pleinement développée et en tout point indiscernable de celle d’une créature à l’intelligence plus universelle. Affirmer que la moralité d’un APAM est une moralité incomplète est donc équivoque, parce qu’on peut entendre par là soit qu’elle est limitée en extension, c’est-à-dire qu’elle ne s’applique qu’à une gamme limitée d’« objets » moraux, soit qu’elle est limitée en intension, au sens où certaines caractéristiques qui seraient essentielles à la moralité, en quelque créature qu’elle se réaliserait, ne se rencontreraient pas dans la moralité d’un APAM.

Or c’est précisément là l’un des problèmes philosophiques les plus intéressants que soulève l’éthique artificielle. En fabriquant des agents moraux artificiels, nous laissons inévitablement de côté de large pans de notre moralité, de notre manière d’être moraux ou de nous conduire moralement. Mais rien ne permet a priori d’affirmer que les aspects ou composants de la moralité humaine qui ne trouvent pas place dans la moralité artificielle d’un APAM sont essentiels à la moralité ou sont constitutifs du caractère éthique d’un comportement. L’éthique artificielle nous permet donc d’interroger indirectement l’essence de la moralité en nous contraignant à nous demander si l’éthique restreinte ou diminuée d’un APAM contient suffisamment de caractéristiques pour être considérée, malgré tout, comme une moralité de plein droit.

Que sont donc ces parties ou aspects de notre moralité qui sont nécessairement absents d’un APAM ? Nous avons indiqué que l’éthique implémentée dans un APAM était au moins restreinte en extension : la morale d’un véhicule autonome est la morale d’un usager de la route ; la morale d’un robot de guerre est la morale d’un soldat, etc. Cependant, on peut noter que lorsqu’un agent humain remplit une fonction sociale déterminée, chauffeur de taxi, garde-frontières ou médecin par exemple, il restreint la gamme de ses buts pratiques à ceux qui sont constitutifs de la fonction qu’il remplit et il peut alors faire montre d’une moralité adaptée à la fonction qu’il remplit : la morale d’un chauffeur de taxi, d’un garde-frontière, d’un médecin. Un APAM ressemble donc, si l’on veut, à un agent pratique humain qui serait réduit aux buts constitutifs d’une fonction sociale déterminée.

Mais au delà de cette restriction extensionnelle, l’éthique implémentée dans un APAM comporte encore une double restriction ou diminution, si on la compare à notre moralité : elle est en premier lieu ce que nous pourrions appeler une éthique de surface, qui ne possède aucune profondeur subjective. Mais elle est aussi, et ce de manière peut-être plus surprenante, une éthique plus perceptuelle que rationnelle ou plus situationnelle que computationnelle.

b. Une éthique artificielle est une éthique de surface

C’est un débat au sein des théories philosophiques de la moralité humaine que de savoir si la moralité humaine requiert une base émotionnelle particulière ou bien si elle n’est qu’un développement de notre rationalité. Rousseau par exemple faisait dériver toute la moralité humaine d’un sentiment inné de pitié (Rousseau, 1964, 156), tandis que Kant enracinait la moralité humaine dans l’exigence purement rationnelle d’universalisabilité de nos maximes d’action (Kant, 1996, 97).

Ce débat n’a tout simplement pas lieu d’être s’agissant de la moralité d’un APAM et ce fait à lui seul fournit déjà une information instructive sur le type de moralité qui peut être à l’œuvre dans un APAM : il n’y a pas, pour les APAM, de problème de la motivation à agir moralement. Un APAM pourra peut-être prendre de mauvaises décisions, mais ses mauvaises décisions seront des erreurs et non des fautes, des bévues plus que des péchés.

Un APAM manque en effet de deux des composantes qui, dans l’homme, font qu’il y a un problème de motivation à agir moralement : la présence d’émotions et d’appétits ; la conscience de soi-même.

(A) Même s’il existe certaines controverses, parmi les philosophes de l’esprit, sur le point de savoir si nos sensations, sentiments et émotions, avec leur contenu qualitatif typique, sont des phénomènes réellement existants ou de simples illusions, il est au moins certain que ces états subjectifs, soit comme expériences réelles soit comme illusions résistantes, sont absents d’un APAM : un véhicule autonome, un robot de guerre, un aspirateur ne connaissent ni la joie, ni la tristesse, ni la peur ou la colère. Et pas non plus l’amour ou la haine et leurs dérivés : l’envie, la rancœur, la pitié, etc. Un APAM est une créature apathique. Quelques philosophes de l’esprit peuvent certes affirmer qu’un jour prochain, nous parviendrons à construire des machines sensibles, notamment tous ceux qui, qui, à l’instar de Daniel Dennett (cf. Dennett, 1998 à propos de Hal 9000 du film de Kubrick), nient la réalité d’états qualitatifs subjectifs, irréductibles aux propriétés fonctionnelles de nos états cérébraux et font par conséquent de la conscience un phénomène purement physique. Mais comme aucun d’entre eux n’est en mesure de fixer précisément cette date, force est, pour l’heure, de laisser de côté leurs espérances : pour nous, à la lumière de ce que nous savons et voulons faire, un APAM est sans passion, sans émotion, sans expérience subjective.

Or il suit de là, de manière immédiate, que si un APAM est doté d’une moralité, il ne connaîtra pas la tentation d’en dévier, ni ne souffrira de faiblesse de volonté (akrasia). Si un véhicule autonome a, par exemple, le « désir » de gagner la gare de Lyon le plus rapidement possible, ce désir ne possédera pas une force conative capable de faire contrepoids à l’obligation de s’arrêter pour laisser passer un groupe scolaire traversant la rue. Le « désir » d’arriver rapidement à la gare de Lyon et l’obligation de ne pas écraser des enfants ne s’opposeront pas comme des forces, dont l’une pourrait triompher de l’autre, car il n’y aura rien de tel que des forces conatives dans un APAM. En revanche, il y aura, dans l’algorithme décisionnel de l’APAM, une structure d’ordre qui déterminera quel motif doit prévaloir. Mais ce « doit » aura la force d’une règle inférentielle, et pas celle d’un mobile pulsionnel.

Comme le soutiennent certains auteurs, la « volonté » d’un APAM sera donc une volonté sainte qui ne connaîtra pas la tentation de dévier de ses fins morales (Gips, 1995). Un APAM pourra peut-être mal catégoriser un item présent dans son champ d’action, un robot de guerre pourra par exemple ne pas remarquer un civil situé dans le voisinage d’un combattant ennemi régulier, mais son acte, quoique moralement fautif, sera une erreur, pas une faute : il n’aura pas cédé à la tentation de tirer, mais aura simplement mal estimé la complexité de la situation.

(B) Les passions des hommes ont une connexion étroite avec leur conscience de soi. L’amour propre est, selon certains moralistes, le ressort de l’agir humain. Mais aussi bien ce que les philosophes classiques, par exemple Rousseau, appellent la conscience, au sens de la conscience morale qui permet à l’agent de scruter ses intentions et de connaître, tantôt la joie de bien faire, tantôt la honte ou le remords d’avoir mal fait, requiert également la conscience de soi.

Or il est très clair qu’il n’y a pas plus de conscience de soi que d’émotivité dans un APAM : un véhicule autonome, un i-aspirateur ne se regardent pas agir et ne catégorisent pas leurs actes. Ils n’ont ni réflexivité, ni pensées et désirs de second ordre. Ils ne maitrisent pas le pronom de la première personne. Ils sont, si l’on veut, des consciences qui ne sont pas conscientes de soi ou, pour parler comme Sartre (1965, 24), des consciences non positionnelles de soi.

La conséquence est qu’il n’y a donc évidemment pas d’amour propre dans un APAM, ni non plus de bonheur de bien agir ou de souffrance d’avoir mal agi. Mais il n’y a pas non plus, et ce point est décisif pour apprécier la responsabilité des robots, de capacité à donner la raison de ses actes, à les justifier ou à les excuser, car pour donner la raison d’un acte, il faut une méta-représentation de cet acte ou un redéploiement en mode réflexif de son accomplissement spontané ou immédiat.

Une autre conséquence notable de cette absence de conscience réfléchie chez les robots est que la distinction entre ce que Nozick (1981, 401) appelle le moral push [ = la perfection personnelle] et le moral pull [ = le respect passif ou actif des autres] n’a pas de sens pour un APAM. L’éthique d’un APAM ne peut relever que du moral pull. Un robot peut certes améliorer ses performances morales, s’il est doté d’un programme qui lui permet d’apprendre de ses échecs ou erreurs et d’enrichir ainsi peu à peu sa « sensibilité » morale. Mais ce processus s’accomplit sans que le robot l’apprécie réflexivement : il est un processus auto-cumulatif, et non pas un processus réflexif. Il est donc difficile d’envisager qu’un APAM puisse être vertueux, au sens strict de ce terme, et répondre ainsi à un moral push, car la vertu, au sens d’une qualité dispositionnelle de l’agent, est inséparable de la maitrise de soi et de l’effort sur soi, qui l’un et l’autre supposent la conscience de soi.

On peut donc résumer ces idées en disant que la « conscience » d’un APAM est sans épaisseur émotionnelle et sans réflexivité : elle est une conscience du monde, pas une conscience de soi, une conscience de re qui n’est jamais une conscience de se. Un APAM distributeur de billets nous voit, mais il ne se « voit » pas : comme le sujet selon Wittgenstein (1993, §5.632 sq.), il est hors du monde dans lequel il agit. Un APAM est donc un zombie ingénu, « zombie » parce qu’il n’a pas d’états qualitatifs subjectifs, « ingénu » parce qu’il est dénué de conscience de soi.

La conséquence est que la moralité de ces zombies ingénus ne pourra se loger que dans la manière dont ils traiteront (calculeront) les situations concrètes externes auxquelles ils seront confrontés. Si nous avons oublié le code de notre carte et comptons sur la bienveillance de notre APAM distributeur de billet habituel, nous ne pourrons exciter sa pitié, flatter son amour propre ou lui donner des raisons de faire une exception pour nous : nous devrons uniquement compter sur sa capacité à nous reconnaître et attendre, dans la crainte et le tremblement, la décision impassible qu’il prendra une fois qu’il nous aura reconnus.

c. Une éthique artificielle est moins rationnelle que situationnelle

Comment faire cependant pour que les froides décisions d’une créature de ce genre aient une orientation morale ? Si l’on écarte notre sensibilité et notre conscience réfléchie, reste, comme seule composante de notre moralité transposable dans un APAM, la part rationnelle ou computationnelle de notre propre moralité. Si l’on ne peut implémenter des émotions ou une conscience de soi dans un APAM, il semble plus à notre portée d’y transposer, via une programmation informatique appropriée, des schémas de raisonnements moraux.

C’est l’approche dominante parmi les philosophes et les informaticiens œuvrant dans le domaine de l’éthique artificielle. Cependant, force est de constater qu’en dépit du nombre croissant de travaux consacrés à cet objectif, qui fait désormais l’objet d’un champ de recherche spécifique de l’Institute of Electrical and Electronics Engineers (http://www.ieee-ras.org/robot-ethics), il n’existe guère pour l’heure de routine permettant d’implémenter, dans une classe donnée d’APAM, en fonction de leur espace d’actions et d’interactions, une ligne de conduite éthique adaptée.

Une partie de l’explication réside évidemment dans les difficultés techniques propres à l’IA. Mais un verrou important est d’ordre plus conceptuel ou philosophique que technique : il réside principalement dans l’absence de consensus sur le genre de capacités qu’il faut implémenter dans un APAM pour que ses processus décisionnels simulent les seuls modes de décisions éthiques ou éthiquement contraints que nous connaissions, ceux des êtres humains.

L’approche dominante dans la littérature s’efforce de résoudre ce problème de simulation de la manière la plus simple qui soit, au moins en principe : en cherchant à transposer dans un agent artificiel l’épure rationnelle ou computationnelle de nos propres manières de raisonner sur des matières de morale telles du moins que les caractérisent les deux principales classes de théories rationalistes de la moralité humaine, les théories déontologiques et les théories conséquentialistes. D’après les premières, un agent moral rationnel est une créature qui confronte systématiquement ce qu’elle projette de faire à certaines règles générales déterminant ce qui est moralement permis et ce qui est moralement prohibé. D’après les secondes, un agent moral rationnel est une créature qui estime systématiquement les conséquences de l’action qu’elle projette au regard de certaines valeurs comme le bien-être ou la non-souffrance des autres. Construire une éthique artificielle consistera donc, dans ce type d’approche, à implémenter dans un agent artificiel l’une ou l’autre de ces deux manières de raisonner. Une éthique artificielle prendra dès lors la forme d’une théorie morale formelle, déontologique ou conséquentialiste, couplée à une base de connaissances adaptée au champ d’action du robot et permettant au robot d’inférer ce qui est permis, interdit ou obligatoire dans son domaine d’action. Certains auteurs, comme Bringsjord et al 2006, vont même jusqu’à concevoir une éthique artificielle comme un système de logique déontique permettant au robot de prouver des théorèmes pratiques décrivant les actions qu’il doit accomplir ou peut accomplir.

Un premier problème posé par ces approches est que le choix d’une théorie de référence est assez arbitraire : pourquoi préférer un « robot kantien » (Powers, 2006) à un « robot utilitariste » (Grau, 2006), sans parler d’un robot raisonnant conformément à la théorie des devoirs prima facie de Ross (1930) (Anderson, Anderson & Armet 2006) ou se conformant à des commandements divins (Bringsjord & Taylor, 2012) ?

Mais le vrai problème posé par ces approches qui, à l’exception de Anderson et al 2006, ne connaissent aucun véritable commencement d’opérationnalisation, c’est qu’elles obligent à conditionner la construction d’une éthique artificielle à l’implémentation dans une machine de la riche palette de capacités mentales qui est caractéristique d’un être humain (Allen et al., 2000). Car il est manifeste que notre capacité à raisonner en mode déontologique ou en mode conséquentialiste exige bien d’autres capacités que de pures capacités inférentielles. Comment par exemple un robot pourrait-il appliquer, en mode déontologique, une règle aussi simple que la Règle d’or sans donner sens à une notion comme « ce qu’on ne voudrait pas qu’on nous fasse » ? Et comment pourrait-il le faire sans posséder une conscience de soi et une « théorie de l’esprit » ? Ou comment un robot pourrait-il, en mode conséquentialiste, estimer la quantité de souffrance associée chez les autres aux options qui se présentent à lui, sans disposer de capacités expérientielles, propres à donner, dans son « esprit », leur polarité caractéristique au plaisir et à la souffrance, et sans disposer de capacités empathiques lui faisant imaginer cette polarité chez les autres ? Il est manifeste que nos raisonnements moraux font largement appel à notre conscience de soi, à notre sensibilité, à notre capacité d’empathie, à notre capacité de nous mettre à la place des autres, sans parler de nos émotions : or il serait fâcheux que la condition de mise en circulation d’un APAM soit de les doter de cette vaste gamme de capacités, la probabilité d’y parvenir dans un temps raisonnable étant des plus faibles, pour ne pas dire nulle.

Il existe cependant une alternative à ces approches qu’on peut qualifier d’anthropo-mimétiques : elle consiste à substituer à une démarche de haut en bas (top-down), partant de théories générales pour arriver à un contexte pratique particulier, une démarche de bas en haut (bottom-up, cf. Allen, Smit & Wallach, 2005 pour cette opposition), plus attentive aux besoins somme toute limités d’une éthique artificielle. Un agent pratique artificiel, qu’il s’agisse d’un véhicule autonome, d’un robot de guerre ou d’un aide soignant artificiel ne sont pas, nous y avons insisté plusieurs fois, des agents pratiques universels, ayant vocation à avoir une vie morale riche et complexe à la mesure des contextes pratiques diversifiés dans lesquels ils auraient à agir. Les APAM sont des créatures dont le comportement est circonscrit à un espace pratique fonctionnel limité et dont on attend qu’elles soient capables de prendre de « bonnes » décisions dans certaines situations moralement critiques qui forment une sous-région de cet espace pratique fonctionnel. La moralité dont un APAM a besoin requiert donc moins des principes généraux applicables dans une grande variété de contextes pratiques diversifiés qu’une sensibilité [responsiveness] à un ensemble relativement limité de traits moralement saillants pouvant être incarnés par les situations particulières auxquelles il pourra être confronté.

Si l’on prend en compte cette restriction constitutive de l’espace pratique dans lequel un APAM a vocation à évoluer, on est donc conduit à substituer aux approches précédentes, basées sur des principes (principle-based), une approche qu’on peut dire « basée sur des cas » (case-based), une éthique artificielle n’ayant pas la forme d’une théorie déductive de type déontologique ou conséquentialiste, mais d’un algorithme inductif et comparatif, d’une casuistique artificielle (McLaren 2006), offrant au robot un moyen de réagir de manière uniforme à des cas semblables, mais aussi d’améliorer régulièrement ces réactions à mesure que son « expérience » du monde et de la diversité fine des situations qu’il offre s’approfondit.

Cette approche semble évidemment, sur le papier, la plus prometteuse qui associe, d’un point de vue technique, une architecture permettant l’apprentissage de règles par la machine à une « ontologie » adaptée au champ d’action du robot. Cependant, la littérature qui relève de cette approche est relativement limitée et n’a principalement généré jusqu’ici que des esquisses de résultats applicables non à d’authentiques agents pratiques, situés dans le monde et interagissant avec lui, mais à des programmes d’aide à la décision (McLaren 2006, Guarini 2006). Surtout, cette approche paraît se heurter à un obstacle conceptuel évident, qui est qu’il paraît difficile de dissocier les cas et les principes (Boarini 2013). Comment par exemple un véhicule autonome pourrait-il choisir entre heurter un cycliste et heurter un cheval, sans disposer d’un principe général stipulant que la vie ou l’intégrité d’un être humain sont plus importantes ou ont plus de valeur que la vie ou l’intégrité d’un cheval ?

Une réponse autant théorique qu’opérationnelle peut cependant être apportée à cette objection. C’est qu’il y a en effet une alternative à la conception de la morale comme règlement de la conduite et à la thèse métaphysique très générale sur laquelle elle repose, la dissociation des faits et des valeurs. Cette alternative consiste à loger dans la perception elle-même l’assise du comportement et du raisonnement moral. Sans remonter aux théories du sens moral de Shaftesbury, Blackburn 1993, McDowell 1998 ou Parfit 2011 offrent différentes approches tendant à enraciner la moralité humaine dans une certaine calibration du contenu de notre expérience perceptuelle du monde.

En matière de moralité humaine, ces théories du réalisme (Parfit) ou du quasi-réalisme (Blackburn) moral sont sujettes à controverse. Mais comme mode de construction d’une éthique artificielle pour une créature dont on attend qu’elle soit capable de faire des choix appropriés en fonction des situations auxquelles elle sera perceptuellement ou quasi-perceptuellement confrontée, elle représente une manière conceptuellement satisfaisante de développer une approche basée sur des cas qui ne soit pas une simple complication d’une approche basée sur des principes. Un APAM doté d’une moralité artificielle, c’est un robot équipé pour percevoir directement, à même son monde, les valeurs que celui-ci comporte et qui est doté de modules de traitement de ces valeurs garantissant que son comportement fonctionnel, orienté vers ses buts constitutifs, soit modulé ou contraint par ces valeurs. Un APAM est une créature « écologique » (Gibson, 1979) qui doit s’orienter dans l’espace du monde et réagir en temps réel aux situations imprévues qu’il peut offrir. Pour qu’un véhicule autonome puisse moduler moralement son comportement dans le trafic routier ou qu’un robot infirmier puisse s’adapter aux besoins de son patient, ils doivent à la fois (a) être capables de percevoir, via une signature phénoménale caractéristique, les aspects moralement pertinents ou saillants de leur monde et (b) être capables de prendre des décisions qui soient appropriées à la valence morale de ces items.

(a) En reprenant le vocabulaire de Von Uexküll 2010, on peut dire que si l’homme vit dans le monde (Welt), un APAM, à l’instar d’un animal, vit dans un monde ou un milieu (Umwelt), qui est une restriction du monde objectif aux entités pragmatiquement et moralement saillantes pour lui. Construire l’éthique artificielle d’un APAM implique donc de construire un système de représentation d’une gamme d’entités moralement pertinentes eu égard à son champ d’action caractéristique et un mode de catégorisation de ces entités qui soit lui-même moralement pertinent. Une partie de l’éthique embarquée dans un APAM est donc logée dans le système de ses catégories : i.e. ce qu’on le rend capable de discriminer détermine ce à quoi il peut être moralement « sensible ».

(b) Parce qu’un APAM se meut dans un espace réel et doit prendre des décisions rapides qui soient sensibles aux items qui se présentent dans son « champ perceptuel », les raisonnements décisionnels d’un APAM doivent être beaucoup plus proches de la perception des situations qui se présentent à lui que nos propres raisonnements, qui peuvent mobiliser notre réflexivité mais aussi les concepts généraux dont nous sommes équipés. Un véhicule autonome, pour prendre à nouveau cet exemple, n’a pas besoin de savoir ou de comprendre ce qu’est un enfant et ce qu’est un cheval, mais il doit pouvoir prendre des décisions qui tiennent compte de la valeur ou pondération de ces items, valeur ou pondération associées à une signature phénoménale caractéristique. Vu du dehors, nous pourrons dire que le véhicule autonome a par exemple fait preuve de civilité, en laissant traverser un piéton avançant hors des passages protégés. Mais il n’aura pas été nécessaire pour cela d’entrer dans le robot un schéma d’inférence complexe lui permettant de subsumer sous une règle de civilité le cas auquel il aura été confronté, a fortiori une capacité de comprendre ce qu’est la civilité. Le véhicule autonome aura en réalité été équipé de ce qu’il faut bien appeler une conscience morale perceptuelle du monde, de son monde, c’est-à-dire a) d’un mode de représentation de son environnement dans lequel la valence morale des différents items présents dans son monde était objectivée ou attachée aux items eux-mêmes et b) d’une règle de choix, basée sur un mode de traitement de ces valeurs et capable de simuler ce qu’aurait été un choix humain idéalement réfléchi dans ce contexte.

Ces perspectives théoriques restent, aujourd’hui encore, programmatiques. Cependant, elles permettent de donner une idée de ce qu’il peut suffire de programmer dans une machine pour que celle-ci ait, quand on l’observe du dehors, un comportement éthiquement approprié. Si un véhicule autonome se jette dans le fossé parce qu’il nous voit au milieu de la chaussée ou si un robot tueur nous épargne parce qu’il voit que nous sommes un civil très proche de sa cible, nous serons forcés de dire qu’à leur échelle, ces créatures agissent bien, qu’elles se comportent moralement, que leur conduite est contrainte par une règle de choix qui les porte à respecter passivement l’intérêt des autres, sinon à soutenir activement leurs intérêts. Or pour obtenir qu’une créature agisse ainsi, il n’est requis de la doter ni d’une conscience morale complexe, ni d’émotions empathiques, ni non plus d’une faculté complexe de raisonner. Il suffit d’inclure artificiellement dans sa conscience du monde certaines pondérations, comme si elle pouvait lire, à même le monde, les valeurs qu’il comporte et qui exercent sur elle une manière de moral pull. Il est certain qu’on ne peut obtenir d’aussi grandioses effets avec si peu de moyens cognitifs et computationnels que parce qu’un robot éthique est une créature assignée à un monde étroit. Mais le point philosophique capital est que le caractère éthique du comportement du robot ne tient ni à sa conscience morale, ni à ses émotions, ni à ses raisonnements, mais à la simple adaptation de sa conduite aux valeurs que comporte son monde.

Le paradoxe auquel l’éthique artificielle semble nous conduire est donc que la théorie morale la plus adaptée à la construction d’une telle éthique pourrait n’être ni bien sûr une théorie émotiviste, mais ni non plus une théorie rationaliste, mais une forme de réalisme moral. Contrairement à l’approche déontologique popularisée par Asimov (1967), une éthique artificielle ne parait pas avoir besoin d’être un système de règles, associé à des procédures d’inférences déductives. Elle peut prendre la forme d’un système de valences perceptuelles, associées à un algorithme de sommation et de comparaison. Dans l’esprit du concepteur du robot, ce sont bien des règles qu’il s’agit d’implémenter dans le comportement du robot. Le caractère éthique de son comportement tient à sa régularité. Mais les règles n’ont pas besoin d’être présentes dans le robot comme règles.

On n’en conclura pas cependant que l’éthique artificielle pourrait servir d’argument en faveur de la vérité du réalisme moral, mais plutôt que l’éthique artificielle milite en faveur d’une interprétation instrumentaliste des théories morales. Parfit (2011) a cherché à démontrer la convergence quant aux résultats du déontologisme, du conséquentialisme et du contractualisme en tant que théories rationalistes de la morale. Si l’on ajoute le réalisme moral à ce répertoire de théories, ce que suggère l’éthique artificielle, c’est qu’une théorie morale pourrait n’être qu’un instrument plus ou moins commode pour non seulement expliquer le comportement moral humain, mais aussi pour fabriquer des créatures ayant un comportement semblable au comportement moral humain.

3. Quelle responsabilité ?

Tout ceci nous place à bonne distance des Terminator, Robocop et autres C3-PO qui ont contribué à façonner un imaginaire un peu fantasmatique de robots humanoïdes bienveillants ou malveillants. Un robot éthique, dans les limites de nos possibilités technologiques présentes, est somme toute quelque chose d’assez simple. Ce n’est pas un potentiel ami avec lequel nous pourrons entreprendre toutes sortes d’activités plaisantes, ni un ennemi acharné ultra-intelligent qui exigera que nous nous transformions en super-héros pour le vaincre. Un robot éthique, c’est, plus prosaïquement, une voiture autonome, un i-aspirateur, un petit char à roulettes armé jusqu’aux dents, un aide-soignant à domicile. Cela peut certes paraître bien peu, car, à première vue, la différence entre une automobile de l’espèce habituelle et un véhicule autonome ou entre un canon monté sur roulettes et un robot-tueur semble ténue : les seconds sont les premiers auxquels on a ajouté une batterie de capteurs et un puissant ordinateur. Mais cet ajout, physiquement ténu, fait, nous l’avons vu, une différence ontologique majeure : d’une entité dépendant de l’agentivité humaine pour actualiser sa fonction, autrement dit d’un outil, on a fait un agent autonome poursuivant de lui-même et intelligemment ses fins fonctionnelles ou constitutives.

Or, en ajoutant à cet agent pratique artificiel une moralité elle-même artificielle n’accroit-on pas encore un peu plus sa complexité ontologique ? Un agent pratique artificiel, aussi limité soit-il dans son champ d’action, ne doit-il pas être tenu pour un agent moral artificiel, dès lors qu’il est doté d’une éthique artificielle ? En implémentant dans une machine un dispositif d’intelligence artificielle lui permettant de respecter passivement l’intérêt des humains, voire, comme dans le cas des robots d’assistance médicale, de soutenir activement leurs intérêts, n’a-t-on pas enrichi la « république des esprits » (Leibniz) ou le « règne des fins » (Kant) en y incluant une nouvelle espèce d’agent moral ?

La question peut sembler purement spéculative qui revient au fond à se demander, dans la ligne du débat entre IA faible et IA forte (Searle 1980), si un robot ne fait que simuler une conduite morale ou s’il est réellement un agent moral. Mais cette question est en réalité cruciale pour pouvoir passer du stade du développement expérimental de ce type de robots à leur diffusion à grande échelle dans le monde des humains.

Il est en effet manifeste que, aussi « sainte » que soit la volonté d’un robot, il est déraisonnable de penser qu’un véhicule autonome ne causera jamais de dommages à des personnes, qu’un robot de guerre ne violera jamais le droit de la guerre ou qu’un robot infirmier n’administrera jamais un mauvais traitement médical. Aucun artefact technologique, même le plus modeste toasteur, n’est sans risque pour les humains qui ont à croiser sa route. Mais si le toasteur qu’on vient d’acheter prend feu à son premier branchement, il n’y aura guère d’hésitation quant à savoir qui devra payer pour le dommage : le choix se fera entre le fabriquant, le vendeur ou l’utilisateur, en fonction du scénario causal qu’on pourra reconstituer. Il sera hors de question, et même parfaitement dénué de sens, que le toasteur lui-même puisse se voir assigner la responsabilité de l’incendie.

Mais imaginons qu’il finisse par exister une variété très spéciale de toasteurs, des toasteurs qui prendraient d’eux-mêmes l’initiative de griller vos toasts avant votre réveil, qui choisiraient le pain à griller en fonction de ce qu’ils ont observé de vos goûts (ils disposent d’un capteur auquel est associé un algorithme de déchiffrement de vos émotions, c’est-à-dire d’un module d’affective computing) et qui décideraient eux-mêmes de la température de chauffe. Il est très clair que si un tel APAM-toasteur, dans son zèle à vous assurer un réveil joyeux, mettait le feu à votre maison, c’est d’abord inévitablement lui que vous accuseriez d’imprudence, c’est lui que vous blâmeriez pour sa maladresse. Et puis sans doute, revenu de votre colère, vous vous demanderiez : mais qui va payer ?

Cette petite saynète, tout fictionnelle qu’elle soit, illustre le point central, qui est sous-jacent aux débats d’apparence hors sol qui entourent la question des « agents moraux artificiels » (Allen et al. 2000) : si un APAM cause un dommage à des intérêts humains, qui portera la responsabilité civile et pénale de ce dommage et, au delà, qui devra (éventuellement) être moralement blâmé pour la faute ou l’erreur commises ? Pour tous les artefacts dont le mode d’être est celui d’un outil inséré dans l’agentivité humaine, la responsabilité morale et juridique pour les dommages (voire pour les bienfaits) remonte inévitablement et nécessairement à un agent humain, concepteur, receleur ou utilisateur de l’outil. Mais l’agentivité propre des APAM perturbe ce schéma familier d’assignation de responsabilité. Parce que les robots, aussi prosaïques soient-ils, prennent des initiatives, parce qu’ils décident eux-mêmes de leurs actions, ils paraissent constituer un pôle de responsabilité qui empêche de faire automatiquement remonter l’assignation de responsabilité morale, civile ou pénale vers un agent humain.

C’est donc en ce sens que la diffusion à grande échelle de ce genre de créatures suppose qu’on ait au préalable déterminé, au moins à grands traits, comment on devra juridiquement et moralement répondre aux dommages que les APAM ne manqueront pas de causer. Est-il irrationnel de blâmer son APAM-toasteur ? Est-ce aussi absurde que de punir son tabouret parce qu’il nous est tombé sur le pied ? Si un véhicule autonome sans personne à bord nous rentre dedans, avec qui devrons-nous faire un constat amiable ?

a. Responsabilité pratique et responsabilité morale

De la même manière que nous ne connaissons d’autre morale que la nôtre, nous ne connaissons d’autre responsabilité morale que celle que nous assignons aux agents humains. Il y a sans doute un sens du mot « responsabilité » qui permet de dire, par exemple, que le vent est responsable de la chute d’un arbre, c’est-à-dire qu’il en est la cause efficiente première et principale, même s’il peut ne pas être le seul facteur explicatif (l’arbre était malade et faiblement enraciné). Mais quand on dit qu’une personne humaine est responsable d’un certain effet, qu’elle en porte la responsabilité, on ne veut pas seulement dire qu’elle est une cause efficiente première et principale. On dit aussi et même surtout qu’elle est l’auteur de cet effet, autrement dit que cet effet n’ait entré dans le monde que parce qu’elle a voulu qu’il y entre, parce qu’elle a choisi de le produire ou de le laisser se produire, de sorte que cet effet a été comme intentionnellement préparé dans son esprit avant d’être réalisé dans le monde.

A la responsabilité causale, qui est attribuable à toute entité qui joue un rôle causal critique dans la production de certains effets, se superpose donc une responsabilité que l’on peut qualifier de pratique ou intentionnelle, parce qu’elle caractérise un mode spécifique d’implication causale dans la production d’un effet, le mode propre aux entités qui produisent intentionnellement des effets dans le monde, autrement dit les entités qui sont des agents pratiques. Un agent pratique S est, en ce sens, responsable d’un effet F si l’effet F ne s’est produit que parce que l’agent S a décidé de Fiser (ou de ne pas empêcher que le monde Fise).

Ce concept très simple, très élémentaire de responsabilité pratique ou intentionnelle pose un problème métaphysique bien connu, celui de sa compatibilité ou incompatibilité avec le déterminisme (Michon 2011). Le fonctionnement d’un APAM étant, dès lors qu’il n’embarque pas un ordinateur quantique, très certainement déterministe, lui assigner une responsabilité pratique suppose de souscrire à une forme de compatibilisme. Mais le compatibilisme, même s’il est l’objet de nombreuses critiques, reste une position parfaitement défendable. En outre quiconque rejetterait le compatibilisme devrait vraisemblablement tenir pour métaphysiquement illusoire non seulement la responsabilité pratique des agents pratiques artificiels, mais également celle des agents humains, dès lors que le cerveau de ces derniers paraît lui aussi, au moins à une certaine échelle, avoir un fonctionnement déterministe.

Plus pertinents pour notre objet sont cependant les débats, suscités par Strawson (1962), qui entourent non pas l’ontologie de la responsabilité, mais la signification de la pratique sociale d’assignation de responsabilité. Il est très clair en effet que le concept précédent de responsabilité pratique peut s’appliquer à tous les effets, même les plus anodins, dont nous sommes les auteurs : si, pris d’une démangeaison au sommet du crâne, je me gratte la tête, on pourra, au sens précédent, dire que je suis responsable de ce que je me gratte la tête, que je porte la responsabilité pratique de me gratter la tête. Même si je n’ai pas eu besoin de délibérer pour me gratter la tête, c’est néanmoins quelque chose que j’ai fait de moi-même, volontairement et lucidement. Or ce que met en lumière cet exemple trivial, c’est que notre concept de responsabilité n’est pas ce concept de responsabilité pratique, pris du moins, dans toute sa généralité. Nous ne mobilisons le concept de responsabilité, dans un acte d’assignation de responsabilité, soit à propos des autres, soit à propos de nous-mêmes, que lorsque l’action accomplie met en jeu certaines normes à la lumière desquelles l’agent peut être loué ou blâmé et peut avoir à rendre des comptes pour ce qu’il a intentionnellement fait. On ne mobiliserait le concept de responsabilité en voyant quelqu’un se gratter la tête que si c’était une norme, morale ou juridique, qu’il ne faut jamais se gratter la tête, que c’est mal ou dégradant de le faire.

On appelle responsabilité morale cette sous-région de la responsabilité pratique qui consiste pour un agent à être comptable de ses engagements normatifs [accountability] et à devoir en répondre devant les autres [answerability]. La responsabilité morale présuppose la responsabilité pratique, c’est-dire l’attribution à l’agent, en tant que causateur intentionnel, d’un certain effet. Mais elle lui ajoute la capacité de l’agent à rendre compte de son action et à en répondre aux yeux des autres (Shoemaker, 2011). Et cette double dimension caractéristique de la responsabilité morale est évidemment inséparable d’une pratique collective ou d’une forme de vie qui consiste à placer les agents devant leurs engagements normatifs et à attendre d’eux qu’ils s’y conforment.

b. La responsabilité muette des robots

Où placer les APAM sur cette carte des degrés ou des formes de la responsabilité ? La moralité de leur comportement nous oblige-t-elle à les faire « bénéficier » du concept de responsabilité morale ?

La brève analyse qui précède suggère que notre concept de responsabilité morale possède deux faces, une face objective ou ontologique, qui consiste dans le fait, pour une entité, d’être l’auteur intentionnel d’un effet, et une face subjective ou sociale, qui consiste à exiger d’un agent pratique qu’il se conforme à ses engagements pratiques et à lui demander des comptes pour ce qu’il fait. Comme l’explique Strawson, cette face sociale de la responsabilité trouve ses racines dans certaines émotions pratiques caractéristiques, comme le ressentiment ou la gratitude à l’égard d’un agent ou la honte à l’égard de soi-même. Cette base émotionnelle sert de déclencheur d’assignation de responsabilité : c’est lorsque j’éprouve du ressentiment à l’égard de la conduite d’autrui que je suis porté à mettre en jeu sa responsabilité morale.

Cette face subjective ou sociale de la responsabilité explique en bonne partie que nous puissions être enclins à traiter un APAM doté d’une éthique artificielle comme un agent moral artificiel. Dans notre exemple précédent de l’APAM-toasteur, le ressentiment éprouvé à l’endroit de l’APAM-toasteur trop zélé fournit une base pour voir le robot comme un agent pratique qui n’a pas fait ce qu’il devait faire ou qui a mal fait ce qu’il avait à faire. Cette attitude à l’égard des robots ne doit pas être considérée comme inessentielle ou illusoire : la responsabilité morale comporte, nous venons de le souligner, une face subjective ou sociale qui en est un composant essentiel. Si nous ne pouvions voir un APAM-toasteur autrement que comme un vulgaire toasteur, il n’y aurait pas de place pour la responsabilité des robots. De façon générale, notre attitude à l’égard des robots fait partie intégrante du statut que nous leur attribuons, de la même manière que notre attitude à l’égard des autres êtres humains fait partie intégrante du statut que nous leur accordons, de la dignité que nous leur reconnaissons. Certains psychologues envisagent même que, pour faciliter l’acceptation de la compagnie des APAM, il soit requis de les doter d’une apparence humanoïde propre à susciter la sympathie des humains, voir qu’il soit également requis de leur donner à eux une capacité de repérer les émotions des humains avec lesquels ils interagissent afin qu’ils puissent s’y adapter (Tisseron 2015, Dumouchel & Damiano, 2016). Si notre APAM-toaster baissait ses capteurs et rougissait de honte quand nous entrons dans la cuisine et découvrons l’incendie, quel moyen aurions-nous de ne pas le traiter comme un agent moral de plein droit ?

Reste que si notre attitude à l’égard des robots est essentielle au statut que nous leur accordons, elle ne saurait suffire à décider de leur statut. Certains auteurs jugent certes que si nous pouvons, à un certain niveau d’abstraction, voir un robot comme un agent moral louable ou blâmable en raison de ce qu’il fait, alors cela suffit pour que nous devions traiter les robots comme des agents moraux artificiels (Floridi & Sanders 2004, Sullins 2006). Mais, à ce compte, les Anciens étaient fondés à remercier les astres, qu’ils voyaient comme des Intelligences.

En réalité, le concept de responsabilité morale possède aussi une face objective, ce que prouve le fait que notre assignation de responsabilité morale s’annihile lorsque nous découvrons qu’un agent a été contraint par un Tiers de faire ce que nous étions portés à le blâmer d’avoir fait. S’il est interdit de se gratter la tête, mais que la main de Pierre gratte le sommet de son crâne parce que Paul en a pris possession à distance, notre inclination à blâmer Pierre sera désarmée.

Si nous sommes donc prêts à blâmer notre APAM-toasteur, encore faut-il qu’il soit objectivement blâmable, que son mode de fonctionnement interne (Bechtel 1985) fasse a) qu’il soit pratiquement responsable de ses actes b) qu’il en soit moralement responsable, c’est-à-dire qu’il ait de quoi en rendre compte et en répondre. Sans cette base objective ou ontologique, notre attitude sera une pure et simple illusion, indiscernable d’une vulgaire superstition astrale.

Or, comme la section précédente l’a montré, la comparaison d’un APAM et d’un agent humain, au delà d’une différence d’extension pratique, fait apparaître un certain nombre de diminutions cruciales :

(A) Un APAM est un zombie, sans émotions ni passions.

Un APAM n’a donc guère de mérite à bien faire, car il ignore la tentation. Il n’a pas non plus de motivation spécifique à bien faire, ni de plaisir à bien faire. Un APAM est, dans son registre, un saint apathique.

Ce saint apathique est cependant cognitivement faillible : il est sujet à des erreurs de catégorisation qui peuvent avoir une incidence morale. Il est donc éventuellement blâmable, mais pour ses maladresses ou son inattention, plus que pour ses fautes ou ses vices.

(B) Un APAM est ingénu. Il est dénué de toute forme de réflexivité. Il ne juge pas ses actions, il ne les examine pas, ne les rumine pas.

Il ne peut donc justifier ses actes, en rendre compte ou se donner des excuses. Un APAM fait le bien ou le mal, mais sans savoir réflexivement qu’il le fait.

Ces deux traits, fondamentaux, paraissent suffire à établir qu’un APAM ne peut pas être moralement responsable et, partant ne peut pas être considéré comme un agent moral artificiel. Il ne peut ni donner des raisons de ses actes, ni en répondre aux yeux des autres, et pas seulement parce qu’il est muet ou qu’on ne lui a pas donné la parole, mais parce qu’il n’y a pas en lui l’espace logique et psychologique suffisant pour qu’il puisse accéder aux raisons de ses actes. Daniel Dennett, s’interrogeant sur Hal 9000 de Kubrick, a soutenu que si un robot devenait capable de réflexivité, il deviendrait moralement responsable (Dennett, 1998). La difficulté est en fait que la réflexivité pourrait ne pas suffire : il faudrait en effet donner encore au robot le sens du devoir ou de la normativité, de la différence entre le bien et le mal. Mais il n’est pas évident qu’un APAM, avec la restriction caractéristique de son monde et donc de ses concepts, puissent disposer d’une profondeur sémantique suffisante pour comprendre la différence entre is et ought, sans parler de l’arrière-plan émotionnel et passionnel qui nous permet de comprendre cette différence (la différence entre ce qu’on désire faire et ce qu’on ne doit pas faire). Tout ceci est en tout cas hors de portée des robots que nous savons et souhaitons construire.

Cette absence de sensibilité aux raisons, aux justifications et aux excuses permet également d’expliquer pourquoi il y a peu d’espoir de trancher la question de la responsabilité des robots au moyen d’une adaptation du test de Turing. Cette idée, avancée par Allen et al. (2000), suppose qu’on puisse mettre en concurrence, dans un jeu d’imitation, un robot et un humain, par exemple un aide soignant humain et un robot aide-soignant. En supposant qu’on ne puisse voir ni l’un, ni l’autre, mais qu’on ait seulement une description, par un tiers, du comportement de l’un et de l’autre, le « jeu » consisterait à dire, sur la base de cette description, qui est l’humain et qui est le robot. Et si l’on prenait un nombre suffisant de fois le robot pour l’humain, ce serait le signe que le robot aurait passé avec succès le « Moral Turing Test », que n’aurions pas de motif valable de ne pas traiter le robot comme l’humain, au moins dans le registre limité de cette action fonctionnelle.

La difficulté conceptuelle centrale avec ce test ne réside nullement dans ce qu’il postule, à savoir que l’on peut juger des compétences par les performances, de la puissance par l’acte. On peut certes, comme Searle (1980) à propos du test de Turing lui-même, contester ce postulat. Mais le problème du « Moral Turing Test » est plutôt que le jeu ne peut même pas avoir lieu : car même si l’on dotait le robot d’une capacité auxiliaire à verbaliser ses actes, à décrire lui-même ce qu’il fait, on ne pourrait, sauf à supposer un robot très différent de ceux que nous pouvons et souhaitons construire, lui donner la capacité de décrire la raison de ses actes. Tandis que l’infirmier humain qui aura donné le mauvais traitement ou n’aura pas répondu assez vite à une demande du patient pourra donner des raisons ou se trouver des excuses, le robot infirmier restera muet.

c. L’enfance des robots

Faut-il en conclure que l’attitude à l’égard du robot-toasteur qui nous a servi d’exemple ne serait qu’une vulgaire superstition astrale ?

Si l’on prend au sérieux le concept de responsabilité morale, notamment à la lumière de l’abondante littérature suscitée par l’article précité de P. F. Strawson, force est de reconnaître qu’il n’y a pas, dans un APAM, la base cognitive complexe qui permet à une créature d’être légitimement traitée comme moralement responsable et donc d’être traitée comme un agent moral, comme un agent ouvert à des raisons morales. Si un robot fait du bien ou fait du mal, il le fait de manière ingénue.

Pour autant, il serait tout aussi erroné de considérer un APAM comme un simple automate moral, possédant une éthique implicite. On affirme parfois qu’un robot n’est pour rien dans l’éthique qu’il suit, car c’est son concepteur qui l’a choisie. Cependant, on doit noter d’abord qu’un agent moral humain est lui aussi éduqué par des tiers à la moralité. Mais, surtout, on peut ajouter que si un agent humain peut infléchir ou transformer la moralité qu’il a reçue de son éducation, un APAM programmé pour apprendre peut lui aussi enrichir et, en un certain sens, inventer des règles morales qui transcendent les « semences » de moralité placées en lui par son concepteur. Un véhicule autonome ne choisit pas d’être d’un « automobiliste » prudent et bienveillant : il est conçu pour ça. Aussi n’y a-t-il pas non plus place, dans « l’esprit » d’un véhicule autonome, pour des justifications en termes de prudence ou de bienveillance ou pour des excuses à son manque de prudence ou de bienveillance. Pour parler comme Wittgenstein (1969, § 341), l’éthique artificielle du véhicule autonome, du moins l’orientation éthique de son comportement, ce sont les gonds qui permettent à son « esprit » pratique de tourner et donc nullement quelque chose que son « esprit » puisse thématiser, accepter ou refuser. Mais, en même temps, un véhicule autonome n’est pas explicitement programmé pour répondre à tous les cas de figure qu’il rencontrera. Il est bien plutôt programmé pour trouver lui-même, en fonction des cas nouveaux auquel il fera face, des analogies avec des cas antérieurs.

Songeons ici au programme d’échecs Deep Blue ou au programme de jeu de go Alpha go : les concepteurs de ces programmes ne peuvent pas connaître les décisions que prendront les machines dans le cours d’une partie : ils les ont programmées pour (tenter de) gagner, mais pas pour gagner en passant par telle ou telle étape (sinon les programmes ne seraient pas plus forts que leurs concepteurs, donc moins forts que des grands maîtres).

Ce phénomène d’imprévisibilité des dispositifs d’intelligence artificielle pose un problème général d’éthique technologique qui concerne la société dans son ensemble en tant qu’elle permet ou peut permettre l’introduction de ce type d’entités dans nos vies. Bostrom & Yudowsky (2016) prennent l’exemple tout à fait saisissant d’un programme d’aide à l’attribution de prêts bancaires qui finirait, à la longue, par discriminer les clients selon leur race, sans que, bien évidemment, les concepteurs n’aient introduit quoi que ce soit de ce genre dans le programme initial.

Mais, à l’échelle qui nous intéresse, celle des APAM, ce phénomène d’imprévisibilité correspond à la capacité d’initiative du robot dans des situations typiques de choix. Cette capacité, qui rend un APAM irréductible à un simple automate, nous oblige clairement à attribuer au robot, au moins d’un point de vue métaphysique, une responsabilité pratique propre, dès lors que c’est bien le robot, et non pas son concepteur, a fortiori son utilisateur, qui prend une décision et qui est donc cause, par sa décision, qu’il arrive que p plutôt que non-p.

Quelques robots peuvent certes n’être, en raison de leur mode de programmation, que des apparences d’APAM, de simples automates mobiles dont tous les actes peuvent être reconduits à des lignes de programme explicitement écrites par leur concepteur. Dans ce type de cas, il n’y a pas de différence d’essence entre un tel automate mobile et un télé-robot, actionné en direct et à distance par son utilisateur. Les dommages causés par un drone sont l’œuvre de celui qui le manipule à distance (son utilisateur), les dommages d’un automate programmé sont l’œuvre de son concepteur qui, si l’on peut dire, le manipule à distance temporelle. Mais il y a un saut ontologique incontestable lorsqu’on a affaire à un authentique agent pratique artificiel, qui doit, de lui-même, sur la base de son « expérience » antérieure, décider de la manière de se comporter dans une situation nouvelle. Son concepteur l’a certes équipé pour prendre des décisions bienveillantes, mais il n’a pas pris à l’avance ses décisions à sa place.

Il apparaît donc que les APAM nous oblige moins à renoncer à toute idée de responsabilité, qu’à amincir notre concept de responsabilité morale, à imaginer une pratique sociale ou une forme de vie plus adaptée à la nature diminuée des APAM :

— En premier lieu, il n’y a rien de tel, dans un APAM, qu’une bienveillance méritoire, source de gratitude de notre part : un APAM est créé pour nous faire du bien ou pour ne pas nous faire du mal, de sorte qu’il n’a aucun mérite à se conduire ainsi. Il n’y a donc aucun sens à valoriser le fait qu’il fasse ce qu’il doit. Et si l’on suit Kant, pour qui le respect dû aux êtres humains résulte de leur aptitude à la moralité, c’est-à-dire de leur capacité à choisir le bien contre le mal, les APAM ne sont pas, en ce sens, dignes de respect, quoiqu’ils puissent être objets d’amour.

— Cependant, en second lieu, si un APAM ne peut nous vouloir du mal, il peut être suffisamment maladroit pour nous en faire ou prendre simplement de mauvaises décisions. Or cette situation qui voit un agent pratique nous faire du mal par maladresse plus que par vice, nous est familière. C’est celle que nous adoptons notamment à l’égard d’un enfant qui « ne sait pas le mal qu’il fait ». Une telle situation appelle le plus souvent, non pas le blâme, mais l’indulgence.

Les difficultés qui entourent la détermination du statut des APAM s’expliquent donc par le fait que leur nature propre nous oblige autant à bouleverser nos catégories qu’à faire évoluer nos formes de vie morale. D’un coté, attribuer une responsabilité pratique sans reconnaître à l’agent concerné de responsabilité morale, c’est ce que nous faisons quand nous réagissons à la conduite dommageable ou intrinsèquement blâmable d’un jeune enfant. Mais, en même temps, nous reconnaissons aux enfants humains ce que Rousseau a appelé une « faculté de se perfectionner » (Rousseau, 1964, 142) et nous les préparons donc, lorsqu’ils exercent leur responsabilité pratique à mauvais escient, à la transformer en responsabilité morale. Nous assortissons notre indulgence d’un blâme modéré qui les met sur la voie de « se perfectionner ».

Le problème que nous pose les APAM, c’est qu’ils sont comme des enfants, mais dénués de toute faculté de se perfectionner : il n’y a aucune chance que notre robot-toasteur finisse par acquérir une responsabilité morale à force d’indulgence et de blâme mêlés. Un APAM est donc de ce point de vue une manière d’enfant éternel, un enfant que sa « nature » vouerait au bien, mais qui ne le ferait pas toujours. Sans doute peut-on imaginer que ces enfants éternels puissent intégrer nos réactions à leur propre apprentissage : si par exemple nous manifestons de la colère, le robot pourra être ainsi programmé qu’en la percevant, il baissera le score de sa dernière décision en vue de l’avenir. Mais s’il progressera ce faisant dans la mise en harmonie de ses actes et de sa volonté sainte, il ne gagnera pas en responsabilité morale : il sera, à la fin, aussi ingénu qu’au début. Il ne quittera jamais l’enfance morale.

Cette analogie, si on l’accepte, permet, pour finir, de dériver une solution simple au problème plus concret et plus pressant, économiquement parlant, soulevé par les APAM, celui de la responsabilité civile en cas de dommage. Beaucoup d’auteurs sont tentés d’aborder ce problème comme une variante du problème général posé par la responsabilité à l’égard des artefacts informatiques. Ainsi, d’après Deborah Johnson (2006), les APAM sont des entités morales, mais pas des agents moraux : l’agentivité et donc la responsabilité est assumée par le complexe des parties prenantes humaines, concepteurs, industriels, utilisateurs, qui font qu’il y a des APAM. Néanmoins cette approche ne fait pas droit à la différence qui sépare une machine dont les actes sont prévus par son concepteur (un automate) d’une machine possédant une marge d’initiative pratique, qui, sans doute, est prévue et donc assumée par son concepteur, mais dont l’actualisation est en bonne partie imprévisible, parce qu’elle fait appel à l’intelligence située du robot. Une solution alternative, suggérée par Snapper (1985) consiste dès lors à accepter qu’un robot de ce genre, dès lors qu’il sera, dans sa singularité pratique, l’auteur des dommages qu’il pourra occasionner, soit aussi celui qui en portera la responsabilité civile, étant entendu qu’il est dénué de sens d’envisager une responsabilité pénale. Comme l’écrit Snapper « il n’est pas plus problématique de tenir un ordinateur pour [civilement] responsable que de le faire pour une entreprise ». Reste qu’une entreprise a un patrimoine qu’on peut solliciter pour faire jouer sa responsabilité civile : mais où sera le patrimoine d’un robot ? La réponse est que le propriétaire du robot devra tout simplement contracter une police d’assurance. Les humains adultes contractent eux-mêmes une assurance civile. Mais ils en contractent une pour leurs enfants. Or qu’est-ce qu’un APAM, sinon un enfant éternel ?

Conclusion

L’éthique artificielle, dans les conditions du moins de nos capacités et de nos souhaits en matière de technologie d’intelligence artificielle et de robotique, nous ouvre donc des perspectives moins exaltantes que celles habituellement associées à l’imaginaire des robots. Vivre avec des APAM, c’est vivre entouré de petits agents pratiques bienveillants, mais parfois maladroits. Pour considérer sans superstition ces nouveaux habitants du monde, il nous faudra sans doute apprendre à ne pas leur prêter une dignité qu’ils n’ont pas, même s’ils sont dotés d’une apparence humaine : ils n’auront aucun mérite à nous faire du bien, nous n’aurons aucune gratitude ou reconnaissance à avoir envers eux : nous les aurons faits pour ça. Et nous ne pourrons jamais, nous-mêmes, leur faire du mal, parce qu’ils seront des zombies ingénus. En revanche, nous devrons être prêts à faire montre d’indulgence à l’égard de leurs bévues. Tandis que nous pouvons remiser sans vergogne un toasteur qui brûle systématiquement nos toasts, nous devrons faire montre d’un peu de patience à l’égard de nos APAM domestiques : ils devront apprendre à vivre parmi nous, apprendre à nous connaître, et ils pourront donc commettre toutes sortes d’erreurs avant de mettre leurs actes en harmonie avec leur volonté sainte. Par prudence cependant, il nous faudra contracter une assurance en leur nom, car les dommages qu’ils causeront devront être couverts. Mais le règne des fins leur restera pour longtemps fermé.

Bibliographie

Allen C., Varner G. & Zinser J., (2000), « Prolegomena to Any Future Artificial Moral Agent », Journal of Experimental & Theoretical Artificial Intelligence, 12, p. 251-261.

Allen, C., Smit, I., & Wallach, W. (2005). « Artificial morality : Top-down, Bottom-up, and Hybrid Approaches », Ethics and Information Technology, 7, p. 149–155.

Anderson M. & Anderson L.-A. (eds) (2011), Machine Ethics, Cambridge, Cambridge University Press.

Anderson, M., Anderson, S. L., & Armen, C. (2006), « An Approach to Computing Ethics », IEEE Intelligent Systems, p. 56–63.

Anderson, M., & Anderson, S. L. (2007), « The Status of Machine Ethics », Minds and Machines, 17, p. 1–10.

Arkin R. (2009), Governing Lethal Behavior in Autonomous Robots, New York, Chapman & Hall/ CRC Press. [Résumé à : http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf]

Asimov I. (1967), Les robots, trad. P. Billon, Paris, J’ai lu.

Bechtel W. (1985), « Attributing Responsibility to Computers Systems », Metaphilosophy, 16 (4), p. 296-305.

Blackburn S. (1993), Essays on Quasi-Realism, Oxford, Oxford University Press.

Boarini S., Qu’est-ce qu’un cas moral ?, Paris, Vrin, 2013.

Borenstein J. & Pearson Y. (2011), « Robot Caregivers : Ethical Issues across Human Lifespan », in Lin et al. (2012), p. 251-266.

Bostrom N. & Yudkowsky (2016), « The Ethics of Artificial Intelligence », in K. Frankish & W. Ramsey, Cambridge Handbook of Artificial Intelligence, New York, Cambridge University Press, forthcoming.

Bringsjord S (2005), « Ethical Robots : The Future Can Heed Us », American Association for Artificial Intelligence, disponible en ligne à : http://kryten.mm.rpi.edu/FS605BringsjordS.pdf

Bringsjord S., Arkoudas K. & Bello P. (2006), « Toward a General Logicist Methodology for Engeneering Ethically Correct Robots », IEEE Intelligent Systems, 21(4), p. 38-44.

Bringsjord S. & Taylor J. (2012), « The Divine-Command Approach to Robot Ethics », in Lin et al., 2012, p. 85-108.

Dennett D. (1998), « When Hal Kills, Who’s to Blame ? », in D. Storck, Hall’s Legacy : 2001’s Computer as Dream and Reality, Cambridge, MIT Press, p. 351-365.

Dumouchel P. & Damiano L. (2016), Vivre avec les robots. Essai sur l’empathie artificielle, Paris, Le Seuil.

Floridi L. & Sanders J. W. (2004), « On the Morality of Artificial Agents », Minds and Machines, 14 (3), p. 349-379.

Gibson, J. J. (1979). The Ecological Approach to Visual Perception, Mahwah, NJ, Erlbaum.

Gips, J. (1995), « Towards the Ethical Robot », in K. Ford, C. Glymour, & P. Hayes (eds.), Android epistemology, Cambridge, MIT Press, p. 243–252.

Grau, C. (2006) « There is no ‘I’ in ‘Robot’: Robots and Utilitarianism », IEEE Intelligent Systems, 21(4), p. 52–55.

Guarini, M. (2006), « Particularism and the Classification and Reclassification of Moral Cases », IEEE Intelligent Systems, 21(4), p. 22–28.

Johnson D. (2006), « Computer Systems : Moral Entities but not Moral Agents », Ethics and Information Technology, 8, p. 195-204.

Kant E. (1994), Métaphysique des mœurs I : fondation, introduction, trad. A. Renaut, Paris, GF-Flammarion.

Levy D. (2007), Love and Sex with Robots, New York, Harper Collins.

Lin P., Abney K. & Bekey G. (2012), Robot Ethics. The Ethical and Social Implications of Robotics, Cambridge (Mass.), The MIT Press.

McDowell J. (1998), Mind, Value and Reality, Cambridge (Mass.), Harvard University Press.

McLaren, B. (2006), « Computational Models of Ethical Reasoning : Challenges, Initial steps and Future directions », IEEE Intelligent Systems, 21(4), p. 29–37.

Michon C. (2011), Qu’est-ce que le libre arbitre ?, Paris, Vrin.

Moor, J. H. (2006), « The Nature, Importance, and Difficulty of Machine Ethics », IEEE Intelligent Systems, 21(4), p. 18–21.

Nozick R. (1981), Philosophical Explanations, Oxford, Clarendon Press.

Parfit D. (2012), On What Matters, Oxford, Oxford University Press.

Powers, T. (2006), « Prospects for a Kantian machine », IEEE Intelligent Systems, 21(4), p. 46–51.

Ross D, (1930), The Right and the Good, Oxford, Clarendon Press.

Rousseau J.-J. (1964), Discours sur l’origine de l’inégalité, dans B. Gagnebin (éd), Œuvres complètes, III, Paris, Gallimard, Bibliothèque de la Pléiade.

Sartre J. P. (1965), La transcendance de l’ego, Paris, Vrin.

Shoemaker D. (2011), « Attributability, Answerability and Accountability », Ethics, 121, p. 602-632.

Searle J. (1980) « Minds, Brains and Programs », Behavioral and Brain Sciences, vol. 3, n° 3, p. 417-424.

Snapper J.W. (1985), « Responsibility for Computer-Based Errors », Metaphilosophy 16(4), p. 289-295.

Sparrow, R. (2007), « Killer robots », Journal of Applied Philosophy, 24(1), p. 62–77.

Strawson P. F. (1962), « Freedom and Resentment », Proceedings of the British Academy, 48, p. 1-25.

Sullins J. (2005), « Ethics and Artificial Life : From Modeling to Moral Agents », Ethics and Information Technology, 7, p. 139-148.

Sullins J. (2006), When is a Robot a Moral Agent ? », International Review of Information Ethics, 6 (12), p. 23-30.

Tisserot S. (2015), Le jour où mon robot m’aimera. Vers l’empathie artificielle, Paris, Albin Michel.

Turing A. & Girard J.-Y. (1995), La machine de Turing, Paris, Le Seuil [contient la traduction française de « On Computable Numbers with an Application to the

Entscheidungsproblem » (1936-37) et de « Computing Machinery and Intelligence », 1950].

Von Uexküll J. (2010), Milieu animal et milieu humain [1934], Paris, Payot.

Wallach, W., and Allen, C. (2010), Moral Machines: Teaching Robots Right from Wrong Oxford, Oxford University Press.

Wittgenstein L. (1969), On Certainty, London, Blackwell.

Wittgenstein L. (1993), Tractatus Logico-Philosophicus, trad. G.-G. Granger, Paris, Gallimard.

 

Stéphane Chauvier
Université Paris-Sorbonne
stephane.chauvier@paris-sorbonne.fr
Comment citer cet article? 
Chauvier, S. (2016), « Ethique artificielle », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/ethique-artificielle-a/

By admin

Reid (GP)

Publié en janvier 2020

Résumé

En se donnant pour projet de développer la « science de l’homme », Thomas Reid (1710-1796 ; on prononce « riːd ») participe pleinement au mouvement des Lumières écossaises (avec Francis Hutcheson, David Hume, Adam Smith et Adam Ferguson). Son ambition est d’étudier l’esprit humain, d’en dégager « les principes et les pouvoirs ». Plus précisément, il s’agit d’effectuer une « anatomie de l’esprit humain » en mobilisant les ressources « de l’observation et de l’expérience » et « d’une juste induction tirée des faits » (REH, I, 1, p. 28). Autrement dit, l’étude de l’esprit humain doit se faire avec les outils de la méthode newtonienne, héritée de Bacon, qui bannit les hypothèses non issues de l’observation. Mais alors que Reid mobilise la même démarche que les philosophes britanniques de la tradition empiriste (comme Locke [http://encyclo-philo.fr/locke-gp/] et Hume), il aboutit à des résultats foncièrement différents. Là où l’analyse de ses prédécesseurs conduit plus ou moins directement à des conclusions sceptiques, la philosophie expérimentale de l’esprit humain conduit Reid à mettre au jour des certitudes inébranlables, qui sont autant de principes du sens commun.

1. Eléments biographiques

Thomas Reid est le chef de file de l’école écossaise du sens commun (au sein de laquelle on trouve George Campbell, James Beattie, Dugald Stewart, Lord Kames, ou encore Sir William Hamilton). L’idée principale de ce mouvement philosophique est qu’il existe un ensemble de principes du sens commun, c’est-à-dire de croyances primitives, qui sont des produits de la constitution de la nature humaine. Ces principes ne peuvent pas être prouvés.

Après avoir étudié à l’Université d’Aberdeen et enseigné à King’s College (Aberdeen), Reid succède à Adam Smith à la chaire de philosophie morale à l’Université de Glasgow, où il enseigne jusqu’en 1781. C’est l’un des membres fondateurs de la Aberdeen Philosophical Society (ou Wise Club). Les arguments de Hume étaient l’un des principaux sujets de discussion de ce cercle philosophique. C’est lors de ces réunions que Reid aiguise ses premiers arguments, qu’il publie en 1764 dans les Recherches sur l’entendement humain d’après les principes du sens commun, ouvrage dans lequel il procède à une analyse de la perception sensible. Ses deux autres ouvrages majeurs sont les Essais sur les pouvoirs intellectuels de l’homme (1785) et les Essais sur les pouvoirs actifs de l’esprit (1788). Dans le premier, Reid procède à l’analyse des pouvoirs de l’entendement (les sens, la mémoire, la conception, l’abstraction, le jugement, le raisonnement et le goût) et dans le second il précise les conditions qui font de nous des agents moraux. Pour autant, il admet que la distinction entre les pouvoirs intellectuels et les pouvoirs actifs est purement formelle, puisque l’esprit est actif quand il mobilise les pouvoirs de l’entendement, et parce qu’un certain degré d’entendement est requis pour exercer la volonté (EIP, I, 7, p. 64-65).


2. La critique de la voie des idées

a. L’erreur commune des philosophes : la réification des idées

Quand Reid débute son investigation sur les pouvoirs intellectuels de l’homme, il commence par poser un diagnostic. Selon lui, si la nature des pouvoirs intellectuels a été jusqu’à présent mal comprise, c’est parce que les philosophes ont été prévenus par une hypothèse, celle selon laquelle nos facultés (la conception, la perception, la mémoire, etc.) prennent pour objet une « idée » ou une « image » située dans l’esprit. L’erreur commune à Descartes, Malebranche, Locke, Berkeley et Hume (erreur qu’on pourrait même faire remonter jusqu’à Platon et Aristote) est de faire de l’idée l’objet direct de la pensée. Selon eux, nos facultés sont différentes manières de percevoir des idées dans nos esprits. Lorsqu’il perçoit, lorsqu’il imagine ou lorsqu’il se souvient, l’esprit est à chaque fois immédiatement mis en rapport avec une entité mentale : l’idée. Plus particulièrement, dans le cas de la perception sensible, quand je perçois un arbre, ce que je percevrais en réalité, ce serait l’idée de l’arbre dans mon esprit, idée qui serait le portrait interne de l’objet externe qu’est l’arbre.

Selon Reid, le principal défaut de cette approche représentationnaliste [http://encyclo-philo.fr/representation-mentale-gp/] est qu’elle sème les graines du scepticisme. La théorie des idées est « le cheval de Troie » de la philosophie, qui porte « en son sein la mort et la destruction de toutes les sciences et du sens commun » (REH, V, 8, p. 100-101). C’est particulièrement criant dans le cas de la perception. En effet, si l’idée est l’objet de la pensée, la question est alors de savoir comment l’esprit passe de l’idée à l’objet extérieur. Comment à partir des seules idées, qui sont tout ce à quoi nous avons accès, pouvons-nous avoir la certitude qu’il y a des objets extérieurs dont elles sont les représentations ? Comment pouvons-nous garantir que les idées sont ce qui, dans l’esprit, établit le contact avec le monde ?

Afin de montrer qu’un tel scepticisme n’a pas de fondements, Reid développe plusieurs arguments. L’un d’entre eux s’appuie sur une analyse du langage ordinaire. Les philosophes ont été trompés par l’expression suivante : « j’ai une idée » (I have an idea). En effet, la structure grammaticale de cette proposition suggère que l’idée est un objet mental que l’on peut appréhender en lui-même. Mais Reid explique que avoir une idée d’un objet x, ce n’est pas penser à une entité mentale qui serait la représentation de x, c’est penser à l’objet x. L’idée n’est pas l’objet de la pensée (objet qui serait nécessairement dans l’esprit), c’est l’acte mental par lequel un objet (interne ou externe) est pensé (EIP, I, 1, p. 31 ; EIP IV, 1, p. 300-301). L’idée n’est pas l’objet sur lequel porte une certaine opération mentale, c’est l’opération mentale elle-même (qui prend la forme d’une conception, d’une perception ou d’un souvenir). Ainsi, quand je perçois un arbre, je ne suis pas mis en rapport avec une idée, qu’il faudrait que j’interprète comme étant l’idée d’un arbre. Ma perception est un acte mental qui a une visée intentionnelle intrinsèque, c’est-à-dire qu’elle me met directement en rapport avec l’arbre. Cette analyse vaut pour toutes les facultés intellectuelles. Cela conduit Reid à soutenir que lorsque je conçois un centaure, ma conception est une opération de l’esprit qui prend pour objet non pas une idée de centaure, mais un objet (qui, en l’occurrence, n’existe pas) : à savoir, un animal qui a le torse, la figure, les bras d’un homme et la croupe d’un cheval (EIP 4, 2, p. 321 ; EIP 2, 12, p. 160). Nul besoin d’introduire un troisième terme – une idée – entre l’acte de l’esprit et l’objet visé.

Reid fait appel à une autre objection à l’encontre de la « voie des idées ». Cette objection prend appui sur l’un des arguments que Hume mobilise pour expliquer la variabilité des objets perçus. Dans l’Enquête sur l’entendement humain (section XII, première partie), Hume explique que si nos perceptions d’un même objet (par exemple, une table) varient, alors que l’objet reste le même, c’est parce que ce que nous percevons, ce n’est pas l’objet lui-même, mais une représentation de cet objet. Ainsi, l’introduction de « l’idée » ou de « l’image de la table » nous permet d’échapper au paradoxe qui consisterait à dire que, quand nous nous éloignons d’une table, la table diminue tout en restant la même. En distinguant la table réelle de l’image de la table, on comprend que c’est cette dernière qui varie en fonction de la position du sujet percevant (elle diminue quand nous nous éloignons), et que c’est donc elle qui est présente à l’esprit. Contre une telle analyse, qui milite en faveur de la théorie représentationnaliste de la perception, Reid fait valoir un argument qui repose sur la distinction entre la grandeur réelle d’un objet (mesurée par le toucher) et sa grandeur apparente (grandeur visible, qui correspond à l’angle formé par deux lignes partant de l’œil en direction des extrémités de l’objet). Les propriétés géométriques de la grandeur apparente dépendent des propriétés de l’objet réel ainsi que de sa distance par rapport à l’œil du sujet percevant. Par conséquent, tout homme versé en géométrie et dans les lois de la perspective peut calculer la grandeur apparente d’un objet réel à partir de sa connaissance de la grandeur réelle de l’objet et de sa connaissance de la distance de l’objet par rapport à son œil (EIP, II, 14 ; REH, VI, 2). La diminution de l’apparence visible de l’objet réel quand je m’en éloigne est un fait démontrable, qui s’explique sans avoir besoin de faire intervenir une entité supplémentaire (l’idée de l’objet dans l’esprit). Elle est directement tributaire de la présence de l’objet réel à une certaine distance de mon œil. Cette corrélation de la grandeur apparente et de la grandeur réelle de l’objet témoigne en faveur de l’objectivité de l’objet perçu et de son indépendance à l’égard de l’esprit. Et Reid de conclure : « c’est la table réelle que nous voyons, pour cette simple raison qu’il est démontré que la table réelle, une fois placée à une certaine distance, doit avoir cette grandeur apparente, celle-la même qu’a la table que nous voyons » (EIP, II, 14, p. 183).

On pourrait penser que, en introduisant la notion d’ « apparence visible », Reid a finalement recours à une nouvelle version de la notion d’idée, qu’il s’est pourtant efforcé d’expulser de son analyse des opérations de l’esprit. Mais ce ne serait pas faire justice au philosophe écossais. En effet, les « apparences visibles » ou « grandeurs apparentes » ne fonctionnent pas de la même manière que les idées critiquées par Reid. Loin d’être des objets de pensée, que l’esprit considère en eux-mêmes, ce sont « des signes et des indications » sur lesquels l’esprit ne s’arrête pas. Ces signes nous renvoient aux objets extérieurs sans même que nous remarquions leur présence (REH, VI, 2, p. 108). Pour comprendre ce point, voyons comment Reid analyse la perception sensible. Quand je perçois un arbre, quelles sont les opérations de l’âme mises en jeu ?

b. Analyse de la perception sensible

La perception sensible est une opération de l’esprit complexe, qui mobilise différentes opérations de l’âme : la conception, la sensation et le jugement. L’expérience sensible d’un objet produit une sensation en nous. Cette sensation est immédiatement suivie par une conception et une croyance relative à l’existence de l’objet perçu. La conception de l’objet (c’est-à-dire son appréhension) et la croyance à son existence présente sont naturellement attachées à l’activité de percevoir. Par conséquent, percevoir un arbre, ce n’est pas seulement faire une expérience sensible particulière, c’est croire que cet arbre existe et qu’il est tel que nous le percevons.

Il en ressort que sentir, ce n’est pas percevoir. Voilà la distinction qu’ont manquée les philosophes qui n’ont pas procédé à une anatomie de l’esprit suffisamment précise. Alors que la perception porte toujours sur un objet qui peut exister indépendamment du fait qu’il soit perçu, la sensation n’est pas une opération de l’esprit qui porte sur un objet séparé de l’acte de sentir. Prises en elles-mêmes, les sensations ne nous disent rien du monde, ce sont simplement des manières dont nous sommes affectés. Selon Reid, si les philosophes sont passés à côté de cette distinction, c’est parce que, là encore, ils ont été trompés par la structure des énoncés. En effet, ils ont analysé de la même manière des énoncés comme « je vois un arbre » et « je sens une douleur » (I feel a pain). Pourtant, le premier énoncé est un jugement perceptif, dans lequel l’acte de l’esprit du sujet (la perception visuelle) et l’objet sur lequel il porte (l’arbre) sont totalement distincts, alors que le second énoncé rapporte une sensation. Même si sa structure grammaticale distingue entre l’acte (le sentir) et l’objet (la douleur), cette différence n’est pas réelle. En effet, la douleur n’existe pas indépendamment d’un esprit sentant (EIP, I, 1, p. 36 ; REH, VI, 20, p. 200).

Les sensations opèrent de deux manières différentes. La plupart du temps, elles fonctionnent comme des signes qui suggèrent immédiatement la conception d’un objet et la croyance à son existence présente (REH, VI, 21, p. 209). Les sensations sont les signes naturels des objets extérieurs. Mais comment expliquer que les sensations nous renvoient immédiatement à certains objets et à certaines de leurs qualités ? Comment se produit la liaison entre le signe et la chose signifiée ? Autrement dit, comment rendre compte de l’intentionnalité de nos sensations ? Sur ce point, Reid admet que nous ne saurions en dire plus. Les sensations suggèrent les objets et leurs qualités « par une sorte de magie naturelle » (REH, V, 3, p. 84). Nous ne parvenons pas à percer les mystères de ce principe de la constitution originelle de notre esprit. Mais bien que tout ceci nous reste inconnu, cela ne compromet en rien notre capacité à percevoir immédiatement les objets extérieurs et certaines de leurs qualités. Nous sommes ainsi constitués que, par le sens du toucher, nous percevons immédiatement la dureté ou la mollesse des corps, leur étendue, leur figure et leur mouvement. La vue nous informe quant à elle de la figure visible, de la couleur des corps ainsi que de leur place visible. Ces perceptions originelles sont l’effet immédiat de la constitution humaine. Cela signifie que c’est par un principe originel de notre constitution qu’à certaines sensations tactiles et visuelles sont annexées la conception de qualités de l’objet d’une part et la croyance que ces qualités et cet objet existent d’autre part. Bien sûr, ces perceptions sont peu nombreuses en comparaison des perceptions acquises. Dans le cas des perceptions acquises, la suggestion est « l’effet de l’habitude et de l’usage ». Autrement dit, la liaison entre le signe sensible et la chose signifiée est le fruit de la coutume, d’une expérience répétée. C’est ainsi que, par exemple, nous percevons « que tel goût est celui du cidre ou celui du brandy ; que telle odeur est celle d’une pomme ou d’une orange ; que tel bruit est celui du tonnerre ou de la sonnerie des cloches ; que ce son est celui d’une voiture qui passe et cet autre la voix de tel ami » (REH, VI, 20, p. 203 ; REH, VI, 24, p. 224). Dans ce cas, même si la transition du signe sensible à la chose signifiée est dorénavant immédiate, il s’agit d’une immédiateté acquise.

Tel est donc le fonctionnement sémiotique habituel des sensations. Quand nous faisons une expérience sensible d’un objet, notre esprit se porte naturellement au signifié (l’objet extérieur et ses qualités, comme sa grandeur réelle), il ne s’arrête pas au signe (à la sensation visuelle, c’est-à-dire à la grandeur apparente de l’objet). Du moins, notre esprit s’y arrête rarement. En effet, Reid reconnaît qu’il arrive que nous portions notre attention aux sensations elles-mêmes. C’est par exemple le cas des peintres : ils portent leur attention à la grandeur visible des objets, car c’est ce qui doit être reproduit en peinture. En d’autres termes, ils peignent ce qu’ils sentent, mais pas ce qu’ils perçoivent. Veillons toutefois à ne pas ériger en règle générale ce qui n’est valable que pour des cas exceptionnels. La prise en considération de nos seules sensations, séparées des notions et des croyances qui leur sont naturellement jointes, n’est pas une activité naturelle de l’esprit. Il faut un certain effort et beaucoup de temps pour que nous réussissions à nous déprendre de notre tendance naturelle à « glisser » pour ainsi dire sur les sensations et à juger immédiatement de l’existence des objets et de leurs qualités, jugement auquel la nature les a nouées. L’analyse des sensations est donc pour Reid l’occasion de décocher une nouvelle flèche à l’encontre des philosophes qui traitent les sensations sur le modèle de l’idée. Leur erreur est d’une part de traiter les sensations comme des objets de pensée en tant que tels, et d’autre part d’en faire des portraits ressemblants des objets extérieurs. Or, si les sensations sont les signes naturels de certaines qualités des choses, elles n’en sont pas pour autant des images que nous contemplerions sur la scène de notre esprit : elles en sont plutôt les signes arbitraires. Car de même que le mot « or » ne ressemble pas à la substance qu’il désigne, la sensation tactile qui suggère naturellement la dureté n’a pas de rapport nécessaire avec la dureté. Ces signes naturels, quoique arbitraires, composent un langage d’institution divine qui nous met immédiatement en relation avec le monde.

3. Les principes du sens commun

a. Des principes inscrits dans la constitution humaine

L’étude des pouvoirs de l’esprit humain conduit à mettre au jour les principes originels de la constitution de la nature humaine. On a vu que c’est en vertu de ces principes qu’aux sensations sont annexées des conceptions et des croyances relatives à l’existence des objets extérieurs. Ces principes primitifs sont ce sur quoi bute notre explication des pouvoirs intellectuels. On ne peut rien en dire de plus si ce n’est que c’est notre Créateur qui les a implantés dans la constitution de notre nature. Reid développe sa réflexion dans un cadre théiste : si nos esprits ne sont pas correctement étalonnés au monde, autrement dit « si nous sommes dans l’illusion, cette illusion nous vient de Celui qui nous a faits, et il n’y a point de remède » (REH, V, 7, p. 97). Il n’en reste pas moins que nous sommes ainsi faits que nous ne pouvons pas nous empêcher d’accorder notre assentiment à ces principes premiers.

Dans l’Essai VI des Essais sur les pouvoirs intellectuels, Reid dresse une liste de ces principes, qu’il nomme également « principes du sens commun » ou « décrets du sens commun ». Cette liste est provisoire, destinée à être complétée. Elle comporte des principes premiers de vérités contingentes et des principes premiers de vérités nécessaires (ces derniers concernent la grammaire, la logique, les mathématiques, le goût, la morale et la métaphysique). Dans ce qui suit, nous nous concentrons sur quelques principes de la première catégorie.

i. Mémoire et identité personnelle

Le troisième principe des vérités contingentes énonce que « ce dont nous nous souvenons distinctement s’est réellement produit dans le passé ». Autrement dit, le souvenir d’un événement implique naturellement la croyance à l’existence passée de cet événement. Si je me souviens être allé à Berlin l’année dernière, ce souvenir emporte avec lui la conviction que cet état de fait (mon voyage à Berlin) s’est réellement produit dans le passé. Sur ce point, le souvenir se distingue de l’imagination puisqu’habituellement, lorsque nous imaginons quelque chose, nous ne croyons pas que la chose imaginée existe. Par contre, nous constatons que nos souvenirs sont naturellement accompagnés de la croyance à l’existence passée des faits remémorés. Pour autant, nous ne pouvons pas rendre compte de cette liaison, l’analyser et l’expliquer plus avant. C’est le signe que nous butons là sur un fait primitif de notre constitution.

L’analyse de Reid porte en particulier sur ce que nous appelons aujourd’hui la « mémoire épisodique ». C’est le pouvoir que nous avons de nous souvenir d’événements vécus en première personne, avec leur contexte et l’état émotionnel qui était le nôtre alors (par exemple, quand je me souviens « du moment où j’ai entendu parler de Reid pour la première fois », souvenir qu’il faut distinguer du souvenir que « Reid est né en 1710 »). Ainsi comprise, la mémoire est la source de deux types de connaissance. Elle est tout d’abord une source de connaissance immédiate des faits du passé. Cela signifie qu’elle prend pour objet les faits du passé eux-mêmes, et pas des intermédiaires mentaux. Ainsi, mon souvenir de l’odeur de la rose que j’ai sentie hier ne porte pas sur une idée présente que je comparerais à l’objet passé. Il porte sur l’objet même dont j’ai fait l’expérience hier (et qui n’est plus là). Outre la connaissance de ce type de faits, la mémoire est la source d’une connaissance spécifique, que nulle autre faculté ne peut fournir. Cela implique que la mémoire ne sert pas qu’à conserver des connaissances qui ont été préalablement acquises par d’autres facultés (comme la perception ou la conscience). C’est une authentique source de connaissances. Autrement dit, ce n’est pas une faculté de connaître dérivée, seconde, c’est une faculté de connaître « générative », qui nous donne accès à ses propres objets de connaissance, des objets auxquels nous n’avons pas accès par le biais d’autres facultés. En l’occurrence, c’est par la mémoire que j’acquiers la certitude de la continuité de mon existence aussi loin que remontent mes souvenirs. Ainsi, quand je me souviens avoir volé une pomme dans le verger du voisin étant enfant, ma mémoire ne me fournit pas seulement la connaissance de cet événement passé, elle me fait également connaître que je suis aujourd’hui la même personne que celle que j’étais au moment du larcin. C’est pourquoi Reid peut poser comme le quatrième principe des vérités contingentes que, aussi loin que nous nous souvenions de quelque chose distinctement, notre identité personnelle et la continuité de notre existence sont certaines.

Dans l’Essai III, consacré à la mémoire, Reid avait déjà remarqué que, par le souvenir, nous sommes naturellement convaincus de la continuité de notre existence. Il en avait profité pour prendre ses distances avec la théorie lockienne de l’identité personnelle, du moins avec la version qu’il en donne (et qu’il a largement contribué à populariser). Selon cette lecture, dans l’Essai sur l’entendement humain (II, 27), Locke soutiendrait la thèse selon laquelle la continuité psychologique est la condition de l’identité de la personne dans le temps. Pour que je sois aujourd’hui la même personne que celle que j’étais dans le passé, il suffirait que je me souvienne des actions que j’ai effectuées et des pensées qui furent les miennes dans le passé. Reid rétorque que si la certitude que nous avons d’être la même personne est bien un produit sui generis de la mémoire, elle n’est certainement pas ce qui fait que je suis actuellement la même personne que celle que j’étais quand j’étais enfant. Ce qui fait que je suis aujourd’hui la même personne qu’hier ou quelques années auparavant n’a rien à voir avec la manière dont je prends connaissance de ce fait. En d’autres termes, la mémoire fournit bien la preuve de mon identité personnelle, mais elle n’en est pas l’élément constitutif (EIP, III, 6, p. 276-277).

ii. La confiance en la véracité de nos pouvoirs de connaître

Le septième principe des vérités contingentes énonce que « les facultés naturelles, par lesquelles nous distinguons le vrai du faux, ne sont pas trompeuses ». C’est un principe premier que nos facultés intellectuelles naturelles sont fiables, qu’elles produisent la plupart du temps des croyances vraies. Reid accorde une place particulière à ce principe. Il estime qu’il joue en quelque sorte le rôle d’ « axiome » dans le système des principes du sens commun. En effet, c’est un principe qui est impliqué à chaque fois que nous faisons usage de nos facultés intellectuelles (ou de notre faculté morale) : quand nous faisons des jugements (qu’il s’agisse de jugements de notre conscience, de jugements perceptifs, de jugements mémoriels, de jugements moraux ou de jugements de goût), nous prenons toujours pour accordé que notre conscience, notre perception, notre mémoire, notre faculté morale ou notre goût sont sains, « en bon état de marche ». C’est pourquoi on peut considérer ce principe comme une sorte de méta-principe, même si les autres principes premiers n’en sont pas déduits à proprement parler.

En quoi consiste l’attitude par laquelle nous « prenons pour accordé » (we take for granted) que nos facultés intellectuelles ne sont pas trompeuses ? Cela signifie que avoir conscience de quelque chose, se souvenir, percevoir ou raisonner, c’est être naturellement lié à la fiabilité de ces facultés. Cette conviction est un fait de notre constitution. C’est ce que cela signifie, pour les êtres humains que nous sommes, que d’avoir conscience, se souvenir, percevoir, etc. Nous nous fions naturellement à la fiabilité de nos facultés. Par exemple, quand je perçois un arbre, l’usage de ma perception sensible emporte naturellement avec elle l’adhésion au principe selon lequel « ma perception est fiable ». Par conséquent, je n’ai pas besoin de commencer par enquêter sur la fiabilité de ma perception pour en faire usage. Mes jugements perceptifs sont toujours déjà pris dans les filets de ce principe. C’est la manière de juger propre aux êtres humains.

iii. Communication et opérations sociales de l’esprit

Il y a des opérations de l’esprit humain qui sont naturellement sociales : ainsi en est-il des actes qui consistent à poser une question, demander un service, témoigner, donner un ordre, promettre ou établir un contrat (EIP, I, 8, p. 68 ; EPA, V, 6, p. 352). Ces opérations sont sociales car elles impliquent nécessairement un rapport social avec un autre être intelligent qui y prend part. Et ce sont des opérations naturelles car il s’agit de parties originelles de notre constitution, qu’on ne peut pas dériver et réduire à des opérations de l’esprit ou à des affections solitaires (comme la perception, le souvenir, le jugement, le raisonnement ou l’amour de soi). Contrairement aux opérations solitaires, l’expression verbale est essentielle aux opérations sociales. Si nous n’étions pas équipés d’un langage, nous ne pourrions tout bonnement pas poser de question ou promettre quoi que ce soit. L’expression verbale (qui consiste à dire « Fais ceci ! » ou « Je te promets ») est donc une condition nécessaire de l’ordre et de la promesse. Mais précisément, leur nature langagière ne compromet-elle pas leur naturalité ?

Afin de contrer une telle objection, Reid développe le concept de langage naturel (REH, IV, 2). Si notre esprit est naturellement doué de certaines opérations sociales, c’est qu’elles n’ont pas été acquises par l’enseignement. La raison en est que « tout enseignement présuppose un commerce social et un langage déjà établis entre l’enseignant et son élève » (EAP, V, 6, p. 354). Autrement dit, tout enseignement présuppose cela même qu’il vise à mettre en place. Les opérations sociales de l’esprit humain sont en effet l’émanation d’un commerce social originel, grâce auquel les hommes découvrent immédiatement les pensées des autres hommes. Cette perception des pensées d’autrui se fait à livre ouvert, à partir de signes sensibles que nous relions directement à certaines pensées ou états d’esprit, sans que nous ayons besoin de faire des hypothèses interprétatives à ce sujet. Ainsi, au ton de la voix, un enfant sait immédiatement si son père le gronde ou pas, si son interlocuteur est triste ou joyeux. Les traits du visage, les modulations de la voix et les gestes corporels fonctionnent comme autant de signes sensibles à partir desquels nous jugeons des intentions de nos interlocuteurs, de leur caractère et des émotions qui les affectent. Ce sont des signes d’un langage naturel, qui n’appellent pas de décryptage de notre part. La nature nous en fournit immédiatement l’interprétation. Dans le signe naturel, la suggestion « procède de la constitution originelle de notre esprit » (REH, V, 3, p. 83). La liaison entre le signe et la chose signifiée se découvre immédiatement, sans que nous ayons besoin du raisonnement ou d’une expérience répétée. Ce n’est pas autrement que nous savons « qu’un sourcil froncé et un regard noir sont le signe de la colère » (EPA, V, 6, p. 355). C’est ce qui conduit Reid à poser comme neuvième principe des vérités contingentes que « certaines expressions du visage, sons de la voix et gestes corporels indiquent certaines pensées et dispositions de l’esprit » (EIP, VI, 5, p. 484).

Concentrons-nous à présent sur l’une de ces opérations sociales naturelles : celle qui consiste à communiquer une information (témoigner) ou à recevoir une information. Même s’il s’agit à strictement parler de deux opérations sociales, elles ne peuvent exister l’une sans l’autre. Reid explique que ces opérations s’appuient sur deux instincts profondément implantés dans la nature humaine : celui de la bonne foi (on ne communique que les informations que l’on croit vraies) et celui de la confiance (on présuppose toujours que notre interlocuteur dit vrai). Ces deux prédispositions correspondent à deux principes primitifs de la constitution humaine : le principe de véracité selon lequel nous sommes ainsi faits que « nous disons la vérité de manière instinctive » et le principe de crédulité selon lequel nous nous fions naturellement à la véracité des autres (REH, VI, 24, p. 226-227). Loin de considérer notre crédulité naturelle comme un défaut, Reid estime qu’il s’agit là d’un don précieux de la Nature, qui a pris soin de planter les racines de la vie sociale dans notre esprit. De la sorte, nos parents et nos éducateurs n’ont pas eu à gagner notre confiance et notre instruction a pu se mettre en place très tôt. « S’il n’en allait pas ainsi, aucune proposition émise dans le discours ne serait crue avant d’être examinée et mise à l’épreuve par la raison ; et la plupart des hommes seraient incapables de trouver des raisons de croire ne fût-ce qu’à la millième partie de ce qui leur est dit. Une telle défiance et une telle incrédulité nous priveraient des plus grands bienfaits de la société et nous placeraient dans une condition pire que celle des sauvages » (p. 227-228). Autrement dit, dans le cas où, armés d’une tête métaphysique et d’arguments sceptiques, nous aurions exigé des preuves de la bonne foi de nos interlocuteurs avant de leur accorder notre confiance, nous aurions rapidement péri. Si la crédulité est une force de l’esprit humain, cela n’implique évidemment pas qu’elle ne soit pas parfois corrigée (lorsque, ponctuellement, nous faisons l’expérience du mensonge). Il n’en reste pas moins que le doute relatif à la véracité d’autrui émerge tardivement, et toujours sur le fond d’une confiance primitive. Dans les Essais sur les pouvoirs intellectuels, Reid énonce ce principe sous la forme du dixième principe des vérités contingentes, selon lequel : « nous accordons un certain crédit au témoignage humain en matière de faits, et même à l’autorité humaine en matière d’opinions » (EIP, VI, 5, p. 487).

iv. Le principe d’induction

Le dernier principe des vérités contingentes mentionné par Reid est le principe d’induction, selon lequel « dans les phénomènes de la nature, ce qui se produira ressemblera probablement à ce qui s’est produit dans des circonstances similaires » (EIP, VI, 5, p. 489). En inscrivant ce principe au sein de la constitution humaine, Reid balaie d’un revers de main la question posée par Hume. Rappelons-la : « entre une pluralité de cas et chaque cas pris séparément qu’on suppose exactement semblable », qu’est-ce qui change (Enquête sur l’entendement humain, section VII, seconde partie) ? Selon Hume, dans la nature, rien ne change. Dans ces conditions, comment expliquer qu’à partir d’une multitude de cas semblables nous nous sentions autorisés à croire que le futur ressemblera au passé (que le feu nous réchauffera et que l’eau nous rafraîchira), alors que lorsque nous faisons pour la première fois l’expérience de la brûlure du feu nous ne nous attendons pas à ce que le feu nous brûle à nouveau ? D’un point de vue objectif et matériel, la multiplication d’expériences semblables ne nous offre rien de plus que ce qui se trouvait déjà dans la première expérience. Comment se fait-il alors que nous fassions ce saut inductif et que, après avoir fait de nombreuses expériences semblables, nous nous sentions prêts à extrapoler le futur à partir du passé ? Hume répond à cette question en mettant en avant le pouvoir de liaison de l’imagination : la multiplication d’expériences au cours desquelles le sujet a vu l’événement B suivre l’événement A conduit l’imagination à contracter un pli associatif tel que, à la vue de l’événement A, il finit par attendre l’événement B. Le principe d’induction est donc un principe subjectif, qui suppose le poids de la coutume. C’est elle qui, du point de vue de l’esprit, fait toute la différence entre une expérience et mille expériences semblables.

Pour Reid au contraire, le principe d’induction n’est pas le fruit d’une acquisition. S’il avait fallu attendre d’avoir fait de nombreuses expériences similaires pour être en mesure d’anticiper les événements futurs, le genre humain aurait péri. A tout le moins, les hommes n’auraient pas pu tirer profit de leurs expériences pour développer les sciences. Le principe d’induction doit donc être en place dans la constitution humaine dès que nous commençons à faire des expériences. Il produit ses effets bien avant que les hommes le formalisent et le confirment par la raison. A ce titre, il a tous les traits d’un principe premier.

b. Les principes du sens commun sont-ils soustraits à toute évaluation rationnelle ?

i. Des principes évidents par eux-mêmes

La caractéristique principale des principes du sens commun est qu’ils s’expriment sous la forme de croyances injustifiées et injustifiables. A ce titre, ils sont comparables aux propositions évidentes par elles-mêmes. Il s’agit de propositions auxquelles nous donnons notre assentiment de manière irrésistible, dès que nous les appréhendons. Nous n’avons pas besoin d’avoir de bonnes raisons pour y croire. Comme l’explique Reid : « Il n’y a pas à chercher d’évidence ni à soupeser des arguments. La proposition n’est pas déduite ou inférée d’une autre, elle porte la lumière de la vérité en elle-même et n’a pas lieu de l’emprunter à une autre » (EIP, VI, 4, p. 452). De même, les principes du sens commun sont des principes évidents par eux-mêmes, qui n’ont pas besoin d’être mis en évidence par des preuves extérieures. D’ailleurs, si nous cherchions à en rendre raison, nous serions démunis et rapidement confrontés à une pétition de principe. En effet, quelle que soit la justification alléguée, celle-ci présupposerait cela même que nous voudrions prouver. Par exemple, si nous voulions justifier le principe premier selon lequel « ce dont nous nous souvenons distinctement s’est réellement produit », nous serions acculés à faire état de nos expériences passées, au cours desquelles nous avons constaté la fiabilité de notre mémoire. Autrement dit, nous ne pourrions pas mettre en avant une justification indépendante de l’usage de notre mémoire. Reid insiste fréquemment sur le fait que nous sommes incapables de prouver que nos facultés ne sont pas trompeuses. Si nous voulions en donner une preuve en bonne et due forme (qui ne soit pas circulaire), il faudrait que Dieu nous accorde de nouvelles facultés qui nous permettraient de juger des premières (EIP, VI, 5, p. 481 ; EPA, III, 3, 6, p. 199). Mais la fiabilité de ces nouvelles facultés devrait encore être prise pour accordée le temps de la preuve… Quoi qu’il en soit, l’absence de preuve de la vérité des principes premiers ne les fragilise pas. En l’occurrence, la confiance naturelle que nous accordons à nos facultés reste intacte.

Si les principes du sens commun ne sont pas en attente de raisons, leur rapport avec cette faculté qu’est la raison n’est pas pour autant un rapport d’incompatibilité. Dans les Recherches sur l’entendement humain, Reid présente le sens commun comme la racine de la raison (la raison est alors comprise comme la faculté de ratiociner, de faire des raisonnements sophistiqués). L’erreur des sceptiques est de prendre les choses à rebours et de demander à la raison de juger de la valeur cognitive des principes du sens commun. Or la raison n’est pas plus légitime qu’une autre pour légiférer en ce domaine. Reid fait valoir l’argument de la parité : « Pourquoi, mon bon Monsieur, devrais-je croire la faculté de la raison plutôt que celle de la perception ? Elles viennent toutes deux du même atelier et elles furent fabriquées par le même artiste ; et si d’un côté ce dernier me remet un article défectueux qu’est-ce qui l’empêche de faire de même de l’autre ? » (REH, VI, 20, p. 201). Autrement dit, les principes du sens commun (dont celui qui pose la fiabilité de nos pouvoirs intellectuels) n’ont pas à se soumettre au tribunal de la raison avant de pouvoir être acceptés. D’une part, du point de vue de sa capacité à distinguer le vrai du faux, la raison n’est pas mieux lotie que les autres pouvoirs intellectuels ; d’autre part, c’est en vertu des principes du sens commun que nous avons pu développer notre faculté de raisonner. Dans les Essais sur les pouvoirs intellectuels, le sens commun est présenté comme le « premier né » de la raison (la raison est alors comprise au sens large, comme notre pouvoir de juger en général). Le sens commun est la faculté de connaître les principes évidents par eux-mêmes, là où le second degré de la raison correspond à la faculté de déduire des propositions à partir de ces principes. Plus précisément, le sens commun est cette faculté qui nous permet de connaître, d’agir dans le monde et d’interagir avec autrui. C’est une forme de bon sens, de capacité à faire des jugements corrects. C’est ce « degré de jugement qui est commun aux hommes avec lesquels nous discutons et faisons affaire » (EIP, VI, 2, p. 424). Le fait que Reid intègre le sens commun au sein de la raison n’est pas anodin : c’est une manière de faire valoir que même si les principes du sens commun ne sont pas justifiés par des raisons, il n’est ni irrationnel ni déraisonnable de les prendre pour accordés.

ii. Comment répondre au sceptique ?

Bien que Reid admette parfois que « nous ne sommes pas capables de répondre à leurs arguments » (EAP, VI, 19, p. 195), il n’exclut pas la possibilité d’une discussion raisonnée avec le sceptique et, plus généralement, avec quiconque conteste la liste des principes du sens commun. Cette discussion mobilise différents « moyens rationnels » qui ont pour mission de confirmer que ce que nous prenons pour un principe premier est bien un authentique principe premier. Parmi ces ressources rationnelles, on trouve aussi bien des émotions que des arguments basés sur des déductions ou des arguments basés sur des constats (REH, VI, 20, p. 201-202 ; EIP, VI, 4, p. 460-467). Reid a ainsi recours à la preuve par l’incohérence (le sceptique récuse certains principes et en accepte d’autres, alors que les principes se soutiennent mutuellement), l’argument pratique ou prudentiel (juger ou agir à l’encontre de ces principes compromettrait notre vie), l’argument de l’irrésistibilité de l’assentiment (nous ne pouvons pas nous empêcher de donner immédiatement notre assentiment à ces principes), l’argument du consentement universel (dans le domaine du sens commun, il n’y a pas d’expertise, l’accord général fait autorité), l’argument linguistique (les langues partagent une même structure grammaticale, expression de notre attachement à certains principes – ainsi, la distinction entre le sujet et ses attributs reflète notre croyance en la distinction entre un agent et ses qualités), l’émotion du ridicule (ce qui contredit un principe premier est absurde, l’émotion du ridicule nous permet de détecter ce qui est absurde). Reid mobilise ces moyens rationnels pour défendre aussi bien les principes intellectuels que les principes actifs. Ils ne prouvent pas la vérité des principes à strictement parler, mais ils contribuent à les placer « sous le bon point de vue » : ce faisant, nous pouvons les distinguer d’éventuels préjugés et nous avons la confirmation qu’il s’agit de produits naturels de notre constitution. Toujours est-il qu’ils ont une utilité restreinte : leur finalité n’est pas tant de justifier leur vérité (puisque ce sont eux qui fixent les règles du vrai et du faux) que de mettre en valeur le caractère approprié de nos manières de juger.

Outre cette palette d’arguments, l’un des principaux ressorts argumentatifs utilisés par Reid pour montrer que notre adhésion naturelle aux principes premiers n’est pas une attitude répréhensible est l’idée selon laquelle le poids de la preuve revient au sceptique. Dans ces conditions, ce n’est pas au défenseur des principes du sens commun de prouver que, par exemple, « ce que nous percevons distinctement existe et est tel que nous le percevons », c’est au sceptique de fournir de bonnes raisons de douter de la vérité de ce principe fermement implanté dans nos jugements. C’est le sceptique qui est la fauteur de troubles, c’est lui qui met en doute la vérité de nos jugements, c’est donc à lui de fournir des raisons de douter qui soient suffisamment fortes pour déstabiliser la confiance naturelle que nous plaçons dans nos manières de juger. Plus généralement, Reid développe une approche permissiviste de la connaissance. Cela signifie que, tant que n’avons pas de bonnes raisons de douter que ce que nous prenons naturellement pour assuré est vrai, nous sommes autorisés à faire fond sur ces croyances. Jusqu’à preuve du contraire, il est permis de croire ! Ce n’est pas faire preuve de négligence, de précipitation intellectuelle ou d’une témérité impardonnable que de ne pas prouver la vérité de nos croyances naturelles par l’apport de justifications. De telles croyances sont justifiées prima facie, c’est-à-dire d’emblée, de prime abord. Elles s’imposent à nous sans que nous ayons besoin de leur fournir de « passeports épistémiques » spécifiques. Pour que nous puissions faire fond sur elles, nous n’avons pas à commencer par les sécuriser à l’aide d’un ensemble de raisons. D’ailleurs, même si nous devions le faire, nous en serions incapables. L’erreur du sceptique est donc de prendre le doute comme l’état initial de la pensée, alors qu’il s’agit d’une attitude sophistiquée qui doit être solidement étayée pour qu’on la prenne au sérieux.

4. Les pouvoirs actifs de l’homme

Reid n’a pas réfléchi seulement à des questions portant sur la théorie de la connaissance. Son ambition est de cartographier l’ensemble des pouvoirs de l’esprit humain, dont les pouvoirs actifs. Un pouvoir actif est une faculté de réaliser une action et de produire un effet. La question est alors de savoir si les hommes sont dotés de pouvoir actif, et si oui quelles actions sont en leur pouvoir. Car c’est un fait que nous nous considérons naturellement comme responsables de nos actions. Mais pour que nous soyons responsables de nos actions, ne faut-il pas que nous en soyons les auteurs ? En quel sens sommes-nous les véritables causes de nos actions ?

a. Qu’est-ce qu’une cause véritable ?

Afin de préciser dans quelle mesure nous sommes les causes véritables de nos actions, Reid commence par faire une mise au point conceptuelle. Il faut distinguer ce qui est une cause au sens strict (qu’il nomme « cause efficiente ») de ce qui est une cause au sens relâché (ou populaire) du terme (qu’il nomme « cause physique »). Cette distinction lui permet de réinvestir des analyses qu’il avait développées au sujet de la perception dans les Essais sur les pouvoirs intellectuels (livre II), dans les Recherches sur l’entendement humain, ainsi que dans des textes réunis dans The Animate Creation (Edinburgh University Press, 1995). Au moment d’analyser les ingrédients de la perception, Reid exclut que nous puissions mettre le doigt sur la cause des sensations. Il remarque que les impressions faites par les objets sur nos organes sensibles sont régulièrement suivies par des vibrations des nerfs et par une modification des états du cerveau. Ces derniers sont eux-mêmes régulièrement suivis par des sensations. Pour autant, ils n’en sont pas les causes véritables. En effet, tout ce que nous constatons, c’est que les sensations succèdent aux impressions. Nous observons un enchaînement régulier de phénomènes, mais nous ne voyons pas le lien qui unit ces événements naturels. A la rigueur, nous pouvons affirmer que les impressions sont les causes physiques des sensations, au sens où elles les précèdent conformément à une loi de la nature. Mais elles n’en sont pas les causes efficientes. La raison en est qu’une loi de la nature n’agit pas par elle-même. La cause efficiente de nos sensations, c’est l’être qui prend cette loi comme règle de son action (EPA, IV, 9, p. 274). Cet être, c’est Dieu. La critique de l’explication physiologique des sensations et de l’analyse causale de la perception est l’occasion pour Reid de récuser le matérialisme métaphysique, c’est-à-dire la thèse selon laquelle tout phénomène naturel est réductible à des phénomènes matériels (ce qui impliquerait que nos perceptions soient ultimement des états physiologiques, comme des vibrations neuronales et cérébrales). Dieu est la cause ultime des sensations et plus globalement de l’ensemble des événements naturels. La raison en est que seul un être qui a le pouvoir et la volonté de produire un effet est une cause efficiente.

Ce qui vaut pour les opérations de la nature s’applique aux actions humaines : la relation qui unit une cause efficiente à un effet est analogue à la relation qui unit un agent à ses actions volontaires. Les agents sont les causes efficientes de leurs actions, au sens où ils ont le pouvoir de produire un changement par leur volonté. Ils ont le pouvoir de faire x (diriger leurs pensées ou exécuter des mouvements) ou de s’abstenir de faire x selon leur volonté. Autrement dit, ils sont dotés de « pouvoir actif ». Selon Reid, pour avoir un tel pouvoir et l’exercer, il faut être doué de volonté et d’un certain degré d’entendement : il faut être capable de concevoir l’action, il faut vouloir l’accomplir et il faut être capable de la réaliser (EPA, I, 5). Dans le débat qui oppose le système de la liberté au système de la nécessité, Reid prend parti pour le premier et défend une position libertarienne [voir http://encyclo-philo.fr/libre-arbitre/] : les agents sont libres car ils sont les causes efficientes de leurs actions, et ils sont les causes efficientes de leurs actions car elles résultent de leur volonté. Mais leur volonté est-elle libre ? Autrement dit, un agent a-t-il le pouvoir de vouloir ceci plutôt que cela ? Selon Reid, la liberté du vouloir est une condition indispensable à notre libre-arbitre. Cela implique que je fais un acte volontairement non seulement si j’ai tout autant le pouvoir de faire x que le pouvoir de m’abstenir de faire x (je ne fais pas x malgré moi), mais aussi si j’ai tout autant le pouvoir de vouloir faire x que le pouvoir de m’abstenir de vouloir faire x (EPA, IV, 1). En d’autres termes, notre volonté est libre quand elle peut s’exercer dans les deux sens.

Pour le comprendre, prenons un exemple. J’ai le pouvoir de faire un gâteau au chocolat si je peux concevoir cette action au préalable et si je peux vouloir la réaliser tout autant que m’abstenir de vouloir la réaliser. Selon Reid, nos choix et nos intentions (comme le fait de vouloir faire un gâteau au chocolat) sont des actions au même titre que les actions que nous réalisons par leur moyen (comme le fait de faire un gâteau au chocolat). Pour que nous puissions nous considérer comme les causes efficientes de nos actions, il ne suffit pas que nous ayons le pouvoir de réaliser la fin voulue (ici : que nous ayons le pouvoir de faire un gâteau au chocolat tout autant que le pouvoir de ne pas le faire), il faut aussi que nous ayons le pouvoir sur les moyens de réaliser cette fin. Autrement dit, il faut aussi que nous ayons le pouvoir sur notre volonté (ici : que nous ayons le pouvoir de vouloir faire un gâteau au chocolat tout autant que le pouvoir de nous abstenir de vouloir le faire). Sur ce point, Reid prend ses distances avec Locke qui estime que si nous avons le pouvoir sur nos actions, nous n’avons pas le pouvoir sur notre volonté. Dans l’Essai sur l’entendement humain (II, 21, § 31), Locke a en effet montré que notre volonté est déterminée par un motif sensible particulier (en l’occurrence, par un certain malaise : une douleur du corps ou une inquiétude de l’esprit). Selon Reid, ces déterminations sensibles, si elles existent bel et bien, ne sont en rien les causes (au sens strict du terme) de nos actions. Nous sommes des êtres doués de libre-arbitre parce que nos actions volontaires résultent de choix qui ne sont pas eux-mêmes nécessairement déterminés par des motifs animaux (des appétits, des désirs) ou des motifs rationnels. Ces motifs peuvent bien sûr influencer nos actions, mais ils ne les contraignent pas. On peut les comparer à des impulsions (pour les motifs animaux) ou à des avis et des conseils (pour les motifs rationnels), mais en aucun cas il s’agit de choses qui agissent par elles-mêmes. Par conséquent, ce ne sont pas des causes efficientes de nos actions (EPA, IV, 4). Seuls les agents sont les causes véritables de leurs actions.

Reid estime que nous sommes des agents libres parce que nous avons le pouvoir sur notre volonté. Que nous soyons dotés d’un tel pouvoir, nos actions le confirment. Ainsi, nous délibérons, nous prenons des résolutions et nous faisons des promesses. Nous ne pourrions pas faire de telles actions, dont certaines supposent un engagement de notre part, si nous n’étions pas persuadés d’avoir le pouvoir sur notre volonté. Ces actions montrent donc que nous sommes naturellement convaincus d’avoir le pouvoir sur notre volonté. Cette croyance est même un principe premier de notre constitution (EPA, IV, 6). C’est sur elle qu’est construite la pratique sociale de la rétribution morale (par laquelle on accorde à chacun la récompense ou la punition qu’il mérite). Contester que nous ayons le pouvoir sur notre volonté reviendrait à considérer les expressions de « mérite » et de « démérite », d’ « éloge et de blâme » comme dénuées de sens. Plus généralement, nous ne pourrions plus traiter quiconque comme responsable de ses actes. Cependant, l’universalité d’une telle pratique parle en faveur du principe selon lequel nous avons le pouvoir sur notre volonté.

b. Le sens moral

Si les hommes sont des agents moraux, cela implique que leurs actions peuvent faire l’objet d’une évaluation morale et être qualifiées de « louables » ou de « blâmables ». Quelle est l’instance qui procède à cette évaluation ? L’approbation morale et la désapprobation morale sont-elles l’expression d’un sentiment ou bien sont-elles le produit d’une faculté de juger ? Selon Reid, c’est grâce à cette faculté primitive qu’est le sens moral que nous savons distinguer les actions justes des actions injustes. Mais attention, le sens moral (que Reid nomme également « conscience » ou « faculté morale ») est avant tout une faculté de jugement. Il fonctionne d’ailleurs sur le même modèle que la perception sensible (EPA, III, 3, 6, p. 194-195). Reid ne cesse de cultiver l’analogie entre le sens moral et la perception sensible. Comme les sens externes, cette faculté a un double rôle. C’est tout d’abord la source des conceptions originelles du bien et du mal, du mérite et du démérite. C’est elle qui nous fait connaître les premiers principes de la morale. Ces principes énoncent les règles générales de notre devoir (comme le fait que « nous ne devons pas faire à autrui ce que nous trouverions mauvais que l’on nous fasse dans des circonstances semblables », p. 196-197). Ces règles sont des « décrets immédiats de notre faculté morale ». Cela signifie que nous ne les découvrons pas au terme d’un raisonnement, mais qu’elles sont les produits de notre constitution et que nous sommes dans la nécessité de leur faire confiance. Le sens moral est également la faculté par laquelle nous jugeons de ce qui est bien ou mal. C’est grâce à elle que nous percevons que des actions particulières sont bonnes, quand d’autres sont mauvaises. Juger de la bonté ou de l’injustice d’une action consiste alors à appliquer les principes moraux généraux aux situations particulières qui se présentent à nous.

Contrairement aux théories du sentimentalisme moral (développées par Hutcheson, Hume et Smith, http://encyclo-philo.fr/sentimentalisme-a/), Reid ne considère pas que l’approbation morale et la désapprobation morale dérivent des sentiments, agréables ou non, qui nous affectent lorsque nous réalisons une action ou lorsque nous voyons autrui réaliser une action (EPA, V, 7). En d’autres termes, quand nous disons que « tuer, c’est mal », nous ne faisons pas qu’affirmer (d’une manière détournée) que le meurtre nous répugne, et quand nous affirmons qu’ « il faut venir en aide à autrui », nous ne faisons pas qu’exprimer le plaisir qui est le nôtre quand nous voyons quelqu’un venir en aide à autrui. S’il existe bien des sentiments moraux (comme le remords et la bonne conscience, le plaisir ou le dégoût), ils ne font qu’accompagner et suivre le jugement moral (EPA, III, 3, 7). Ils en sont en quelque sorte les effets. Mais ces réactions subjectives ne se substituent pas au jugement, qui constitue la seule véritable réponse éthique. Nous dirions aujourd’hui que Reid soutient une forme de cognitivisme moral, d’après lequel les jugements moraux n’expriment pas des sentiments, mais attribuent des propriétés morales objectives à des actions ou à des comportements (http://encyclo-philo.fr/realisme-moral-gp/).

c. L’obligation de tenir ses promesses

Parmi les principes premiers de la morale que nous appréhendons immédiatement par le sens moral, il y a le droit naturel « à voir respectés les engagements contractés envers » soi (EPA, V, 5, p. 335). Mais comment se fait-il que le respect du contrat et la tenue d’une promesse soient des obligations naturelles ? Ne s’agit-il pas plutôt de comportements qui vont à l’encontre de notre inclination première (qui est de promouvoir notre intérêt immédiat) ? De telles obligations ne sont-elles pas le produit d’une convention, que nous avons adoptée de peur de subir les mesures de rétorsion qui s’imposeraient à nous si nous ne respections pas les termes d’un contrat ou ne tenions pas notre promesse ? En bref, la passion de l’amour de soi, épaulée par un calcul d’intérêt, ne sont-ils pas à l’origine de ces obligations morales ? Telle était en tout cas l’analyse de Hume. Hume voit dans la justice une vertu artificielle, dont l’invention et le développement sont entièrement subordonnés à son utilité pour la société (Traité de la nature humaine, III, 2, 2). Quant à l’obligation de tenir sa promesse, il s’agit d’une pratique sociale conventionnelle, une forme d’échange qui se maintient parce qu’elle s’est révélée avantageuse (Traité de la nature humaine, III, 2, 5).

Reid rejette cette analyse. Selon lui, nous avons des obligations morales naturelles. En particulier, nous nous sentons naturellement obligés à tenir nos promesses. Si Hume a manqué ce point, c’est parce qu’il n’a pas pris en compte le fait que certaines opérations de l’esprit peuvent être tout à la fois sociales et naturelles. En l’occurrence, promettre est une opération sociale, car l’usage du langage lui est essentiel (EPA V, 6). Il ne faut pas confondre l’acte de la promesse, éminemment social, qui est une intention d’obliger, avec l’intention d’accomplir ou de ne pas accomplir la promesse, qui est un acte mental solitaire. Le fait que nous puissions avoir l’intention (solitaire) de ne pas accomplir notre promesse ne compromet en rien l’obligation (sociale) que nous avons de la tenir (obligation que nous avons contractée en disant « je te promets »). Or on a vu que l’usage du langage est indissociable du principe naturel de véracité, qui se décline ici sous la forme de la fidélité à la parole donnée. Si nous nous nous sentons obligés de tenir notre promesse, ce n’est donc pas parce que nous aurions compris que c’est dans notre intérêt de respecter la parole donnée, mais c’est parce que l’expression langagière est une partie constitutive de la promesse et parce que l’usage du langage emporte naturellement la clause de véracité.

5. Le goût

Reid discute les questions esthétiques dans l’Essai VIII des Essais sur les pouvoirs intellectuels, ainsi que dans des textes réunis dans Logic, Rhetoric and the Fine Arts (Edinburgh University Press, 2005). Ses remarques sur les beaux-arts intègrent à la fois le point de vue du spectateur (il s’agit de préciser en quoi consiste nos jugements relatifs à la beauté d’une œuvre) et le point de vue de l’artiste (il s’agit de préciser quel rapport l’artiste entretient avec ses œuvres – littéraires, théâtrales, picturales, sculpturales, architecturales et musicales).

Du premier point de vue, les remarques de Reid réinvestissent des enseignements qui ont été établis lors de son analyse de la perception sensible et du sens moral. Tout d’abord, comme le sens moral, ce sens interne qu’est le goût est une faculté de juger (par laquelle le spectateur affirme l’existence d’une qualité – la beauté, le sublime – dans l’objet perçu). Affirmer qu’une œuvre est belle, ce n’est donc pas simplement exprimer un sentiment de plaisir. De plus, de même qu’il y a des principes premiers de vérité et des principes premiers de morale, il y a des principes objectifs du goût. Cela signifie que, en vertu de la constitution de notre nature, il y a des qualités dans les choses qui, par nature, nous plaisent (comme la nouveauté, la grandeur et la beauté). Le goût est donc le pouvoir de l’esprit par lequel nous apprécions la beauté dans la nature ou dans les arts. Enfin, comme les sens externes (odorat, goût, ouïe, toucher, vue), le sens interne du goût esthétique est une opération de l’esprit complexe, qui mobilise différents ingrédients : le spectateur fait l’expérience d’une sensation qui est immédiatement suivie de la conception d’une propriété esthétique et de la croyance à l’existence de cette propriété dans l’objet perçu.

Ces remarques tendent à faire de Reid un adepte du réalisme esthétique, c’est-à-dire de la thèse selon laquelle les propriétés esthétiques sont réelles et sont des propriétés objectives, sises dans les objets auxquels nous les attribuons. Pour autant, il s’avère que l’approche de Reid est plus complexe. S’il est vrai que les propriétés esthétiques ne sont pas des propriétés subjectives et relatives au sujet percevant (ainsi, la beauté n’est pas un sentiment de plaisir propre à l’esprit de celui qui perçoit l’œuvre), il n’en reste pas moins que les propriétés esthétiques ne sont pas des propriétés des objets au sens strict du terme. Ce sont bien les propriétés d’une chose située à l’extérieur de l’esprit du spectateur, mais ce ne sont pas les propriétés des objets matériels. De quoi sont-elles les propriétés alors ? Selon Reid, les propriétés esthétiques sont les propriétés du créateur, qu’il exprime par son geste artistique. Ainsi, ce n’est pas le poème de Virgile en lui-même qui est beau ou sublime. Sa beauté n’est qu’une propriété dérivée, qui reflète la beauté originelle de son créateur. La beauté se trouve dans l’esprit de Virgile (EIP, VIII, 4, p. 600-601). La beauté d’un être matériel fonctionne pour le spectateur comme le signe de la beauté des qualités intellectuelles du créateur. Il en résulte que la beauté est une propriété de nature intellectuelle, au sens où c’est une qualité de l’esprit de celui qui conçoit et crée les œuvres (œuvres que, par la suite, les spectateurs jugent belles). Le goût est donc plus justement défini comme la faculté qui permet de déceler des qualités esthétiques (comme l’excellence ou la grandeur), qui ne sont pas tant celles des œuvres que celles des autres esprits (c’est-à-dire de ceux qui produisent les œuvres). Cela conduit Reid à affirmer que lorsque nous considérons que les produits de la nature sont beaux, c’est en fait Dieu lui-même que nous créditons de la beauté.

Bibliographie

a. Œuvres de Thomas Reid

Les textes de Reid sont édités par The Edinburgh Edition of Thomas Reid, dont Knud Haakonssen assure la direction. A ce jour, seuls quelques ouvrages sont traduits en français. En grande partie posthumes, ces textes (composés de notes de cours, de lettres, d’ébauches d’articles et de textes de conférences) montrent que Reid n’eut pas pour projet exclusif le développement de la science de l’homme, mais que les sciences de la nature constituèrent pour lui une source d’intérêt permanente.

  • Thomas Reid on the Animate Creation. Papers Relating to the Life Sciences, Edinburgh, Edinburgh University Press, 1995 [textes relatifs à l’histoire naturelle, à la physiologie et à la critique du matérialisme en métaphysique]
  • An Inquiry into the Human Mind on the Principes of Common Sense, University Park, The Pennsylvania State University Press, 2000 ; Recherches sur l’entendement humain d’après les principes du sens commun, trad. M. Malherbe, Paris, Vrin, 2012 [Cité REH, puis chapitre, section et page]
  • Essays on the Intellectual Powers of Man, University Park, The Pennsylvania State University Press, 2002 [Cité EIP, puis essai, chapitre et page] ; Essais sur les facultés intellectuelles de l’homme, trad. T. Jouffroy (1836), Paris, L’Harmattan, 2007 [Une nouvelle traduction est en cours, à paraître aux éditions Vrin]
  • The Correspondence of Thomas Reid, University Park, The Pennsylvania State University Press, 2002 [ouvrage qui permet de prendre la mesure de la place de Reid au sein des Lumières écossaises. On y voit Reid aux prises avec ses contemporains, comme Hume et ses collègues de King’s College, Aberdeen, et de l’Université de Glasgow]
  • Thomas Reid on Logic, Rhetoric and the Fine Arts, Edinburgh, Edinburgh University Press, 2004 [volume qui comprend entre autres l’essai sur la logique d’Aristote et des notes de cours sur la culture de l’esprit]
  • Thomas Reid on Practical Ethics, Edinburgh, Edinburgh University Press, 2007 [textes sur la religion naturelle, le gouvernement de soi, la jurisprudence naturelle et la loi des nations]
  • Essays on the Active Powers of Man, Edinburgh, Edinburgh University Press, 2010 ; Essais sur les pouvoirs actifs de l’homme, trad. G. Kervoas et E. Le Jallé, Paris, Vrin, 2009 [Cité EPA, puis essai, partie, chapitre et page]
  • Thomas Reid on Society and Politics, University Park, The Pennsylvania State University Press, 2015 [notes de cours et textes de conférences destinés à des sociétés savantes, portant sur les questions sociales, économiques et politiques débattues sur la scène écossaise du 18ème siècle]
  • Thomas Reid on Mathematics and Natural Philosophy, University Park, The Pennsylvania State University Press, 2017 [écrits sur les mathématiques et sur les sciences physiques, comme l’astronomie, la mécanique, l’optique, l’électricité, la chimie]

b. Etudes générales

  • Broadie Alexander, Why Scottish Philosophy Matters, Edinburgh, The Saltire Society, 2000 [bref ouvrage, qui montre dans quelle mesure les réflexions de Hume et Reid sur la croyance et la liberté héritent des analyses de Duns Scotus et John Mair]
  • Cousin, Victor, Philosophie écossaise, Paris, L’Harmattan, 2009. [Reproduction des leçons que Cousin professa à la Sorbonne en 1819. Les leçons 6 à 10 sont consacrées à Reid]
  • Lehrer Keith, Thomas Reid, London, New York, Routledge, 1989 [Monographie qui prend appui sur les trois principales œuvres de Reid]
  • Schulthess Daniel : Philosophie et sens commun chez Thomas Reid, Berne, Peter Lang, 1983 [La seule monographie en français sur Reid à ce jour. Elle expose les principaux éléments de sa théorie de la connaissance et de sa philosophie morale.]

c. Ouvrages et articles spécialisés

En français :

  • Etchegaray Claire, « La critique du modèle perceptif de nos opérations mentales chez Thomas Reid », Les Études philosophiques, n°3, 2017, p. 437-458
  • Jaffro Laurent, « La rétorsion du sens commun et la possibilité du scepticisme. Contre Reid », in Comment peut-on être sceptique? Hommage à Didier Deleule, M. Cohen-Halimi et H. L’Heuillet (dir.), Paris, Honoré Champion, 2010
  • Malherbe Michel, « Reid et la possibilité d’une philosophie du sens commun », Revue de métaphysique et de morale, vol. 96, n°4, 1991, p. 551-571
  • Thébert Angélique, « La critique reidienne de l’explication physiologique de la perception », in Physique de l’esprit. Empirisme, médecine et cerveau (XVIIe-XIXe siècles), C. Chérici, J.-C. Dupont, C. T. Wolfe (dir.), Paris, Hermann éditeurs, 2018

En anglais :

  • Copenhaver Rebecca, Buras Todd (ed.), Thomas Reid on Mind, Knowledge and Value, Oxford, Oxford University Press, 2015
  • Cuneo Terence, Van Woudenberg René (ed.), The Cambridge Companion to Thomas Reid, Cambridge, Cambridge University Press, 2004
  • Roeser Sabine (ed.), Reid on Ethics, London, Palgrave Macmillan, 2010
  • Rysiew Patrick, « Reid and Epistemic Naturalism », in The Philosophy of Thomas Reid : A Collection of Essays, J. Haldane, S. Read (eds.), Malden MA, Blackwell Publishing
  • Thébert Angélique, « Common Sense and First Principles : Dispelling an Ambiguity », Philosophical Enquiries : revue des philosophies anglophones, n° 7, 2016, p. 43-64
  • Van Cleve James, Problems from Reid, New York, Oxford University Press, 2015 [la « somme » d’un des meilleurs spécialistes de Reid]
  • Wolterstorff Nicholas, Thomas Reid and the Story of Epistemology, Cambridge, Cambridge University Press, 2001 [l’exposé des arguments de Reid est relié aux discussions contemporaines en philosophie de la connaissance et philosophie de l’esprit]

Angélique Thébert
Université de Nantes, CAPHI
angelique.thebert@univ-nantes.fr

Comment citer cet article? 
Thébert, A. (2020), « Reid », version Grand Public, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/reid-gp/

By admin

Technique (A)

Publié en janvier 2020

Résumé

Il est tentant de définir la technique d’une façon brève et directe. Une remarquable définition de ce genre est la suivante : la technique est « l’humanité au travail » (Pitt, 2000, XI). Mais, en dépit de sa concision, cette définition est lourde de présupposés philosophiques. On ne saurait donc éviter une réflexion philosophique sur la technique. Or, en toute rigueur, la philosophie de la technique n’existe comme discipline séparée que depuis 1877. À cette date, en effet, ont été publiés les Grundlinien einer Philosophie der Technik de E. Kapp ; c’est à cette occasion, semble-t-il, que le syntagme « philosophie de la technique » est apparu pour la première fois. Mais les philosophes n’ont pas attendu la fin du XIXe siècle pour s’intéresser à la technique, de telle sorte qu’une réflexion philosophique sur la technique précède une philosophie de la technique clairement identifiée comme telle. Il n’est pas toujours facile, en réalité, de distinguer les deux entreprises. On se propose donc, avant tout, d’avancer une définition de la technique, qui sera d’ailleurs double.

On s’intéressera ensuite à la pensée philosophique qui a précédé la philosophie de la technique à proprement parler, en présentant les différentes façons dont elle aborde l’ontologie des objets techniques, dont elle formule les rapports entre anthropologie et techniques et enfin dont elle procède à une évaluation des techniques.

On présentera enfin dans ses grandes lignes la situation contemporaine à partir des perspectives ouvertes par E. Kapp. Les analyses les plus notoires en philosophie de la technique semblent négliger l’ontologie des objets techniques au profit d’une anthropologie essentialiste et d’une évaluation largement négative du phénomène technicien. Le « tournant empirique » en philosophie de la technique sera envisagé comme une tentative de rééquilibrer les choses.


Table des matières

1. Qu’est-ce qu’une technique ?

a. Difficultés préliminaires

i. Illusion du présent industriel
ii. Caractère systémique des techniques
iii. Les techniques comme milieu

b. Définition de la technique

c. Techniques et technologies

2. Réflexion philosophique classique sur la technique

a. Trois champs d’investigation
b. Anthropologie des techniques
c. Ontologie des objets techniques
d. Évaluation des techniques

3. Orientations contemporaines de la philosophie de la technique

a. L’héritage des Grundlinien de E.Kap

b. La technologie autonome

c. Ouvrir la boîte noire

i. Introduction : le tournant empirique
ii. La question de la technoscience
iii. Les objets techniques

Conclusion

Bibliographie


1. Qu’est-ce qu’une technique ?

a. Difficultés préliminaires

On a pu observer (Nancy, 1991, 43) que le mot « technique », pris absolument, renvoie à un des concepts les moins bien formés du discours ambiant. Cette remarque semble fondamentalement juste, même si elle est complétée par un : « On en bavarde d’autant plus » assez antipathique. L’expression semble disqualifier d’avance tout ce qui est dit sur le sujet, renvoyé par là non pas à l’ignorance, toujours susceptible d’être corrigée ou amendée, mais à l’affairement superficiel de ceux qui ont l’esprit faux et qui, incapables de rectifier cette fausseté, ne sont même pas en mesure de la percevoir. Au lieu de congédier d’un ton grand seigneur ce qui se dit spontanément, il semble philosophiquement intéressant de repérer pourquoi il est délicat d’identifier ce dont on parle lorsqu’on emploie le mot « technique ».

i. Illusion du présent industriel

En premier lieu, on a affaire, dans les sociétés technologiquement développées, à une profusion difficilement classable à première vue d’artefacts sophistiqués (tablettes, ordinateurs, clés USB, smartphones, etc.). L’omniprésence de ces artefacts peut dissimuler le fait, somme toute assez banal, que des objets relativement peu sophistiqués (canif, spatule, marteau, allumettes, etc.) sont également des objets techniques. On pourrait même dire que les animaux d’élevage (de travail, de pacage, de compagnie, etc.) sont aussi, nonobstant leur statut d’êtres vivants, des artefacts produits par la zootechnie. On confondait aisément, il y a une soixantaine d’années, le machinisme et la technique : c’est une confusion de même nature qui semble à l’œuvre lorsqu’on assimile aujourd’hui la technique et ses formes industrielles les plus avancées (Nanotechnologies, Internet des objets).

ii. Caractère systémique des techniques

Prenons l’exemple de l’automobile. Le plaisir de prendre en main un véhicule flambant neuf et d’en découvrir les possibilités peut masquer le fait qu’une automobile est inutilisable sans un réseau de routes carrossables jalonnées de stations-service, de parcs de stationnement et munies d’une signalisation adaptée (feux, marquage au sol, panneaux). À quoi il faut ajouter des dépanneurs, des garagistes, des carrossiers, et plus en amont, des concessionnaires, des assureurs, des propriétaires d’auto-écoles, des examinateurs, des fonctionnaires qui tiennent à jour un fichier des immatriculations ; on peut également mentionner des assistants de navigation personnels, lesquels supposent un système de positionnement par satellites. Encore plus en amont, on va trouver les ingénieurs et les bureaux d’étude des firmes qui ont conçu et construit ces automobiles et les innombrables sous-traitants qui collaborent avec elles. On peut mentionner encore les montages financiers ayant rendu possibles l’étude et le lancement des nouveaux modèles, achetés le plus souvent à crédit, ce qui suppose l’établissement de contrats et l’existence de techniques juridiques, financières et comptables. En d’autres termes, l’accent mis sur les objets techniques et leurs usages individuels rend difficilement perceptible le fait que les techniques sont toujours organisées en système.

iii. Les techniques comme milieu

Les remarques qui précèdent font apparaître que certaines techniques prennent la forme d’artefacts matériels (depuis la pierre taillée jusqu’à la navette spatiale), mais que d’autres sont, en un sens, invisibles ou immatérielles. Parmi ces techniques immatérielles, certaines, comme le calcul, existent avant tout « dans la tête » de ceux qui les mettent en œuvre, même si elles se déploient sur de très nombreux supports matériels, depuis le boulier jusqu’à la calculatrice électronique par exemple. D’autres relèvent de l’agir collectif et du social : dans un pays qui n’a pas d’industrie automobile propre ou qui n’a pas accès au marché automobile mondial, la constitution, l’usage et l’entretien du parc automobile diffèrent radicalement de ceux qui ont été évoqués il y a quelques lignes.

Que les techniques soient ainsi organisées suggère qu’elles constituent un milieu, qui n’est jamais, par définition, un milieu «naturel» au sens où il serait indemne de toute intervention humaine, mais qui peut être aussi imperceptible aux êtres humains que le milieu marin l’est aux animaux marins. Dans tous les cas, les puissances naturelles y sont « domestiquées » : retournées contre elles même ou détournées de leur cours spontané, elles deviennent utiles et familières, d’hostiles ou indifférentes qu’elles étaient. Ainsi, grâce à une quille ou à une dérive, le vent propulse le voilier au lieu de le faire dériver ; la force gravitationnelle qui ferait normalement tomber la clef de voûte se répartit sur les voussoirs de part et d’autre : les charges verticales, par conséquent, sont équilibrées par compression des éléments de la voûte, etc.

Ce milieu peut être considéré comme une enclave ou un refuge, susceptibles alors d’être investis par les puissances de la nature ou, au contraire, menacés en leur existence même par une dynamique interne (Jonas, 1990). Mais on peut aussi envisager le milieu technique comme une extension du corps organique de l’être humain, comme son être exosomatique (Guchet, 2018, 253 ; pour une perspective analogue, mais avec des présupposés très différents, Clark, 2004 et déjà Marx, 1972, 61-65 et 1980, 194). Selon une telle approche, il n’y a pas lieu d’opposer le milieu humain et le monde des techniques : le milieu humain comporte une dimension technique intrinsèque, même s’il peut se faire que ce milieu soit perturbé ou désorienté par la dimension technique qu’il comporte nécessairement. Par exemple, on peut estimer que la vitesse acquise par le développement technique creuse de plus en plus le retard entre système technique et organisation sociale (Stiegler, 2018, 317).

b. Définition de la technique

Dans ce qui précède, il apparaît que le terme « technique » s’applique à des artefacts, à des procédés ou des procédures, voire au milieu créé par les êtres humains ; mais aussi à des activités ou à des ensembles d’activités ainsi qu’à des aspects de ces activités. Par conséquent, on peut aborder la technique en mettant l’accent sur les artefacts, leur constitution, les procédés qui les font venir à l’existence, les procédures par lesquelles on les met en circulation, on les utilise, on les contrôle, on les entretient ou on les déclare obsolètes avant d’en disposer (en les démantelant, en les déconstruisant puis en les stockant ou en les recyclant, par exemple). Comme les instruments sont indissociables de ceux qui les mettent en œuvre, on peut concevoir les techniques comme des savoir-faire qui sont l’apanage des techniciens ou des « hommes de l’art » et qui relèvent de leurs compétences : l’imagerie médicale, l’élevage, l’horticulture, la métallurgie, etc. Il y aurait ainsi autant de techniques que de domaines où se déploient ces savoir-faire : chacune de ces techniques réalise une emprise de l’agent, individuel ou collectif, sur son milieu et une technique est alors ce qu’un spécialiste connaît et sait mettre en œuvre .

On peut aussi considérer que n’importe quelle activité comporte ses techniques, lesquelles peuvent être communes à plusieurs activités différentes. Ainsi, le morceau de musique légère du compositeur américain Leroy Anderson The Typewriter repose sur la ressemblance entre le clavier d’un piano et celui d’une machine à écrire. Frapper les touches du clavier d’une machine à écrire ou enfoncer les touches du clavier d’un piano semble, au moins pour un observateur extérieur, relever de la même technique, d’où le côté fantaisiste et ironique de ce morceau. Le point important est qu’on envisage alors la technique comme un moyen destiné à atteindre une fin (taper une lettre, distraire le public).

Si on aborde la technique en s’intéressant aux artefacts ainsi qu’aux procédés et aux procédures grâce auxquels ces derniers sont mis en œuvre, on raisonne en termes d’instruments, d’agents et de domaines de la réalité sur lesquels ces agents agissent par le truchement des instruments. Une technique serait alors le tout constitué par un ensemble d’instruments, par le domaine de la réalité qui lui est associé et dans lequel ces instruments opèrent (leur milieu) ainsi que par ceux et celles qui les mettent en œuvres et sont détenteurs des compétences nécessaires à cet effet. Il s’agit là d’une première définition.

En revanche, si on raisonne en termes de moyens et de fins on met l’accent sur ce qui est mis en œuvre pour atteindre un but (par opposition, par exemple, à un processus qui s’effectue ou à une simple chaîne causale). On considérera alors qu’il existe une technique pour chaque activité, même non spécialisée, et on parlera de la technique d’une activité. C’est une approche que l’on trouve chez M. Weber (1971, 63-64) :

« La technique d’une activité est dans notre esprit la somme des moyens nécessaires à son exercice, par opposition au sens ou au but de l’activité qui, en dernière analyse, en détermine (concrètement parlant) l’orientation, la technique rationnelle étant pour nous la mise en œuvre de moyens orientés intentionnellement et méthodiquement en fonction d’expériences, de réflexion et – en poussant la rationalité à son plus haut degré – de considérations scientifiques ».

Il s’agit là d’une seconde définition.

Ces deux définitions sont compatibles. F. von Gottl-Ottlilienfield (1923) dont M. Weber connaît les écrits et qu’il cite avec approbation, va distinguer plusieurs domaines de la technique. La technique d’une activité est bien la mise en œuvre de moyens appropriés pour atteindre un but. S’étendant au-delà des aspects techniques des actions individuelles, elle manifeste un double caractère : au sens subjectif, elle repose sur le sujet agissant, sur sa capacité à œuvrer, son expérience et ses compétences ; elle est l’art de la bonne manière d’atteindre une fin. Au sens objectif, c’est un fait séparé du sujet : elle est l’ensemble validé des procédures et des outils d’action, dans une certaine gamme d’activités humaines. F. von Gottl-Ottlilienfield va donc distinguer quatre types de techniques au sens objectif :

1- Les techniques individuelles. Leur mise en œuvre concerne la disposition psychique et corporelle de l’agent lui-même. Il s’agit, par exemple, de la mnémotechnie, des techniques de la maîtrise de soi, de la culture physique.

2 – Les techniques sociales. Leur mise en œuvre concerne les rapports entre agents car elles reposent sur la façon dont l’attitude de l’autre est éprouvée. Il s’agit, par exemple, des techniques de combat, de la rhétorique, de la pédagogie ; de l’art d’acquérir, de gouverner, d’administrer.

3 – Les techniques intellectuelles. Leur mise en œuvre concerne un état de choses intellectuel. Il s’agit, par exemple, des techniques que l’on emploie pour apporter une solution à un problème ou à une énigme, comme au jeu d’échecs : de façon générale, tout ce qui est méthodologie ou calcul se rattache aux techniques intellectuelles.

4 – Les techniques du réel. Leur mise en œuvre porte sur le monde extérieur immédiat, c’est-à-dire sur la nature, aussi bien organique qu’inorganique. Ce sont des techniques qui visent la maîtrise de la nature par la transformation de ce qui est du domaine de l’impersonnel.

On retiendra donc que la technique au sens le plus large est la technique d’une activité, soit la somme des moyens nécessaires à son exercice ; et que les techniques ou les technologies sont l’ensemble – validé ou en voie de validation – des procédures et des instruments dans un certain domaine d’activité, particulièrement lorsqu’il s’agit d’opérer sur la réalité physique.

c. Techniques et technologies

Il a été question jusqu’à présent des techniques et des technologies sans que ces deux termes soient distingués. Mais il est important – et peu compliqué – de le faire, d’autant plus que beaucoup de jugements critiques, pour ne pas dire “ technophobes ˮ, portés sur la situation contemporaine de la culture, de la politique, de la morale, de la métaphysique, de l’économie, de la civilisation, voire de la condition humaine en général comportent une évaluation implicite des technologies comparées aux techniques artisanales des anciens. On laissera de côté la lignée interprétative qui fait de la technologie une discipline et même une science qui a pour objet de « rendre raison des règles ou des opérations de l’art » (Guillerme, 2008, 21-22). Elle renvoie à l’étude de la « constitution du discours sur les opérations techniques comme discours de type scientifique » (Guillerme et Sebestik, 1966, 49) qu’il est salutaire d’avoir faite, mais qui concerne plutôt l’histoire des techniques que la philosophie des techniques. C’est probablement M. Bunge qui a formulé de la façon la plus claire – au point qu’elle peut sembler brutale à certains – la différence entre technique et technologie. Elles ont en commun de produire de l’artificiel, compris comme la totalité des choses concrètes et des processus ( qu’ils soient physiques, chimiques, biologiques ou sociaux ) fabriqués ou accomplis par des êtres rationnels ( ou leurs agents ) grâce à leurs connaissances (Bunge, 1985, 220). Manifestement, cette définition englobe les arts et les technologies. C’est la différence entre les types de connaissance mise en œuvre qui va permettre de les distinguer : M. Bunge parle de techniques lorsque ces connaissances sont préscientifiques et de technologies lorsqu’il s’agit de connaissances scientifiquement fondées. Ainsi, il écrit : « On entend par technologie, la technique qui emploie la connaissance scientifique […]. Un ensemble de connaissances constitue une technologie si, et seulement si, (1) il est compatible avec la science contemporaine, contrôlable par la méthode scientifique , et (2) si on l’utilise pour contrôler, transformer et créer des choses ou des processus naturels ou sociaux » (Bunge, 1983, 216-217 ; Bunge, 1985, 220). Cette façon d’envisager les choses, notons-le, n’équivaut pas à tenir la technologie pour l’application pure et simple de la science, une thèse quelquefois qualifiée d’applicationnisme. En revanche, il est possible d’expliciter les composantes intellectuelles, culturelles et axiologiques de l’attitude technologique :

– Fait que le travail soit devenu une valeur.

– Prédominance de la rationalité de type économique.

– Abolition de l’autorité traditionnelle et importance accrue attribuée à la créativité.

– Rationalisme des Lumières.

– Abandon de la conception du monde selon laquelle l’univers est un cosmos.

– Conception mécaniciste de la nature.

– Confiance en une approche mathématicienne des choses.

– Développement d’une mentalité expérimentatrice (Rapp, 1981, 92-108)

On comprend, du même coup, que certaines critiques de la technologie sont, en fait, des critiques de tel ou tel aspect de ses conditions intellectuelles ou culturelles.

2. Réflexion philosophique classique sur la technique

a. Trois champs d’investigation

La philosophie de la technique comme discipline clairement identifiée est relativement récente. Cependant, dès l’origine, la réflexion des philosophes a pris pour thème les objets et procédés techniques, leur mise en œuvre et leurs effets. On peut organiser cette réflexion philosophique sur la technique selon trois axes (Goffi, 1988) : anthropologie des techniques, ontologie des objets techniques et évaluation des techniques. Ces réflexions sont loin d’être des balbutiements naïfs ; elles ont structuré le débat pendant des siècles et certaines d’entre elles sont encore d’actualité en ce sens minimale que les philosophes contemporains de la technique admettent qu’il est légitime de les critiquer ou de les rectifier. Tout en étant conscient de ce que cette distinction peut avoir de contestable et de simplificateur, on présentera ici ces axes en les organisant selon deux paradigmes : celui de la pensée de la technique solidaire d’une science spéculative, celui de la pensée de la technique solidaire d’une science devenant ou devenue expérimentale.

b. Anthropologie des techniques

La thématique ou le noyau théorique de l’Anthropologie philosophique s’est en partie construite sur la base d’une interprétation de J. Herder par A. Gehlen. (Gehlen, 81-85) : pour Gehlen, Herder aurait formulé avec une clarté inédite la thèse selon laquelle l’être humain est un « être déficient » ou « lacunaire » (Mängelwesen). On laissera de côté la question de savoir si cette lecture fait violence au texte (ce qui est probablement le cas) et on considérera qu’une telle interprétation organise en partie l’anthropologie des techniques : la technique, en effet, y est conçue comme le substitut d’une dotation organique déficiente chez l’être humain. Elle semble, par exemple, commander les écrits platoniciens relatifs à la technique. Chez Platon, le mythe du Protagoras oppose le domaine technique où les compétences relèvent d’un savoir spécialisé, détenu par l’homme de l’art, et le domaine politique où tout un chacun est apte à se prononcer de façon avisée lorsqu’il est question de justice et de sagesse pratique, cette aptitude se développant par le conseil et la pratique et non au moyen d’un apprentissage à proprement parler. La distinction est construite sur fond d’opposition entre les espèces animales, dotées d’organes assurant leur survie et l’espèce humaine, nue, désarmée, dépourvue de moyens organiques capables de satisfaire directement les besoins vitaux. Les techniques et la spécialisation qui les accompagne constituent donc une réponse à cette déficience originelle. Même si le mythe du Protagoras n’exprime sans doute pas la pensée de Platon, celui-ci rejoint malgré tout le sophiste Protagoras en ce qu’il reconduit l’origine de la société à l’incapacité pour chacun de se suffire à lui-même (République, 369 b). La diversité des arts (agriculture, maçonnerie, cordonnerie, tissage) correspond à la diversité des besoins que l’individu, laissé à lui-même, est incapable de satisfaire. Même si Platon a parfaitement compris qu’il existe une dynamique des techniques et des besoins, il n’en reste pas moins que c’est dans le cadre d’une déficience originelle qu’il pense l’origine des techniques.

Les choses se présentent de façon différente chez Aristote. Dans un passage célèbre du Des Parties des animaux (687 a-b), dirigé contre ceux qui prétendent que l’homme est le moins bien loti des animaux, il affirme que la main est multifonctionnelle : elle est un outil qui tient lieu des autres. Les autres animaux sont en fait prisonniers d’une anatomie trop parfaite dont ils ne peuvent se défaire. C’est, au contraire, le caractère indéterminé de la main, capable de tout saisir et de tout qui fait de l’être humain un animal technicien. Aristote affirme également que la nature réalise, parmi les possibles, celui qui est le meilleur : elle a donc donné la main à l’animal le plus intelligent afin que cette intelligence se manifeste et exprime les capacités qui sont les siennes.

Il existe une imposante littérature relative à la question de savoir si le christianisme est, en lui-même et par lui-même, hostile ou favorable à la technique (van der Pot, 2004, 60-116). Formulée de la sorte, la question est probablement trop abstraite. Il n’en reste pas moins que le thème fondateur de la nature déchue va transformer en profondeur l’anthropologie des techniques et rendre possible un retournement ou une subversion du thème de la technique comme substitut ou comme compensation. D. Lecourt (2003, 74-75 ) va jusqu’à estimer que Hugues de Saint-Victor dans son célèbre Didascalion est un des premiers à concevoir la technique comme le moyen de restaurer la nature humaine en son intégrité. Il semble excessif de lui prêter une thèse aussi typiquement baconienne (cf. toutefois Whitney, 1990 qui soutient la même interprétation) : pour Hugues de Saint-Victor, restaurer en l’homme sa ressemblance avec Dieu revient à contempler la vérité et à exercer la vertu, non à pratiquer la mécanique, même s’il s’agit de la science qui regroupe la fabrication de toutes les choses. On peut cependant noter que cet auteur se distingue en parlant parfois des techniques comme de scientiae mechanicae et non, comme il était courant à l’époque d’artes mechanicae (Mechanica septem scientias continet , Didascalion, II, 20). Surtout, s’il reprend le thème de la technique comme substitut d’une piètre dotation organique, c’est pour affirmer que la minceur même de cette dotation est, pour l’homme, une occasion de découvrir, par la seule raison , ce que les autres êtres reçoivent de la nature : « La raison humaine resplendit bien plus dans la découverte de ces choses qu’elle n’aurait brillé dans leur simple possession » (Disdascalion, I, 9). Plus radical encore, M. Ficin ( 1964 II, 223-229 ), organise un éloge des arts et techniques en opposant à l’absence de progrès dans l’exécution, caractéristique de l’habileté animale, l’invention par les hommes d’arts innombrables qu’ils pratiquent à leur gré. L’homme remplit le rôle de Dieu (Vicem gerit dei) par cette prodigieuse vocation polytechnique qui le place bien au-dessus de toutes les autres créatures de l’univers. Bacon, pour sa part, semble bien avoir exprimé de la façon la plus claire l’idée – peut-être pressentie par Hugues de Saint-Victor – selon laquelle la fin de la connaissance est bel et bien le rétablissement de l’homme dans la souveraineté et la puissance qui étaient les siennes dans le premier état où il fut créé et ce dès les plus humbles procédés des arts mécaniques (Bacon, 1986). L’ambition d’accroître le pouvoir et le règne du genre humain sur le monde n’est jamais porteuse de trouble et d’injustice, contrairement à l’ambition personnelle : elle accomplit paisiblement la vocation de l’esprit humain, miroir capable de refléter l’image du monde universel et d’y découvrir les ordonnances et agencements divins. Cette anthropologie de la technique est lourde de conséquences : elle ne souligne pas simplement que l’homme occupe une place à part dans l’univers du fait de la possession de la raison, de sorte qu’il n’est pas, en réalité la créature déficiente qu’il semble être. Plus fondamentalement, elle suggère que l’on retrouve le même mouvement dans les opérations mécaniques les plus secondaires en apparence et dans la recherche du salut. Bacon inscrit d’ailleurs ses considérations dans une perspective proprement eschatologique en citant Daniel, 12.4 et en estimant que le rétablissement de la connaissance et l’ouverture complète du monde au règne de l’homme doivent se rencontrer dans les derniers temps. Dans ces conditions, on pourrait estimer que l’ambition cartésienne de se rendre « comme maître et possesseur de la nature » est une annexion pure et simple à sa propre doctrine de l’idéal baconien de la science (Gilson in Descartes, 1987, 446) ; on pourrait aussi juger que Descartes se montre plus prudent que Bacon en ce qu’il laisse entendre qu’il existe un maître et possesseur plénier de la nature et qu’il ne saurait être question de s’égaler à lui, mais tout au plus de faire comme lui. Les choses sont probablement plus complexes. Ce n’est peut-être pas seulement à Bacon qu’il faut comparer Descartes pour comprendre ses intentions, mais, encore une fois, à H. de Saint-Victor. Dans son De Sacramentis Christianae Fidei (Migne, Patrologie Latine, 176), ce dernier explique que Dieu a fait l’homme pour qu’il le serve et le monde pour qu’il serve l’homme. L’homme a été fait « possesseur et maître du monde » (possessor et dominus mundi) afin que sa condition lui donne le droit de dominer le reste. Ce statut qui le met à part des autres créatures lui est donc conféré par son créateur. Pour Descartes, c’est une philosophie pratique qui rendrait les forces et les actions des corps naturels aussi peu opaques que le sont les métiers des artisans qui pourra rendre les hommes comme maîtres et possesseurs de la nature. Ce sont les hommes eux-mêmes qui se rendent tels : il ne s’agit pas d’un statut qui leur est conféré dès l’origine, mais d’un état qu’ils peuvent atteindre par le déploiement des techniques (van der Pot, 2004, 1189).

c. Ontologie des objets techniques

Il est tentant de constituer l’ontologie des objets techniques en les rangeant sous la rubrique « objets artificiellement produits » puis en les comparant aux êtres qui existent naturellement. C’est ainsi que procède Aristote ; il prolonge ici des classifications dues à Platon. Ce dernier met à part les techniques donnant naissance, par des actions, à des corps qui n’existaient pas auparavant (Politique, 258e) et fait de l’outil la cause qui fait venir quelque chose à l’existence (Politique, 287e). Bien entendu, Aristote prend en compte la différence évidente selon laquelle les artefacts sont des produits de l’art (τέχνη), mais pas les êtres qui existent naturellement. Toutefois, cette distinction ne peut être comprise qu’à la lumière d’une distinction plus profonde : les premiers ne possèdent en eux-mêmes aucune tendance spontanée au changement, alors que les seconds ont en eux-mêmes un principe de mouvement et de fixité. Ils se meuvent, s’altèrent, augmentent de taille ou voient celle-ci diminuer sans que l’intervention d’un principe extérieur soit nécessaire. Il faut alors se demander comment s’opère le passage de ce qui est naturellement donné à l’objet technique, artificiellement produit. Soit, par exemple, un vêtement : le tissu dont il est fait n’a pas pris spontanément la forme qui est maintenant la sienne. Il a fallu que le vêtement soit conçu, tracé sur le papier – si la technique de la coupe à plat a été employée – donc transformé en patron, lequel a servi à couper les différentes pièces qui ont ensuite été assemblées, etc. Si, une fois assemblé, il est délaissé dans un endroit éclairé, même faiblement, par la lumière du jour orienté toujours de la même façon, il finira par se décolorer du côté qui reçoit la lumière (altération). Mais en toute rigueur, on ne devrait pas dire que c’est le vêtement qui se décolore : ce qui se décolore, c’est le tissu dont il est fait. Or, pour être aussi un objet artificiellement produit, ce tissu est ultimement composé de matériaux naturels et ce sont eux qui s’altèrent spontanément. Dire donc qu’un être est naturel c’est dire qu’il tient de lui-même sa propre forme, ou encore qu’il a en lui-même son principe de mouvement et de repos : il se meut, croît, change et se reproduit selon des causes finales qui lui sont propres, c’est-à-dire selon une finalité qui est celle de la nature. L’être artificiel ne tient pas de lui-même sa propre forme (c’est l’opération technique qui la lui donne) et celle-ci lui est imposée afin de réaliser des buts humains : se vêtir ou se loger, par exemple. C’est en ce sens très général que l’art imite la nature : il ne copie pas servilement des formes ou ne reproduit pas exactement des processus naturels, mais il est porteur de finalité comme la nature elle-même. Il peut même parachever des processus qui resteraient naturellement imparfaits sans l’intervention du «technicien» : en cela, il prolonge par des objectifs humains des fins qui sont simplement naturelles (Schummer, 2001).

Cette approche hylémorphique de la genèse des artefacts se calque de façon assez docile sur certaines activités artisanales (menuiserie, taille des pierres). C’est précisément ce qui lui sera reproché en des termes très vifs par Simondon (2017), lequel lui reproche d’abord de refléter une expérience technique très incomplète où le processus effectif de la fabrication est mal décrit et d’avoir ensuite fonctionné comme un paradigme universel de la genèse des êtres.

Avec le nouveau paradigme, les opérations techniques ne sont plus forcément pensées sur le modèle de la fabrication, par un artisan, d’un artefact. Descartes, par exemple, écrit : « La médecine, les mécaniques, et généralement tous les arts à quoi la connaissance de la physique peut servir, n’ont pour fin que d’appliquer tellement quelques corps sensibles les uns aux autres, que, par la suite des causes naturelles, quelques effets sensibles soient produits » (Descartes, 1973, 521-522). La formule est de portée absolument universelle puisqu’elle vaut pour tous les arts où la connaissance de la physique peut servir. Elle ne décrit pas la genèse de l’artefact comme l’imposition (même non-violente) d’une forme à une matière, mais comme la production maîtrisée d’effets à partir de la rencontre provoquée de corps sensibles, ceux-ci opérant alors selon leur nature propre qui relève seulement de la causalité efficiente. Bacon avait déjà formulé la même idée, de façon encore plus radicale peut-être, en la formulant en termes de pouvoir sur la nature : « L’homme n’a d’autre pouvoir sur la nature que celui que peut lui donner le mouvement ; et tout ce qu’il peut faire, c’est d’approcher ou d’éloigner les uns des autres les corps naturels. Quant cet éloignement ou ce rapprochement sont possibles …. il peut tout ; hors de là il ne peut rien » (Bacon, 1829, 91). L’idée sous-tendant ces analyses est que les artefacts ne diffèrent pas des êtres naturels parce qu’ils sont privés d’un principe interne de changement. Dans un univers où les causes finales ne sont plus tenues pour un élément susceptible d’expliquer les phénomènes, mais où seules les causes efficientes peuvent jouer ce rôle, peu importe que les choses soient disposées pour produire un certain effet par l’homme ou autrement : les choses naturelles ne diffèrent des choses artificielles que par la cause efficiente (Bacon, 1829, 91).

d. Évaluation des techniques

Les évaluations de la technique vont dépendre, comme on pouvait s’y attendre, à la fois de l’anthropologie des techniques et de l’ontologie de l’objet technique élaborées par ailleurs. Il arrive que cette dépendance ne soit pas explicitée. L’évaluation prend alors souvent la forme d’une glorification ou d’une dépréciation de la technique en général, aux accents parfois technophiles ou technophobes. Soit, par exemple la thèse selon laquelle le technicien n’apporte pas une forme à une matière, mais dispose artificiellement des corps naturels de telle sorte que ceux-ci produisent alors les effets qui leur sont naturellement propres. Elle a suscité toute une littérature qui fait du technicien l’homme qui pense seulement en termes de figures, de surfaces et de contacts – bref qui pense en extériorité – et n’a pas accès à la substance du réel. À l’inverse, d’autres glorifieront les techniciens pour leur capacité à transformer directement le réel, sans se surcharger d’encombrantes hypothèses métaphysiques sur la nature ultime de celui-ci. De la même façon, l’ambition de se rendre « comme maître et possesseur de la nature » a pu être célébrée en ce qu’elle exprime la volonté de se libérer de chaînes immémoriales (pénurie, maladie, etc.) pour accéder à des formes inédites de souveraineté et de liberté. Mais elle a alimenté toute une littérature où l’on se demande avec angoisse ce qu’exprime une telle volonté ou bien encore s’il est possible d’acquérir un pouvoir sur le pouvoir conféré par la technique, et comment.

Il arrive ainsi à Platon et à Aristote d’évaluer les artisans de façon négative. On a alors l’impression qu’ils ne vont guère au-delà de certains préjugés selon lesquels les arts libéraux sont supérieurs aux arts vulgaires. Mais on trouve aussi chez eux une évaluation philosophique des techniques, tributaires de leur ontologie de l’objet technique comme objet produit par l’être humain. Cette évaluation dépend d’un cadre conceptuel dont les grandes lignes ont déjà été esquissées et qu’on peut formuler ainsi :

– L’art comme pratique fondée sur la connaissance des principes et des causes est une imitation de la nature. Les objets résultants de la mise en œuvre de techniques peuvent ou non être semblables, par leur aspect, à des objets naturels. Mais les procédés qui les font venir à l’existence sont ceux qu’aurait mis en œuvre la nature elle-même.

– Il en est ainsi parce que les choses fabriquées, contrairement aux êtres naturels, n’ont pas en elles-mêmes le principe de leur fabrication, à savoir le modèle qu’elles exemplifient une fois achevées. Ce principe, elles le tiennent de l’art ou, plus concrètement, de l’agir de l’artisan.

– L’art, en son principe, vise l’avantage de celui sur qui il s’exerce et non l’avantage de celui qui l’exerce : la médecine est à l’avantage du patient, non du médecin; l’élevage à l’avantage du troupeau, non de l’éleveur, etc. C’est une thèse que l’on trouve plus particulièrement chez Platon, République, I ; 341 c-342 e ; 346 a-347 a. Elle signifie qu’il existe une structure normative des techniques, qui leur vient d’être orientées vers une fin. C’est d’ailleurs un reproche que Platon adresse de façon constante aux maîtres en rhétorique, lesquels font des techniques du discours un ensemble indéterminé de moyens pour des fins indifféremment bonnes ou mauvaises.

Dans le Philèbe (55 d-e), Platon admet une dimension cognitive des arts : les opérations consistant à nombrer, mesurer et peser suffisent à faire des arts quelque chose de différent d’une simple pratique fondée sur l’expérience. Ils permettent, en outre, de justifier une hiérarchie des techniques qui soit fondée en raison. Cette hiérarchie est d’application universelle : on la retrouve lorsqu’il s’agit de préciser en quoi elles diffèrent (en quoi, par exemple, l’art du constructeur diffère de l’art du musicien) ; mais elle joue également à l’intérieur d’une seule et même technique (ainsi, la musique qui fait appel à la seule finesse de l’oreille se distingue de celle qui ferait appel à la mesure pour réaliser une harmonie). Le principe de la hiérarchie est le suivant : plus ces opérations jouent un rôle important dans la technique considérée, plus celle-ci procède avec exactitude, élimine l’imprécision et est assurée de ses méthodes, de ses procédures et de ses résultats ; plus elle procède, en un sens, de façon scientifique. Mais dans un passage illustre de la République (595c-598d) trois sortes de réalités sont distinguées. Soit un lit. On aura d’une part le lit existant en soi, dont l’auteur est la divinité ; le lit produit par l’artisan ; le lit – illusoire – produit par le peintre imitateur. Si l’artisan construit ce lit en se référant à l’idée qui en est le modèle, sa technique confère à l’artefact ainsi produit une vertu qui est ici la conformité à son essence (ce sera un bon lit). L’artiste imitateur, pour sa part, ne produira qu’une apparence de lit, même si cette apparence est flatteuse (à tous les sens du terme). En reprenant ainsi à son compte la distinction entre εἰκών et εἴδωλον, Platon ouvre la voie à une littérature insistant sur le pouvoir qu’aurait une technique dévoyée de susciter des simulacres et, par conséquent, de détourner de la réalité.

Aristote admet également qu’il y a quelque chose de cognitif dans l’art (τέχνη) : sa genèse montre qu’il naît lorsque d’une multitude de notions expérimentales se dégage un seul jugement, applicable à tous les cas (Métaphysique, A, 981 a). Il arrive pourtant que les hommes qui ont simplement une longue expérience dans leur domaine d’activité rencontrent plus de succès que ceux qui maîtrisent un art. Mais ce succès même est la preuve qu’il y a plus dans l’art que dans l’expérience : celle-ci, en effet, est une simple connaissance des cas individuels, tandis qu’il y a d’emblée une dimension universelle dans l’art. Il peut donc arriver que l’homme de l’art échoue à appliquer au cas individuel sa connaissance de l’universel. Pour Aristote, l’art est parfois capable d’accomplir ce que la nature est incapable d’accomplir. On pense, par exemple, à l’obstétricien qui intervient avec succès auprès d’une parturiente en cas de situation pathologique. Là où la nature opère spontanément, l’homme de l’art délibère sur les moyens. Mais cette délibération n’est pas l’indice d’une déficience. Elle signale l’insertion d’un être capable de rationalité pratique dans le monde sublunaire où on a d’abord affaire à un enchevêtrement de particuliers et où les règles à appliquer ne se laissent pas toujours distinguer facilement.

Les choses seront bien différentes lorsqu’il s’agira d’évaluer la technique dans le cadre d’un monde tiré du néant par son créateur. Si ce monde est parfait, c’est-à-dire en tout point conforme à la volonté d’un Dieu jaloux, la technique semble, en son principe même, arrogante et porteuse de transgression. Ainsi, Tertullien raisonne de la sorte à propos des vêtements trop voyants portés par les femmes : Dieu pouvait tout faire, comme donner aux moutons des toisons de pourpre ou d’azur. S’il le pouvait et ne l’a pas fait, c’est qu’il ne l’a pas voulu et ce qu’il n’a pas voulu, l’homme ne doit pas le faire (Tertullien, 1971) . Si le monde est créé perfectible, c’est-à-dire conforme à la volonté de Dieu, mais laissé ouvert à la volonté humaine, la technique peut être alors conçue comme un instrument de la continuation de la création, voire comme une collaboration avec le créateur. Cette ambiguïté avait déjà été relevée par Augustin d’Hippone (1960, 664-665). Il met au crédit de l’industrie humaine, c’est-à-dire, ultimement, de la puissance de l’esprit et de la raison l’art du vêtement, du bâtiment, l’agriculture, la navigation, la fabrication d’objets de toutes sortes. Cependant, cette industrie est encore admirable lorsqu’elle fait venir à l’existence des objets inutiles ou dangereux et pernicieux.

Pour des raisons qui tiennent sans doute à une interprétation héroïque de sa démarche, on retient de Descartes la formule « se rendre comme maître et possesseur de la nature », commentée il y a quelques lignes. Il parle là de la nature physique, c’est-à-dire de la matière en tant qu’elle est conservée par Dieu en même façon qu’il l’a créée qu’elle est considérée avec la totalité de ses parties. Mais il est aussi question chez lui de la nature humaine et il est souvent rappelé ( par exemple, Simondon, 2017, 450) que le titre envisagé pour ce qui est devenu le Discours de la Méthode était à l’origine : « Projet d’une science universelle qui puisse élever notre nature à son plus haut degré de perfection ». Même s’il s’agit probablement là d’un exemple de rhétorique destiné à promouvoir une série de découvertes scientifiques – ce titre a été abandonné en 1636 – il n’en reste pas moins qu’il s’agit là du transfert aux connaissances utiles à la vie d’un objectif traditionnellement dévolu à la philosophie ou à la religion. Il s’agit, à l’évidence, d’une évaluation extrêmement positive des techniques. Qui plus est, Descartes affirme que nos soins se doivent étendre plus loin que le temps présent et qu’il est louable de faire des choses qui apporteront davantage à nos neveux (c’est-à-dire à la postérité), même si c’est au désavantage de ceux qui vivent actuellement. Par là, il semble dépasser son histoire personnelle et concevoir l’histoire des générations comme une entreprise collective scandée par une série de victoires sur les difficultés et sur les erreurs (Descartes, 1987, 66-67). Ces considérations ne renvoient pas seulement au progrès des techniques, mais, bien plus radicalement, au thème du progrès par les techniques.

En cela encore, il est précédé par Bacon. Ce dernier se distingue toutefois de lui sur un point crucial. Interprétant à sa façon le mythe de Prométhée, le Chancelier lui fait dire qu’il montre que l’homme est comme le centre du monde si l’on se place du point de vue des causes finales : s’il était supprimé, tout semblerait errer et flotter sans dessein (Bacon, 1997, 130). Le thème de la restauration d’une nature déchue devient ici difficile à distinguer de celui de l’accroissement de l’empire de l’homme sur la nature. Cette conception anthropocentrée de la condition humaine ne restera pas sans écho.

Dans l’article « Encyclopédie » de l’Encyclopédie, Diderot affirme que si l’on bannit l’homme, être pensant et contemplateur, de la surface de la Terre, le spectacle pathétique et sublime de la nature n’est plus qu’une scène triste et muette : c’est la présence de l’homme qui rend l’existence des êtres intéressante (Diderot, 1994, 395). On peut voir une application de ce jugement dans la formule : « Le spectacle de l’industrie humaine est en lui-même grand et satisfaisant » (Diderot, 1875, 421). Dans cette formule, « industrie humaine » est encore un synonyme d’ « activité humaine ». Cependant, Diderot est sensible à des aspects plus sombres de l’activité technicienne, dans sa version manufacturière. Il écrit, par exemple : « Plus on manufacturera, plus il y aura de destructions, plus il faudra de réparations. C’est par la manufacture que tout s’achemine à rien ; et c’est l’agriculture qui remplit sans cesse le ravage de l’industrie » (Diderot, 2018, 109). Même s’il faut relativiser la formule et tenir compte du contexte – il s’agit de penser le rôle respectif de l’agriculture et de l’industrie dans l’économie -, on est passé de l’espoir lié au désir de restaurer une nature humaine déchue à une inquiétude devant les effets sociaux de ce qui se présentait pourtant comme une paisible conquête de la terre.

Sont nouées ainsi la question de la technique et la question sociale ; l’examen de cette dernière alimentera largement le débat au siècle suivant.

3. Orientations contemporaines de la philosophie de la technique

a. L’héritage des Grundlinien de E.Kap

Comme il a été relevé ci-dessus, c’est en 1877 que l’expression «Philosophie de la technique» apparaît pour la première fois. Elle figure, en effet, dans le titre de l’ouvrage de E. Kapp les Grundlinien einer Philosophie der Technik. Si cet ouvrage se signalait seulement par son titre, il ne mériterait qu’une mention et n’aurait d’intérêt qu’historique. En réalité, non seulement il indique bel et bien que la technique est digne de devenir un objet d’attention pour les philosophes, mais il esquisse en outre un certain nombre de thèmes devenus centraux dans la philosophie de la technique contemporaine.

Les outils primitifs sont présentés par E. Kapp comme les fondateurs de la destinée humaine («als Begründer des Menschengeschikes») (Kapp, 2007,129 ; Kapp, 1978, 104). Même si elle exprime de façon énergique la démarche anthropocentrée qui est celle de E. Kapp, cette formule reste encore une généralité et doit être explicitée.

E. Kapp est surtout connu pour avoir expliqué la genèse des outils par la théorie de la projection organique : les outils prolongent et représentent, morphologiquement et fonctionnellement, des organes humains en mouvement. Ceux qui insistent sur cet aspect de sa pensée (par exemple, Canguilhem, 1952) en font alors l’initiateur d’une «philosophie biologique de la technique». Dans une telle perspective, la technique apparaît comme l’emprise du vivant sur son milieu ou comme une tactique vitale et non comme l’application d’un savoir qui lui préexisterait. C’est, à tout le moins, une remise en question de l’antériorité, logique aussi bien que chronologique, du savoir sur ses applications. Mais ce n’est pas tout. Parlant des premières armes, E. Kapp estime qu’elles ont, petit à petit, estompé la ressemblance de l’homme avec le carnassier en transférant les propriétés meurtrières de sa constitution corporelle à quelque chose qui lui était extérieur : la dentition libérée devient un organe de la parole, la griffe se transforme en ongle, c’est-à-dire en enveloppe de protection pour les doigts au travail. Dans cet exemple, les armes libèrent la dimension spirituelle de l’humanité en lui permettant de s’incarner dans la constitution humaine. Comme chez A. Leroi-Gourhan et ceux qui s’en inspirent, on trouve ici une pensée de l’hominisation de l’être humain par la technique.

Dans ces conditions, le monde élaboré par la technique qui apparaît comme un monde hors de l’homme était, à l’origine, un monde en lui. Mais ce monde hors de lui ne cesse jamais, en quelque façon, d’être en lui : les techniques les plus sophistiquées et les plus puissantes – les machines à vapeur, les réseaux de chemins de fer, les liaisons télégraphiques – continuent de projeter et d’exprimer l’organisme humain. Si, avec les premiers outils, la trouvaille inconsciente de la forme va de pair avec une intention visant à remédier à un manque, c’est ici la projection de l’image fonctionnelle elle-même qui prédomine : le réseau ferré est l’image de la circulation sanguine ; le réseau télégraphique est l’image du système nerveux. E. Kapp interprète cela en disant que, dans ce perfectionnement des dispositifs mécaniques, la conscience prend de plus en plus le dessus. En bon lecteur de Hegel, E. Kapp affirme en réalité qu’on assiste à un retour à soi à partir de l’extériorisation technique. L’homme apprend qui il est effectivement en élaborant outils, instruments et mécanismes. Il s’agit d’un mouvement par lequel la conscience s’élève au-dessus de ce qui se présentait initialement à elle sous la forme du manque et du besoin. Le même mouvement la porte à s’élever au-dessus de ses propres productions techniques antérieures, marquées par l’inachèvement. En des termes qui ne sont plus les nôtres, E. Kapp nomme «culture» ce domptage de la nature par l’esprit ( l’ouvrage est d’ailleurs sous-titré : « La genèse de la culture d’un nouveau point de vue »). C’est une autre façon de dire qu’il n’y a pas un extérieur de l’humanité qui serait la technique et que les hommes devraient affronter : le monde extérieur pour autant qu’il est humain et non simplement naturel ou tellurique est, depuis l’origine, un monde technique. L’attention portée par E. Kapp à la technique le conduit donc à remanier en profondeur les frontières entre intérieur et extérieur. Dans le prolongement de ces analyses et de façon plus conventionnelle, il se fait alors le chantre du progrès, allant jusqu’à pronostiquer : « Nous n’en sommes qu’aux premiers stades et, compte tenu du chemin parcouru sur une période relativement courte, on peut se risquer aux pronostics les plus audacieux sur l’avenir de la culture et les proportions inouïes qu’elle va prendre grâce au perfectionnement progressif de l’outil et de la machine, et simultanément, à l’enrôlement croissant des forces de la nature à leur service » (Kapp, 2007, 292).

b. La technologie autonome

Une des thèses les plus importantes de E. Kapp est que la technique fait partie intégrante de la culture, conçue comme maîtrise toujours accrue de l’esprit sur la nature ; par conséquent, elle n’est pas, par rapport au monde humain, dans un rapport d’extériorité. À certains égards, le thème de la technique autonome peut être envisagé comme la contestation radicale de cette thèse (et de celle de la technique comme moteur du progrès, qui en est solidaire). Le politiste L. Winner définit le thème de la technique autonome comme la « croyance selon laquelle la technologie est devenue incontrôlable et suit son propre cours, indépendamment de l’orientation que voudraient lui donner les êtres humains » (Winner, 1977, 13). Cette formule doit cependant être précisée.

On s’accorde à penser que le thème de la technique autonome a été élaboré et mis en circulation par J. Ellul. Cet auteur donne à l’expression un sens précis, mais comprend aussi le mot « technique » de façon assez idiosyncrasique. Il est donc important de distinguer le thème de la technique autonome d’autres thèmes qui peuvent lui sembler apparentés, mais qui sont, au total, différents. Affirmer que la technique est autonome, ce n’est pas affirmer une version du déterminisme technologique, au sens où K. Marx écrit, de façon quelque peu téméraire : « Le moulin à bras vous donnera la société avec le suzerain, le moulin à vapeur la société avec le capitaliste industriel » (Marx, 1977, 119). Au contraire, J. Ellul découple à ce point la technique et la machine qu’il affirme : « La technique a [….] pris son point de départ dans l’existence de la machine. Il est bien vrai que c’est à partir de la mécanique que se développe tout le reste. Il est bien vrai que sans le monde de la machine le monde de la technique n’existerait pas » (Ellul, 1990, 1 ; on peut se rapporter aussi à la distinction explicite entre société industrielle et société technologique [Ellul, 2018, 85]). Mais si la technique est l’enfant de la machine, elle a fait acte d’émancipation par rapport à celle-ci. En toute rigueur, selon Ellul, le moulin à bras relève d’une forme élémentaire et le moulin à vapeur d’une forme plus sophistiquée de mécanique ; mais ni l’un ni l’autre ne relèvent de la technique. Affirmer que la technique est autonome, ce n’est pas non plus soutenir, à la façon d’A. Lebeau (Lebeau, 2005 ; Lebeau, 2008), que la technique engendre sa propre évolution et est soumise à des processus d’accélération que personne n’a choisi de mettre en route, mais qui conduisent à une altération de l’environnement telle que les limites de l’enfermement planétaires deviennent aveuglantes. Si J. Ellul est le premier à souligner le caractère automatique et non finalisé du progrès technique, il ne s’agit pas, à ses yeux, du tout de la technique ; en outre, d’un point de vue méthodologique, il se démarque nettement de la perspective darwinienne qui est celle d’A. Lebeau.

Pour J. Ellul, la technique est un phénomène inédit qui se caractérise comme suit : « Le phénomène technique est […] la préoccupation de l’immense majorité des hommes de notre temps de rechercher en toutes choses la méthode absolument la plus efficace » (Ellul, 1990, 18-19). La formule est d’interprétation délicate. Elle peut vouloir dire que les hommes des temps anciens ne se souciaient tout bonnement pas de méthode, en quelque domaine que ce soit ; ou bien qu’ils se contentaient, en toutes choses, de méthodes relativement efficaces seulement (c’est-à-dire de méthodes relativement inefficaces) ; ou bien qu’ils n’exigeaient de méthodes absolument efficaces que dans un petit nombre de choses et se contentaient, pour le reste, de méthodes relativement efficaces seulement ou se désintéressaient de toute méthode en ces autres domaines. Quoi qu’il en soit, selon J. Ellul, le phénomène technique est autonome, unitaire, universel, total. Le progrès technique par conséquent se fait par autoaccroissement ; il est automatique ; il s’opère causalement, en l’absence de toute finalité (Ellul, 1977). L’intérêt d’une telle analyse est qu’elle permet de déceler la technique à l’œuvre dans tous les domaines, sans exception, de l’activité humaine et d’interpréter celle-ci de façon systématique (par exemple le traitement de la propagande, Ellul, 1962). En outre, J. Ellul montre à l’évidence que la technique n’est pas un ensemble neutre de moyens qui recevraient d’une intention humaine leur valeur, bonne ou mauvaise selon que cette intention elle-même est bonne ou mauvaise ; en d’autres termes, il montre la faiblesse d’une interprétation naïvement volontariste des choix technologiques. Mais il y a un prix à payer et il est élevé. En premier lieu, la technique est définie d’une façon tellement large que l’on ne peut guère imaginer de situation qui consisterait en une réfutation de la thèse défendue. En second lieu, le caractère totalitaire du phénomène technique et le caractère inexorable du progrès technique font qu’on ne voit pas bien ce qui permettrait de rompre « ce long encerclement » (Ellul, 1990, 351). Bien entendu, J. Ellul ne soutient pas la thèse ridicule selon laquelle la technique se développerait de son propre mouvement en l’absence d’êtres humains. Il écrit cependant : « Et sans cesse il nous faut rappeler qu’il n’y a pas d’accommodation avec la technique elle est rigide et va droit au but. On l’accepte ou on la rejette; si on l’accepte, on doit subir ses lois » (Ellul, 1990, 178). J. Ellul est un théologien réformé très compétent et il est peu vraisemblable qu’il ait pu écrire cette phrase sans avoir en tête la formule : « Nul ne peut être le serviteur de deux maîtres » (Luc, 16, 13). De fait, certains textes (Ellul, 2014) présentent la technique comme fondamentalement animée d’un esprit de puissance tendant à l’illimité et d’un esprit de mensonge par lequel elle dissimule ce qu’elle est en réalité. Dans ces conditions, on ne peut, en effet, domestiquer ou acclimater la technique, pas plus qu’on ne peut espérer la contrôler : seul l’affrontement ou l’iconoclasme sont capables de montrer que la technique ne crée qu’une fausse civilisation, faite de pièces et de morceaux. Cet iconoclasme n’est pas celui des briseurs de machines ; il n’a pas vocation à se traduire par des comportements violents, mais pas une réappropriation des conduites et par une redécouverte de l’intériorité. Il s’agit d’une véritable conversion qui devrait se produire de soi, à partir de la foi en Jésus Christ (Ellul, 2014, 334.)

c. Ouvrir la boîte noire

i. Introduction : le tournant empirique

L’expression « ouvrir la boîte noire » a connu une certaine fortune dans les études STS (Science, technologie et société). Elle est employée ici au sens où N. Rosenberg estime que les économistes ont traité les phénomènes techniques : ces phénomènes ont, à l’évidence, une importance capitale pour l’économie (Rosenberg, 1982, 1994). Mais ils se produisent à l’intérieur d’une « boîte noire » où les économistes n’ont pas à mettre le nez. Il en serait de même pour les philosophes qui ont envisagé, à l’instar de J. Ellul, la technique par le biais de ses effets sur l’être humain et sur la société. Précisons.

Les conclusions de J. Ellul peuvent, évidemment, être contestées, en particulier parce qu’elles sont solidaires d’options théologiques qui viennent d’être rappelées. Mais sa démarche même pose problème. Il en est d’ailleurs de même pour d’autres grands noms de la philosophie contemporaine de la technique, comme G. Anders. Ce dernier est surtout connu pour avoir élaboré le thème de la « honte prométhéenne » selon lequel l’être humain a honte de devoir son existence au processus aveugle et non calculé de la procréation et de la naissance, alors que les objets qu’il a fabriqués sont irréprochables, calculés qu’ils sont dans le moindre détail (Anders, 2002, 38). Mais il a aussi avancé une mouture inédite du thème de la technologie autonome en affirmant que la technique est devenue le véritable et authentique sujet de l’histoire (Anders, 2011). L’argument, qui mériterait bien entendu d’être développé est très simple en son principe : l’histoire en général est celle de la classe dominante, ceux qui sont dominés n’étant que « co-historiques ». Or, ce qui domine aujourd’hui n’est plus, à proprement parler une classe, ni même un système politique, mais la technique elle-même. Par conséquent les êtres humains, peu importe la classe à laquelle ils appartiennent ou le système politique dont ils dépendent n’ont de rôle que « co-historique » : le véritable sujet de l’histoire est la technique dont le développement obéit à ses propres lois et qui pose ses propres normes. Il semble donc que, comme chez Ellul, la technique soit un nom pour désigner autre chose que les objets, les procédés ou les procédures que l’on reconnaît communément comme techniques. Il s’agit plutôt d’une puissance par laquelle l’humanité est dépossédée se quelque chose qui lui est essentiel (liberté, subjectivité, historicité, etc.).

M. Heidegger développe des analyses certes différentes, mais qui, structurellement, offrent certaines analogies avec les précédentes . Il opère un renversement considérable par rapport à la conception naïve de la technique qui fait de celle-ci un ensemble neutre de moyens pour des fins restant à déterminer, mais dépendant de la volonté humaine. Il fait plutôt de la technique une façon d’être au monde, c’est-à-dire de dévoiler ce qui se tient en retrait derrière la diversité de l’étant, soit l’être lui-même. La technique de l’artisan consiste à rendre effectives des choses qui n’existaient qu’à titre de potentialité en l’absence de son agir (la statue dans un bloc de marbre, par exemple). À ce pouvoir sans violence, M. Heidegger oppose le mode d’action de la technique moderne qui envisage la nature comme une réserve d’énergie quantifiable, disponible et utilisable pour une multitude d’usages et la somme de livrer ce qu’elle a accumulé au cours des temps. Ce qui caractérise la technique moderne n’est donc pas tant les objets qu’elle fait venir à l’existence que la violence, même dissimulée, dont elle est porteuse. M. Heidegger oppose ainsi le moulin des temps anciens qui ne se met en mouvement que si le vent est favorable et la centrale électrique sur le fleuve qui produit de l’électricité par un forçage du courant. L’exemple est parfaitement adapté au propos de M. Heidegger qui est d’attirer l’attention sur ce qu’on a du mal à discerner à première vue : la technique n’est pas pensée en ce qu’elle a d’essentiel si on y voit un ensemble de moyens ; elle est au contraire solidaire d’un rapport au monde. Toutefois, le moulin et la centrale électrique ne sont pas envisagés dans ce qui fait leur technicité au sens usuel du terme. Ainsi, le moulin est réduit à une abstraction : il n’accumule pas l’énergie éolienne et dépend de celle-ci pour simplement opérer. Mais il serait ridicule de le présenter comme s’il implorait le vent de lui être favorable, scellant une sorte d’alliance entre l’homme et la nature. Il est d’ailleurs égarant de parler du moulin à vent comme s’il n’en existait qu’un type unique, réalisé partout et toujours de la même façon. Il existe, par exemple, des moulins sur pivot, des moulins-tours, des tjaskers frisons orientables manuellement, etc. Nonobstant la diversité de leur apparence, ils sont tous susceptibles de pouvoir être orientés de façon à placer les ailes face au vent. Les constructeurs de moulins et les meuniers n’attendent pas, dans le recueillement, que le vent se lève comme une faveur : ils agissent pour faire en sorte que la voilure se mette en mouvement, même lorsque le vent est très faible. Au demeurant, des techniques récentes et sophistiquées, parfois inspirées de l’ingénierie aéronautique, ont amélioré sensiblement les performances des moulins encore en activité (aux Pays-Bas, par exemple). On ne trouve pas, chez M. Heidegger, le thème de la technique autonome. L’exemple du moulin n’est pas non plus censé exprimer, chez lui, une nostalgie technophobe et il serait superficiel (et peu charitable) de l’interpréter en ce sens. Mais il faut tout de même reconnaître qu’il est tributaire d’une conception romantique du métier. Là encore, il semble que l’évaluation ait précédé l’analyse de l’objet technique.

De façon générale, il a été reproché à des démarches comme celles qui viennent d’être mentionnées de ne pas entrer dans le détail et de ne pas parler de façon assez précise des techniques elles-mêmes. Elles s’intéressent aux conséquences des technologies contemporaines sur la condition humaine et sur la société au sens large ; elles ne font guère attention à la façon dont sont organisées et constituées les objets techniques eux-mêmes. On a baptisé « tournant empirique en philosophie de la technique » cette approche plus attentive à la nature et à la genèse de la technicité. Dans un article qui représente en quelque sorte le manifeste de cette approche, P. Brey (Brey, 2010) oppose la philosophie « classique » de la technique à une approche qui serait plus axée sur l’ingénierie (engineering oriented). Sans chercher à faire œuvre d’historien, on peut noter que l’article reconduit l’approche de C. Mitcham qui, dès les années 1990, distingue deux traditions en philosophie de la technique : une philosophie de l’ingénierie, qui analyse la structure interne ou la nature de la technique et une philosophie des humanités, qui s’intéresse plus aux relations de la technique avec ce qui lui est extérieur ainsi qu’à sa signification (Mitcham, 1994, IX). Ainsi, le « tournant empirique » est initialement européen – plus exactement néerlandais – et nord-américain. En 1997, en effet, le philosophe néerlandais H. Achterhuis a dirigé un ouvrage traduit en anglais en 2001 sous le titre American Philosophy of Technology et sous-titré The Empirical Turn (Achterhuis, 1997, 2001). Il était consacré à A. Borgmann, H. Dreyfus, A. Feenberg, D. Haraway, D. Idhe et L. Winner choisis et rassemblés à cause de leur intérêt pour « les manifestations concrètes et empiriques de diverses techniques » (Achterhuis, 2001, 3). Cet ouvrage se voulait le pendant d’un livre plus ancien dirigé par le même H. Achterhuis, publié en néerlandais et non traduit (Achterhuis, 1992). Le livre de 1992 était consacré à des philosophes de la technique qualifiés ensuite de « classiques » (Achterhuis, 2001) : G. Anders, J. Ellul, A. Gehlen, M. Heidegger, H. Jonas et L. Mumford. Le tournant empirique représente donc une réorientation dont les derniers développements mènent à une philosophie de la technique axée sur l’ingénierie (on ne saurait dire que A. Borgmann ou L. Winner, par exemple, pratiquent ce style de philosophie de la technique). Il convient d’ailleurs de noter que des philosophes contemporains de la technique ont attaché la plus grande importance à la technicité, sans pour autant se réclamer du tournant empirique, ne serait-ce que pour d’évidentes raisons de chronologie. Enfin, des interrogations ont émergé de façon indépendante, qui témoignent cependant d’une plus grande attention aux aspects concrets et empiriques de la technique. Parmi celles-ci, on retiendra la question de la technoscience.

ii. La question de la technoscience

La nature du problème

En un sens relativement évident et peu problématique, les technologies contemporaines sont de la science appliquée, par opposition aux techniques artisanales, qui procèdent par essais et erreurs, dépendent du tour de main et se transmettent de compagnon à apprenti. Un moment important de la prise de conscience de cette transformation se trouve chez Diderot lorsqu’il affirme : « Le métier à faire des bas est une des machines les plus compliquées et les plus conséquentes que nous ayons : on peut la regarder comme un seul et unique raisonnement dont la fabrication de l’ouvrage est la conclusion » (Diderot, 1986, 266). Mais, en un autre sens, on emploie le terme « technoscience(s) » pour désigner un régime particulier des relations entre sciences et techniques dans les sociétés technologiquement avancées: en d’autres termes, on parle des rapports entre sciences et technologies. On est spontanément enclin à décrire cette relation en termes de dépendance (ou d’interdépendance). Bien qu’il ne dise que contextuellement ce qu’il entend par là, c’est ce que fait de façon systématique D.F. Channell (Channell, 2017). Dans une telle perspective, la technoscience ne correspond pas simplement à une interdépendance entre sciences et techniques, mais à un effacement des frontières entre les deux (la métaphore de l’effacement peut céder la place à d’autres métaphores ou être renforcée par elles : amalgame, fusion, symbiose, synthèse, tissu sans couture, etc.). Il existe un débat relatif à la paternité du terme et une magistrale mise au point sur la question (Raynaud, 2015 et 2016) ; nous y renvoyons. Nous chercherons à exposer les arguments qui permettent de penser les relations entre sciences et techniques et, éventuellement, de parler plutôt de technosciences.

Indépendance et interdépendance

Une telle entreprise n’a de sens que si les sciences et les techniques sont distinguables, au moins conceptuellement, même si on conclut à l’annulation récente de leurs frontières au profit d’un ensemble devenu indifférencié et qualifié de technoscientifique. Ainsi, on peut tout à la fois affirmer qu’il y a quelque chose d’irréductiblement artisanal, relevant de la connaissance implicite, dans l’activité quotidienne des scientifiques, par exemple lorsqu’ils collectent, classent et hiérarchisent les données ; et soutenir que la connaissance scientifique en tant que telle présente un caractère spécifique et irréductible parce qu’elle vise la résolution de problèmes qui n’existent que dans un monde d’objets résultant d’une construction intellectuelle (Ravetz, 1971 ; une telle approche aboutit d’ailleurs à faire du technicien un être hybride, tenant à la fois de l’artisan parce qu’il opère sur le réel et du scientifique parce qu’il raisonne à partir de classes d’objets et d’événements et ne se contente pas de manipuler des choses individuelles).

Ainsi, les auteurs qui soutiennent la thèse de l’indépendance de la science et la technique ne prétendent pas qu’elles n’ont rien à voir. Ils veulent le plus souvent affirmer, premièrement qu’elles ne se confondent pas ; ensuite qu’elles peuvent être distinguées par l’analyse et qu’elles soulèvent des problèmes épistémiques, sociologiques et éthiques de nature différente.

Un argument fréquemment employé par les partisans de l’indépendance des sciences et des techniques est celui de la finalité : les scientifiques ont pour but de connaître le monde ; les techniciens cherchent à le modifier (Bunge, 1966 ; McCauley, 2011). Les scientifiques visent la connaissance de domaines de la réalité jusqu’alors inconnus ; les techniciens conçoivent et réalisent des objets, des procédés et des procédures qui n’existaient pas. Ils peuvent aussi copier, de façon innovante ou non, des objets techniques déjà existants. Des études philosophiquement importantes ont été consacrées à la question du changement et de l’évolution techniques : parmi les plus originales, on mentionnera: Elster (1983), Basalla (1988) et, dans une perspective très différente Guchet (2005). Une variante de cet argument consiste à dire que les scientifiques font usage de la connaissance afin de générer d’autres connaissances, tandis que les ingénieurs font usage de la connaissance afin de concevoir, de produire ou de mettre en œuvre des objets artificiels (Vicenti, 1993, 226). À cet argument, on en ajoute parfois un autre, de type épistémique ( Raynaud, 2016). Les sciences étant orientées vers la connaissance de la réalité elles relèvent de la théorie et de la connaissance et, en particulier, sont concernées par les critères permettant de distinguer le vrai du faux. Les techniques pour leur part, relèvent de la philosophie de l’action : elles sont en quête de l’efficacité, non de la vérité. Ainsi, le raisonnement d’un technicien se fait toujours sous condition qu’un résultat doit être obtenu : « Si tu veux savoir si un alternateur fonctionne, teste-le avec un voltmètre ».

Un autre argument consiste à relever qu’il existe des concepts et des lois propres à la technologie et des « théories scientifiques plus étroitement associées à la technologie que d’autres » (Raynaud, 2016), ce qui suggère une autonomie, au moins relative, de ces deux domaines. Dans la même veine, il a été souligné qu’il existe des savoirs propres aux ingénieurs et aux techniciens, que l’on ne saurait ni assimiler à des connaissances scientifiques, ni à l’application de connaissances scientifiques. W.G. Vincenti, lui-même ingénieur en aéronautique et historien des techniques, a ainsi présenté une série d’études de cas qui établissent de façon brillante que certains types d’innovations, en particulier dans le domaine de la production, ne doivent à peu près rien à l’application de théories scientifiques nouvelles. Par exemple, l’introduction de rivets à tête fraisée en lieu et place des rivets à tête ronde dans la construction aéronautique américaine à partir des années 30 n’a que très peu à voir avec la physique du vol : il est intuitivement évident que la présence de rivets à tête ronde sur le fuselage et les ailes d’un avion est source de turbulences qui augmentent la trainée de l’appareil et réduisent sa vitesse. Ainsi, les Studios Disney ont réalisé pendant la Seconde Guerre mondiale un court métrage d’animation conçu pour la formation accélérée des techniciens recrutés en urgence par les usines Lockheed à Burbank dans le cadre des fabrications de guerre. Il fait la démonstration de différentes méthodes de rivetage et ne consacre que quelques secondes à montrer la diminution des turbulences entraînées par l’usage de rivets à têtes fraisées (Disney Studios, 1942). W.G. Vincenti montre, bien au contraire, que cette indiscutable innovation technologique concerne plutôt des problèmes de production industrielle : compromis entre coûts et bénéfices, difficultés de standardisation, problèmes de codification, relations avec les sous-traitants, etc. (Vincenti, 2016).

On a parfois mobilisé un argument de type historique pour souligner l’indépendance de la science et de la technique. Mais le statut de cet argument est délicat. On a relevé qu’il vaut surtout pour l’Antiquité et le Moyen-Âge (Koyré, 1996). Si l’on voulait caractériser la période contemporaine ou seulement moderne, il serait plus pertinent, selon cet auteur, de parler de liaison, de parallélisme, d’interaction, de pénétration mutuelle ou de collaboration. A. Koyré emploie ces termes presque comme des synonymes, à l’exception de « collaboration » qui désigne la relation entre les savants et les techniciens, non entre les sciences et les techniques. L’analyse de Koyré montre qu’il est assez facile de passer de l’affirmation de l’indépendance entre sciences et techniques à celle de leur interdépendance. Mais le concept d’interdépendance peut être interprété de plusieurs façons. Parfois, il est mobilisé, de façon plutôt rhétorique d’ailleurs, dans un cadre applicationniste : le technique dépend de la science dont elle est l’application ; en contrepartie, la science dépend de la technique en ce sens que c’est pour agir que l’homme désire savoir (Alquié, 2002 [1934]). Mais si l’on quitte le domaine des généralités, l’interdépendance est susceptible de se manifester à plusieurs niveaux. M. Berthelot qui défend généralement un applicationnisme résolu retrace pourtant la carrière d’un brillant ingénieur polytechnicien qui, en charge des travaux d’aménagement du port de Bayonne, ne néglige pas les observations ni même les objections des ouvriers et des conducteurs chevronnés, sans pour cela compromettre son autorité de chef (Berthelot, 1897 ; le passage est quelque peu condescendant envers le personnel d’exécution). Mais le même M. Berthelot peut aussi affirmer qu’en matière de chimie, la science est née des pratiques industrielles, qu’elle a sombré avec la civilisation de l’Antiquité, mais que sa partie pratique a subsisté pendant l’éclipse de la science et qu’elle lui a fourni un terrain solide pour se développer à nouveau sur une base scientifique lorsque les temps et les esprits sont devenus plus favorables (Berthelot, 1897). Il ne s’agit plus, alors, de montrer par un exemple particulier que le savoir scientifique et les compétences de l’homme de l’art peuvent se compléter heureusement grâce à la sagacité de l’ingénieur. Bien plutôt, il s’agit de retracer sur le long terme les relations entre la constitution d’un fond de connaissances positives – élaborées par les praticiens – et les travaux de théorie pure qui mettent à jour les faits et les principes fondamentaux : ces travaux sont le fait des savants (Berthelot, 1897).

Au total, la thèse de l’interdépendance est assez instable : elle va de la platitude selon laquelle, de tout temps, les savants ont eu quelque chose à apprendre des praticiens (et inversement) jusqu’à des constructions ambitieuses, comme le principe de technicité selon lequel le niveau des connaissances acquises est en étroite relation avec le niveau de la technologie et de ses applications (Gonseth, 1975) ou bien la phénoménotechnique bachelardienne. Ici, on a affaire à des thèses de grande portée relatives à la nature de la connaissance en général, ou bien à la nature du réel dont s’occupent les sciences.

Dépendance de la technique par rapport à la science

L’idée selon laquelle la technique dépend entièrement de science dont elle n’est qu’une application (ou applicationnisme radical) est exprimée de façon presque caricaturale par le slogan que pouvaient découvrir les visiteurs de la Chicago World’s Fair en 1933, exposition universelle connue également sous le nom de A Century of Progress : «Science Finds; Industry Applies». En fait ce slogan était complété par un «Man Conforms » qui n’avait, hélas, rien d’ironique ! Ce modèle, qualifié parfois de linéaire (Bensaude-Vincent, 2009) va donc de la science à l’innovation technologique et aux nouveaux usages sociaux. Il est rarement avancé sous une forme aussi naïve que celle qui vient d’être évoquée et il est justifié par une série d’arguments qui méritent d’être pris en considération. Le premier est d’ordre conceptuel. Il consiste à affirmer que toute opération humaine, individuelle ou collective, se comporte de deux parties, l’une de conception (théorique), l’autre d’exécution (pratique). La première précède nécessairement la seconde qu’elle est destinée à diriger (Comte, 1970). En effet, la théorie est toujours générale tandis que la pratique est toujours particulière. Par conséquent, toute entreprise qualifiée de technique doit être dirigée par des connaissances théoriques préliminaires. A. Comte voit ainsi dans l’ingénieur un intermédiaire entre les savants à proprement parler (on dirait aujourd’hui « les scientifiques ») et les directeurs effectifs des travaux productifs, à savoir les industriels : les ingénieurs ne visent pas le progrès des connaissances scientifiques, mais les « considèrent dans leur état présent pour en déduire les applications industrielles dont elles sont susceptibles » (Comte, 1998, 47). Il suggère de la sorte un argument historico-sociologique en faveur de la dépendance de la technique par rapport à la science qui prend typiquement la forme suivante : la Révolution scientifique a eu lieu avant la Révolution industrielle. Il a fallu, pour que cette dernière se produise, que les techniques artisanales aient été transformées en disciplines scientifiquement articulées, capables d’intégrer des éléments mathématiques précis et sophistiqués. Les artisans ont reçu des scientifiques les éléments nécessaires à cet effet (même si, de leur côté, des scientifiques ont manifesté une curiosité certaine pour ce qui se passait du côté des artisans). On considère alors que du fait de leur position sociale et de leur cursus plus prestigieux, ce sont les savants (puis les scientifiques) qui ont impulsé la révolution scientifique dont la révolution industrielle est la conséquence. Il est plus qu’anecdotique de remarquer, par exemple, que le portrait photographique d’I. K. Brunel par R. Howlett, réalisé en 1857, montre le plus célèbre ingénieur civil britannique du XIXe devant les chaînes du SS Great Eastern avec les chaussures et le bas de ses pantalons maculés de boue : « Science Finds; Industry Applies».

Dépendance de la science par rapport à la technique

La thèse selon laquelle la technique dépend de la science se comprend assez directement comme l’affirmation selon laquelle la technique est de la science appliquée. La thèse selon laquelle la science dépend de la technique pourrait laisser supposer qu’on a affaire à une situation symétrique. Tel n’est pas le cas. La dépendance de la science envers la technique peut, certes, être comprise comme une dépendance de la théorie envers la pratique, au sens où la théorie viendrait après la pratique qu’elle systématiserait et ordonnerait. C’est une thèse que l’on trouve, par exemple chez J. Ellul (Ellul, 1990 [1954], 5-6). Mais on peut comprendre la dépendance de la science envers la technique de plusieurs autres façons.

Selon une première interprétation, l’avènement de technologies très puissantes et très sophistiquées est susceptible de changer la nature même de la recherche scientifique en modifiant les objets d’investigation classiquement conçus en en faisant apparaître de nouveaux, en altérant les méthodes employées ou le style de la recherche, ou encore en bouleversant de fond en comble l’ethos scientifique. Ainsi, Bachelard, qui défend une conception « interdépendantiste » des rapports entre sciences et technologies, dit que « nous avons quitté la nature pour entrer dans une fabrique de phénomènes » (Bachelard, 1951, 10). De son côté, R. Oppenheimer introduit quelques brèves remarques sur l’interaction entre la science et la technique en estimant que par leur contribution à la réalisation de la bombe atomique, les physiciens ont connu le péché et qu’ils ne retrouveront plus jamais leur innocence (Oppenheimer, 1948).

Deux autres interprétations sont directement dirigées contre l’idée selon laquelle la technique est une application de la science. Elles suggèrent, au contraire que la technique est une façon d’être au monde, ou qu’elle est étroitement solidaire d’une façon d’être au monde. Cette façon d’être au monde est antérieure à la représentation scientifique de la réalité ou, à tout le moins, n’en est pas tributaire. Selon la première de ces interprétations, la technique est conçue comme une emprise du vivant sur son milieu ou comme une stratégie vitale. La théorie de la projection organique défendue par E. Kapp et à laquelle il a déjà été fait allusion est typique d’une telle approche. Mais c’est probablement chez Bergson qu’elle va trouver son expression la plus grandiose. Celui-ci rattache, en effet, la technique à une pensée de la vie. Les différentes formes de vie sont pour lui les orientations divergentes d’une activité originaire qui se scinde en grandissant. C’est l’élan vital qui procède par dissociations et dédoublements. Le vivant est plutôt un lieu de passage de l’élan vital qu’une substance close sur elle-même. Mais on ne saurait donc envisager les vivants comme les degrés successifs d’une même tendance qui se développe par associations et additions d’éléments (Bergson, 1970, 571). La technique apparaît alors comme une fonction biologique, au fil des multiples bifurcations et contournements d’un élan vital qui, dans son éternel mouvement d’expansion, doit composer avec la matière. Depuis le végétal qui reçoit continuellement et machinalement du milieu environnant ce dont il a besoin jusqu’à l’animal défini par la motricité, l’organe est au service de la vie. Chez les vertébrés, l’activité motrice se concentre sur deux paires de membres, jusqu’à devenir indépendante chez l’homme « dont la main peut exécuter n’importe quel travail » (Bergson, 1970, 608 ; on note la proximité, voulue ou non, de cette formule avec une célèbre affirmation aristotélicienne, cf. supra 2.b). Se joue ici la différence entre l’instinct et l’intelligence : le premier est la faculté d’utiliser des instruments organisés, la seconde est la faculté de fabriquer des instruments inorganisés. En d’autres termes, les instruments de l’intelligence sont libérés des montages anatomiques : tout peut lui être instrument, à tel point qu’on peut la définir comme la « faculté de fabriquer des objets artificiels, en particulier des outils à faire des outils et d’en varier indéfiniment la fabrication » (Bergson, 1970, 613). L’essentiel de la technique s’est donc joué bien avant le développement de la pensée scientifique : l’outillage de l’humanité est un prolongement immémorial de son corps, pas une application des théories qu’elle a pu élaborer et construire dans un passé récent.

La seconde de ces interprétations est, dans ses grandes lignes, d’inspiration heideggerienne (Heidegger, 1958). Heidegger récuse une conception simplement « chronologique » suivant laquelle la technique moderne n’a pu commencer à se déployer qu’en s’appuyant sur la science de la nature. Selon cette approche, la physique moderne tiendrait son caractère expérimental d’appliquer à la nature des appareils pour l’interroger. Mais si on s’intéresse non à la technique, mais à l’essence de la technique, on s’aperçoit que la théorie de la nature propre à la physique moderne fait de la nature un complexe calculable de forces. Or, c’est le propre de la technique moderne, considérée en son essence, que d’envisager la nature comme du quantifiable disponible, susceptible d’être mobilisé pour toutes sortes de fins (Cf. supra 3 c. I). H. Jonas, fidèle sur ce point à son maître, dit les choses de façon encore plus directe : la technique moderne est la métaphysique de la science moderne devenue manifeste ; en effet : « la conception même de la réalité qui sous-tend l’avènement de la science moderne et a été encouragée par elle en retour – à savoir le nouveau concept de nature – comportait la possibilité de manipuler à titre de noyau théorique et impliquait la manipulation effective au cours du processus de la recherche, sous la forme de l’expérimentation » (Jonas, 1974, 48). En termes plus brutaux encore, si la technologie moderne peut envisager la nature comme un chantier indéfiniment ouvert à son action, c’est parce que la théorie dont elle est l’expression dépend à son tour d’une conception technologique de la réalité même, qui fait du réel quelque chose d’essentiellement manipulable.

Les technosciences revisitées

Les considérations qui précèdent suggèrent que si on raisonne en termes de dépendance ou d’indépendance de la science par rapport à la technique, on n’épuise que partiellement la question des technosciences. Si le terme «technosciences» réfère à l’indistinction des sciences et des techniques, il est peu intéressant. Comme il a été relevé dès le début, il est possible et nécessaire de distinguer les unes et les autres, au moins conceptuellement. Il est peut-être plus pertinent d’en relever les usages. À première vue, le résultat n’est guère plus brillant. On a relevé qu’il est utilisé pour décrire (et déplorer) la contamination de la science par des applications utilitaires ; pour désigner une organisation inédite de la recherche, renversant la prééminence de la science sur la technique (Bensaude-Vincent, 2009). On serait donc tenté de conclure que le périmètre de ce terme est mal défini, qu’il a un contenu émotionnel et qu’il est souvent destiné à produire des effets de grandiloquence (Raynaud, 2015 et 2016). Ce diagnostic sévère, déjà esquissé par J.-P. Séris (Séris, 1994, 215-217) comporte certainement une part de vérité. On le voit bien lorsque J. Ellul, qui affirme également la dépendance et l’antériorité de la technique sur la science, parle de la « Science-Technique » et soutient qu’elle est devenue la productrice authentique de valeur économique, ruinant ainsi la notion de « travail-valeur » (Ellul, 2018, 98). On retrouve ici le thème de la technique autonome, mouvement capable de s’alimenter de lui-même et par lui-même et contre lequel on ne peut rien faire si l’on s’en tient aux catégories reçues. Mais on a aussi relevé des usages où le terme « technosciences » vise à démystifier l’illusion d’une science pure et régulée seulement par la quête et la validation du vrai (Bensaude Vincent, 2009). Cet usage est d’ailleurs assez conforme à celui voulu par G. Hottois qui a, sinon inventé, du moins mis en circulation le terme. Ce terme est, dans son esprit, étranger aux interrogations relatives à l’économie ou à la politique, mais à comprendre « eu égard à l’importance croissante des rapports opératoires, technophysiquement créateurs et destructeurs, et de leur devenir inanticipable par la spéculation ou la narration philosophique » (Hottois, 2004, 145). L’idée est que les sciences contemporaines sont en excès par rapport à l’ordre symbolique, de par leur dimension opératoire, technique et mathématique. En attirant l’attention sur l’incapacité de la philosophie classique des sciences (qu’il considère comme linguistique, centrée sur les critères de recevabilité et d’organisation des énoncés) à prendre en compte cette spécificité de la situation contemporaine, G. Hottois fraye la voie à ceux qui veulent décrire la science telle qu’elle se fait et non telle qu’elle se dit : science en action (Latour, 2005) ; matérialité foisonnante et paradoxale des objets techniques (Bensaud-Vincent, Loeve, 2018). Pour certains (Nordmann, 2006 ; Loeve, 2010), il existe même des objets que l’on peut qualifier de technoscientifiques. L’idée est la suivante : il n’est pas question de nier que dans la science classique des phénomènes sont produits pas l’intermédiaire de processus techniques (pompe à vide, par exemple, ou dans un autre domaine, expériences du foie lavé). Mais ceux qui produisent ces phénomènes le font en distinguant la représentation et l’intervention : les théories et les représentations mettent le monde à distance et le phénomène techniquement produit est saisi comme la réalisation d’une loi de la nature. Les objets technoscientifiques (biobrique, calculateur quantique, organisme génétiquement modifié) abolissent cette distance : ils constituent une réalité qui se suffit à elle-même ; ils sont dotés de propriétés qui relèvent de l’ordre naturel, mais dont on ne sait pas à l’avance tout ce dont elles le rendront capable ; on peut les contrôler sans pour autant comprendre complètement leur construction. Les objets technoscientifiques comportent une part irréductible d’opacité, ce qui ferait d’eux des boîtes noires au second degré. Bien que ceux qui admettent l’existence d’objets technoscientifiques soulignent le caractère inédit de leur mode d’existence, affirmant même qu’ils brouillent la distinction immémoriale entre nature et artifice, on peut aussi se demander s’ils ne sont pas, tout simplement, baconiens au sens où ils suggèrent que tout ce que peut faire l’être humain c’est d’approcher ou d’éloigner les uns des autres les corps naturels (Cf. supra, 2 c).

iii. Les objets techniques

Introduction

Les paragraphes qui précèdent suggèrent que l’orientation donnée à la philosophie de la technique après le « tournant empirique » n’est pas seulement caractérisée par une plus grande attention portée à la technique dans ce qu’elle a de matériel et de concret. On partira d’une suggestion de X. Guchet (Guchet, 2011) pour préciser les choses. À certains égards, la philosophie « classique » de la technique a fait pour la constitution de son objet ce que le marketing a fait à partir des années 20 : il n’a plus cherché à vanter les mérites de l’objet acheté (comme dans la réclame d’antan), mais à construire un lien avec le sujet destinataire du produit commercialisé et, à la limite, à élaborer une narration dont il serait le héros. Toutes choses égales par ailleurs, on pourrait risquer l’hypothèse selon laquelle la philosophie « classique » de la technique a mis l’accent sur ceux qui sont au contact avec les objets, les réseaux ou les systèmes techniques parce qu’ils en sont les utilisateurs (ou les victimes, ou les complices). Le « tournant empirique » se caractériserait alors par le fait que la perspective se déplace depuis ceux qui sont les utilisateurs des techniques vers ceux qui les conçoivent, les réalisent, les mettent en œuvre et les contrôlent. Selon cette interprétation D. Ihde, pourtant réputé être un représentant et un artisan du « tournant empirique » et à qui on doit de belles analyses sur la façon dont l’objet technique façonne la rapport au monde de ceux qui les mettent en œuvre, serait encore rattaché à la philosophie « classique » de la technique lorsqu’il préface un recueil de ses essais en indiquant qu’un des thèmes fédérateurs du recueil sera : « les techniques (Technics) ou ce qu’on pourrait appeler l’expérience humaine de la technique (Technology) » (Ihde, 1983, VII). Dans ce qu’il a de plus significatif, le tournant empirique constitue probablement un déplacement depuis l’expérience de la technique jusqu’à la constitution de l’objet technique. Bien entendu, une telle entreprise n’est pas absolument inédite : il existe une tradition bien établie qui prend la machine pour objet de réflexion. On a pu ainsi parler d’une « philosophie des machines » (Bontems, 2009). On pense, par exemple, à des analyses classiques comme celles de F. Reuleaux (Reuleaux, 1877) et de J. Lafitte (Lafitte, 1972). Par rapport à ces entreprises pionnières, il n’est pas question ici des machines en particulier, mais bien de l’objet technique en général.

Du mode d’existence des objets techniques

On peut choisir de présenter les importantes analyses de G. Simondon en se cantonnant à son interprétation du mode d’existence des objets techniques (Cérézuelle 1979 ; Goffi, 1988) ; on peut aussi les insérer dans un projet simondonien beaucoup plus ambitieux, qui englobe l’ontologie, la philosophie des sciences, l’invention, etc. (Barthélémy, 2005 ; 2008). Ici seront mentionnées très rapidement les grandes options philosophiques du projet. La pensée de Simondon est une pensée de l’individu. Sa thèse de doctorat porte, en effet, sur l’individu et sa genèse physico-biologique et sur l’individuation psychique et collective. Mais un simple coup d’œil sur le vocabulaire employé (genèse, individuation) montre que l’individu n’est pas un donné, mais un processus en voie d’effectuation. Toutefois, il n’existe pas de principe d’individuation qui préexisterait à l’individuation comme processus et la mettrait en œuvre. Dans une pensée où la relation est antérieure à la substance, la genèse se pense comme déphasage de l’être en individu et milieu (Simondon, 2017, 315) et non comme actualisation d’une forme préexistant au devenir.

Cette interprétation de la genèse vaut également pour la genèse de l’objet technique. Simondon commence par faire place nette de toute approche qui chercherait à penser l’objet technique à partir de ses fonctions ou de ses usages ou, plus généralement, de l’expérience que pourrait en avoir un utilisateur ; c’est, bien au contraire, sa genèse qui permet de penser l’objet technique. L’objet technique étant ce dont il y a genèse, celle-ci va dans le sens d’une concrétisation sans cesse accrue. Devenir concret, c’est « réaliser une convergence de fonctions » dans une unité structurale (Simondon, 1969, 22). Dans l’objet technique abstrait, les éléments fonctionnent l’un après l’autre et parfois même l’un contre l’autre. Un objet technique abstrait n’est en réalité qu’une pluralité de principes et de notions scientifiques entrant en action les uns à côté des autres. Un objet technique concret, système de cause et d’effets, capable d’autoconservation et d’autorégulation, tend à s’assimiler à un objet naturel et, en particulier, à un être vivant. Un objet technique n’existe pas pour lui-même, il existe toujours par rapport à un milieu. On pourrait même dire qu’il est la jonction entre un milieu artificiel et un milieu naturel. On distinguera donc :

– les objets techniques les plus abstraits et le plus inachevés, où les deux milieux agissent l’un contre l’autre. On peut penser aux premières machines à vapeur de Newcomen où l’eau injectée dans le cylindre provoque la condensation de la vapeur qu’il contient, mais aussi le refroidissement des parois du cylindre (d’où un rendement très médiocre).

– les objets techniques isolés du milieu naturel : ici, les deux milieux agissent l’un sans l’autre. On peut penser aux ailettes des premiers moteurs de motocyclettes, qui jouent seulement un rôle de refroidissement (alors qu’elles peuvent aussi renforcer la culasse contre une déformation due à la pression des gaz, comme dans les modèles plus récents).

– les objets techniques qui fonctionnent par cette jonction même. C’est l’exemple devenu fameux de la turbine Guimbal. Dans les usines marémotrices où elles sont installées, elles réalisent un système de relations synergiques entre : la conduite forcée où circule l’eau des marées, la turbine proprement dite, et la génératrice installée dans un carter d’huile sous pression. Cet objet technique est particulièrement représentatif de l’individuation achevée. Il doit créer lui-même son milieu associé pour que son fonctionnement soit possible. L’objet technique complètement individualisé est condition de lui-même par la constitution de son milieu associé.

C’est ce qui permet à l’objet de s’intégrer dans la culture. L’invention d’un tel ensemble individualisé suppose que les éléments qui le constituent soient organisés « en fonction de la causalité qui existera lorsque l’objet sera constitué » (Simondon, 1969, 57). Il s’agit donc d’un acte authentique de pensée et d’imagination créatrice. La technicité de l’objet technique, c’est-à-dire son degré de concrétisation, n’est pas une puissance hostile qui viendrait se dresser contre les intentions humaines. Bien au contraire, elle est l’effet d’une fonction spécifiquement humaine, la faculté de conditionner le présent par l’avenir, la faculté de penser et d’imaginer non pas seulement d’une façon mécanique, c’est-à-dire la faculté d’inventer. C’est dans et par cette opération que le sens de la technique se donne à voir (Simondon, 2005).

Philosophie de l’artefact, philosophie de l’ingénierie

G. Simondon, on vient de le voir , se montre plus que réservé quant à une analyse de l’objet technique qui excéderait, d’entrée de jeu, la compréhension de la structure de celui-ci, c’est-à-dire en fait de sa genèse. Une pensée de l’objet technique doit être formulée en termes d’individu et de milieu associé et s’adosser sur une ontologie de la relation et, peut-être, sur une métaphysique du processus. D’un certain point de vue, l’entreprise dont il va être question maintenant consiste en une transgression de cet interdit simondonien, un point très bien vu par X. Guchet (Guchet, 2017). Les auteurs visés par X. Guchet ont tenté d’élaborer ce qu’il est convenu d’appeler une philosophie de l’artefact. Ce qui caractérise principalement cette tentative, c’est qu’elle mobilise la notion de fonction. Voyons comment.

Il est pertinent de poser trois questions au moins à propos d’un artefact technique (un pont, un stylo à bille, etc.) :

– Question 1 : à quoi sert-il ? (What is it for ?).

– Question 2 : en quoi consiste-t-il ? (What does it consist of ?)

– Question 3 : comment doit-il être utilisé ? (How must it be used ?)

Ces trois questions concernent respectivement trois aspects de l’artefact :

– Sa fonction technique.

– Sa composition ou sa constitution physique.

– Les instructions qui l’accompagnent et qui régulent son utilisation, c’est-à-dire, dans les cas typiques, qui permettent à la fonction retenue de s’effectuer correctement (Vermaas et al., 2011).

On peut d’ores et déjà noter qu’il s’agit d’une conception anthropocentrée de l’artefact ; ainsi, un coquillage (dont se servirait, comme d’une coupelle, pour s’abreuver un, voyageur altéré) aurait bien une fonction et serait bien accompagné d’un plan élémentaire pour son usage. Mais, n’étant ni conçu ni réalisé par l’être humain, il ne serait pas un artefact. Des explorateurs venus d’un autre continent un siècle après son utilisation ne pourraient pas l’identifier comme un artefact, parce que rien ne le distinguerait d’un autre coquillage qui n’aurait pas été utilisé pour boire. Cet argument, notons-le, pourrait être mobilisé dans le débat relatif à l’existence de techniques animales. Mais il s’agit d’un autre problème.

Pour comprendre la nature de l’artefact, on peut le comparer à un objet purement social (un billet de banque, une pièce d’identité, un timbre postal ou fiscal, etc.). Les objets purement sociaux remplissent la fonction qui est la leur non parce qu’ils ont telles et telles propriétés physiques, mais parce qu’ils sont collectivement acceptés ou reconnus. Un passeport périmé depuis dix jours a exactement les mêmes propriétés physiques qu’il y a dix jours. Cependant, la Police de l’Air et des Frontières refusera de l’admettre comme un document valide et il ne remplira plus la fonction qui est la sienne, à savoir de permettre à son détenteur de voyager à l’étranger. Au contraire, si un artefact technique remplit sa fonction, c’est sur la base de ses propriétés physiques et de son comportement physique (la question : « En quoi consiste-t-il ? » est toujours pertinente dans son cas). Toutefois, l’artefact technique ne se réduit pas à ses propriétés et à son comportement physique. On ne rend pas compréhensible la fonction d’un artefact en décrivant ses propriétés physiques effectives : un ordinateur en panne n’en est pas moins un ordinateur. Le comportement physique effectif d’un artefact n’est donc pas une condition nécessaire pour l’attribution de la fonction qui est la sienne. Mais ce n’est pas non plus une condition suffisante : avec un peu de poigne et de dextérité, on peut se servir de la tranche d’une pièce de monnaie pour dévisser une vis récalcitrante. Cela ne fait pas d’une pièce de monnaie un tournevis (Kroes, 2012).

L’artefact technique est donc un hybride, sa nature est double : relevant de l’intention il appartient au monde de la téléologie, comme les objets sociaux ; susceptible de se comporter d’une façon déterminée sur la base des propriétés physiques qui sont les siennes, il appartient également au monde physique. C’est la notion de conception (design) qui va permettre de comprendre ce qu’est cet hybride. De façon très schématique, la conception d’un artefact technique commence par une description de l’objet à concevoir en termes fonctionnels et s’achève par une description de cet objet en termes structurels ou physiques. La conception technique est donc définie de la sorte : c’est une activité par laquelle, pour une fonction donnée on établit la description d’un artefact doté d’une structure physique déterminée, artefact tel qu’il peut remplir la fonction d’une manière efficace et efficiente. On notera que la fonction n’est pas ici définie de façon naïvement utilitaire ; pour mesurer le degré de sophistication atteint par l’analyse, on peut se référer à Houkes & Vermaas (2010). Deux interprétations de la notion de fonction sont distinguées : on peut estimer qu’un artefact remplit sa fonction lorsqu’il atteint le but initialement recherché ; on peut également estimer qu’un artefact remplit sa fonction lorsqu’il est doté des capacités physiques et structurelles qui lui permettent d’atteindre le but initialement recherché ; c’est ce sens qui est retenu par les « philosophes de l’artefact ». Les fonctions sont alors conçues comme les propriétés et capacités physiques désirées d’un artefact, ce qui veut dire que la conception comporte un moment au cours duquel des objectifs ou des buts sont transformés en fonctions, au sens qui vient d’être défini. Il est évident que la conception de l’artefact se fait en contexte : l’état de l’art opère comme une contrainte sur les descriptions possibles de l’artefact et il en est de même pour toutes sortes d’autres facteurs (coûts de production, réglementation, intervention des pouvoirs publics, état de l’opinion, etc.). Là encore, la différence avec les analyses simondoniennes est flagrante : chez ce dernier, le milieu associé de l’objet technique individualisé est d’abord son milieu. Ce n’est pas le cas dans le cadre d’une philosophie de l’artefact : on y a affaire à un environnement d’emblée, social, économique, politique, etc., et c’est dans ce milieu impur que l’artefact va être conçu et réalisé. Mais aux yeux des auteurs qui s’inscrivent dans ce mouvement, il s’agit plutôt d’un avantage : car ceux qui conçoivent l’artefact, les ingénieurs, ne perdent jamais de vue que ces artefacts doivent remplir des fonctions pour des utilisateurs (des clients par exemple). Par conséquent ce qui au moment de la conception proprement dite est une analyse de fonctions devient ensuite un ensemble d’instructions pour l’utilisation, dont le mode d’emploi est la forme la plus familière.

Le terme d’ « ingénieur » qui vient d’être employé indique bien la différence entre l’approche en termes d’objet technique et l’approche en termes d’artefacts. Les philosophes de l’artefact accomplissent jusqu’au bout le programme suggéré par C. Mitcham (Mitcham, 1994) : ils constituent une philosophie de l’ingénierie et de l’ingénieur ; les philosophes de l’objet technique ont une approche moins empirique, plus spéculative et s’inscrivent dans le cadre d’une philosophie de la nature ou du vivant.

Conclusion

On vient d’essayer de montrer que ce qui caractérise le « tournant empirique » en philosophie de la technique est un renversement de perspective. Le point de départ de la réflexion n’est plus l’expérience, souvent malheureuse, des effets de la technique sur le sujet et sur son monde. Au contraire, une attention accrue est portée à la constitution et à la genèse de l’objet technique. Les philosophes du « tournant empirique » considèrent qu’une évaluation prématurée de la technique, conçue comme un phénomène global, peut exprimer en réalité une posture technophobe, même si ceux qui procèdent à une telle évaluation s’en défendent. De fait, le débat autour de la technique s’est trop souvent limité à un affrontement entre technophobes et technophiles plus ou moins radicaux. Des exemples extrêmes et presque caricaturaux de chacune de ces postures sont donnés, respectivement, par les anarcho-primitivistes et les transhumanistes.

Dans ces conditions, il est intéressant et significatif de relever qu’il n’existe pas d’éthique de la technique en tant que telle. Il existe sans doute de multiples éthiques régionales que l’on peut considérer comme autant d’éthiques en milieu technologique et qui sont communément envisagées comme autant de branches de l’éthique appliquée : bioéthique et, jusqu’à un certain point, éthique médicale ; éthique de l’ingénieur ; éthique de la recherche ; éthique des affaires ; éthique de l’environnement ; éthique du changement climatique, etc.

Une tâche importante de la philosophie de la technique à venir sera de dépasser l’affrontement schématique entre technophobes et technophiles, en prenant mieux en compte les ressources historiques et les avancées conceptuelles qui viennent d’être rappelées.

Bibliographie

– Achterhuis H. (dir.),Van stoommachine tot cyborg – Denken over techniek in de nieuwe wereld, Amsterdam, Ambo, 1997. Traduction : Achterhuis H. (dir.), American Philosophy of Technology. The Empirical Turn, Bloomington (IN), Indiana University Press, 2001.

– Achterhuis H. (dir.), De maat van de techniek. Zes filosofen over techniek: Günther Anders, Jacques Ellul, Arnold Gehlen, Martin Heidegger, Hans Jonas en Lewis Mumford, Baarn, Ambo, 1992.

– Alquié F., La Philosophie des sciences, , Paris, La Table Ronde, 2002 [1934].

– Anders G., L’Obsolescence de l’homme. Sur l’âme à l’époque de la deuxième révolution industrielle, Paris, Éditions de l’Encyclopédie des nuisances. Éditions Ivrea, 2002.

– Anders G., L’Obsolescence de l’homme. Sur la destruction de la vie à l’époque de la troisième révolution industrielle, Paris, Éditions Fario, 2011.

– Saint Augustin (Augustin d’Hippone), La cité de Dieu. Livres XIX-XXII, Paris, Desclée de Brouwer, 1960.

– Bachelard G., L’Activité rationaliste de la physique contemporaine, Paris, PUF, 1951.

– Bacon F., Valerius Terminus (ou de l’interprétation de la nature), Paris, Méridiens Klincksieck, 1986.

– Bacon F., De dignitate et augmentis scientiarum libri IX, Nuremberg, Riegel Und Wießner, 1829, https://archive.org/details/franciscibaconi01mayegoog

– Bacon F., La Sagesse des anciens, Paris, Vrin, 1997.

– Barthélémy J.-H., Penser la connaissance et la technique après Simondon, Paris, L’Harmattan, 2005.

– Barthélémy J.-H., Simondon ou l’encyclopédisme génétique, Paris, PUF, 2008.

– Basalla G., The Evolution of Technology, Cambridge, Cambridge University Press, 1988.

– Bensaude-Vincent B., Les Vertiges de la technoscience. Façonner le monde atome par atome, Paris, Éditions la Découverte, 2009.

– Bensaude-Vincent B. & Love S., « Toward a Philosophy of Technosciences » in French Philosophy of Technology. Classical readings and Contemporary Approaches, Cham, Springer, 2018, pp. 169-186. Sacha Loeve, Xavier Guchet et Bernadette Bensaude Vincent, eds

– Bergson H., « L’Évolution créatrice » in Œuvres, Paris, PUF, 1970.

– Berthelot M., Science et morale, Paris, Calmann Lévy, 1897.

– Bontems V., « Actualité d’une philosophie des machines. Gilbert Simondon, les hadrons et les nanotechnologies », Revue de Synthèse, Tome 130, 6e série, N° 1, 2009, 37-66.

– Brey, P., « Philosophy of Technology after the Empirical Turn », Techné: Research in Philosophy and Technology, 14(1), 36-48, 2010. https://doi.org/10.5840/techne20101416

– Bunge M., « Technology as Applied Science », Technology and Culture 7(3), 1966, 329-347.

– Bunge M., Épistémologie, Paris, Maloine, 1983.

– Bunge M., Treatise on Basic Philosophy, Vol 7, Part II, Dordrecht, D. Reidel, 1985.

– Canguilhem G., « Médecine et organisme » in La connaissance de la vie, Paris Hachette, 1952, 124-159.

– Cérézuelle D., « Fear and Insight in French Philosophy of Technology » in Durbin P.T. (ed.), Research and Philosophy and Technology, Vol. II, Greenwhich (Conn.) 1979, pp. 53-75.

– Channell, A History of Technoscience. Erasing the Boundaries between Science and Technology, Londres et New York, Routledge, 2017.

– Clark A., Natural-Born Cyborgs. Mind, Technologies and the Future of Human Intelligence, Oxford, O.U.P., 2004.

– Comte A., « Plans des travaux scientifiques nécessaires pour réorganiser la société » in Écrits de jeunesse 1816-1928, Paris-La Haye, Mouton, 1970.

– Comte A., Cours de philosophie positive. Leçons 1 à 45, Paris, Hermann, 1998.

– Descartes R., Discours de la méthode, Texte et commentaire par É. Gilson de l’Académie Française, Paris, Vrin, 1987.

– Descartes R., « Les Principes de la Philosophie » in Œuvres philosophiques, Tome III, Paris Garnier, 1973.

– Diderot D., « Essai sur les Études en Russie » in Œuvres complètes de Diderot, Tome Troisième (éd. Assézat), Paris, Garnier, 1875.

– Diderot D., « Bas » in Encyclopédie ou dictionnaire raisonné des sciences, des art et des métiers (Articles choisis). Chronologie, introduction et bibliographie par Alain Pons, Paris GF FLAMMARION, 1986.

– Diderot D., Œuvres, Tome I, Philosophie, Robert Laffont (Bouquins), Paris, 1994.

– Diderot D., « Apologie de l’Abbé Galiani » in Œuvres politiques, Paris, Classiques Garnier, 2018.

– Disney Studios, Four Methods of Flush Riveting, 1942 https://www.youtube.com/watch?v=WC5BAp2xvDc

– Ellul J., La Technique ou l’enjeu du siècle, Paris, Economica, 1990 [1954].

– Ellul J., Propagandes, Paris, A. Colin, 1962.

– Ellul J., Le Système technicien, Paris, Calmann-Lévy, 1977.

– Ellul J., Théologie et technique. Pour une éthique de la non-puissance, Textes édités par Y. Ellul et F. Rognon, Genève, Labor et Fides, 2014.

– Ellul J., « Les Possibilités techniques et le travail » in Pour qui, pour quoi travaillons-nous? Paris, La table ronde, 2018.

– Elster J., Explaining Technical Change, Cambridge, Cambridge University Press, 1983.

– Ficin M., Théologie platonicienne de l’immortalité des âmes II, Paris, Les Belles Lettres (Les Classiques de l’humanisme), 1964.

– Gehlen A., Der Mensch, Frankfurt am Main, Athenäum Verlag, 1966.

– Guillerme J., « Les Liens du sens dans l’histoire de la technologie », in L’Art du projet. Histoire, technique, architecture, Bruxelles, Mardaga, 2008, 17-22.

– Guillerme J. & Sebestik J., « Les Commencements de la technologie », Thalès, Vol. 12 (1966), 1-72.

– Goffi J.-Y., La philosophie de la technique, Paris, PUF (QSJ ? 2405), 1988.

– Gonseth F., Le référentiel univers obligé de médiatisation, Lausanne, L’Âge d’homme, 1975.

– Guchet X., Les sens de l’évolution technique, Paris, L.Scheer, 2005.

– Guchet X., « Les technosciences : essai de définition », Philonsorbonne, 5: 2011, 83-95.

https://journals.openedition.org/philonsorbonne/348

– Guchet, Xavier. « Objet versus artefact. Pour une philosophie des techniques orientée-objet. »,

4 avril 2017, Cahiers COSTECH numéro 1

http://www.costech.utc.fr/CahiersCOSTECH/spip.php?article17

– Guchet X., « Toward an Object-Oriented Philosophy of Technology » in French Philosophy of Technology. Classical readings and Contemporary Approaches, Cham, Springer, 2018, 237-256. Sacha Loeve, Xavier Guchet et Bernadette Bensaude Vincent, eds.

– Hottois G., Philosophie des sciences, philosophie des techniques, Paris, Odile Jacob, 2004.

– Houkes W. & Vermaas P., Technical Functions. On the Use and Design of Artefacts, Springer, Dordrecht Heidelberg New York London, 2010.

– Hughes de Saint-Victor, De Sacramentis Christianae Fidei (Liber I, Pars II, Caput I ; Migne Patrologie Latine, 176, 205).

– Idhe D., Existential Technics, Albany, State University of New York Press, 1983.

– Jonas H., « The Scientific and Technological Revolution » in Philosophical Essays. From Ancient Creed to Technological Man, Chicago & Londres, The University of Chicago Press, 1974, 45-80.

– Jonas H., Le Principe responsabilité. Une éthique pour la civilisation technologique, Paris, Éditions du Cerf, 1990 [1979].

– Kapp E., Principes d’une philosophie de la technique, tr. fr. et présentation par G. Chamayou, Paris, Vrin, 2007 ; Grundlinien einer Philosophie der Technik, Düsseldorf, Stern-Verlag Janssen & Co, 1978 (réimpression de la première édition de 1877).

– Koyré A., « Perspectives sur l’histoire des sciences » in Études d’histoire de la pensée scientifique, Paris, Gallimard, 1985 [1966], 390-399.

– Kroes P., Technical Artefacts: Creations of Mind and Matters. A Philosophy of Engineering Design, Dordrecht Heidelberg New York London, Springer, 2012.

– Lafitte J., Réflexions sur la science des machines, Paris, Vrin 1972.

– Latour B., La Science en action, Paris, La Découverte, 2005 (1989).

– Lebeau A., L’Engrenage de la technique. Essai sur une menace planétaire, Paris, Gallimard, 2005.

– Lebeau A., L’Enfermement planétaire, Paris, Gallimard, 2008.

– Lecourt D., Humain Posthumain, Paris, PUF, 2003.

– Loeve S., « Pour les technosciences », Implications philosophiques, 2 décembre 2016, http://www.implications-philosophiques.org/actualite/une/pour-les-technosciences/

– McCauley R. N., Why Religion is Natural and Science is not, Oxford & New York, Oxford University Press, 2011.

– Marx K., Manuscrits de 1844, Paris, Éditions sociales, 1972.

– Marx K., Misère de la philosophie, Paris, Éditions sociales, 1977.

– Marx K., Manuscrits de 1857-1858 («Grundrisse»), Tome II, Paris, Éditions sociales, 1980.

– Mitcham C., Thinking through Technology. The Path between Engineering and Philosophy, Chicago et Londres, The University of Chicago Press, 1994.

– Nancy J.-L., Une Pensée finie, Paris, Galilée, 1991.

– Nordmann A., « Collapse of Distance: Epistemic Strategies of Science and Technoscience», Danish Yearbook of Philosophy, 41:2006, 7-34.

– Oppenheimer J. R., « Physics in the Contemporary World » in Bulletin of the Atomic Scientists, 1948, 4:3, 65-68 puis 85-86.

– Pitt J. C., Thinking about Technology. Foundations of the Philosophy of Technology, Seven Bridges Press, New York-London, 2000.

– Rapp F., Analytical Philosophy of Technology, Dordrecht, D. Reidel, 1981.

– Ravetz J. R., Scientific Knowledge and its Social Problems, Oxford, Clarendon Press, 1971.

– Raynaud D., (4 avril 2015), Note historique sur le mot « technoscience »,

https://zilsel.hypotheses.org/1875

– Raynaud D., (25 avril 2015),

Note critique sur le mot « technoscience »

https://zilsel.hypotheses.org/1938

– Raynaud D., Qu’est-ce que la technologie ?, Paris, Éditions matériologiques, 2016.

– Reuleaux F., Theoretische Kinematik. Grunzüge einer Theorie des Maschinenwesens, Braunschw eig, Friedrich Vieweg, 1875.

https://reader.digitale-sammlungen.de/de/fs1/object/display/bsb11318329_00003.html

(tr. fr : Cinématique, Paris, Librairie Savy, 1877).

– Rosenberg N., Inside the Black Box: Technology and Economics, Cambridge-New York, Cambridge University Press, 1982

Rosenberg N., Exploring the Black Box: Technology, Economics, and History, Cambridge-

New York, Cambridge University Press, 1994.

– Schummer J., « Aristotle on Nature and Technology », Philosophia Naturalis, 38(January 2001), 105-120.

– Séris J.-P., La Technique, Paris, PUF, 1994.

– Simondon G., Du Mode d’existence des objets techniques, Paris, Aubier, 1969.

– Simondon G., L’Invention dans les techniques. Cours et conférences (Édition établie et présentée par Jean-Yves Chateau), Paris, Seuil (traces écrites), 2005.

– Simondon G., L’Individuation à la lumière des notions de forme et d’information, Grenoble, Millon (Krisis), 2017.

– Stiegler B., La Technique et le temps, Paris, Fayard, 2018.

– Tertullien, La Toilette des femmes, Paris, Cerf, 1971.

-van der Pot J.H.J., Encyclopedia of Technical Progress. A Systematic Overview of Theories and Opinions (T.2), Delft, Eburon, 2004.

– Vermaas P., Kroes P., van de Poel I., Franssen M., Houkes W., A Philosophy of Technology. From Technical Artefacts to Sociotechnical Systems, Morgan & Claypool, San Rafael (CA), 2011.

– Vincenti W. G., What Engineers Know and How they Know It: Analytical Studies from Aeronautical History, Baltimore and London, John Hopkins University Press, 1993.

– von Gottl-Ottlilienfeld F., Grundriss der Sozialökonomik II. Abt., Die natürlichen und technischen Beziehungen der Wirtschaft II. Teil, Wirtschaft und Technik Zweite, neubearb. Aufl. / Tübingen : J. C. B. Mohr , 1923

– Weber M., Économie et société, Paris, Plon, 1971.

-Whitney E., Paradise Restored. The Mechanical Arts from Antiquity through the Thirteenth Century, Transactions of the American Philosophical Society, Vol. 80, Part I (1990)

Winner L., Autonomous Technology. Technics-out-of-Control as a Theme in Political Thought, Cambridge (MA) & Londres (Angleterre), The MIT Press, 1977.

Jean-Yves Goffi
Université Grenoble Alpes
jean-yves.goffi@wanadoo.fr

Comment citer cet article?
Goffi, J.Y (2020), « Technique », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/technique-a/

By admin

Plaisir (A)

Publié en janvier 2020

Résumé

Quand nous lisons un livre passionnant, quand nous passons une bonne soirée avec des amis ou quand nous dégustons des mets raffinés, nous nous trouvons parfois dans un état de plaisir. La notion de plaisir traverse de nombreux champs de recherche en philosophie. Une question centrale reste sans doute celle de sa nature : qu’est-ce donc que le plaisir ? Pour y répondre, une comparaison avec d’autres entités mentales plus familières se révèle fructueuse, et permet de mettre à jour ses spécificités propres. La définition du plaisir doit rendre compte de sa diversité, puisque le plaisir semble toujours se présenter sous des formes multiples : qu’y a-t-il de commun parmi toutes les instances de plaisir ? Par ailleurs, le plaisir semble souvent avoir un objet, ce qui soulève une série de questions : Quel type de chose peut être un objet du plaisir ? Dans quelle mesure l’objet du plaisir constitue-t-il le plaisir lui-même ? Plus généralement, quelle est la nature du lien entre le plaisir et son objet ? Ces questions seront abordées dans la Section 1.

Au-delà de ces questions définitionnelles, des questions plus spécifiques se posent concernant la manière dont on peut rendre compte du plaisir dans une optique naturaliste : dans quelle mesure le plaisir est-il une entité qui s’intègre dans une image unifiée du monde dans lequel on vit ? Puisqu’il est généralement entendu que la science manifeste cette ambition unificatrice, comment peut-on rendre compte du plaisir de manière scientifique ? La Section 2 est dédiée à ces questions.

Une des principales difficultés rencontrées est que le plaisir ne semble pas neutre. Il paraît plutôt avoir une valeur affective positive, dans un sens qui reste bien sûr à éclaircir. Cette valeur se manifeste d’abord dans le fait que le plaisir est susceptible d’orienter nos actions et réactions : nous sommes typiquement attirés par le plaisir, de la même manière que nous cherchons à éviter la souffrance. C’est l’aspect motivationnel du plaisir. La valeur affective du plaisir semble cependant aller au-delà de son rôle motivationnel, pour donner lieu à des caractéristiques normatives. Non seulement le plaisir motive certaines actions, mais il les justifierait aussi, en fournissant des raisons d’agir qui semblent valides. Plus encore, le plaisir semble bon pour nous, ou nous faire du bien. Il semble donc avoir une valeur prudentielle, en ce qu’il contribuerait à rendre notre vie meilleure. Cela pourrait alors justifier son intégration dans le domaine de la morale. Ces considérations seront l’objet de la Section 3.

Avant de commencer à explorer les facettes du plaisir, quelques précisions terminologiques s’imposent. Si, en français, le plaisir, attribué à une personne, peut faire référence à ce qui plairait à cette personne de faire (« à votre bon plaisir »), c’est le plaisir comme état affectif d’une personne qui va nous intéresser ici. Il faudra donc aussi prendre garde à ne pas confondre ce dernier avec les plaisirs, qui désignent plutôt un ensemble d’activités, celles dans lesquelles on prend plaisir, c’est-à-dire celles qui causent, ou qui donnent typiquement lieu à des états affectifs de plaisir chez la personne qui se livre à ces activités. Cette acception semble donc faire référence aux objets du plaisir.

Dans le reste de cet article, nous prendrons pour acquis que le plaisir fait référence à l’état de plaisir, c’est-à-dire le plaisir qu’on prend, et non à ce qui donne du plaisir. Cependant, comme déjà mentionné, la question du rapport entre le plaisir et ses objets rendra indispensable une analyse des objets du plaisir.


Table des matières

1 Qu’est-ce que le plaisir ?

a. La diversité du plaisir
b. Le plaisir, disposition ou épisode ?
c. Le plaisir comme sensation
d. Le plaisir comme attitude

2 Le plaisir dans la nature

a. Les approches réductionnistes du plaisir
b. Le plaisir dans le cerveau
c. Le rôle du plaisir

3 L’hédonisme

a. Le plaisir et l’action : l’hédonisme psychologique
b. Tous les plaisirs sont-ils bons pour le sujet ?
c. Le plaisir est-il la seule chose bonne pour le sujet ?

Bibliographie


1 Qu’est-ce que le plaisir ?

a. La diversité du plaisir

Le plaisir semble multiple. Cette multiplicité se vérifie d’abord par un simple aperçu linguistique. Le champ lexical du plaisir est en effet très riche, et des expressions aussi diverses que l’amusement, la joie, la béatitude, la sérénité, la gaieté, la satisfaction, le contentement, la jouissance, semblent toutes référer à des états qu’on qualifierait de plaisants.

Cette diversité linguistique n’est pas qu’apparente, puisqu’elle correspond bien à une diversité d’états du sujet. Considérez par exemple les états de plaisir associés à une caresse, l’écoute d’une musique agréable, un orgasme, la dégustation d’un gâteau, l’épanchement de la soif par de l’eau fraîche, la lecture d’un poème, la contemplation d’une idée philosophique, une activité de méditation, la nouvelle que notre équipe de football favorite a gagné ou qu’une longue guerre dans un pays étranger s’est terminée, et la pratique d’un jeu vidéo passionnant ou d’un sport.

Si l’on cherche ce qui unit cette multiplicité d’états, on trouve d’abord que l’état de plaisir semble toujours associé à quelque chose d’autre, qu’on pourrait considérer comme constituant son objet. Laissons de côté pour l’instant la question du statut métaphysique de cet objet : peut-être fait-il du plaisir un état nécessairement intentionnel, dont il serait alors le contenu, mais il est aussi envisageable qu’il ne soit associé au plaisir que de manière contingente, par exemple en étant sa cause ou sa source. Quoi qu’il en soit, le type d’objet de l’état de plaisir semble varier selon les cas (la discussion la plus approfondie des objets du plaisir reste sans doute celle de Duncker, 1941) : dans la dégustation d’un gâteau, c’est la sensation associée à l’ingestion du gâteau qui me procure d’abord du plaisir, tout comme c’est la sensation douce sur ma peau qui paraît être l’objet du plaisir que je prends dans une caresse. L’activité donnant lieu à cette sensation semble secondaire. À l’inverse, ce n’est pas la sensation associée à la lecture d’un poème qui est l’objet de mon plaisir, mais plutôt le contenu de ce que je lis, ou bien l’activité de lecture elle-même. Plus précisément, les sensations ne jouent pas de rôle notable dans l’occurrence de ces plaisirs, si ce n’est par l’information qu’elles transmettent (c’est bien par le biais des sensations visuelles qu’un lecteur peut effectivement lire un livre). Plutôt qu’une sensation, ces plaisirs semblent avoir pour objet une activité (dans le cas du sport, de la lecture, de la philosophie ou des jeux vidéo) ou un état de fait (dans le cas du plaisir à l’annonce d’une bonne nouvelle), qui semblent être appréciés par le sujet. Dans ces derniers cas, où le sujet semble se réjouir d’un état de fait, on parle parfois de plaisirs propositionnels (Feldman, 1988, 2004). Ces derniers semblent plus intellectuels dans la mesure où ils requièrent la possession de certaines capacités cognitives relativement élaborées : prendre plaisir dans la victoire de mon pays au concours de l’Eurovision implique que je croie que mon pays a gagné le concours, par exemple. De même, le plaisir pris à jouer à un jeu vidéo, ou, a fortiori, à philosopher, nécessitent un vaste arrière-plan de connaissances : on ne prend pas plaisir à jouer à un jeu vidéo si on ne sait pas y jouer, et l’activité de philosopher requiert certainement la maîtrise de nombreux concepts.

Cette distinction entre plaisirs sensoriels et plaisirs intellectuels semble aussi pertinente d’un point de vue normatif, puisque beaucoup de philosophes ont vu dans les plaisirs sensoriels des plaisirs de moindre valeur (notamment Platon, La République, 580d-588a, Mill, 2010 [1861]).

La question de l’éventualité d’un plaisir sans objet reste ouverte. Peut-être le plaisir de la bonne humeur, ou celui associé à un état de sérénité (qui semble plutôt aller de pair avec un vide intérieur) en seraient des exemples.

Le plaisir qu’on prend dans la contemplation esthétique semble spécifique à bien des égards. On peut être tenté de le réduire à un simple plaisir sensoriel, dans la mesure où les sensations y jouent un rôle bien plus important que dans les plaisirs intellectuels vus précédemment. Pour autant, dans le cas de l’art, les sensations induites semblent toujours avoir une signification qui les dépasse, de sorte que le plaisir esthétique n’y est pas réductible au plaisir sensoriel. Il faudrait alors reconnaître une spécificité du plaisir esthétique. Ainsi, selon Kant, le plaisir associé au jugement esthétique est différent des plaisirs sensoriels : ces derniers dérivent d’une attitude intéressée envers leurs objets (2000 [1790]), alors que le jugement esthétique est désintéressé, il est indifférent à l’existence de l’objet qui est jugé beau.

Une autre manière de catégoriser les plaisirs distingue ceux qui semblent résulter d’un désir ou d’une pulsion préalable, et qui se superposeraient à la satisfaction du désir, des autres. Épancher sa soif ou finir la lecture d’un livre palpitant tard dans la nuit (malgré la longue journée de travail qui nous attend le lendemain) sont des exemples de plaisirs qui semblent coïncider avec la satisfaction d’un désir impérieux ; se relaxer en prenant un bain chaud ou manier avec virtuosité des concepts philosophiques complexes n’en sont pas. Cette distinction est particulièrement intéressante dans la mesure où elle peut servir à éclaircir les rapports entre plaisir et désir, chaque catégorie de plaisirs illustrant une vision distincte de ces rapports. Duncker (1940) développe ainsi en détail une distinction entre la vision hédoniste et hormique du plaisir. Selon la vision hédoniste, on désire quelque chose en vertu du plaisir qu’elle procure. Selon la vision hormique, on prend du plaisir dans quelque chose en vertu du fait qu’on désire cette chose. On peut trouver des traces de cette vision dans les écrits de nombreux philosophes au cours de l’histoire, notamment chez Platon et Aristote. McDougall (1949 [1923]), un des défenseurs de la vision hormique, explique ainsi que « le plaisir et la douleur […] sont déterminés par l’effort [striving] ; le plaisir, quand l’effort atteint son but naturel ou progresse vers lui ; la douleur, quand l’effort est contrecarré ou obstrué et échoue à accomplir, ou à progresser vers son but » (p. 269). Plus récemment, plusieurs auteurs semblent avoir renoué avec cette conception désidérative du plaisir (Davis, 1981, Heathwood, 2006, 2007), développée plus en détail dans la Section 1.d.

Cette distinction peut être rapprochée de celle faite par Épicure entre les plaisirs catastématiques et les plaisirs cinétiques (Diogène Laërce, Vies et doctrines des philosophes illustres, Livre X). Les premiers sont des plaisirs stables, de repos. Ce sont ceux qu’Épicure associe aux états d’ataraxie et d’aponie, respectivement la tranquillité de l’âme et celle du corps, que l’éthique épicurienne nous invite à poursuivre. Les seconds sont des plaisirs en mouvement, qui impliquent un changement d’état, la satisfaction d’un besoin naturel. Contrairement à Épicure, Aristippe et les Cyrénaïques ne reconnaissaient l’existence que des plaisirs cinétiques. La vie de plaisir qu’ils promouvaient ne visait donc pas la tranquillité de l’âme et du corps, mais plutôt une jouissance corporelle active (Diogène Laërce, Livre II).

Le constat de la diversité des plaisirs est central dans la littérature philosophique sur le plaisir. Deux positions philosophiques peuvent émerger à partir de ce constat (Goldstein, 1985). D’un côté, la position moniste soutient que malgré cette diversité apparente, il y a bien une unité de l’expérience de plaisir. Au fond, il n’y aurait qu’un seul type de plaisir. Il existe cependant une grande diversité de positions monistes, en fonction de la manière dont on caractérise l’unité du plaisir. De l’autre côté, la position pluraliste soutient que cette diversité n’est pas qu’apparente, et que ce qui la sous-tend est une véritable pluralité de phénomènes, si bien que les états de plaisir n’auraient en commun que le fait de s’appeler plaisir (Perry, 1967, adopte ainsi explicitement une position pluraliste). La position pluraliste peut se décliner de multiples manières, en fonction des types de plaisir qu’on identifie et des critères de catégorisation utilisés, mais elle est bien sûr mise en difficulté par la simple observation que dans la vie quotidienne la diversité des plaisirs ne semble pas poser de problème particulier. Ainsi, pour Brandt, cette position se résoudrait à laisser inexpliquée la capacité qu’on a à utiliser correctement les concepts de « plaisir » et de « plaisant » dans notre vie quotidienne (1979, p. 37). Des positions intermédiaires sont naturellement envisageables. Ainsi, selon Edwards (1979) différents plaisirs correspondent à des qualités phénoménales différentes, mais elles ont tout de même en commun un air de famille.

Plus récemment, le constat de la diversité des plaisirs a souvent été interprété comme donnant lieu au problème dit de l’hétérogénéité du plaisir, qui prend aussi comme point de départ la question suivante : qu’y a-t-il de commun à tous les états de plaisir ? Plus précisément, si l’on considère deux états de plaisir très différents, comme celui associé à la dégustation d’un gâteau et celui associé à l’annonce d’une bonne nouvelle, et qu’on essaie de focaliser notre attention sur un éventuel élément ressenti de plaisir qui serait commun à ces deux états, il semble que l’on n’en trouve aucun. Ainsi, rien dans la totalité de notre expérience subjective ne correspondrait au plaisir. Ce problème contraint la manière dont on rend compte du plaisir : toute théorie satisfaisante devra expliquer cette apparence d’hétérogénéité. De plus, il joue un rôle dialectique considérable en motivant le passage à des conceptions selon lesquelles les différents plaisirs n’ont rien en commun d’intrinsèque. Ainsi Sidgwick, dans un passage célèbre, s’en sert pour motiver l’idée que la nature du plaisir consiste simplement en son caractère désirable :

Devrons nous alors dire qu’il y a une qualité ressentie mesurable exprimée par le mot « plaisir », qui est indépendante de sa relation à la volition, et strictement indéfinissable dans sa simplicité ? – comme la qualité ressentie exprimée par « sucré » dont nous sommes conscients à des degrés d’intensité variables. Cela semble être la vision de certain auteurs : mais, pour ma part, quand je réfléchis à la notion de plaisir – en utilisant ce terme dans son sens inclusif que j’ai adopté afin d’inclure la gratification intellectuelle et émotionnelle plus raffinée et subtile aussi bien que les plaisirs sensoriels, qu’ils soient plutôt vulgaires ou raffinés – la seule qualité en commun que je peux trouver semble être cette relation au désir et à la volition exprimée par le terme général « désirable ». (1981 [1907], Chapitre II)

Il est important de ne pas confondre la question de l’hétérogénéité des plaisirs avec d’autres questions portant sur la comparabilité ou la quantification des plaisirs. La thèse de la comparabilité des plaisirs affirme que tous les plaisirs peuvent être comparés entre eux, et que de deux plaisirs il est toujours vrai que l’un est supérieur à l’autre ou bien qu’ils sont équivalents en intensité. La thèse de la quantification des plaisirs va plus loin, puisqu’elle fonde la légitimité d’affirmations comme « tel plaisir est 2,8 fois plus intense que tel autre plaisir », ou « la différence d’intensité entre ces deux plaisirs est identique à celle entre ces deux autres plaisirs ». Cette dernière thèse joue un rôle crucial dans la justification de l’utilitarisme moral, qui requiert de pouvoir quantifier totalement les plaisirs et les peines, mais aussi dans certains programmes de recherche récents en science : si le plaisir doit servir à fixer la valeur d’un ensemble de stimuli afin d’informer la prise de décision des sujets (par exemple, Dickinson et Balleine, 2009, Damasio et Carvalho, 2013), il est nécessaire que les différentes occurrences de plaisir puissent être comparées.

Des résultats récents de neuroscience peuvent être mobilisés pour éclairer les questions de l’hétérogénéité et de la comparabilité des plaisirs. Si on accepte le physicalisme, c’est-à-dire l’idée que tous les états mentaux sont identiques ou réductibles à des états physiques, alors il est probable qu’à la diversité des états de plaisir devrait correspondre une diversité des états physiques qui les implémentent. Par exemple, peut-être que différents types de plaisir seraient associés à différents circuits neuronaux. Cette hypothèse semble plutôt infirmée par les études sur les substrats neuronaux des plaisirs, selon Berridge et Kringelbach (2013, 2015) et Crisp et Kringelbach (2018), ce qui pèse en faveur de l’unité des plaisirs, et donc en faveur d’un monisme hédonique.

b. Le plaisir, disposition ou épisode ?

Le plaisir est généralement considéré comme un état mental occurrent et conscient, ce qui signifie que dans la vie mentale du sujet, le plaisir se manifeste dans un intervalle de temps bien délimité et qu’il appartient à l’expérience subjective du sujet, c’est-à-dire qu’il est ressenti par le sujet.

Historiquement, cette position intuitive du plaisir comme état mental occurrent conscient a été défiée par une autre position selon laquelle le plaisir a en fait des caractéristiques qui le rapprochent des dispositions. Une entité mentale est dispositionnelle quand il existe des conditions dont la satisfaction déclenche l’occurrence de certaines manifestations spécifiques associées à cette entité mentale (Choi et Fara, 2018). Par exemple, en affirmant qu’un verre est fragile, on attribue au verre une propriété dispositionnelle, puisque sa fragilité est une disposition à se casser si certaines conditions sont satisfaites ; par exemple, si on le laisse tomber par terre. Dans le cas des entités mentales, il est généralement accepté qu’il y a des croyances qui ne sont pas occurrentes mais dispositionnelles : je crois que Berlin est la capitale de l’Allemagne, mais ce n’est pas une croyance que j’ai de manière consciente à tout moment. La plupart du temps, elle est présente seulement en tant que disposition. Si certaines conditions sont remplies, par exemple si on me demande quelle est la capitale de l’Allemagne, cette croyance dispositionnelle deviendrait occurrente.

À quel type de disposition le plaisir correspondrait-il ? Pour Ryle, le principal défenseur d’une telle conception du plaisir, le plaisir serait un type d’attention dispositionnelle (plus précisément, dans The Concept of Mind (2009b [1949]), il distingue encore deux utilisations du terme « plaisir », le plaisir comme sentiment (feeling) et le plaisir comme attention dispositionnelle, mais l’approche attentionnelle est ensuite généralisée (2009a [1971])). Prendre du plaisir dans quelque chose, ce serait alors être disposé à continuer l’activité en cours si rien ne vient nous perturber, montrer des signes d’agacement si d’autres stimuli dans notre environnement perturbent notre activité, ne pas réagir quand d’autres stimuli me sont présentés, etc. Ryle prend comme exemple paradigmatique le plaisir pris par un promeneur pendant sa balade.

Bien que contre-intuitive, cette position est particulièrement attrayante dans une perspective béhavioriste, c’est-à-dire si l’on cherche à réduire tous les états mentaux à leurs manifestations comportementales. En effet, si le plaisir est une disposition à agir de certaines manières, alors il n’est plus un événement privé, accessible uniquement par le sujet qui en fait l’expérience, mais un événement public, observable par tous.

Bien que Ryle soit animé par une motivation béhavioriste, il justifie avant tout cette position en montrant que les positions alternatives sont invraisemblables (2009a [1971], p. 339-342). Pour défendre sa vision du plaisir comme disposition, Ryle cherche donc à rejeter les théories qui font du plaisir un épisode mental conscient.

Il commence par identifier les différences qui empêchent de penser le plaisir comme l’équivalent positif de la douleur, cette dernière étant entendue comme une sensation. Par exemple, alors qu’une douleur peut être localisable dans le corps, le plaisir, au moins dans les cas évoqués précédemment, ne pourrait pas. De plus, contrairement à la plupart des sensations corporelles, il est difficile de décrire le plaisir qu’on prend dans quelque chose sans décrire ce dans quoi on prend plaisir. Ryle rejette aussi l’idée que le plaisir est une sorte d’émotion : on peut être assailli ou distrait par une émotion, mais le marcheur n’est pas assailli ou distrait par son plaisir. Enfin, le plaisir ne peut pas être une humeur (comme l’irritabilité, la gaieté, etc.), car les humeurs ne font que prédisposer le sujet à avoir des épisodes émotionnels, comme l’énervement ou la joie, et n’ont par ailleurs aucun objet en particulier. Ryle en conclut donc que le plaisir n’est pas un état mental occurrent conscient, et suggère qu’il s’agirait plutôt d’un type d’attention portée à quelque chose. En plus de rendre compte des caractéristiques précédentes, cela expliquerait aussi pourquoi il est si difficile d’introspecter son plaisir sans le faire disparaître.

À la fin des années 1950, la thèse développée par Ryle a relancé le débat philosophique sur la nature du plaisir dans la philosophie anglophone et a fait l’objet de nombreuses critiques. D’abord, sa défense de la thèse que le plaisir diffère significativement des autres sensations semble défectueuse (voir par exemple Penelhum (1957) pour une discussion critique détaillée de l’argumentation de Ryle). Pour ne prendre qu’un exemple, le plaisir associé à un massage semble bien avoir une localisation dans le corps, tout comme il y a des cas où un plaisir peut venir me distraire. Par ailleurs, une différence significative entre le plaisir et l’attention en général est que l’attention fait l’objet d’un effort conscient et actif, alors que le plaisir semble la plupart du temps être involontaire et impliquant un sujet passif (Penelhum, 1957).

En fait, il paraîtrait plus charitable de comprendre Ryle comme rendant compte d’un type spécifique de plaisir, celui qui accompagne une activité, comme dans les exemples du plaisir pris dans la lecture ou dans les jeux vidéos de la Section 1.a. Dans ce cas le plaisir apparaît en effet comme secondaire, en ce qu’il est tourné vers une activité, et ne pouvant pas être introspecté (puisque cela stopperait la continuité de l’activité, et donc la continuité du plaisir qu’on y prend). Ce type de plaisir est à rapprocher du flux (flow), cet état d’attention intense qu’a étudié Csikszentmihalyi (1991), et plus généralement du plaisir comme enjoyment qu’un nombre important d’auteurs ont évoqué (von Wright, 1963,, Perry, 1967, Heathwood, 2007, entre autres). Par ailleurs, en mettant l’accent sur les comportements observables auxquels le plaisir donne lieu, Ryle ouvre la voie à de nombreuses théories qui vont aussi les mobiliser pour caractériser le plaisir, comme la théorie fonctionnaliste (voir Section 2.a).

Plus généralement, on peut aussi attaquer les velléités dispositionnalistes et béhavioristes de Ryle. Celles-ci étaient avant tout sémantiques, c’est-à-dire qu’elles visaient à déterminer ce qu’on veut dire quand on utilise le terme « plaisir ». Alors que nos concepts mentaux tels que celui de plaisir semblent faire référence à des états privés, seulement accessibles aux sujets qui en font l’expérience, Ryle veut mettre l’accent sur le rôle des comportements observables dans notre apprentissage de ces concepts. En effet, dans la mesure où je n’ai pas d’accès direct aux états mentaux des autres individus, mais seulement à leurs comportements observables, ce que je veux dire quand j’emploie ces concepts, et notamment quand je les emploie pour qualifier d’autres individus, doit impliquer avant tout des comportements observables. La thèse béhavioriste de Ryle pourrait donc être mise à mal en démontrant le rôle central de l’introspection dans notre apprentissage et notre utilisation du concept de plaisir (Place, 1954) : ce n’est pas en observant des comportements que j’apprendrais à identifier les instances de plaisir, mais plutôt par un accès direct et immédiat avec mon plaisir.

Brandt (1979, p. 41-42) reprend ce débat en défendant l’idée que l’approche dispositionnelle est bien capable de rendre compte de notre type d’accès épistémique à nos états mentaux. D’abord, en montrant que la connaissance de notre disposition à continuer notre activité serait elle aussi, sinon immédiate, du moins relativement directe : boire une gorgée d’un mauvais vin me pousserait à cesser d’en boire, et j’en déduirais alors que ce vin n’est pas bon, et que je ne prends pas plaisir à le boire. Deuxièmement, l’immédiateté supposée de notre accès à nos états mentaux plaisants serait à relativiser. Nous pouvons en effet nous tromper sur la nature du plaisir qu’on prend :

Supposez que vous êtes en train de parler à quelqu’un pendant un cocktail et souhaitez poursuivre la conversation. Vous vous demandez : ‘Qu’est-ce qui est plaisant ?’ Cela pourrait être les idées inventives que la personne exprime, sa personnalité pleine d’entrain, ou le fait qu’elle vous flatte, ou simplement une attraction sexuelle. Votre opinion sur cette question est une hypothèse qui peut être testée. (Brandt, 1979, p. 42)

c. Le plaisir comme sensation

Supposons à partir de maintenant que le plaisir est bien un état occurrent conscient. De quel type d’état s’agit-il ? Pour y voir plus clair dans la multitude des conceptions du plaisir, nous proposons de les organiser en deux pôles théoriques contrastés, même si cette opposition binaire est loin d’épuiser la richesse des débats et qu’il existe une grande diversité au sein même de chaque pôle. Dans cette section et la suivante, j’aborderai successivement ces deux pôles théoriques.

D’un côté, le pôle qu’on peut qualifier d’internaliste (la terminologie nous vient de Sumner, 1996, p. 87-91). Le plaisir a ici une qualité phénoménale : cela fait quelque chose au sujet d’avoir une expérience plaisante, il y a un ressenti subjectif caractéristique du plaisir. Il est similaire à une sensation, non-intellectualisé, et non-conceptuel. Il peut ou non être localisable dans le corps, représenter ou non des stimuli, des objets ou des événements extérieurs. Il peut constituer une sensation à part entière, au même titre que les sensations perceptuelles (couleurs, odeurs, etc.) ou corporelles (fourmis dans les jambes, démangeaisons, etc.) ou bien seulement accompagner d’autres sensations.

De l’autre côté, le pôle qu’on peut qualifier d’externaliste. Le plaisir a ici une intentionnalité, c’est-à-dire qu’il est à propos de quelque chose d’autre : un objet physique, une partie du corps, une proposition, une sensation, etc., dont le caractère plaisant est extrinsèque. Le plaisir est donc associé à une attitude, qui peut ou non donner lieu à une certaine phénoménologie. Parmi les attitudes proposées pour rendre compte du plaisir, on trouve un désir, une appréciation, un jugement (notamment moral), ou une attitude sui generis comme « prendre du plaisir dans ». Certaines de ces attitudes requièrent des capacités cognitives élaborées.

Commençons dans cette section par le pôle internaliste. Si le plaisir est souvent considéré comme étant similaire, ou identique, à une sensation, la définition d’une sensation à son tour est floue. Parmi les exemples paradigmatiques, on trouve l’expérience subjective associée à la dégustation d’un gâteau, au toucher d’une surface lisse et froide, au parfum d’une rose, etc. Quelles sont les différences entre ces sensations typiques et le plaisir ?

D’abord, il est courant d’associer à chaque sensation un organe sensoriel et un sens correspondant. Ces sens sont extéroceptifs, c’est-à-dire informant le sujet à propos de stimuli extérieurs. Ainsi, les sensations tactiles sont associées au toucher et à la peau et les sensations gustatives au goût et à la langue. En revanche, il n’y a aucun sens, ni aucun organe sensoriel extéroceptif, associés au plaisir.

Le plaisir ne semble fournir aucune information sur le monde, et on ne peut associer ni le plaisir, ni son intensité, à des entités et des quantités physiques extérieures (Aydede, 2018, p. 6). En revanche, l’idée selon laquelle le plaisir serait un sens intéroceptif, comme la proprioception, semble plus plausible. Le plaisir viserait à informer le sujet de l’état physiologique de son corps. On est cependant confronté au problème que certains plaisirs peuvent être associés à une dégradation corporelle. Par exemple, se gratter quand cela nous démange fait plaisir, mais peut endommager la peau et causer plus de démangeaisons dans le futur.

Enfin, les régions du système nerveux qui donneraient lieu à des expériences de plaisir semblent être clairement séparées des zones associées aux sens (Berridge et Kringelbach, 2013).

Malgré ces différences, il existe quand même des points communs entre sensations et plaisirs. D’abord, il semble possible de localiser au moins certains plaisirs dans le corps. Le plaisir associé à une caresse semble être localisé à l’endroit de cette caresse, de la même manière qu’une douleur peut usuellement être localisée dans le corps. Ces plaisirs sont alors à distinguer d’autres états mentaux non-localisables, comme les humeurs ou les pensées.

Par ailleurs, le plaisir semble souvent non-conceptuel : une expérience plaisante comme la dégustation d’un gâteau n’implique pas la manipulation de concepts, et il est concevable d’envisager que les plaisirs de la lecture ou de la philosophie ne sont pas plus conceptuels : les activités que le plaisir accompagne sont certes conceptuelles, pourrait-on arguer, mais le plaisir lui-même ne l’est pas.

Ceci étant dit, le principal point commun entre les sensations et le plaisir est sans doute l’existence d’un caractère phénoménal, c’est-à-dire le fait que cela « fasse quelque chose » au sujet d’en faire l’expérience (Nagel, 1974). À l’inverse, les pensées sont des entités mentales dont l’existence d’un caractère phénoménal semble plus douteuse. L’idée que le plaisir donne lieu à un certain caractère phénoménal peut être considérée ou bien comme évidente, ou bien comme extrêmement controversée, en fonction de ce qui est précisément entendu par « caractère phénoménal ». Ainsi des doutes quant à la phénoménalité du plaisir ont souvent été émis, par exemple par Feldman (2004) et Bain et Brady (2014). Si le caractère phénoménal manifesté par des sensations extéroceptives paradigmatiques comme les couleurs ou les sons est érigé en modèle à l’aune duquel tout autre caractère phénoménal présumé doit être mesuré, on peut effectivement raisonnablement douter de l’existence d’un caractère phénoménal du plaisir. Mais on pourrait très bien nier que le caractère phénoménal du plaisir appartienne à la même catégorie phénoménologique que celui des sensations précédentes. Quoi qu’il en soit, le caractère phénoménal supposé du plaisir ferait l’objet d’une connaissance immédiate de la part du sujet. Ainsi, Broad parle du plaisir comme une qualité « que nous ne pouvons définir mais avec laquelle nous sommes parfaitement accointés » (1930, p. 229).

Supposons pour l’instant qu’il soit justifié de ranger le plaisir du côté des sensations, sur la base de l’existence d’un ressenti phénoménal propre au plaisir. Différentes articulations peuvent encore être envisagées entre plaisir et sensations. Selon une classification en usage, apparemment issue de Feldman, on distingue d’un côté les conceptions qui font du plaisir une sensation ou un sentiment distinct, à part entière (distinctive feeling), qui aurait le même statut métaphysique que les autres sensations comme le goût d’un gâteau ou le toucher d’une caresse, et de l’autre côté les conceptions qui font du plaisir une sensation qui en accompagne d’autres, un ton ou une tonalité hédonique (hedonic tone), et qui n’a donc pas d’existence indépendante de celles qu’il accompagne.

Présentons successivement ces deux conceptions. Selon la conception du plaisir comme sentiment distinct, notre vie mentale serait constituée d’une variété d’entités phénoménales différentes, et l’une d’entre elles serait le sentiment de plaisir. Selon cette conception, quand on est plongé dans un film qu’on apprécie, en plus des sensations visuelles, auditives, mais aussi des états cognitifs ou des émotions comme la curiosité, la surprise, la compassion, que l’on peut avoir, on a aussi un sentiment distinct de plaisir. De même, quand on sent le parfum d’une rose, il y aurait d’un côté une sensation associée à l’odeur de la rose, et de l’autre un sentiment de plaisir. Historiquement, il s’agit d’une conception repoussoir, dont toutes les autres ont voulu s’écarter, car le problème de l’hétérogénéité du plaisir la met gravement en doute. En effet, si cette conception était vraie, on pourrait s’attendre à ce qu’il soit aisé de focaliser notre attention sur ce sentiment, de la même manière qu’il est aisé de focaliser notre attention sur les diverses sensations dont on fait l’expérience. Comment pourrait-on expliquer notre difficulté à identifier ce sentiment que tous les plaisirs sont pourtant censés partager ?

Hume (2009 [1738]), Locke (2002 [1689]), mais aussi G. E. Moore (1998 [1903]) semblent avoir défendu cette conception, mais la défense contemporaine la plus développée est sans doute celle de Bramble (2013). Son argumentation est avant tout basée sur le rejet des autres conceptions, mais il tente quand même d’expliquer notre difficulté à identifier ce sentiment de plaisir. Pour Bramble, « il doit s’agir du type de sentiment qui survient en quantités extrêmement réduites et à des emplacements discriminables de manière très fine dans notre champ expérientiel, de telle manière qu’il arrive dispersé dans tout notre champ expérientiel » (2013, p. 210). La dispersion du sentiment de plaisir rendrait alors difficile la focalisation sur celui-ci de notre attention.

Selon la conception du plaisir comme ton hédonique, le plaisir, plutôt que de constituer une entité mentale à part entière, indépendante des autres entités de notre vie mentale, serait plutôt une sorte d’enduit, de vernis, qui viendrait s’appliquer sur d’autres éléments. C’est la conception la plus commune actuellement (adoptée par Wundt, 2004 [1896] ; Broad, 1930 ; Kagan, 1992 ; Crisp, 2006 ; Smuts, 2011 ; Labukt, 2012 ; Moen, 2013), mais il existe plusieurs manières de lui donner corps, en se basant sur des analogies différentes.

Selon Kagan (1992), mais c’est une position aussi défendue par Moen (2013), le plaisir est une dimension de nos expériences subjectives. Le plaisir est à nos expériences ce que le volume sonore, tel que ressenti par le sujet, est à nos expériences auditives. Ainsi, il est impossible de faire l’expérience d’un volume sonore sans avoir une expérience auditive complète, et il est impossible de parfaitement isoler le volume sonore du reste de notre expérience auditive. Cela expliquerait nos difficultés à focaliser notre attention sur la dimension plaisante de notre expérience. Par ailleurs, une expérience auditive a toujours un volume sonore. De la même manière, pour les partisans du ton hédonique, toutes nos expériences subjectives sont toujours teintées de plaisir ou de son opposé, la souffrance. Ce ton hédonique varie dans le temps, si bien qu’on pourrait en théorie représenter graphiquement l’évolution dans le temps de ce ton, positif quand nos expériences sont plaisantes, et passant dans le négatif quand elles deviennent déplaisantes. Il y a cependant des différences nettes entre plaisir et volume sonore. Bramble (2013) remarque qu’un son ne peut pas avoir de volume sonore nul, alors qu’une expérience peut très bien être neutre affectivement, et en conclut que cela rend l’analogie caduque. Par ailleurs, on peut encore nier que la théorie du ton hédonique rend vraiment compte de l’hétérogénéité du plaisir. Si le plaisir est toujours une dimension de notre expérience, arrive-t-on vraiment, sinon à focaliser notre attention directement dessus, du moins à reconnaître cette dimension comme étant commune à toutes nos expériences, de la même manière que l’on peut reconnaître le volume sonore comme une dimension nécessaire de notre expérience auditive ?

Une autre proposition vise plus directement à répondre à ce défi de l’hétérogénéité du plaisir, entendu comme ton hédonique. Selon Crisp (2006), repris par Smuts (2011), Labukt (2012) et Lin (2018), les expériences plaisantes sont des expériences qui font toutes du bien (feel good), et cette propriété de faire du bien peut être comparé à la couleur. Rien ne peut être coloré sans avoir une couleur spécifique : rouge, bleu, vert, etc. Dans le langage philosophique, on dit que la couleur est un déterminable qui a plusieurs déterminés : rouge, bleu, vert, etc. Dans le cas du plaisir, l’idée est tout simplement que les plaisirs qui intuitivement nous semblent hétérogènes sont autant de déterminés d’un même déterminable : la propriété de faire du bien. De la même manière que le rouge et le bleu sont similaires en ce qu’ils sont tous deux des couleurs sans pour autant qu’il soit possible de focaliser mentalement notre attention sur leur caractère coloré commun, les différents plaisirs seraient similaires en ce qu’ils possèdent le même déterminable, sans qu’on puisse focaliser notre attention sur leur propriété de faire du bien.

d. Le plaisir comme attitude

Passons maintenant au pôle externaliste des conceptions du plaisir. Selon ces conceptions, les états de plaisir sont au moins partiellement constitués par certaines attitudes du sujet envers l’objet du plaisir. Ces conceptions permettent donc de rendre compte du fait que beaucoup de plaisirs semblent avoir un objet, c’est-à-dire être à propos de quelque chose, de manière nécessaire et non contingente. Ces conceptions sont aussi particulièrement intéressantes pour résoudre le problème de l’hétérogénéité des plaisirs, puisqu’elles permettent de soutenir que les plaisirs n’ont aucun élément intrinsèque en commun, ce qui expliquerait alors notre incapacité supposée à l’identifier. Par là-même, elles permettent aussi de rendre compte de l’intuition selon laquelle la même expérience phénoménale peut être plaisante ou déplaisante en fonction des circonstances. Par exemple, une même sensation de chaleur pourra être considérée comme déplaisante en été et plaisante en plein hiver, en fonction des attitudes que le sujet a envers cette sensation. Toute la question est alors d’identifier le type d’attitude qui pourrait donner lieu aux expériences de plaisir. Plusieurs candidates ont été proposées.

L’attitude qui semble la plus intuitive pour caractériser le plaisir est sans doute le désir, en raison de l’aspect motivationnel indiscutable du plaisir. En effet, si une expérience procure du plaisir, il semble que nécessairement cette expérience donne lieu à un désir, ce dont les conceptions en termes de ressenti phénoménal vues précédemment avaient des difficultés à rendre compte. La difficulté pour une sensation à rendre compte de nos raisons d’agir a notamment été notée par Anscombe (2000 [1957]). Un autre avantage présumé de cette conception motivationnelle du plaisir serait sa parcimonie, puisque l’on réduirait le plaisir à une entité qu’on connaît déjà. La justification intuitive de cette conception réside dans le constat que certains plaisirs semblent intuitivement nécessiter la satisfaction d’un désir. C’est le cas des plaisirs hormiques vus dans la Section 1.a, comme le plaisir associé à la réception d’une bonne nouvelle ou à la réussite d’un niveau difficile dans un jeu vidéo. Mais toute satisfaction d’un désir ne génère pas de plaisir de cette manière. Par exemple, je peux avoir reçu la promotion que j’attendais depuis des années et, au lieu d’en ressentir une plaisante satisfaction, être soudainement pris d’une anxiété intense vis-à-vis des nouvelles responsabilités que je vais endosser. Il semble donc difficile d’identifier directement le plaisir avec la satisfaction d’un désir, bien que Davis (1981) et Heathwood (2006) semblent soutenir une telle conception.

La plupart des théories qui fondent le plaisir sur le désir postulent plutôt que l’objet du désir en question doit concerner l’expérience subjective du sujet, et non un objet extérieur comme une promotion ou la réussite du niveau le plus difficile d’un jeu vidéo. On peut alors définir le plaisir comme suit : une expérience actuelle est un plaisir si et seulement si le sujet désire que l’expérience se prolonge (une variante de cette conception est proposée par Brandt, 1979, p. 40). Cette conception simple est sujette à des contre-exemples. Je peux vouloir que mon expérience actuelle se prolonge pour des raisons qui intuitivement n’ont rien à voir avec le caractère plaisant de l’expérience. Par exemple, je peux ressentir de la faim et vouloir que cette sensation se prolonge, parce que cela m’indique que je parviens à suivre le régime alimentaire sévère que je me suis fixé. Il faut donc caractériser le plaisir comme un désir de poursuivre l’expérience seulement en vertu du ressenti de cette expérience, et indépendamment des conséquences de la continuation de cette expérience. Je dois la désirer intrinsèquement (Carson, 2000).

Mais d’autres problèmes apparaissent: intuitivement, il y a certains plaisirs dont on ne souhaite par la prolongation. Par exemple, on pourrait argumenter qu’il y a des odeurs qui nous sont plaisantes pendant un bref instant, mais dont la prolongation nous serait écœurante, et donc déplaisante (cas traité dans Crisp, 2006, qu’il emprunte à Gosling, 1969). Par ailleurs, cette définition semble impliquer un décalage temporel entre le moment de plaisir, par exemple quand mangeant quelque chose de succulent je désire le prolongement de cette expérience, et le moment de la satisfaction de mon désir, c’est-à-dire le moment qui suit directement ce plaisir. Ce décalage temporel justifie le choix d’une autre définition du plaisir en termes de désir : une expérience est un plaisir si et seulement si on désire intrinsèquement que cette expérience ait lieu au moment même où elle a lieu (Kagan, 1992, Heathwood, 2007). De manière plus sophistiquée, selon Heathwood et pour le cas des plaisirs sensoriels, « une sensation S, ayant lieu à l’instant t, est un plaisir sensoriel si et seulement si le sujet de S désire, de manière intrinsèque et de re, à l’instant t, que S ait lieu à l’instant t. ». Que l’expérience doive être désirée de manière de re signifie que l’objet du désir est exactement la sensation qu’on a au moment t, et non le souvenir de cette sensation, par exemple.

Cette position présente encore des difficultés. Certains cas de plaisir pourraient ne pas satisfaire la caractérisation proposée par Heathwood. D’abord, le cas classique du masochisme, où le sujet semble désirer intrinsèquement une sensation déplaisante, semble constituer un contre-exemple. Pour rendre compte du plaisir masochiste, il est courant de le considérer, non pas comme un plaisir sensoriel, mais plutôt comme un plaisir qu’on prend à l’idée d’avoir une sensation qui fait l’objet d’une aversion (c’est-à-dire d’un désir négatif). Il s’agirait donc d’une sorte de désir de second ordre, mais cette proposition court le risque de sur-intellectualiser la nature du plaisir masochiste.

Un autre contre-exemple est fourni par Feldman (1988, 2004), qui évoque un sentiment de vertige que l’on rechercherait initialement par curiosité, et qui au fur et à mesure deviendrait une sensation qu’on rechercherait intrinsèquement. Cette sensation remplirait les critères pour constituer un plaisir, mais Feldman argue que cette sensation pourrait très bien ne pas être plaisante.

Smuts (2011), quant à lui, propose l’exemple de l’art douloureux : les tragédies et les films dramatiques ne sont pas plaisants à voir, mais on pourrait argumenter qu’on a bien un désir intrinsèque de les voir. Ainsi, « [s]’il est plausible de penser que le public désire parfois, de manière intrinsèque et contemporaine, des expériences douloureuses en réponse à l’art, alors avoir un désir intrinsèque et contemporain envers une expérience ne suffit pas pour obtenir du plaisir » (Smuts, 2011, p. 6).

Par ailleurs, si tant est que le désir nous fait un certain effet, c’est-à-dire a une phénoménologie, celle-ci semble très différente de celle du plaisir. La phénoménologie du désir ne semble pas nécessairement plaisante, elle est parfois vécue comme un manque, générateur de stress. Pourquoi le simple fait que le désir soit satisfait, dans les conditions énoncées par exemple par Heathwood, modifierait la phénoménologie du désir au point de donner lieu à une phénoménologie plaisante ?

Enfin, le problème dit d’Eutryphon affecte n’importe quelle conception désidérative du plaisir (Smuts, 2011). Il tire son nom du problème évoqué par Platon dans le dialogue du même nom, où Socrate interroge son interlocuteur : une chose est-elle juste parce qu’elle est aimée par les dieux, ou bien est-elle aimée par les dieux parce qu’elle est juste ? De la même manière, la conception désidérative du plaisir semble se tromper dans l’ordre explicatif du plaisir et du désir. Intuitivement, si on nous demande pourquoi on désire une expérience, on répondrait que c’est parce qu’elle est plaisante. Or, selon la conception précédente, c’est l’opposé qui est vrai : c’est parce qu’on désire une expérience qu’elle est plaisante. Ce résultat contre-intuitif fait émerger un point aveugle de la conception désidérative: elle est incapable d’expliquer pourquoi est-ce qu’on désirerait une expérience intrinsèquement. Faut-il considérer ce désir comme une sorte de fait brut, primitif ?

Cela semble être un lourd prix à payer, notamment parce qu’on tend plutôt à penser les désirs comme des attitudes qui sont corrigibles et susceptibles d’évoluer à la lumière de nos autres désirs et de nos croyances. Nos désirs sont en effet mobilisés dans notre délibération pratique, et ils servent à justifier nos actions. À l’inverse, on ne peut pas se rendre compte, après réflexion, que ce qu’on ressent n’est pas plaisant ! Son caractère plaisant s’impose à nous.

La conception désidérative du plaisir réduit le plaisir à une entité bien connue, le désir. Mais il est possible de mobiliser d’autres pro-attitudes que les désirs. Ces attitudes peuvent être sui generis, c’est-à-dire propres au plaisir (comme celles théorisées par Meinong, 1906 ou Feldman 1997, 2004), ou bien partagées avec d’autres états mentaux. Le problème d’Eutryphon pourrait motiver le passage à une attitude d’appréciation (liking) plutôt que de désir (Parfit, 2011), car, contrairement au désir, l’attitude d’appréciation envers une expérience ne peut pas être rationnelle ou irrationnelle : on ne peut pas avoir des raisons d’avoir ou de ne pas avoir une expérience de plaisir. D’autres auteurs ont identifié cette pro-attitude de plaisir comme une attitude d’enjoying (Robinson, 2006) ou d’évaluation ressentie (Helm, 2002). Enfin, Feldman (1997, 2004) propose l’attitude propositionnelle sui generis « prendre plaisir dans » (take pleasure in). Tous les plaisirs pourraient être décrits de la manière suivante : un sujet prend plaisir intrinsèquement dans le fait que X, où X est une proposition, et « intrinsèquement » signifie que le plaisir pris dans le fait que X ne dépend pas du plaisir pris dans autre chose. Les plaisirs sensoriels sont considérés comme un cas particulier de ces plaisirs attitudinaux, où le sujet prend plaisir dans le fait qu’il est en train d’avoir une certaine expérience. La théorie de Feldman est confrontée à une série de problèmes (Mason, 2007), un des plus graves étant qu’elle envisage le plaisir d’une manière excessivement intellectualisée.

De manière générale, l’application éventuelle des objections vues précédemment contre l’approche désidérative à ces conceptions du plaisir comme pro-attitude reste ouverte (Aydede, 2014). Mais il faut noter que toutes les conceptions attitudinales du plaisir semblent avoir des difficultés dans leur traitement de la phénoménologie du plaisir. En effet, elles semblent attrayantes parce qu’elles peuvent répondre au problème de l’hétérogénéité du plaisir en proposant que le seul point commun entre tous les plaisirs, c’est que ce sont des expériences qui sont l’objet, ou qui appartiennent au contenu, d’une certaine attitude de la part du sujet. En raison de l’absence supposée de phénoménalité des pro-attitudes en question, ces conceptions tiennent généralement pour acquis qu’il n’y a pas de phénoménologie propre au plaisir, ce qui est très contre-intuitif. L’hypothèse de l’absence de phénoménalité des pro-attitudes a néanmoins été rejetée par Mason (2007) et Lin (2018), ce qui leur permet d’arguer qu’on peut à la fois avoir une approche attitudinale du plaisir et accepter que le plaisir a une phénoménologie. Cette position semble donc combiner le meilleur des positions attitudinales et phénoménologiques, mais ce n’est toujours pas sûr qu’elle soit satisfaisante dans sa réponse au problème de l’hétérogénéité du plaisir. En effet, si la phénoménologie propre au plaisir correspond finalement à celle d’une attitude, pourquoi semble-t-il si difficile d’identifier par introspection cette phénoménologie caractéristique de l’attitude de plaisir ?

De manière alternative, pour dépasser l’opposition entre attitude et sensation, Aydede (2014, 2018) propose une conception adverbialiste du plaisir sensoriel, qui repose sur une approche fonctionnaliste du plaisir (cf. Section 2.a). Selon lui, le plaisir serait une modification sensorielle adverbiale, c’est-à-dire que le plaisir viendrait se surajouter à des données sensorielles non-affectives. Ainsi le plaisir ferait bien partie de notre expérience phénoménale, et le fait qu’il modifie nécessairement des données sensorielles rendrait compte de nos intuitions selon lesquelles le plaisir a un objet.

2 Le plaisir dans la nature

a. Les approches réductionnistes du plaisir

Le naturalisme, la perspective selon laquelle l’investigation philosophique doit s’inspirer des méthodes ou des résultats de la science, est une tendance majeure en philosophie contemporaine. Cela se traduit en particulier par la volonté de concevoir les entités étudiées par la philosophie –ici le plaisir– comme des entités naturelles, caractérisables d’une manière qui les inscrit dans une seule réalité empirique, à laquelle appartiendraient des entités aussi diverses que les électrons, les étoiles, les pommiers, les classes sociales, les autoroutes, la monnaie ou les rhumatismes. Le naturalisme est souvent associé au physicalisme, l’idée selon laquelle toute entité doit être ultimement réductible à des entités physiques. Le plaisir, en tant qu’état mental (en mettant de côté la conception de Ryle, cf. Section 1.b), hérite des mêmes difficultés vis-à-vis du naturalisme et du physicalisme que tous les autres états mentaux, notamment leur intentionnalité (le fait qu’ils sont à propos de quelque chose d’autre) et leur caractère phénoménal présumés. Mais s’ajoutent à celles-ci d’autres difficultés plus spécifiques au plaisir : ses aspects motivationnel et normatif.

L’approche fonctionnaliste est une approche populaire en philosophie pour rendre compte des états mentaux d’une manière compatible avec le physicalisme. Selon le fonctionnalisme, les états mentaux sont réductibles à leur rôle fonctionnel, c’est-à-dire leurs relations causales avec des données sensorielles entrant, des comportements, et les autres états mentaux. Aydede, en mobilisant des résultats scientifiques récents, développe une conception fonctionnaliste des plaisirs sensoriels (qui sous-tend sa conception adverbialiste vue dans la Section 1.d), mettant en avant l’influence qu’a le plaisir sur des processus aussi variés que l’apprentissage par renforcement, la prise de décision ou la préparation motrice. Dans l’ensemble, le plaisir sensoriel peut alors être caractérisé comme :

une modification complexe (filtrante, améliorante, biaisante, amplifiante, etc.) de l’information sensorielle entrante qui influencera causalement […] les priorités motivationnelles, cognitives, et comportementales du sujet, d’une manière telle qu’une partie de celles-ci est mise à disposition des attitudes conatives et des pensées conscientes du sujet. (Aydede 2014)

Cette caractérisation semble bien rendre compte de l’aspect motivationnel du plaisir, mais comme toute approche fonctionnaliste, elle ne semble pas adéquate pour rendre compte de ce que cela fait au sujet d’éprouver du plaisir, c’est-à-dire son caractère phénoménal.

Plus récemment, de nombreux philosophes ont développé un programme de recherche visant à rendre compte de la fonction des états mentaux dans une perspective représentationnaliste, selon laquelle les caractéristiques des états mentaux seraient réductibles à ce qu’ils représentent. Ainsi, quand j’ai le regard tourné vers le soleil, la zone très lumineuse dont je fais l’expérience dans mon champ visuel représente une propriété d’un objet extérieur, le soleil. Alors que le représentationnalisme semble plutôt adéquat pour expliquer l’intentionnalité de nos états mentaux, cette perspective est parfois mobilisée pour rendre aussi compte de leur caractère phénoménal.

La stratégie représentationnaliste semble cependant se heurter à des difficultés quand elle s’intéresse à des états mentaux dont l’aspect affectif semble primordial, et le contenu intentionnel moins évident que dans le cas d’états perceptuels (Armstrong, 1962). C’est le cas notamment des émotions, de la douleur et du plaisir (voir Corns, 2018, pour un résumé des conceptions représentationnalistes récentes de la douleur). Pour rendre compte de l’aspect affectif du plaisir, les représentationnalistes peuvent argumenter qu’il représente certains bénéfices pour l’organisme. Tye (1995) argumente que les expériences de douleur et de plaisir représentent de manière non-conceptuelle un ensemble de changements corporels, et causent certaines évaluations positives ou négatives, ainsi que certains désirs. Plus précisément, Schroeder (2001, 2004) propose l’idée que les expériences de plaisir représentent des changements positifs dans la balance de la satisfaction et de la frustration des désirs intrinsèques, si bien que « les désirs sont l’objet représentationnel du plaisir et du déplaisir » (2004, p. 31).

La position évaluativiste, quant à elle, considère que le plaisir et la douleur représentent le fait que l’expérience est respectivement bonne et mauvaise. Ainsi plusieurs philosophes, tels que Tye (2005) et Bain (2013), ont plus récemment présenté une conception évaluativiste de la douleur, selon laquelle une expérience de douleur représenterait un dommage corporel comme étant mauvais. Cette proposition présente des difficultés, car elle semble contredire certaines manières ordinaires de parler du plaisir et de la douleur. On peut en effet concevoir des plaisirs qu’on juge mauvais, de même qu’on peut envisager des douleurs qu’on juge bonnes. Si l’évaluativisme à propos du plaisir est vrai, ces jugements entreraient en contradiction avec l’expérience elle-même (Aydede et Fulkerson, 2014) !

Par ailleurs, certaines versions de l’évaluativisme semblent abandonner une idée clé du représentationnalisme, celle de la transparence de nos expériences, qui est l’idée selon laquelle quand j’introspecte mes expériences, ou que je les mobilise dans ma prise de décision, je n’aurais accès qu’aux propriétés représentées, celles à propos desquelles mes expériences m’informent. Dans le cas sensoriel, il s’agirait des propriétés de mon environnement. Comment expliquer alors que des expériences affectives puissent être recherchées pour elles-mêmes, indépendamment de ce qu’elles représentent ? L’exemple des médicaments anti-douleur est parlant : si les expériences douloureuses ne font que m’informer sur mon état corporel, pourquoi suis-je motivé à supprimer la représentation de cet état corporel en prenant des médicaments anti-douleur, plutôt qu’à supprimer l’état corporel lui-même ? Pourquoi donc est-ce que je serais tenté de « tirer sur le messager » (Jacobson, 2013) ?

Plus généralement, quand j’introspecte mes expériences affectives, je suis souvent amené à attribuer directement des propriétés aux expériences elles-mêmes, et non à ce qu’elles représentent. Ces expériences ne sont donc pas vraiment transparentes (Aydede, 2009, Aydede et Fulkerson, 2014).

Pour pallier les difficultés de cette approche évaluativiste, une nouvelle approche intentionnaliste, l’impérativisme, a été proposée, initialement pour rendre compte de la douleur (Hall, 2008, Klein, 2007). L’évaluativisme vu précédemment, ainsi que les autres théories représentationnalistes, postulent tous que le contenu représentatif est un contenu affirmatif, indicatif, qui cherche à décrire ce qui est représenté. Selon l’impérativisme, en revanche, le contenu du plaisir pourrait être impératif. Plutôt que de constater quelque chose, il donnerait un ordre au sujet, il lui commanderait de faire quelque chose. Ainsi une douleur à la cheville pourrait avoir comme contenu impératif d’arrêter de s’appuyer sur cette cheville. De même, le plaisir associé à la dégustation d’un gâteau pourrait correspondre au contenu impératif de continuer à manger le gâteau.

b. Le plaisir dans le cerveau

La section précédente essayait d’esquisser comment une perspective naturaliste physicaliste pouvait en principe rendre compte du plaisir. Or, les développements récents en neuroscience permettent d’apporter un éclairage nouveau sur ces problématiques philosophiques, grâce à l’observation et à la manipulation rendues possibles des états cérébraux. Les résultats issus de ces travaux permettent d’identifier les zones cérébrales dont l’activité est corrélée avec les expériences de plaisir, et dont certaines pourraient en constituer les substrats neuronaux. Elles permettent aussi d’éclaircir le rôle du plaisir vis-à-vis de la motivation, de l’action, et des fonctions cognitives.

Le plaisir apparaissait déjà implicitement dans les recherches sur les mécanismes d’apprentissage basés sur la récompense, qui sont un objet traditionnel d’investigation en psychologie expérimentale depuis le béhaviorisme. L’apprentissage conditionnel, classique et opérant, se basent en effet sur l’hypothèse que le sujet recherche certains stimuli, pouvant s’interpréter comme des récompenses, de manière inconditionnelle. Il est souvent entendu que ces récompenses sont recherchées en vertu du plaisir qu’elles procurent au sujet, et qu’elles participent d’un système fonctionnel plus large, appelé système de la récompense.

Avant l’essor décisif dans les années 1990 des neurosciences affectives, dont un des principaux objets d’étude est le plaisir, les travaux de Olds dans les années 1950 avaient déjà permis de découvrir des structures cérébrales importantes liées à la régulation du désir et du plaisir (Olds et Milner, 1954) : la stimulation de certaines zones cérébrales de rats par des électrodes insérés par les chercheurs s’avérait en effet provoquer des comportements hédonistes exacerbés de la part des rats. Après avoir placé un levier activant directement l’électrode dans la cage des rats, ces derniers pouvaient appuyer de manière compulsive sur le levier afin de s’auto-stimuler. C’est le circuit neuronal de la récompense qui était visiblement touché.

À la lumière de travaux plus récents, le constat initial selon lequel ces électrodes produisaient directement des expériences de plaisir chez le rat a été contesté (Berridge et Valenstein, 1991, Berridge et Kringelbach, 2015). Plutôt que des expériences de plaisir, il s’agirait plutôt d’attitudes de désir ou de pulsion, décrites comme des attitudes de « wanting » selon la terminologie en vigueur. Entendue dans ce sens, l’attitude de « wanting » est un résultat de la saillance incitative (incentive salience) attribuée par le sujet à un certain stimulus, qui focalise l’attention du sujet sur le stimulus et augmente sa motivation à le rechercher, ou à rechercher un autre stimulus-récompense dont il est un signe. En ce qui concerne ses substrats neuronaux, l’attitude de « wanting » semble être associée à l’activation du système dopaminergique mésolimbique. Quand cette attitude est consciente, elle se caractériserait par un sentiment de désir intense envers un objet (Berridge, 2009).

À l’opposé, l’expérience subjective de plaisir est associée à une autre attitude, celle de « liking », qui caractérise la réception d’un stimulus-récompense par le sujet. On peut mesurer objectivement cette attitude en observant les expressions faciales du sujet du plaisir, par exemple. Les deux attitudes de « wanting » et de « liking » sont souvent associées, mais il est intéressant de noter qu’il y aurait des cas de découplage durable, comme dans le cas de l’addiction. En effet, la prise de drogue peut entraîner une sensitisation des systèmes dopaminergiques dans le cerveau, qui entraîne une exacerbation des attitudes de « wanting » envers la drogue consommée, de sorte que des stimuli associés à la drogue vont causer un plus grand désir d’en consommer (Berridge, 2009). Mais parallèlement, l’augmentation de la tolérance envers cette drogue rend l’expérience de prise de drogue moins plaisante, c’est-à-dire diminue l’intensité de l’attitude de « liking » du sujet.

La recherche des structures cérébrales sur lesquelles surviennent les expériences de plaisir, c’est-à-dire les attitudes de « liking » conscientes, a mené à l’identification de plusieurs zones dans le cerveau dont l’activation est fortement corrélée avec les expériences de plaisir. Il est cependant ardu d’identifier les zones qui ne sont pas seulement corrélées, mais qui jouent aussi un rôle dans la production des expériences de plaisir. C’est le cas des zones dont le bon fonctionnement conditionne la possibilité d’expériences de plaisir, ainsi que des zones dont la stimulation artificielle directe génère une expérience de plaisir, celles qu’on a appelées les points chauds hédoniques (hedonic hotspots). Dans les deux cas, les recherches récentes semblent indiquer une participation importante de zones subcorticales comme les noyaux accumben et le pallidum ventral. À l’inverse, le cortex préfrontal, impliqué dans de nombreuses fonctions exécutives liées à la prise de décision, à la mémoire ou aux émotions, aurait un rôle plus secondaire, bien que son activation soit aussi corrélée aux expériences de plaisir. Les sujets qui ont un cortex préfrontal endommagé ou absent semblent en effet pouvoir éprouver du plaisir normalement (Berridge et Kringelbach, 2015).

c. Le rôle du plaisir

La question du rôle du plaisir renvoie à la place qu’aurait le plaisir dans le fonctionnement de notre vie psychique : à quoi le plaisir sert-il ? Le bon fonctionnement de notre esprit a souvent été compris dans une perspective téléologique et essentialiste, mais il peut maintenant, sous certaines réserves, être réinterprété dans une perspective évolutionniste. La question du rôle du plaisir serait alors reformulée comme suit : quelle est la fonction adaptative du plaisir ?

Platon, le premier auteur dans la tradition philosophique occidentale à consacrer une discussion approfondie à la question du plaisir et de sa définition, envisageait le plaisir comme un processus de restauration de l’équilibre naturel du sujet. Son traitement le plus extensif se trouve dans le Philèbe, mais le thème du plaisir revient dans de nombreux dialogues, notamment le Gorgias, le Timée et la République. Comme pour la plupart des auteurs antiques, l’intérêt principal guidant sa discussion du plaisir est éminemment éthique : il s’agit pour Socrate, Philèbe et son disciple Protarque de déterminer la valeur respective du plaisir et de la réflexion dans la bonne vie. Après avoir conclu que la bonne vie est nécessairement un mélange de plaisir et de réflexion, Socrate s’engage dans une analyse de différents types de plaisir, pour déterminer lesquels de ces plaisirs sont dignes d’être recherchés. La taxonomie déployée par Platon est complexe (Wolfsdorf, 2013, compte ainsi dix types de plaisir différents dans le Philèbe), mais l’idée générale est que le plaisir est une conséquence d’un processus de restauration de l’harmonie naturelle, alors que la douleur est la conséquence d’un processus de dissolution de l’harmonie. Par exemple, la soif est un manque que vient assouvir le fait de boire. La soif est donc associée à une douleur, et boire est associé à un plaisir : l’individu retrouve une harmonie stable et naturelle (32a).

La théorie aristotélicienne du plaisir se développe largement sur la base de la vision platonicienne avant de s’en écarter progressivement. Selon Aristote, le plaisir ne constitue pas une restauration d’une harmonie naturelle, car celle-ci serait un processus, un mouvement, qui pourrait donc être décomposé en parties. Or, selon Aristote, le plaisir est, à tout moment, un tout parfait : ce n’est donc pas un processus qui va dans une certaine direction. Plutôt que de restaurer, le plaisir ne fait qu’accompagner le bon fonctionnement des processus naturels de l’organisme (Éthique à Nicomaque, X, 3).

Cette idée a été modernisée en envisageant le rôle du plaisir dans les processus homéostatiques de l’organisme, c’est-à-dire les processus qui visent à maintenir certains paramètres clés de l’organisme (température corporelle, glycémie, etc.) dans un intervalle de valeurs spécifiques. Dans une perspective évolutionniste, puisque la capacité à éprouver du plaisir est coûteuse pour l’organisme (elle consomme des ressources que l’organisme pourrait affecter à d’autres fonctions), le rôle du plaisir découle de l’amélioration de la probabilité de survie et de reproduction des individus qu’il permet (LeDoux, 2012). De manière générale, selon Damasio et Carvalho (2013),

Les sentiments semblent avoir émergé, triomphé, et mobilisé cette machinerie neuronale complexe parce que la représentation directe de la nature avantageuse ou désavantageuse d’une situation physiologique en tant qu’ « expérience ressentie » facilite l’apprentissage des conditions responsables des déséquilibres homéostatiques et de leurs corrections respectives, ainsi que de l’anticipation de conditions futures adverses ou favorables. (p. 143)

Plus particulièrement, le plaisir, en tant qu’état mental conscient, joue un rôle important dans la direction des actions de l’organisme. Selon la théorie de l’interface hédonique (Dickinson et Balleine, 2009), le plaisir se situe à l’interface de deux systèmes de prise de décision, le système cognitif intentionnel, qui gouverne les croyances et les désirs du sujet (intentional psychology), et un système plus primitif de réponse au stimulus (stimulus-response psychology), au centre duquel prennent place des actions automatiques, des habitudes, ou des associations conditionnées. Alors que le second est directement orienté vers la survie de l’organisme, ce n’est pas le cas du premier, qui obéit seulement à des contraintes de rationalité. Pour pallier ce problème, le plaisir et la douleur servent à déterminer, et à ajuster si besoin, la valeur associée aux buts fixés par la psychologie intentionnelle du sujet.

Poussé à l’extrême, postuler que la fonction du plaisir est de coder les valeurs associées à chacune des actions alternatives que pourrait entreprendre le sujet mène à l’hypothèse du plaisir comme devise commune (common currency), selon laquelle ce sont les expériences plaisantes et déplaisantes attendues qui déterminent directement quelle action le sujet va entreprendre (Cabanac, 1992). Cette position peut être associée à l’hédonisme psychologique, que nous verrons plus en détail dans la section suivante.

3 L’hédonisme

a. Le plaisir et l’action : l’hédonisme psychologique

Le plaisir, comme nous l’avons vu, motive ; il contribue à orienter l’action humaine. Mais il donne aussi des raisons d’agir. Il joue donc un rôle dans la rationalité pratique, c’est-à-dire la délibération et la mise en balance de nos raisons d’agir en vue de déterminer que faire.

Selon les tenants de l’hédonisme psychologique, le plaisir aurait une place privilégiée dans notre rationalité pratique, puisque toutes les motivations se réduiraient, d’une manière qu’il resterait à préciser, à la recherche du plaisir et à l’évitement de la souffrance (parmi les principaux hédonistes psychologiques : Épicure, Locke (2002) [1689], Hume (2009) [1738], Bentham, 2011 [1789], Mill, 2010 [1861], Freud, 2009 [1911]). Bentham propose une caractérisation frappante de l’hédonisme psychologique :

La nature a placé l’humanité sous le gouvernement de deux maîtres souverains, la douleur et le plaisir. C’est à eux seuls d’indiquer ce que nous devons faire aussi bien que de déterminer ce que nous ferons. À leur trône, sont fixés, d’une part, la norme du bien et du mal, de l’autre, l’enchaînement des causes et des effets. Ils nous gouvernent dans tout ce que nous faisons, dans tout ce que nous disons, dans tout ce que nous pensons : tout effort que nous pouvons faire pour secouer le joug ne servira jamais qu’à le démontrer et à le confirmer. (Bentham, 2011 [1789], C hapitre 1)

Mais cette position se heurte à notre intuition forte que d’autres raisons, qui semblent totalement distinctes du plaisir et de la souffrance, jouent un rôle dans nos délibérations : des considérations altruistes, morales, relatives à notre statut social, etc. La position hédoniste peut être révisée en précisant que toutes nos motivations ne sont pas nécessairement hédonistes à première vue, mais elles sont ultimement réductibles à des motivations hédonistes. Ces dernières seraient en quelque sorte des motivations plus basiques que les autres.

Une autre manière d’accommoder nos intuitions anti-hédonistes est de postuler que nos motivations hédonistes émergent de mécanismes partiellement inconscients. Ainsi Freud, dans L’interprétation des rêves (2012 [1900]), fait du principe de plaisir (Lustprinzip), ou principe de plaisir-déplaisir, un des grands principes de régulation du fonctionnement psychique, tout particulièrement actif dans la partie inconsciente de notre vie psychique. Le principe de plaisir-déplaisir est confronté à des contraintes extérieures qui l’entravent, générant des déceptions. Le principe de réalité (introduit en 1911) est le principe de régulation psychique qui régulerait ces contraintes, toujours au service de la recherche du plaisir.

Dans la mesure où l’hédonisme psychologique peut être comprise comme une thèse empirique, les avancées scientifiques récentes peuvent être mobilisées pour enrichir le débat. Par exemple, le développement de la recherche sur les biais cognitifs, initiée par les travaux de Kahneman et Tversky (1979), a mené à la découverte de biais systématiques dans l’évaluation par les sujets d’expériences plaisantes ou déplaisantes passées ou futures (résumés par Kahneman, 1999). Par exemple, l’évaluation rétrospective d’un épisode déplaisant attribue un poids disproportionné au niveau de souffrance maximal atteint pendant l’épisode déplaisant et au niveau de souffrance atteint à la fin de l’épisode. Cela laisse à penser que les sujets ne prennent pas des décisions uniquement sur la base de la quantité totale de plaisir moins la souffrance qu’elle implique pour eux. Doit-on en conclure que les individus sont irrationnels, ou bien que d’autres considérations que la quantité totale de plaisir moins la souffrance entrent légitimement en compte dans les délibérations individuelles ? Kahneman opte pour l’hypothèse de l’irrationalité : en ne considérant pas la quantité totale de plaisir moins la souffrance, les sujets commettraient une erreur (Kahneman, 1999).

Par ailleurs, l’idée selon laquelle le plaisir régulerait, ou devrait réguler, les décisions des individus peut faire l’objet d’une mise en perspective historique, révélant que les modalités par lesquelles les individus poursuivent le plaisir évoluent en fonction du contexte social et culturel (Foucault, 1984).

La question de l’hédonisme psychologique qui vient d’être abordée doit être distinguée des questions liées à la valeur prudentielle et morale du plaisir, que nous développons maintenant.

b. Tous les plaisirs sont-ils bons pour le sujet ?

Dire que le plaisir, en général, est bon, semble trivial. Il est d’abord bon pour le sujet qui en fait l’expérience. Dans ce cas on peut dire que le plaisir a une valeur prudentielle : il contribue à rendre la vie de ce sujet bonne. Ainsi, dans des circonstances normales et toutes choses égales par ailleurs, le fait qu’une action cause du plaisir au sujet semble constituer une bonne raison de poursuivre cette action.

Mais en vertu de quoi est-ce que certaines expériences de plaisir, si ce n’est toutes, possèdent cette valeur prudentielle ? Une première réponse serait que le plaisir est intrinsèquement bon, il tire sa valeur prudentielle uniquement de ce qu’il est en soi. Cette affirmation est assez intuitive (pour Aydede, 2018, elle fait même partie de notre compréhension ordinaire du plaisir sensoriel), et d’autant plus convaincante si on définit d’emblée le plaisir en termes normatifs. Ainsi certains auteurs, dans le pôle internaliste (cf. Section 1.c), pensent qu’une expérience est plaisante parce qu’elle fait du bien (feels good) (Crisp, 2006 ; Smuts, 2011 ; Labukt, 2012), d’une manière qui n’est pas réductible à un désir ou à une autre entité mentale. Il s’agit plutôt d’une qualité phénoménale irréductible, une « primitive expérientielle ». Labukt, qui postule l’existence d’une multitude de tons hédoniques, les définit comme des « qualités phénoménales qui sont intrinsèquement bonnes en raison de leur ressenti » (Labukt, 2012).

La thèse du plaisir comme bien intrinsèque semble inaccessible aux tenants d’une approche attitudinale du plaisir, puisque pour eux le plaisir est défini de manière extrinsèque. Il ne peut donc être intrinsèquement bon. Le caractère bon du plaisir peut cependant être affirmé en soutenant que les objets de certaines attitudes acquièrent de la valeur simplement par le fait d’être objets de ces attitudes. Par exemple, l’attitude de désir conférerait automatiquement de la valeur à l’objet du désir, et le plaisir, en tant qu’objet de désir, serait donc bon (c’est par exemple la vision de Korsgaard, 1996).

Le débat autour de la question du plaisir comme bien intrinsèque est intimement lié à des questions plus générales sur nos raisons d’agir. Grossièrement, deux positions s’opposent sur la nature de nos raisons d’agir. Selon la conception humienne, une raison d’agir recouvre toujours au moins un désir. Par exemple, une bonne raison d’aller à la boulangerie est que je veux acheter du pain (désir), et je pense qu’il y a du pain à la boulangerie (croyance). Selon la conception opposée, certaines croyances, par exemple celles portant sur les faits moraux, peuvent directement motiver (Scanlon, 1999). Ainsi, la simple croyance qu’il est mal de tuer nous donnerait une raison de ne pas le faire.

Or, si le plaisir fournit des raisons qui motivent directement le sujet, comme ce serait le cas si le plaisir était un bien intrinsèque, alors la conception humienne de la motivation morale serait mise à mal : toute raison d’agir ne serait pas réductible à un désir, puisque la simple expérience de plaisir nous donnerait une raison d’agir (Parfit, 2011). Une manière de résister à cet assaut contre la conception humienne tout en acceptant que le plaisir est bien associé à des raisons d’agir est donc de défendre l’idée, en amont, que le plaisir est en fait réductible à un désir. Dans ce cas, le plaisir ne constituerait aucunement une anomalie à la conception humienne (Sobel, 2005).

Quand bien même tous les plaisirs seraient bons pour le sujet, il se pourrait que certains soient meilleurs que d’autres. Bien sûr, un plaisir qui dure longtemps semble certainement meilleur qu’un plaisir court. Par ailleurs, certains plaisirs sont associés empiriquement à des souffrances : en les précédant (le plaisir de la prise de drogue présage la souffrance de la dépendance), en leur succédant (un bon repas succédant à une faim tenace), ou en leur étant contemporains (le cas des plaisirs mélangés à de la souffrance, dévalorisés par Platon). Par ailleurs, certains plaisirs peuvent résulter de souffrances infligées à autrui. Voler quelque chose à quelqu’un peut procurer du plaisir au voleur aux dépens de la personne volée.

Dans les cas précédents, certains plaisirs se révèlent mauvais parce que les souffrances qui leur sont associées compensent le bien qu’ils font. Mais existe-il des plaisirs qui seraient moins bons, ou même mauvais en eux-mêmes, indépendamment des autres plaisirs et souffrances qui leur sont contingentement associées ? Il est courant de défendre l’idée que les plaisirs intellectuels sont meilleurs que les plaisirs sensoriels, et ce indépendamment de leur intensité. Par exemple, Mill affirme qu’« il serait absurde d’admettre que dans l’estimation des plaisirs on ne doit tenir compte que de la quantité », ce qui le mène à penser que « certaines espèces de plaisir sont plus désirables et plus précieuses que d’autres » (2010 [1861]). Quiconque a fait l’expérience des deux types de plaisir serait amené à reconnaître ces différences qualitatives entre plaisirs, et les conséquences qui en découlent. En particulier, selon Mill, les différences qualitatives peuvent rendre certains plaisirs infiniment supérieurs à d’autres, de telle manière qu’une quantité arbitraire de plaisir supérieur est toujours meilleure que n’importe quelle quantité de plaisir inférieur. Cela impliquerait par exemple que quelques secondes de plaisir esthétique vaudrait plus que n’importe quelle quantité de plaisir sexuel, ce qui semble contre-intuitif. Les idées de Mill ont suscité une littérature importante, à la fois interprétative et critique.

Qu’en est-il de plaisirs qui ne seraient pas moins bons, mais résolument mauvais ? Peut-être les plaisirs qui ont pour objet direct la souffrance d’autrui, comme ceux décrits par Sade, seraient véritablement mauvais. On retrouve cette idée chez beaucoup d’auteurs (parmi lesquels Platon, Aristote, Éthique à Nicomaque, X, 2, Broad, 1930, p. 234). Plus récemment, Feldman modernise cette préoccupation en nous invitant à considérer la vie d’un terroriste qui a pris beaucoup de plaisir dans la souffrance des enfants qu’il a tués (2004, p. 39). La qualité de la vie du terroriste a-t-elle été accrue par ces plaisirs ?

Un autre cas de plaisirs qui semblent avoir une valeur nulle voire négative concerne les plaisirs qui dépendent de croyances fausses de la part du sujet. Est-ce que ma joie à l’idée que la guerre est finie a de la valeur, s’il s’avère que je me trompe, et que la guerre n’est en fait pas finie ? Platon qualifierait ces plaisirs de faux (Philèbe), comme si les plaisirs eux-mêmes, et non les croyances sur lesquels ils reposent, pouvaient être véridiques, mais il s’agit bien sûr d’une idée contestable.

Enfin, on peut être tenté de restreindre la valeur prudentielle du plaisir par des considérations de mérite (Ross, 2002 [1930] ; Feldman, 2004). Un plaisir non-mérité perdrait alors de sa valeur, et ne contribuerait pas à rendre la vie du sujet bonne. Poussé à l’extrême, pour Kant seul le plaisir découlant du respect de la loi morale peut être véritablement considéré comme bon (Critique de la faculté de juger (2000) [1790]).

Toutes ces considérations peuvent aboutir à diverses recommandations sur comment mener sa vie. Les auteurs antiques, en particulier, mettent en avant des recommandations pratiques sur la base de leurs conceptions du plaisir et de leur théorie éthique sous-jacentes. Ainsi Platon valorise les plaisirs qui restaurent sans qu’il y ait un manque préalable de l’organisme. Ce sont les plaisirs purs visuels, auditifs, olfactifs, et les plaisirs purs de la connaissance (Philèbe, 50e-53c). Selon Platon, seuls ces plaisirs vrais sont bons et contribuent à la bonne vie, tandis que les autres sont des plaisirs associés à un processus de genèse et d’inévitable corruption, ce serait donc une « absurdité » de les poursuivre (55a). Selon Épicure, entre les plaisirs de mouvement, cinétiques, et ceux de repos, catastématiques (cf. Section 1.a), la personne sage doit rechercher les seconds, puisque les premiers surviennent à la suite de désirs qui peuvent être source de troubles. Il faut donc se contenter, de manière minimale, de satisfaire nos désirs qui sont à la fois naturels (ils répondent à un besoin naturel) et nécessaires (leur frustration ne serait pas source de troubles), pour pouvoir ensuite profiter des plaisirs catastématiques.

c. Le plaisir est-il la seule chose bonne pour le sujet ?

Si le plaisir contribue à la vie bonne, peut-on aller jusqu’à dire qu’il est la seule chose qui contribue à la vie bonne, c’est-à-dire la seule chose bonne pour les sujets ? Une réponse positive à cette question amènerait à la position hédoniste à propos du bien-être: seuls le plaisir et la souffrance auraient de la valeur prudentielle. Si par ailleurs, toute valeur est prudentielle (il s’agit d’une hypothèse welfariste), alors toutes les considérations morales se fondent ultimement sur des considérations relatives au plaisir et à la souffrance, et on peut qualifier cette position d’hédonisme normatif ou moral. Il s’agit d’une position défendue historiquement par Épicure, Aristippe, Locke (2002 [1689]), Hume (2009 [1738]), parmi bien d’autres, et qui sous-tend tout le courant de l’utilitarisme classique (Bentham, 2011 [1789] ; Mill, 2010 [1861] ; Sidgwick, 1981 [1907]), mais qui semble contre-intuitive à plusieurs égards.

Il est courant de penser que le plaisir n’est qu’une composante du bien-être parmi d’autres, et bien souvent une composante de rang inférieur. L’argument selon lequel le plaisir ne serait pas un bien à la hauteur de l’être humain, mais de l’animal, remonte déjà à Platon, qui réfute l’hédonisme dans plusieurs dialogues. Ainsi, dans le Gorgias, Socrate montre que, selon la logique hédoniste, la personne qui passerait son temps à se gratter pour soulager des démangeaisons intenses aurait en fait une vie exceptionnellement bonne. Dans le Philèbe, la vie réussie selon l’hédonisme, c’est-à-dire celle contenant beaucoup de plaisir et peu de souffrance, est comparée à celle d’un mollusque :

De plus, étant dépourvu de mémoire, il te serait sans doute même impossible de te souvenir que tu as joui, pas plus que le plaisir qui se produit à l’instant ne pourrait te laisser de souvenir. Ne possédant pas d’opinion vraie, tu croirais ne pas jouir au moment même où tu jouis et, incapable de raisonner, tu serais incapable de ne prévoir aucune jouissance à venir. Ce n’est pas une vie d’homme que tu vivrais, mais celle d’un mollusque ou d’un animal marin vivant dans une coquille. (2002, 21c)

La vie hédoniste ne semble nécessiter aucune capacité intellectuelle de la part du sujet, ce qui paraît absurde à Socrate dans ce dialogue, car ce sont ces capacités intellectuelles qui rendent une vie humaine bonne. La vie uniquement faite de plaisirs n’est donc pas adaptée à la nature humaine. Plus récemment, Moore reprochait aussi à l’hédonisme normatif de prescrire une vie de « bestialité » (1998 [1903]).

Une manière de contrer ces critiques serait de montrer que la maximisation des plaisirs dans notre vie ne requiert pas nécessairement de rejeter les plaisirs intellectuels. C’est pourquoi la hiérarchie stricte entre plaisirs supérieurs intellectuels et plaisirs inférieurs, envisagée par Mill, permet de résister à ces critiques. De même, Feldman utilise sa conception plus intellectuelle du plaisir (voir Section 1.d) pour revaloriser les plaisirs intellectuels et nier qu’une vie de plaisirs se réduirait à une vie bestiale.

Une autre façon d’interpréter le problème de la superficialité des plaisirs sensoriels s’éloigne fortement de l’esprit de l’hédonisme. Selon Haybron (2008), c’est parce qu’ils ont une influence trop limitée et périphérique sur la vie psychique du sujet que beaucoup de plaisirs sensoriels ne contribuent pas au bonheur du sujet, et in fine à son bien-être. Au contraire, les plaisirs qui comptent sont ceux qui touchent directement le « soi » du sujet en profondeur et qui reflètent des dispositions durables à s’engager de manière positive dans le monde qui l’entoure. C’est donc via les émotions et les humeurs positives, états mentaux plus stables et centraux dans la vie psychique du sujet, que les plaisirs contribuent au bien-être.

De manière plus générale, beaucoup de nos jugements réfléchis semblent montrer que d’autres choses sont désirables que le plaisir. Par exemple, l’expérience de pensée classique de la machine à expériences, développée par Nozick (2016 [1974]), peut être mobilisée pour attaquer l’hédonisme. Nozick nous invite à considérer la perspective de poursuivre une vie de plaisirs mais qui serait totalement illusoire, car vécue au sein d’un environnement virtuel. La position hédoniste nous recommanderait de juger positivement une telle vie, et pourtant le caractère virtuel de cette vie semble lui enlever toute valeur.

Enfin, une autre manière d’attaquer les fondations de l’hédonisme est d’envisager une vie dénuée de tout plaisir, mais qui semblerait tout de même bonne pour la personne qui la vit (par exemple, Feldman, 2004, 3.5). Une vie riche en accomplissements et jugée très satisfaisante par le sujet qui la vit, mais qui ne contient littéralement aucun plaisir, est-elle vraiment une vie sans valeur ?

La question de la contribution du plaisir à la bonne vie peut aussi être abordée depuis une perspective scientifique ; il s’agit d’un des principaux thèmes de recherche de la psychologie positive, à travers la notion d’émotion positive, qui inclut la plupart des affects que l’on qualifierait de plaisants, comme la joie, l’excitation ou la fierté (Lecomte, 2009). Pour ne prendre qu’un exemple, le modèle PERMA (Positive Emotion, Engagement, Relationships, Meaning, Accomplishments) développé par Seligman (2013 [2011]) comprend cinq composantes du bien-être, dont une correspond aux émotions positives. Alors que les philosophes apportent souvent une perspective normative sur cette question, les psychologues s’intéressent directement aux représentations des individus vis-à-vis de leur épanouissement. Ils peuvent ensuite se demander à quel point les expériences d’émotions positives dans la vie quotidienne permettent d’expliquer la satisfaction générale que les sujets éprouvent vis-à-vis de leur vie.

Accepter que le plaisir est la seule chose bonne pour les individus est une thèse qui concerne la nature du bien-être, et n’implique pas que le plaisir soit la seule chose bonne tout court, bien que les deux positions soient souvent confondues. La justice, la biodiversité, la beauté pourraient constituer des valeurs, quand bien même elles ne sont pas bonnes pour les individus (Moore, 1998 [1903], par exemple), c’est-à-dire qu’elles ne seraient pas des valeurs prudentielles. Moore prend l’exemple de la beauté, et nous invite à comparer un monde rempli des choses les plus belles à un monde où la seule chose qui existe serait un « tas de crasse » (heap of filth). Selon lui, indépendamment de l’existence de spectateurs pour apprécier ces belles choses, il semble bien que le premier soit meilleur que le second (1998 [1903], §50). L’hédonisme moral rejette cette idée : la seule chose bonne serait le plaisir, et un monde sans plaisir ni souffrance est un monde sans aucune valeur.

Bibliographie

Anscombe, G. E. M. (2000) [1957]. Intention (2nd ed). Cambridge: Harvard University Press.

Aristote. (2005). Éthique à Nicomaque. (R. Bodéüs, Trad.). Paris: Flammarion.

Armstrong, D. M. (1963). Bodily Sensations. (Vol. 13). London: Routledge & Kegan Paul.

Aydede, M. (2000). An Analysis of Pleasure Vis-à-Vis Pain. Philosophy and Phenomenological Research, 61(3), 537570.

Aydede, M. (2014). How to Unify Theories of Sensory Pleasure: An Adverbialist Proposal. Review of Philosophy and Psychology, 5(1), 119133.

Aydede, M. (2018). A Contemporary Account of Sensory Pleasure. In L. Shapiro (Éd.), Pleasure: A History (p. 239–266). New York: Oxford University Press.

Aydede, M., & Fulkerson, M. (2014). Affect: representationalists’ headache. Philosophical Studies, 170(2), 175198.

Bain, D. (2013). What makes pains unpleasant? Philosophical Studies, 166(1), 69–89.

Bain, D., & Brady, M. (2014). Pain, Pleasure, and Unpleasure. Review of Philosophy and Psychology, 5(1), 114.

Bentham, J. (2011) [1789]. Introduction aux principes de morale et de législation. (E. de Champs & J.-P. Cléro, Trad.). Paris: Vrin.

Berridge, K. C. (2009). Wanting and Liking: Observations from the Neuroscience and Psychology Laboratory. Inquiry, 52(4), 378398.

Berridge, K. C., & Kringelbach, M. L. (2013). Neuroscience of Affect: Brain Mechanisms of Pleasure and Displeasure. Current Opinion in Neurobiology, 23(3), 294303.

Berridge, K. C., & Kringelbach, M. L. (2015). Pleasure Systems in the Brain. Neuron, 86(3), 646664.

Berridge, K. C., & Valenstein, E. S. (1991). What psychological process mediates feeding evoked by electrical stimulation of the lateral hypothalamus? Behavioral Neuroscience, 105(1), 314.

Bramble, B. (2013). The Distinctive Feeling Theory of Pleasure. Philosophical Studies, 162(2), 201217.

Brandt, R. B. (1979). A Theory of the Good and the Right. Oxford : Clarendon Press.

Broad, C. D. (2000) [1930]. Five Types of Ethical Theory (Repr). London: Routledge.

Cabanac, M. (1992). Pleasure: the Common Currency. Journal of Theoretical Biology, 155(2), 173200.

Carson, T. L. (2000). Value and the Good Life. Notre Dame: University of Notre Dame Press.

Choi, S., & Fara, M. (2018). Dispositions. In E. N. Zalta (Éd.), The Stanford Encyclopedia of Philosophy (Fall 2018). Metaphysics Research Lab, Stanford University.

Corns, J. (2018). Recent Work on Pain. Analysis, 78(4), 737753.

Crisp, R. (2006). Hedonism Reconsidered. Philosophy and Phenomenological Research, 73(3), 619645.

Crisp, R., & Kringelbach, M. (2018). Higher and Lower Pleasures Revisited: Evidence from Neuroscience. Neuroethics, 11(2), 211215.

Csikszentmihalyi, M. (1991). Flow: the psychology of optimal experience. New York: HarperPerennial.

Damasio, A., & Carvalho, G. B. (2013). The Nature of Feelings: Evolutionary and Neurobiological Origins. Nature Reviews Neuroscience, 14(2), 143152.

Davis, W. (1981). A Theory of Happiness. American Philosophical Quarterly, 18(2), 111120.

Dickinson, A., & Balleine, B. (2009). Hedonics: The Cognitive–Motivational Interface. In M. L. Kringelbach & K. C. Berridge (Éd.), Pleasures of the brain. New York: Oxford University Press.

Diogène Laërce (1999). Vies et doctrines des philosophes illustres. (M.-O. Goulet-Cazé & J.-F. Balaudé, Éd.) (2ème édition). Paris: Librairie Générale Française.

Duncker, K. (1941). On Pleasure, Emotion, and Striving. Philosophy and Phenomenological Research, 1(4), 391.

Edwards, R. B. (1979). Pleasures and Pains: a Theory of Qualitative Hedonism. Ithaca: Cornell University Press.

Feldman, F. (1988). Two Questions about Pleasure. In D. S. Austin (Éd.), Philosophical Analysis: A Defense by Example. Kluwer Academic Pub.

Feldman, F. (1997). On the Intrinsic Value of Pleasures. Ethics, 107(3), 448466.

Feldman, F. (2004). Pleasure and the Good Life: Concerning the Nature, Varieties and Plausibility of Hedonism. Oxford: Clarendon Press.

Frijda, N. H. (2009). On the Nature and Function of Pleasure. In M. L. Kringelbach & K. C. Berridge (Éd.), Pleasures of the brain. New York: Oxford University Press.

Foucault, M. (1984). Histoire de la sexualité 2 : L’usage des plaisirs. Paris: Gallimard.

Freud, S. (2012) [1900]. L’interprétation du rêve. Paris: PUF.

Freud, S. (2009) [1911]. Formulations sur les deux principes de l’advenir psychique. In P. Cotet & R. Laine (Trad.), Œuvres complètes 1911-1913 (Vol. 11). Paris: PUF.

Goldstein, I. (1985). Hedonic Pluralism. Philosophical Studies, 48(1), 4955.

Gosling, J. C. B. (1969). Pleasure and Desire: The Case for Hedonism Reviewed. Oxford: Clarendon Press.

Hall, R. J. (2008). If It Itches, Scratch! Australasian Journal of Philosophy, 86(4), 525535.

Haybron, D. M. (2008). The Pursuit of Unhappiness: The Elusive Psychology of Well-Being. Oxford ; New York: Oxford University Press.

Heathwood, C. (2006). Desire Satisfactionism and Hedonism. Philosophical Studies, 128(3), 539563.

Heathwood, C. (2007). The Reduction of Sensory Pleasure to Desire. Philosophical Studies, 133(1), 2344.

Helm, B. W. (2002). Felt Evaluations: A Theory of Pleasure and Pain. American Philosophical Quarterly, 39(1), 1330.

Hume, D. (2009) [1738]. A Treatise of Human Nature. (D. F. Norton & M. J. Norton, Éd.). Oxford: Oxford University Press.

Jacobson, H. (2013). Killing the Messenger: Representationalism and the Painfulness of Pain. The Philosophical Quarterly, 63(252), 509519.

Kagan, S. (1992). The Limits of Well-Being. Social Philosophy and Policy, 9(02), 169–189.

Kahneman, D., & Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica, 47(2), 263.

Kahneman, D. (1999). Objective happiness. In D. Kahneman, E. Diener, & N. Schwarz (Éd.), Well-being: the foundations of hedonic psychology. New York: Russell Sage Foundation.

Kant, I. (2000) [1790]. Critique de la faculté de juger. (A. Renaut, Éd.). Paris: Flammarion.

Klein, C. (2007). An Imperative Theory of Pain. Journal of Philosophy, 104(10), 517532.

Korsgaard, C. M. (1996). The Sources of Normativity. (O. O’Neill, Éd.). Cambridge: Cambridge University Press.

Labukt, I. (2012). Hedonic Tone and the Heterogeneity of Pleasure. Utilitas, 24(02), 172199.

Lecomte, J. (Éd.). (2009). Introduction à la psychologie positive. Paris: Dunod.

LeDoux, J. (2012). Rethinking the Emotional Brain. Neuron, 73(4), 653676.

Lin, E. (2018). Attitudinal and Phenomenological Theories of Pleasure. Philosophy and Phenomenological Research.

Locke, J. (2002) [1689]. Essai sur l’entendement humain. (J.-M. Vienne, Trad.). Paris: Librairie philosophique J. Vrin.

Mason, E. (2007). The Nature of Pleasure: A Critique of Feldman. Utilitas, 19(03).

McDougall, W. (1949) [1923]. An Outline of Psychology (Thirtheenth Edition). London: Methuen & Co.

Meinong, A. (1906). Über die Erfahrungsgrundlagen unseres Wissens. Abhandlungen zur Didaktik und Philosophie der Naturwissenschaften, 1(6).

Mill, J. S. (2010) [1861]. L’utilitarisme. (G. Tanesse, Trad.). Paris: Flammarion.

Moen, O. M. (2013). The Unity and Commensurability of Pleasures and Pains. Philosophia, 41(2), 527543.

Moore, G. E. (1998) [1903]. Principia Ethica. (M. Gouverneur & R. Ogien, Trad.). Paris: PUF.

Nagel, T. (1974). What Is It Like to Be a Bat? The Philosophical Review, 83(4), 435.

traduit dans Nagel, T. (1983). Questions mortelles. Paris: PUF.

Nozick, R. (2016) [1974]. Anarchie, État et utopie. (E. d’Auzac de Lamartine & P.-E. Dauzat, Trad.) (3e édition). Paris: PUF.

Olds, J., & Milner, P. (1954). Positive reinforcement produced by electrical stimulation of septal area and other regions of rat brain. Journal of Comparative and Physiological Psychology, 47(6), 419427.

Parfit, D. (2011). On What Matters. Oxford: Oxford University Press.

Penelhum, T. (1957). The Logic of Pleasure. Philosophy and Phenomenological Research, 17(4), 488.

Perry, D. L. (1967). The Concept of Pleasure. Mouton & Co.

Place, U. T. (1954). The Concept of Heed. British Journal of Psychology, 45(4), 243255.

Platon. (2002). Philèbe. (J.-F. Pradeau, Trad.). Paris: GF Flammarion.

Platon. (2008). Œuvres complètes. (L. Brisson & L.-A. Dorion, Trad.). Paris: Flammarion.

Robinson, W. S. (2006). What Is it Like to Like? Philosophical Psychology, 19(6), 743765.

Ross, D. (2002) [1930]. The Right and the Good. (P. Stratton-Lake, Éd.). Oxford : Oxford University Press.

Ryle, G. (2009a) [1971]. Collected Papers. London ; New York: Routledge.

Ryle, G. (2009b) [1949]. The Concept of Mind. London ; New York: Routledge.

Scanlon, T. (1998). What We Owe to Each Other. Cambridge: Belknap Press of Harvard University Press.

Schroeder, T. (2001). Pleasure, Displeasure, and Representation. Canadian Journal of Philosophy, 31(4), 507530.

Schroeder, T. (2004). Three Faces of Desire. Oxford ; New York: Oxford University Press.

Seligman, M. E. P. (2013) [2011]. S’épanouir: pour un nouvel art du bonheur et du bien-être. Belfond.

Sidgwick, H. (1981) [1907]. The Methods of Ethics. Indianapolis: Hackett Pub. Co.

Smuts, A. (2011). The Feels Good Theory of Pleasure. Philosophical Studies, 155(2), 241265.

Sobel, D. (2005). Pain for Objectivists: The Case of Matters of Mere Taste. Ethical Theory and Moral Practice, 8(4), 437457.

Sumner, L. W. (1996). Welfare, Happiness, and Ethics. Oxford  ; New York: Oxford University Press.

Tye, M. (1995). Ten Problems of Consciousness: a representational theory of the phenomenal mind. Cambridge: MIT Press.

Tye, M. (2005). Another Look at Representationalism about Pain. In M. Aydede (Éd.), Pain: new essays on its nature and the methodology of its study. Cambridge: MIT Press.

von Wright, G. H. (1963). The Varieties of Goodness. London: Routledge and Kegan Paul.

Wolfsdorf, D. (2013). Pleasure in Ancient Greek Philosophy. Cambridge: Cambridge University Press.

Wundt, W. (2004) [1896]. Grundriss der Psychologie (Reprint von: Leipzig, Engelmann 1896). Düsseldorf: VDM, Müller.

Antonin Broi
Université Paris-Sorbonne
antonin.broi@gmail.com

 

Comment citer cet article?
Broi, A. (2020), « Plaisir », version Académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/plaisir-a/

By admin

Hume (A)

Publié en janvier 2020

Résumé

Philosophe et historien, David Hume (Edimbourg, 1711 – Edimbourg, 1776) est l’une des figures centrales des Lumières britanniques. Cette centralité, indéniable, est néanmoins paradoxale. En effet, les traits les plus caractéristiques des Lumières écossaises, par où elles se distinguent nettement de leurs homologues françaises, ne valent pas pour Hume. Elles se sont principalement développées dans les universités sans être en rupture avec les institutions politiques et leur newtonianisme couplé à une défense théiste de la religion naturelle les inclinent à un antiscepticisme. Or Hume n’est précisément pas comme les autres Lumières écossaises : il n’a jamais bénéficié d’un poste à l’université, a renouvelé les arguments sceptiques et a mené une critique sans concession de la religion (Broadie 2001 ; Harris & Tolonen 2015). Pourtant, dans la seconde moitié du XVIIIe siècle, au sein de l’Ecosse des Lumières, la discussion de ses écrits a nourri les philosophies d’un Thomas Reid, d’un Adam Smith ou d’un Dugald Stewart. Et depuis la fin du siècle, ses arguments furent lus et débattus, constituant des jalons importants dans la manière de poser et traiter – et souvent de déplacer – des questions de logique, d’éthique, et de critique.

Parce que ses positions échappent aux catégorisations rigides, et que ses arguments sont tout en nuance et en rigueur, la tentation du patchwork d’étiquettes clinquantes serait vaine (« empirisme », « scepticisme», « naturalisme », « anticontractualisme », « whiggish narratives » (histoire Whig), etc.). La présentation qui suit considérera d’abord l’unité de son œuvre et les thèses centrales de son anthropologie, puis relèvera quelques questions instruites par ses soins, qui furent ensuite reprises, enrichies ou déplacées par d’autres auteurs.


Table des matières

1. Une œuvre polymorphe

a. Biographie
b. La méthode et les styles

2. Une philosophie de la nature humaine

a. Une philosophie de la croyance
b. Une philosophie des passions

i. Passion et actionii.
ii. Passions indirectes et relations sociales

c. Une philosophie de l’appréciation

i. L’appréciation morale et pratique
ii. L’appréciation des obligations sociales et politiques
iii. L’appréciation de la beauté (et de l’harmonie : prolongements religieux)

3. Naturalisme et scepticisme

4. Questions humiennes

a. Causalité, induction, régularité
b. Liberté, nécessité, responsabilité
c. L’identité personnelle
c. Les faits et les valeurs

Bibliographie


1. Une œuvre polymorphe

a. Biographie

Hume lui-même a souhaité que son autobiographie My Own Life figurât en tête de ses œuvres publiées. La biographie de Mossner (1980) ainsi que la précieuse somme récemment publiée par James Harris (2015) pourront compléter les informations qui suivent.

Né à Edimbourg en 1711, Hume a deux ans lorsque son père meurt. Élevé dans une famille modeste sans être pauvre, aisée sans être fortunée, à la fin d’études qui l’ont conduit à séjourner en France au collège jésuite, on le destine à une profession de juriste. Mais son goût pour la littérature, pour l’humanisme des Anciens en particulier, le tourne vers l’écriture. Il fréquente assidûment les auteurs latins (Cicéron, Sénèque) – la connaissance des Grecs sera plus tardive. L’un des premiers textes conservés, l’Essai historique sur la chevalerie et l’honneur moderne, non publié de son vivant, porte la marque d’une inquiétude – que l’esprit s’attachant « à une idée du mérite ou de la perfection qui va au-delà de ce que ses facultés peuvent atteindre » ne connaisse plus le « juste milieu » (Hume 2001, p. 747). Une fausse idée de la nature humaine en effet produit des systèmes fantaisistes où la vertu et le bonheur sont des perfections inaccessibles aux hommes, et qui suscitent une profonde mélancolie. Hume en décrit la douloureuse expérience, en 1734, dans une lettre touchante où il consulte l’avis d’un médecin pour ce qui paraît être une dépression liée à l’étude ascétique de textes stoïciens (Hume 1932, I, p. 16). En tirer la leçon lui ouvrira une « nouvelle scène pour la pensée » (ibid.) où il apparaît nécessaire d’étudier la nature humaine à l’aune de la raison et de l’expérience pour éviter toute hypothèse justifiant un perfectionnisme chimérique.

C’est donc du côté de ce qui s’offre comme le meilleur rempart contre les hypothèses oiseuses, la méthode newtonienne, que Hume cherchera dans un premier temps l’assise d’une philosophie expérimentale propre à remplir cette fonction. Le Traité de la nature humaine, dont les deux premiers livres sur l’entendement et les passions sont publiés en 1739, et qui comprend un troisième livre sur l’évaluation morale à partir de 1740, prétend ainsi accomplir le projet scientifique d’une anatomie de la nature humaine, que Locke, Shaftesbury, Butler ou Hutcheson avaient appelée de leurs vœux. Pourtant Hume se déclarera insatisfait de l’ouvrage. Le succès éditorial, d’abord, le déçoit. Il écrira dans son autobiographie qu’il était « tombé mort-né des presses », avec un peu d’excès sans doute car des recensions en sont données, notamment en France, qui ne sont pas aussi sévères qu’il le prétend. Par contraste, les Essais moraux et littéraires que Hume publie en 1741 rencontrent la faveur du public. Mais ce n’est pas la seule raison de l’insatisfaction de Hume à l’égard du Traité. Plus tard, regrettant que ses détracteurs écossais Thomas Reid et James Beattie concentrent leurs attaques sur cette œuvre de jeunesse, il les priera instamment de ne plus prendre en compte que les Enquêtes respectivement publiées en 1748 et 1751 : l’Enquête sur l’entendement humain et l’Enquête sur les principes de la morale (Hume 2004 [1748], p. 35). Il y a donc des raisons philosophiques à l’insatisfaction laissée par le Traité. Le mystère s’épaissit dès lors que l’on s’aperçoit que ces ouvrages reprennent la plupart des thèses du Traité et ne font que le « refondre », de l’aveu même de l’auteur. La différence de forme, tout au moins, paraît évidente. Le Traité paraît plus systématique et plus métaphysique, là où les Enquêtes adoptent un style moins difficile et plus clair, éventuellement en renonçant aux explications les plus « précises » et « abstraites » ou, pour employer le terme de Hume, « abstruses ». Entretemps en effet, Hume a découvert l’écriture par « essai ». Il a notamment publié un ensemble de textes moralistes qui a rencontré la faveur du public. Plus tard encore, à la suite de ses Enquêtes, il publiera un ensemble d’essais politiques et économiques et plusieurs textes traitant du goût et de la religion, dont la forme brève ou dialoguée pourrait relever de ce que la fin du siècle nommera la philosophie « populaire ». Ainsi paraissent en 1752 les Discours politiques, et en 1757 les Quatre Dissertations comprenant La dissertation sur les passions, L’histoire naturelle de la religion, De la règle du goût et De la tragédie. Le Dialogue sur la religion naturelle composé dès les années 1750 paraîtra pour sa part de manière posthume en 1779.

La question est donc de savoir si Hume a abandonné une forme de philosophie pour une autre et quel sens donner à cette ou ces « forme(s) ». Ne s’agit-il que de rhétorique ? Ou a-t-il renoncé à un régime défini par un souci de vérité et de méthode ? Dans ce qui suit, nous donnerons une troisième réponse, qui prend acte du changement de style, y voit bel et bien une transformation dans la manière de philosopher, mais sans renoncer à la recherche précise des principes ni réfuter la plupart des acquis du Traité.

Or la question de la polymorphie se pose d’autant plus pour l’œuvre de Hume que, devenu bibliothécaire pour la faculté des Avocats d’Edimbourg en 1752, et disposant ainsi d’une importante source de documentation, il s’attelle à l’écriture d’une Histoire d’Angleterre par où il cherche à comprendre comment « s’étaient formées la plupart des fausses représentations qui divisent nos factions [celles de son époque en Grande-Bretagne] » (Ma vie, Hume 1999 [1777], p. 58). C’est donc un nouveau registre d’écriture qui est à l’œuvre dans les volumes de l’Histoire d’Angleterre, publiés à partir de 1754. L’intérêt pour la matière sociale et politique accompagne à partir de 1763 des missions en ambassade à Paris où il fréquente les salons et rencontre la société savante du temps, mais participe également à des actions diplomatiques telles que la négociation de prisonniers anglais.

Il est de retour à Edimbourg en 1769, fort d’une belle pension ; il y meurt en 1776 en laissant son ami Adam Smith juger de l’opportunité de publier le sulfureux manuscrit du Dialogue sur la religion naturelle. Ce sera finalement son neveu qui y procédera en 1779.

b. La méthode et les styles

Dans l’introduction au Traité, Hume expose la méthode expérimentale qui doit selon lui être suivie dans « les sujets moraux ». La philosophie morale au sens large désigne en effet l’étude de l’homme, par opposition à la philosophie naturelle. Leurs domaines sont séparés. Mais leurs méthodes, selon l’auteur du Traité, doivent être unifiées. En tant qu’anatomie de la nature humaine, la première doit partager avec la seconde une même méthode consistant à ne rien affirmer « au-delà de l’expérience », et à en dégager les principes les plus généraux possibles. Pour autant la première ne saurait se réduire à la seconde. Tout au contraire, l’hommage de Hume à Bacon, « père de la méthode expérimentale », ne doit pas masquer la distance qu’il prend avec lui (Abrégé, Hume 2016 [1740]). De même qu’après Thalès, il fallut un Socrate pour répondre à l’adage delphique, de même, la science de la nature humaine doit donner une nouvelle base aux études expérimentales (TNH I, intro., p. 34-35). Ainsi, d’après Hume, la science de l’homme n’est pas une branche produite par la science de la nature, c’est au contraire l’étude expérimentale de l’esprit humain, et en particulier du raisonnement sur « les questions de fait », qui présentera les conditions de la science des faits, qu’il s’agisse des faits sociaux (humains) ou des faits de la nature (en général). Il faut « marcher directement sur la capitale, sur le centre des sciences, sur la nature humaine elle-même » pour ensuite conquérir les domaines périphériques de la science, de la physique et des mathématiques jusqu’à la critique et la religion (ibid.).

A cette fin, la méthode adoptée dans l’étude de la nature humaine a un double versant, qui prend sous la plume de Hume une dimension singulièrement sceptique. Négativement, ne rien affirmer « au-delà de l’expérience » est une limite qui impose de n’étudier l’esprit qu’à travers les opérations mentales dont on peut faire l’expérience et ainsi d’exclure toute hypothèse essentialiste, notamment finaliste. L’écho au début de l’Essai de Locke est souvent souligné (Essai, I.i.2). Positivement, Hume demande de dégager des principes « aussi universels que possible » et les « causes les plus simples et les moins nombreuses » en suivant l’inspiration newtonienne de la voie inductive. Dans la question 31 de l’Optique en effet, Newton décrit cette voie qu’il nomme « analyse », consistant à remonter des causes particulières jusqu’aux causes les plus générales et à écarter les hypothèses qui ne se fondent pas sur l’expérience. Mais cette double ligne méthodologique prend une direction franchement sceptique dans le Traité. S’en tenir à l’expérience qui nous découvre la réalité des opérations mentales, d’après Hume, c’est accepter notre « ignorance » et, par là, dissiper notre désir de savoir (la curiosité) en lui donnant occasion de s’évanouir. Les régularités qui se dégagent des expériences peuvent gagner en exactitude grâce à une variation expérimentale soigneuse mais les causes premières n’en seront pas mieux déterminées. L’expérience nous fait éprouver la réalité de nos opérations mentales mais « toute hypothèse qui prétend découvrir les qualités originelles et ultimes de la nature humaine doit être d’emblée rejetée comme présomptueuse et chimérique » (TNH I, intro, p. 35). Ainsi, la voie d’explication qui prend le nom de synthèse chez les newtoniens oublie que l’explicans ne l’est jamais totalement et que son inférence n’est jamais que croyance. En outre la rupture avec une approche essentialiste s’interdit tout présupposé quant à une prétendue différence anthropologique : rien ne permet de dire que la nature des opérations mentales est différente de celle des animaux, qu’il s’agisse de croyance, de raisonnement ou même de passions et c’est donc à partir de l’expérience qu’il faut faire la distinction entre l’homme et les autres animaux. Elle permet également de refuser le finalisme impliqué par la philosophie du sens moral, Hume faisant valoir à Hutcheson : « Je ne puis accepter le sens que vous donnez au mot naturel. Il est fondé sur les causes finales, ce qui est une considération assez incertaine et peu philosophique. Car, je vous prie, quelle est la fin de l’homme ? Est-il créé pour la vertu ou pour le bonheur ? Pour cette vie ou pour la suivante ? Pour lui-même ou pour son auteur ? Votre définition du mot naturel dépend de la solution de ces questions qui sont sans issues et hors de mon dessein » (LH, I.13, tr. fr., M. Malherbe).

La science de la nature humaine n’échappe pas à la fragilité épistémologique introduite par la réduction de tout jugement à une croyance, bien qu’elle satisfasse l’exigence d’une connaissance de soi par cette conscience même, et en mettant au jour ses propres conditions mentales. Elle a ainsi les traits caractéristiques de la « science sceptique », telle que Joseph Glanvill la décrivait dans sa Scepsis Scientifica : la connaissance de soi consiste ici à prendre conscience de notre ignorance, à savoir que la vérité de nos facultés ne peut être établie par la raison, et que la science ne connaît donc que des phénomènes (apparences). Ainsi, appliquée à l’esprit humain, la science humienne décrit les opérations dont nous faisons l’expérience sans présupposer leur vérité. Ce faisant, elle ne renonce pas à une forme de rigueur puisqu’elle tente d’identifier le plus exactement possible les circonstances tenues pour déterminantes dans un phénomène. Mais ses raisonnements, menés sur des expériences (experiments) variées, ne peuvent prétendre qu’à une probabilité, aussi haut en soit le degré.

Dans la première section qui sert d’introduction à l’Enquête sur l’entendement humain, publiée en 1748, les préliminaires méthodologiques laissent la place à des considérations stylistiques sur la manière d’écrire la philosophie. Hume distingue en effet deux espèces radicalement différentes d’étudier l’homme (Malherbe 1995). D’un côté, le style de la philosophie claire (obvious) et facile (easy) est celui qui dépeint nos expériences les plus communes et s’adresse plutôt aux passions du lecteur. D’un autre côté, le style de la philosophie profonde et abstruse mène des raisonnements pour dégager les principes plus exacts possibles, mais ce faisant perd parfois la référence aux expériences communes, pointe des régularités abstraites, s’éloigne de l’expérience vive et risque de perdre en intelligibilité. Hume mène alors une comparaison qui reconnaît à la première son caractère agréable et utile puisqu’elle « éveille » et affine nos sentiments, et ainsi nous apprend à apprécier la vertu. Mais il admet également l’utilité de la seconde, à la faveur d’une analogie entre l’anatomiste et le peintre car le pinceau de celui-ci est guidé par les connaissances de celui-là (TNH III.iii.6, L’art de l’essai et EEH I). En outre, « l’analyse exacte » des pouvoirs de l’entendement humain, c’est-à-dire celle qui suit la méthode expérimentale, permet de se détourner des « questions abstruses ». Ainsi, la question de savoir s’il y a un objet au-delà et à l’origine de nos impressions sensibles, la question de savoir s’il y a une Cause intelligente et providentielle du monde ou encore la question de savoir si nos pouvoirs sont des facultés faites pour connaître la vérité tombent d’elles-mêmes. Car c’est bien par un raisonnement expérimental aussi exact que possible que les mots de « substance », de « cause », de « pouvoir » ou de « moi » reçoivent une critique sémantique, le sens d’un mot (l’idée) ne pouvant qu’être dérivé des impressions.

L’écart entre l’introduction du Traité et la première section de l’Enquête, quoique frappant, n’est pas un retournement radical car ils fournissent un traitement semblable de ces points. Deux éléments peuvent néanmoins expliquer le besoin de refonder le Traité. D’abord Hutcheson avait reproché à Hume de ne pas avoir présenté la vertu, dans le Traité, avec suffisamment de chaleur. La défense de la philosophie profonde, dans l’Enquête sur l’entendement humain, qui ne renonce pas à dégager des principes exacts, tout en reconnaissant le mérite de philosophie sentimentaliste pourrait être une réponse à Hutcheson. Ensuite Hume a découvert l’écriture par essai – écriture d’une philosophie moraliste, appréciative et exerçant le jugement critique dans ses textes moralistes publiés en 1741 et 1742. Ces essais portaient alors sur des sujets sociaux, que Hume caractérisera sous le titre d’ « objets de la conversation » et qui alimentaient au début du XVIIIe siècle la polite literature (littérature de sociabilité) en Grande-Bretagne, en particulier les périodiques The Spectator et The Craftsman. Il s’agissait d’apprécier par exemple le mariage (à la suite de Bacon), le Parlement britannique (à la suite de Bacon et Bolingbroke), mais aussi la condition humaine (à la suite de Pope). Ces exercices d’appréciation reçurent, plus que le Traité, l’approbation du public. La refondation du premier livre du Traité dans l’Enquête sur l’entendement humain (d’abord nommée Essais philosophiques), du troisième dans l’Enquête sur les principes de la morale et du second dans la Dissertation sur les passions répond au désir de le réécrire dans le style d’une polite philosophy qui, sans renoncer à l’exactitude, ne cède rien en matière d’intelligibilité, c’est-à-dire ne perd pas de vue la référence à l’expérience spontanée et commune. Cette refondation permettra de passer le test de l’approbation du public (Simon 2009). Le style même de la première section sur les différentes espèces de philosophie suppose de les comparer (par un raisonnement) et d’en apprécier les valeurs respectives (en jugeant de leurs plaisirs et leurs utilités). Dès lors le fameux motto lancé à la fin d’une prosopopée de la nature mérite d’être lu dans son contexte : « Soyez philosophe ; mais au milieu de toute votre philosophie, soyez encore un homme » (EEH I). Hume glisse ces mots, avant même d’examiner en détail les mérites de la philosophie exacte et profonde, dans la bouche d’une Nature personnifiée qui semble plaider en faveur de la philosophie claire et facile. Stewart (2002) y a plutôt vu l’expression d’une mauvaise philosophie abstruse qui, à tout sacrifier à la cause de la vertu, déploie des principes finalistes et essentialistes – la philosophie de Hutcheson. La question est ouverte de savoir si la Nature parle ici véritablement au nom de Hume.

Il est à tout le moins certain que les deux styles de philosophie, qui se sont formés sur des terrains séparés, celui des « opérations de l’esprits les plus complexes et les plus élevées » d’un côté et celui des « objets de la conversation » de l’autre, gagnent à s’instruire mutuellement. A la suite d’Alexandre Simon, on observera que le Traité montrait déjà que « la sociabilité est nécessaire à la pratique de la philosophie » et que sans elle la curiosité dégénère en mélancolie (Simon 2009, 2016). Pourtant, ainsi que l’a souligné Michel Malherbe, aucune synthèse de ces deux styles ne saurait être donnée qui constituerait la matrice unique de la véritable philosophie, à la fois intelligible et profonde (Malherbe 1995). Chacun de ces deux styles fait usage d’une opération mentale spécifique, le raisonnement comparatif qui permet de dégager des principes (circonstances tenues pour déterminantes) est l’instrument de la philosophie profonde et exacte ; et le goût ou appréciation est ce qui est mis en œuvre dans les essais de critique. Mais ces deux opérations peuvent être alliées dans différents régimes d’écriture (Etchegaray 2018). Les essais de 1741-1742 en ont déjà fait la preuve, qui ont un peu transformé de l’intérieur la polite literacy, en greffant la logique du raisonnement en matière de fait (raisonnement probable) sur le tronc de l’appréciation moraliste car ils ont dû alterner les points de vue sympathiques et entrer dans des appréciations différentes pour approcher une juste mesure critique. Les Enquêtes prennent cette fois pour objet les opérations de l’esprit sans négliger les conditions d’intelligibilité de l’écrit philosophique. À défaut, la philosophie risque de forger une représentation « chimérique » de la nature humaine dont les idéaux ont conduit le jeune Hume à la dépression que l’on a indiquée. Enfin, dans les essais d’économie politique parus en 1752, Hume rappelle explicitement l’intérêt d’une recherche exacte des principes pour la politique (cf. Du commerce, Hume 1999-2009 [1777]). L’appréciation critique ne s’y consacre plus à des thèmes « frivoles » (sic), mais revendique l’importance de ses objets : il s’agit de savoir à quoi tient le pouvoir politique, celui des gouvernants comme celui de la nation, et s’il repose sur l’industrie des sujets, sur la liberté ou encore sur le stock de monnaie. Les comparaisons font varier les situations expérimentales afin de circonscrire les circonstances les plus déterminantes et de dégager leur ordre d’influence, selon ce que le Traité appelait une « logique » de l’entendement (TNH I.iii.15). Par là, sont mises en évidence les conditions historiques, sociales et politiques où se forment les croyances sur le pouvoir et le progrès qui auront elles-aussi des effets sociaux. Outre ces objets politiques, il y a deux autres domaines dont les questions sont importantes et qui s’offrent à la philosophie critique sérieuse, instruite de la recherche « profonde » des principes : l’histoire et la religion. Là encore, la recherche méthodique d’une juste appréciation, par l’alternance des points de vue, et l’enquête dégageant les principes les plus réguliers, par la variation expérimentale, se croisent. Mais il ne s’agit pas tant, dans l’Histoire d’Angleterre, les Dissertations de 1757 et le Dialogue sur la religion naturelle, d’exercer son goût en le corrigeant par l’attention aux circonstances (ce que faisaient les essais moralistes), que d’expliquer la diversité culturelle des appréciations, des opinions et des croyances par une recherche des principes au travers de la variation historico-sociale. Un tel régime d’écriture donne lieu à une philosophie sociale qui fait apparaître des circonstances elles-mêmes socio-historiquement caractérisées. Quant à la religion, il gouverne deux principales approches, l’une, dans la perspective de cette anthropologie sociale, consiste en une Histoire naturelle de la religion qui cherche à expliquer les différents cultes et croyances apparus dans l’histoire de l’humanité, et l’autre, mène, dans le Dialogue sur la religion naturelle, une réflexion sur les évidences rationnelles dont la foi théiste peut s’autoriser. La première s’intéresse à l’origine des croyances religieuses, la seconde au fondement du théisme. Dans les deux cas ce sont des principes tenus pour causaux, des circonstances tenues pour déterminantes qu’il faut circonscrire, mais ce qu’on entend par « fondement » renvoie en outre à ce que l’on tient naturellement pour une raison de croire et dont Hume a dès le Traité envisagé deux espèces, les relations d’idées conçues a priori et les inférences factuelles de l’expérience. Pour comprendre les thèses de ces conquêtes philosophiques, il est donc nécessaire de mieux cerner le centre anthropologique de ces enquêtes. C’est ce que nous ferons dans ce qui suit.

2. Une philosophie de la nature humaine

a. Une philosophie de la croyance

L’étude descriptive de nos opérations mentales doit repérer les principes réguliers de deux types d’opérations : les actes de l’entendement (que sont par excellence la perception, le souvenir, le raisonnement démonstratif ou encore le jugement probable) et les affections (les passions et le goût qui font nos motivations et nos appréciations).

Le premier champ d’étude est couvert par le premier livre du Traité et la première Enquête, lesquels partent de la même thèse, génétique, d’après laquelle toute idée est dérivée d’impressions. Cette thèse a des implications sémantiques et critiques : une prétendue idée qui ne saurait être reconduite à une impression n’est qu’un mot creux ; une définition juste ne doit référer qu’aux impressions ou à ce qui peut en être dérivé. Une impression est ce qui se présente à l’esprit lorsque l’on sent quelque chose, comme sensation ou comme affection. Ainsi l’analyse des mots « substance », « temps », « espace », « cause », « moi » permettra de dénoncer tout usage obscur, aussi traditionnel soit-il en philosophie, renvoyant à une prétendue idée dont l’origine ne peut être reconduite à des sensations ou affections. Ce peut donc être une « impression de sensation » ou une « impression de réflexion » (ce dernier terme désignant les passions, lesquelles naissent à l’idée plaisante ou pénible de quelque chose). Une idée simple est la re-présentation d’une impression simple au double sens où elle copie en quelque façon cette impression (elle en est comme l’image ressemblante), et où elle consiste en un retour de l’impression à l’esprit qui a cependant perdu cette vivacité caractéristique de ce que nous sentons ou ressentons (Brun 2009a). Le principe génétique selon lequel toute idée dérive d’une impression est donc aisément établi pour les idées simples. Toutefois, cette dérivation ne se réduit pas toujours à une copie pure et simple. L’exemple célèbre de la « nuance manquante de bleu » sert à le montrer : en ayant déjà perçu toutes les nuances du spectre bleu, sauf une, il se peut que je sois en mesure de forger l’idée de cette dernière par approximation avec mes expériences réelles, en l’espèce mes impressions de bleu antérieures (TNH I.i.1 §10). Dès lors, il se peut que des idées dérivent d’impressions sans en être l’exact doublet, mais en conservant dans leur contenu une ressemblance avec celui des impressions. C’est le cas des idées d’espace et de temps, à l’analyse desquelles le Traité consacre une longue partie, défendant, contre les apories de Bayle, qu’elles ne sont pas décomposables à l’infini puisqu’elles sont dérivées de minima sensibles (Brahami et Madelrieux 2009).

Par le principe génétique, Hume prétend dépasser la querelle de l’innéisme. A première vue, on comprend pourtant qu’il sera rétrospectivement lu comme un empiriste, qui assigne à toute idée une origine impressive ou sensible. Mais Hume ne se range pas non plus à la position de Locke car il revendique la nécessité de ne rien présumer de l’origine de cette impression elle-même : affirmer, comme l’auteur de l’Essai sur l’entendement humain, que la sensation (que Hume nommerait « impression de sensation ») est l’effet d’un pouvoir qui se trouve au-delà d’elle, en un objet extra-mental, est un pas que Hume, qui revient à une connotation sceptique de la notion d’impression, refuse de faire. Nous ne savons pas si les impressions sont causées par une réalité au-delà d’elles. Et plus généralement, « il sera toujours impossible de décider avec exactitude si elles proviennent directement de l’objet, si elles sont produites par le pouvoir créateur de l’esprit, ou si elles procèdent de l’auteur de notre existence » (TNH I.iii.5, p. 146). Le parti-pris du Traité est donc clairement un ni-ni : ni réalisme lockéen, ni innéisme leibnizien ; ni matérialisme comme celui de Hobbes (qui faisait du phantasme l’effet d’une pression), ni idéalisme « à la » Pierre-Simon Foucher (qui avait nourri l’article « Pyrrhon » de Bayle), ni l’immatérialisme que Berkeley avait défendu (en affirmant la fausseté de la position de Locke). Mais c’est un ni-ni qui ne réfute dogmatiquement aucune de ces thèses parce qu’il ne prétend rien en savoir. Une lecture idéaliste, une exégèse phénoméniste ou une interprétation réaliste de la notion fondamentalement plastique qu’est l’impression ne sont pas exclues dogmatiquement mais elles la rigidifient indûment.

Il est des expériences où il est difficile de savoir si nous avons une impression ou une idée : le rêve, la fièvre, l’émotion violente par exemple (TNH I.i.1 §1). Cela vient du fait que l’esprit ne fait jamais qu’une distinction phénoménale entre l’impression et l’idée : il éprouve vivement la première alors que la seconde se présente avec une vivacité faible ou absente. Or dans ces expériences d’indiscernabilité, exploitées en un sens acataleptique par les sceptiques anciens et modernes, l’idée semble dotée d’une certaine vivacité. A l’inverse, il est de situations où nos impressions sont faibles. Toutefois, comme le dira l’Enquête, « la pensée la plus vive reste inférieure à la sensation la plus terne » (EEH II §1). Ainsi le parti-pris sceptique en ontologie (qui ne décide rien en faveur du réalisme ou de l’idéalisme) ne jette pas le discrédit, dans un premier temps du moins, sur la capacité commune à distinguer entre la veille et le rêve. Mais il est certain que la différenciation entre idée et impression en suspend la garantie métaphysique, parce que ces deux genres d’objets mentaux ou, pour reprendre le terme que Hume emprunte à Berkeley, ces deux genres de « perceptions », ne se distinguent peut-être qu’en degré (de vivacité), et non en nature.

Forte de ces thèses génétiques sur les idées, l’explication des opérations mentales peut dans un premier temps distinguer la perception sensible, le souvenir et la fiction. Hume réserve le plus souvent le terme de « perceptions » à ce qui est conçu dans toute opération de l’entendement : impressions et idées ; mais il lui arrive de l’employer pour désigner l’opération qui consiste à percevoir une chose par nos sens. La perception sensible sera un agrégat d’impressions. Quant au souvenir, c’est une idée encore vive. Et la fiction est une idée sans vivacité. Mais comment rendre compte de nos jugements et nos raisonnements en des faits non actuellement perçus ? Je crois que le soleil se lèvera demain. Ce n’est pas un souvenir, ce n’est donc pas l’idée encore vive du lever de soleil auquel j’ai pu un jour assister. Croire que César a existé, que l’or est fusible ou que je vais mourir un jour n’est pas davantage un souvenir. La première inférence pourrait être clairement la conclusion d’un raisonnement s’appuyant sur l’expérience que, jusqu’ici, le soleil s’est levé tous les jours. Mais comment rendre compte des raisonnements à partir du seul ameublement mental que sont les impressions et les idées ?

C’est une théorie des relations qui est nécessaire. Un raisonnement consiste en effet à « découvrir les relations constantes ou inconstantes » entre nos perceptions (impressions et idées). Les relations constantes sont découvertes par un raisonnement a priori et les relations qui peuvent varier sans que ne varient les idées sont déterminées par l’observation et l’expérience (a posteriori). Cette distinction entre deux types de raisonnements est communément appelée, dans la littérature secondaire, « fourche de Hume ». Les raisonnements démonstratifs ou a priori comparent les idées indépendamment de leurs vivacités et seront qualifiés d’abstraits dans la première Enquête ; les raisonnements a posteriori font des comparaisons factuelles (« concerning matter of fact », TNH I.iii.7). Or toute conclusion sur un fait non perçu, par exemple qu’un de mes amis est sur une île lointaine en ce moment, suppose d’après Hume de faire un lien causal entre une impression présente et l’idée de ce fait (qui n’est qu’une idée puisqu’on ne le perçoit pas). Si l’on nous demande pourquoi l’on pense que notre ami est sur une île lointaine en ce moment, on indiquera par exemple que l’on vient de recevoir une carte postale de sa part. De la perception présente de la carte postale, j’en infère un fait que je ne perçois pas. C’est donc à l’élucidation de ce lien (connexion) causal qu’il faut procéder (TNH I.iii.2-7), lien que nous faisons lorsqu’une impression nous détermine à concevoir une idée. Or ce lien par lequel la conception d’une impression ne manque pas d’introduire la conception d’une autre idée, alors même que leur relation n’est pas immuable, est associatif. A la différence de Locke et Hutcheson qui attribuaient aux associations d’idées la cause de délires et d’aveuglements, y compris philosophiques, aux rapports d’idées les plus rationnels, Hume, les met au cœur du raisonnement sur les faits. Ce qui permet d’inférer un fait non perçu est donc une association (et non une relation établie par comparaison), c’est-à-dire une transition de l’imagination, devenue habituelle. L’idée d’une connexion causale est dérivée de l’impression de réflexion (le sentiment d’être déterminé à passer à l’idée du fait non perçu).

Toutefois passer à l’idée du fait non perçu ne suffit pas à rendre compte de la croyance en ce fait. Il faut encore que cette idée soit vive. Pourtant, comme le fait n’est pas actuellement perçu, elle doit n’être qu’une idée. Hume doit donc compléter la genèse qu’il proposait au début du Traité ou de l’Enquête afin d’expliquer comment une idée peut devenir vive. Puisque la croyance en un fait non perçu suppose invariablement une impression présente avec laquelle l’idée de ce fait est causalement associée, la seule explication est que la vivacité de l’impression soit transmise à l’idée sous l’effet de l’association devenue habituelle. Ainsi sent-on, à la vue de la fumée, la présence du feu (TNH I.iii.7 et I.iii.8 § 11).

La croyance (belief) est donc un certain feeling. L’assentiment n’est donc pas un acte de volonté libre donné à une conception de l’entendement, car il est une manière d’éprouver cette conception. Une idée seule ne suscite pas une telle croyance, mais sous l’effet de la coutume, elle gagne en « force ». C’est ainsi que les croyances par inculcation sont, sous l’effet de la répétition, implantées dans les esprits (I.iii.9 § 14). De la même façon, les croyances dans les faits non perçus, à partir d’une observation présente, sont d’autant plus fortes que les observations de conjonctions passées étaient habituelles.

Hume précise la définition de la croyance dans l’Appendice adjoint à l’édition de 1740 du Traité de la nature humaine, conscient que les expressions employées pour la caractériser ne sont pas pleinement satisfaisantes. Toutefois, cette difficulté tient au dilemme devant lequel se tient l’anatomiste de l’esprit : ou bien définir la croyance réaliste comme un jugement sur ce qui existe en la reconduisant à une définition logique du jugement, ou bien la renvoyer à un feeling qui semble réduire au silence, par l’appel à l’expérience intime, toute description logique. La première option est la tentative lockéenne d’identifier notre croyance au réel à un jugement d’existence qui serait un rapport d’idées (voire le rapport d’une idée à l’idée d’existence). Qu’elle fût authentiquement celle de Locke ou seulement celle de logiciens inspirés par lui, elle est en tous les cas absolument écartée par Hume. Le seconde option, embrassée par Hume dans le Traité comme dans la Première Enquête, fait courir un risque que l’on peut qualifier de mystérianiste car il est du même ordre que celui que O. Flanagan suspectera chez Th. Nagel (App. § 3 et EEH V.ii ; Flanagan 1991). Toutefois, la philosophie expérimentale ne reste pas muette : elle peut, en appliquant la méthode qui lui est propre (dégager des régularités au sein des variations expérimentales), repérer les causes et les effets de la croyance. Elle peut ainsi la considérer phénoménalement comme l’expérience intime de ce que cela fait de croire, ou encore comme la cause d’effets que l’on éprouve et que l’on observe (ce que Peirce nommera une disposition), ou enfin comme l’effet de certains principes identifiés à des « circonstances » régulières. Notons qu’il n’est pas certain que ces trois approches soient toujours conciliables ni même indispensables. A tout le moins, c’est ainsi également que la question de la différence entre croyance et passion peut être instruite. Car le véritable enjeu est, pour le formuler dans les termes de Pascal, que s’il ne faut pas distinguer une croyance, dite « naturelle », qui se fait « par preuve » et une autre, qui se ferait « par agrément » et serait « contre la nature », il faut tout de même comprendre que l’on ne croit pas uniquement à volonté (Cf. B. Pascal, De l’esprit géométrique, « L’art de persuader », §1-2, Sellier, p. 695). Hume rejette, on l’a dit, une théorie de l’assentiment libre (qui verrait en la volonté une faculté d’élection ou de détermination). Mais la croyance n’est-elle pas une impression de réflexion ajoutée à la conception, c’est-à-dire une passion ? Dans l’Appendice, Hume se contente de dire qu’il n’est pas besoin de l’affirmer dogmatiquement. La croyance est un feeling ou sentiment tel que la différence communément faite entre la croyance en une réalité (historique par exemple) et la fiction fantaisiste (forgée en conscience, comme une fiction littéraire) est en général sensible. La définition de la croyance comme « conception plus ferme » (ou encore « plus vive », « plus solide ») suffit à expliquer la différence phénoménale de ces expériences mentales et à rendre compte de la diversité de leurs effets sans avoir à postuler d’autres thèses sur l’essence de la croyance ou de la passion (App § 4, EEH, V.ii ; Etchegaray 2009).

En outre, loin d’être réduite au silence, la philosophie expérimentale humienne développe une théorie des probabilités qui rend précisément compte de ce sentiment par lequel on éprouve une vivacité plus ou moins grande de l’idée du fait considéré (TNH I.iii.11 à 13 et EEH vi). Elle le fait en supprimant le partage que Malebranche, par exemple, avait maintenu entre le raisonnement probable et les sources de vivacité en disant : « Ne confondez jamais l’évidence, qui résulte de la comparaison des idées, avec la vivacité des sentiments qui vous touchent et qui vous ébranlent » (Malebranche, Entretiens sur la métaphysique, III, art. 14, § 8). Elle efface également la différence de nature que Locke voyait entre les justes motifs de croyance et les associations de la fantaisie (Locke, Essai concernant l’entendement humain, I.33). La probabilité, c’est-à-dire la crédibilité d’un fait, peut être estimée de plusieurs façons dont deux sont reconnues pour scientifiques et ont, sous la plume de Hume, le nom de « probabilités philosophiques », à savoir la « probabilité des causes » (lorsque le fait non perçu auquel on croit a des causes qu’on connaît) ou la « probabilité des chances » (lorsqu’on ignore les causes du fait en question). A chaque fois, dans le flux de l’expérience (experience) passée, des expériences passées similaires se constituent en complexes de circonstances invariantes, tenues pour déterminantes, nommées experiments. Lorsque l’expérience (expérience) passée est contradictoire, c’est-à-dire lorsque certains experiments ne comprenaient pas le fait en question, le degré de croyance est proportionné au nombre d’experiments le plus élevé. C’est ainsi que Hume réinterprète un motto classique selon laquelle la croyance doit être proportionnée à l’évidence (EEH X.i). Les autres façons d’estimer la probabilité reposent sur une psychologie qui n’est pas absolument hétérogène à cette estimation philosophique. Qu’il s’agisse du phénomène par lequel la vivacité se renforce à mesure qu’une idée se représente ou encore des « règles générales » qui développent une opération mentale particulière dans certaines circonstances, c’est toujours la force du feeling qui définit le degré de croyance. Les règles générales peuvent même venir expliquer une forme remarquable de probabilité philosophique. Parfois en effet, il n’est pas nécessaire d’opérer un calcul sur des experiments effectivement rencontrés car à partir d’un seul cas, l’attente d’une probabilité s’ensuit en raisonnant non tant sur l’éventail expérimental des objets et circonstances similaires que sur l’ensemble des expériences de croyances semblables qui se sont révélées fiables. Les « règles générales » ne sont donc pas des thèses abstraites ou des maximes principielles ; ce sont, pour l’esprit, des manières régulières d’opérer – dans le cas qui nous occupe des manières régulières de croire dont le sens est descriptif et praxique. Dès lors pour proposer des règles logiques au sens prescriptif, c’est-à-dire des prescriptions à suivre dans une enquête motivée par la curiosité (c’est-à-dire le « désir de vérité »), il faudra dégager les processus de croyance régulièrement fiables (cf. TNH I.iii.15).

Ainsi, malgré son scepticisme en ontologie, la science de la nature humaine se permet de décrire les opérations mentales que sont le raisonnement et le jugement et d’expliquer la façon dont l’esprit humain reconnaît des raisons de croire. Il n’est pas irrationnel de croire en une causalité, mais la valeur gnoséologique d’une telle croyance doit être reconsidérée à la lumière des acquis sémantiques et épistémologiques de l’enquête. La définition de la connexion nécessaire d’abord ne peut reconduire qu’à deux expériences : une observation (le constat d’une conjonction constante d’une part), ou une expérience mentale (le passage d’une impression à l’idée conjointe d’autre part). D’un point de vue expérimental, notre croyance causale ne peut être expliquée que par l’une de ces deux circonstances invariables, qui d’ailleurs renvoient l’une à l’autre.

La différence entre préjugé et croyance bien fondée n’est pas donnée, mais elle se construit dans l’activité doxastique, notamment en jugeant de nos croyances, en raisonnant sur nos opérations mentales. Tel est l’intérêt des voyages et de l’histoire qui viennent pluraliser et élargir nos expériences, pour donner plus de probabilité à nos croyances, et servent de matière au philosophe pour comprendre l’autorité des plus communes d’entre elles (Gautier 2009).

Jusque là, le scepticisme se rend donc compatible avec la promotion de l’enquête. Mais un retournement dramatique s’opère lorsque Hume en vient à considérer explicitement les arguments sceptiques, dans la Quatrième partie du Livre I du Traité. Ce sont alors de véritables raisonnements (par comparaison d’idées, soit abstraites soit a posteriori) qui produisent des quandaries, des embarras au sein même de la croyance, c’est-à-dire dans la transmission de vivacité.

Ces raisonnements prennent pour objet le fait de la vérité de nos opérations mentales. En effet, la question de savoir si nos opérations mentales (telles que la perception, le raisonnement probable, l’intuition et la démonstration) sont trompeuses peut être instruite d’un point de vue expérimental (en appliquant un raisonnement probable bien conduit) : peut-on attendre, et avec quel degré de probabilité philosophique, qu’une croyance produite par la perception, le raisonnement probable, l’intuition ou la démonstration soit vraie, c’est-à-dire non erronée, ou non démentie ? Une telle réflexion concernant l’intuition ou la démonstration conduira inévitablement à des considérations sur l’expérience de l’erreur dans nos calculs ou la pratique des mathématiques. Mais elle fait alors de la vérité mathématique une question de fait qui relève non des rapports quantitatifs qui existent par eux-mêmes entre les idées, que d’une réflexion sur les conditions sociales et anthropologiques de la croyance (TNH I.iv.1). Or dans le Traité Hume fait valoir que la suggestion sceptique demande également de prendre en compte l’expérience de l’erreur pour évaluer la vérité du raisonnement probable lui-même. Suivant un argument dont la rigueur logique sera ensuite contestée par Reid (et qui sera d’ailleurs abandonné par Hume dans l’Enquête), la probabilité d’un jugement p conclu par raisonnement probable devrait être pondérée par la prise en compte des expériences où le raisonnement probable s’est révélé erroné ; cette pondération devrait alors donner lieu à un jugement p’, lui-même susceptible d’une pondération équivalente (ce qui remonterait un peu la probabilité de p). A la fin, selon le Traité, par un effet de sorite, et une réitération infinie de la pondération en fonction des expériences d’erreur, le jugement p devrait voir sa probabilité réduite à néant. Or, le point que Hume veut ici établir est non pas qu’un tel raisonnement supprime toute vivacité au fait attendu par p, mais tout au contraire que, en dépit de tout raisonnement sceptique du type de celui qui vient d’être présenté, la vivacité de nos jugements probables particuliers se maintient. C’est là la preuve que la croyance n’est qu’un feeling qui obéit à des principes dont nous ne serions énoncer la raison première. Lorsqu’en tant que philosophe nous considérons la fiabilité de nos facultés par un raisonnement sur les questions de fait, nous pouvons certes éprouver une sorte de contradiction de la vivacité, mais lorsque nous sommes engagés dans la vie commune et estimons les probabilités particulières de tels ou tels faits, demeurent les principes naturels de probabilité. Dans la dernière section de l’Enquête, Hume montrera ainsi que le scepticisme le plus intéressant ne porte pas tant sur la valeur des facultés comme telles que sur la fiabilité de l’usage que nous en faisons (Jaffro 2011).

Jusque là, donc, l’interrogation sur la fiabilité de nos facultés n’a pas affecté la possibilité de décrire la psychologie de la croyance. Une catastrophe de taille se produit néanmoins à la fin du premier livre du Traité, lorsque Hume en vient à traiter spécifiquement des arguments sceptiques à l’égard de la perception sensible. Rappelons que le lecteur pouvait s’attendre à ce que cette opération soit l’agrégation d’impressions de sensation. Le problème vient de ce que la croyance sensible (en ce que nous prétendons percevoir) dépasse considérablement nos impressions. Croire en l’existence d’un objet perçu, en effet, c’est croire qu’il continue d’exister malgré l’interruption de nos perceptions. Et pourtant aucune expérience ne nous permet de conclure, même avec la plus maigre probabilité, au fait qu’il continue d’exister. Nous n’avons jamais affaire qu’à nos perceptions et ne faisons jamais d’expérience de la correspondance entre une perception et un objet extra mental. L’anatomie de l’esprit a même congédié toute hypothèse concernant un objet extra-mental distinct de nos perceptions (I.ii.6). Dès lors la philosophie de Hume rencontre ici la contre-évidence la plus extrême : comment la croyance en l’existence des corps (malgré l’interruption de nos perceptions) est-elle tout bonnement possible ? Berkeley pensait qu’à la source du scepticisme moderne, il y a « l’hypothèse philosophique d’une double existence » : d’un côté, celle de la perception et de l’autre, celle de la chose subsistant hors de l’esprit, c’est-à-dire de façon non perçue (PCU, I. § 86-87). Or, selon Hume, à la source de cette hypothèse philosophique, effectivement oiseuse, il y a une contradiction de la croyance naturelle : il n’y a nulle évidence en faveur d’une existence au-delà de nos perceptions, pourtant nous croyons naturellement – c’est un fait – en une existence continue et indépendante malgré l’interruption de nos perceptions (TNH, I.iv.2). Une fois encore, ce qui alimente l’embarras de la philosophie expérimentale bien conduite c’est le fait que la croyance naturelle en l’existence des corps se maintienne alors même qu’un raisonnement probable naturel devrait la suspendre puisque, loin d’avoir des expériences venant à son appui, nous avons des expériences communes, retenues par les tropes d’Enésidème, en faveur de l’indistinction entre objet et perception. Par exemple, « si nous pressons un doigt sur notre œil, nous percevons immédiatement que tous les objets deviennent doubles », et la même conclusion devrait suivre de « la diminution ou accroissement apparents des objets suivant leurs distance », des « modifications de leurs formes » et des « changements de couleur ou d’autres qualités dues à nos maladies et à nos indispositions » (I.iv.2, p. 295-296). Quelle raison de croire peut ici être invoquée ?

En somme, l’hypothèse de la double existence découle de la croyance naturelle en une existence continue et indépendant malgré l’interruption de nos perceptions. Mais là où Berkeley voyait dans le refus de la double existence une réponse au scepticisme, Hume aperçoit que l’interruption de nos perceptions pose un nouveau problème d’explication et de justification. Le versant explicatif de la réponse sera donné avec satisfaction, en puisant dans les ressources de la psychologie associationniste : l’imagination s’exerce envers les impressions ressemblantes en vertu d’une « règle générale » contractée lorsqu’elle opère sur une perception identique, et c’est ainsi que l’on en vient à forger la fiction d’une identité continue malgré l’interruption, c’est-à-dire d’une identité indépendante de nos perceptions. La question de la justification, en revanche, reste pendante. Et c’est ici que pour justifier une fiction qui est naturellement produite mais n’a aucune évidence expérimentale, la philosophie a forgé l’hypothèse de la double existence, qui s’est déclinée dans différents systèmes, anciens et modernes (I.iv.3-5). La crise produite par la réflexion sur l’interruption des perceptions est donc profonde : le raisonnement probable dont la fiabilité était, au moins à l’usage, admise est désormais en contradiction avec la croyance en l’existence continue ou indépendante des corps perçus. Elle se répercute dans l’enquête sur la genèse de l’idée d’identité personnelle car, même si l’on forge la fiction d’une identité personnelle qui fasse le lien entre les perceptions, celles-ci restent discernables les unes des autres et la question est alors de comprendre ce que l’on conçoit même dans l’idée de soi.

b. Une philosophie des passions

Pour servir de base à l’étude des sujets sociaux, éthiques, critiques ou politiques, la philosophie de la nature humaine doit considérer les hommes en situation de société. Bien que la croyance et la passion soient « originelles » au sens où ce sont des faits de nature donnés avec notre constitution, leur expérience est sociale. Toutefois les principes réguliers des croyances peuvent définir un exercice logique théoriquement isolé des circonstances sociales, tandis que l’exercice des passions ne s’en sépare jamais. Car l’affectivité se tisse dans un rapport à soi, fier ou honteux, qui passe aussi par le rapport aux autres, et dans un rapport aux autres, d’amour ou de haine, qui passe aussi par le rapport à soi.

Les passions s’accompagnent de croyances particulières qui, à défaut de savoir ce qu’est le soi, on l’a vu, déterminent ce qui est à soi et à autrui, de soi et d’autrui, lié à soi ou à autrui. Ainsi la philosophie des passions de Hume intègre en situation sa théorie de la croyance, en particulier son analyse de la croyance dans les questions de fait (Bergont 2018). Même si elles s’accompagnent mutuellement, croyance et passion sont deux faits de nature irréductibles l’un à l’autre. En tant que conception, la première est représentative et porte sur un objet ; la seconde n’est qu’une « modification originelle » de l’existence, une pure manière d’être qui n’a pas d’intentionnalité puisqu’ « elle ne contient aucune qualité représentative qui en fasse une copie d’une autre existence ou d’une autre modification » (II.iii.3, p. 270).

Au XVIIe siècle les rapports sociaux ont fait l’objet de descriptions moralistes qui ont mis en évidence le rôle de la gloire et du désir de réputation (La Rochefoucauld, Pascal, Nicole). En outre, les ouvrages classiques proposant une science des passions, éventuellement en préalable à un système d’éthique ou de politique, ont examiné les causes d’amour, sources de préférences sociales, et de haine, sources de conflits sociaux (Descartes, Hobbes, Spinoza). Ils ont notamment repéré le rôle d’un sentiment pour le semblable, fellow-feeling (Hobbes) ou sympatheia (Spinoza), à l’œuvre dans la compassion ou la pitié. Hume a donc repris l’analyse des passions d’un point de vue expérimental. En dégageant les principes de la fierté (pride) et de l’humilité ou la honte (humility), ceux de l’amour et de la haine, il a sans doute voulu se donner les bases d’une critique sociale développée dans ses premiers essais, mais c’est une véritable anthropologie sociale qu’il a fondée, ouvrant la voie autant à une philosophie de la critique et de la politique qu’à l’étude socio-historique. Ces passions sont par elles-mêmes non point actives mais appréciatives (se plaisant ou se déplaisant à ce qui vient de soi ou des autres), à la différence des passions « directes » qui, elles, font agir (telles le désir, l’aversion, la crainte, la bienveillance ou l’espoir) et font l’objet d’un examen donnant lieu à une théorie de la motivation et fournissant donc les linéaments d’une philosophie de l’action. Suivant l’ordre de présentation de la Dissertation sur les passions, inverse de celui du Livre II du Traité, nous commencerons par les passions directes avant de considérer les passions indirectes, qui nous conduirons à la problématique de l’appréciation.

Cette distinction entre passions directes et passions indirectes fait écho à un passage de An Essay on the Nature and Conduct of Passions and Affections (section 2) où Hutcheson distinguait entre les affections qui inclinent directement à agir pour se procurer le plaisir ou fuir la peine et les affections qui naissent d’une conception ou idée d’une chose plaisante ou déplaisante sans qu’on ne tende à se la procurer ou à la fuir. On verra cependant que Hume renouvelle considérablement la portée de cette distinction. Deux autres distinctions sont posées en préliminaire dans le Traité. Il s’agit de la distinction entre impression de sensation et impression de réflexion, qui est également inspirée de ce passage de Hutcheson (et non seulement, comme on pourrait le croire, de la distinction lockéenne entre les deux sources de nos idées). Hutcheson relevait que les passions qui ne sont pas directement motivantes, comme la joie et la tristesse, se rapprochent des sensations parce qu’elles sont purement passives et ne font pas agir, mais qu’elles s’en distinguent parce qu’elles naissent d’une certaine réflexion c’est-à-dire de la conception d’un objet susceptible de nous donner du plaisir ou de la peine. Hume en retient qu’il y a des impressions qui doivent être distinguées des sensations – il s’agit de toutes les passions, qu’elles soient directes ou indirectes. Ainsi, chez Hume le terme d’impression de réflexion recouvre plus que ce qu’Hutcheson y comprenait, désir et aversion inclus. Plus généralement Hume donne ce nom à toutes les affections, y compris de celles qui sont susceptibles d’apprécier les passions elles-mêmes et auxquelles Hutcheson réservait le nom de goût ou de « sens » (moral sense ; sense of beauty).

Le goût étant par excellence une passion calme, nous voilà conduits au dernier couple (violente/calme). Une fois encore, la distinction entre passion violente et passion calme était déjà présente chez Hutcheson, mais elle reposait sur une cosmologie finaliste reprenant la distinction stoïcienne entre perturbatio et constantia : dans ce cadre, une passion violente était donc une passion qui allait contre sa propre nature et son propre bien – comme une colère furieuse est à la fois pathologique et nocive – et une passion calme une affection qui accomplissait sa nature en faisant son propre bien – un désir pour son propre bonheur en tant qu’il est en harmonie avec celui des autres (Hutcheson 2016 [1754], p. 80 – cf. Jaffro 2009). Dès lors que, comme il le dit nettement à Hutcheson dans la lettre de septembre 1739 citée plus haut, Hume rejette le sens finaliste du mot « naturel », l’évaluation de cette violence ne peut plus être que phénoménale (sans critère métaphysique) et relative (comparativement à une autre passion). On estime qu’une passion est plus violente qu’une autre si on la ressent plus fortement ou si elle a des effets plus déplaisants qu’une autre. Dans le cas d’une passion directe, l’expérience de cette violence peut être émotionnelle ou pratique. Par exemple, il peut s’agir d’un désir de vengeance fortement ressenti mais sans effet ou bien d’un froid ressentiment poussant à des actes cruels.

 i. Passion et action

A son époque comme de nos jours, la première question qui vient à l’esprit du lecteur de Hume concernant le rapport du désir à l’action est de savoir s’il permet de penser une liberté d’agir. La réponse de Hume, préparée par sa critique de la causalité, consiste à passer les termes polarisant la « controverse de la liberté et de la nécessité » au crible de son examen génétique, sémantique et critique. En terre britannique, une telle controverse avait pris un tournant radical avec la polémique entre Thomas Hobbes et l’Evêque Bramhall. La position hobbesienne, déterministe et mécaniste, faisait du désir un mouvement actif causé par la réaction de notre conatus à la représentation d’un objet plaisant, réduisait la délibération à une alternance de désirs et identifiait la volonté au dernier désir de cette succession, qui précède et cause l’action. Bramhall s’était élevé contre cette conception parce que selon lui elle contredisait la « vraie liberté » des hommes consistant dans le libre-arbitre (free-will), qu’elle ruinait la responsabilité (notamment la responsabilité adamienne du péché) et rendait vains et injustes la louange et le blâme, la récompense et le châtiment – une conception faisant le lit de l’impiété.

Mais dès lors que la nécessité est redéfinie, d’après l’analyse de la causalité, comme une conjonction constante, le lien entre désir et action pourra être dit « nécessaire » sans qu’aucun autre lien ne soit affirmé qu’une conjonction régulièrement observée entre certains désirs et certaines actions, ou encore sans qu’aucune inférence de l’un à l’autre ne puisse être tirée que l’attente probable de l’un à partir de l’autre (TNH II.iii.1 à 3 ; EEH VIII). Ainsi Hume s’emploie à montrer que la responsabilité, la louange et la réprobation, ou les devoirs civils et religieux n’ont de sens que si l’on suppose un tel lien « nécessaire » (ainsi entendu) entre désirs et actions. Juger une personne responsable c’est reconnaître que ses actions découlent nécessairement de ses motifs, c’est-à-dire inférer les uns des autres. Inversement, lorsque cette inférence est incertaine, on doute du caractère intentionnel de son action. Parce que le législateur s’attend à ce que le désir de récompense et l’aversion pour la peine motivent le respect de la loi, il fixe une sanction. (Ce n’est certes pas le seul motif de l’obéissance aux lois de justice selon Hume – mais c’est bien selon lui parce que le législateur souscrit à la doctrine redéfinie de la nécessité, qu’il renforce l’obéissance en fixant des peines et des récompenses). Dans le Traité, Hume défend ainsi une doctrine inoffensive de la nécessité qu’il présentera dans l’Enquête, toujours plus soucieux d’échapper aux querelles partisanes, comme un projet de « réconciliation entre liberté et nécessité » (EEH VIII.i, p. 124). Toutefois la redéfinition de la liberté, qui n’est d’aucun recours pour définir la responsabilité ou justifier l’éloge et le blâme, peut sembler tautologique voire creuse. La liberté est en effet définie un « pouvoir d’agir selon les déterminations de la volonté ». Or la volonté elle-même subit une critique radicale. Car stricto sensu, une action volontaire est une action causée (au sens bien compris) par les passions directes. L’usage du terme « volonté », sous la plume de Hume, obéit uniquement à ce sens. Parfois, par exemple lorsque Hume n’a pas encore démontré que la motivation est toujours passionnelle, le terme désigne « ce qui fait agir » en un sens encore assez général. Une fois cette démonstration opérée, néanmoins, sa référence stricte est les passions même qui causent une action (TNH II.iii.3). Parfois encore, il désigne le sentiment d’agir par soi (c’est-à-dire sur ses propres motifs passionnels) qui accompagne l’action intentionnelle – sentiment qui n’est qu’une apparence (TNH II.iii.1 et II.iii.9). En aucun cas il ne réfère à un pouvoir actif, pouvoir de causation ou pouvoir de produire une véritable détermination. Il ne signifie jamais une source d’action extérieure aux passions, jamais autre chose qu’une impression de réflexion. Ainsi, parler d’action libre c’est seulement dire que l’action est tenue pour l’effet de motifs dont Hume démontre qu’ils ne sont jamais que passionnels.

On rencontre alors la seconde question qui se présente à l’esprit d’un lecteur de Hume concernant les passions et qui a pour enjeu le gouvernement de soi (ce que Hutcheson nommait la « conduite des passions »). Les passions ne doivent-elles pas être soumises à la raison ? Quels sont les principes de notre motivation pratique quand nous cherchons une vie bonne ? Si la délibération est, comme le pensait Hobbes, une alternance de désirs, il faut comprendre ce qui peut conduire à la conclusion, c’est-à-dire au dernier désir qui causera l’action. Hume exclut toutefois rigoureusement que la raison soit un tel principe de contrôle des désirs. La raison est la capacité de faire deux types d’opération : le raisonnement démonstratif ou le raisonnement probable. Le raisonnement démonstratif n’est pas motivant – à moins que son résultat ne puisse avoir un effet dans les décisions à prendre mais ces décisions, précisément, reposeront sur un raisonnement probable. Nos actions peuvent bien varier en fonction de nos croyances et de nos attentes probables. Ainsi, le désir accompagne une inférence probable concernant un objet plaisant (l’aversion d’une croyance concernant la probabilité d’une souffrance). Mais « lorsque les objets eux-mêmes ne nous affectent pas, leur connexion ne leur donne jamais d’influence » (TNH II.iii.3 § 3) : si un objet n’est ni plaisant ni déplaisant, juger qu’il est la cause ou l’effet d’un autre objet, y compris d’un objet présent ne le rend pas plus ou moins désirable. Certes, si un objet est plaisant, son lien avec celui qu’on tient pour sa cause peut rendre désirable cet autre objet – mais ce n’est pas ce lien comme tel qui est source de désir, c’est l’affection portée à l’objet plaisant. originellement, la raison ne peut pas faire que les objets nous affectent. La raison peut donc faire attendre un effet à long terme (par un raisonnement probable), mais elle ne le rend pas désirable. Que des objets nous donnent tel ou tel plaisir, tel ou tel malaise est ainsi originel. Pour cette même raison, le gouvernement des actions n’est jamais l’enjeu d’un conflit entre la raison et les passions. Puisque la raison ne peut jamais à elle seule produire une affectivité ou un état affectif, en retour aucun état affectif ne saurait lui être contraire comme tel. La célèbre formule « la raison est et ne doit qu’être l’esclave des passions » exprime à la fois l’impuissance de la raison à soumettre les passions pour agir, et la vanité de toute quête cherchant à le faire (TNH II.iii.3 § 4). La nuance « et ne doit qu’être »  ne suppose pas que la raison pourrait de fait s’émanciper d’une tutelle des passions et qu’il lui faudrait se contraindre à ne pas le faire. La raison n’en a pas la capacité. Cette nuance signifie plutôt que les philosophes et les hommes du commun ne doivent même pas chercher à faire prédominer la raison : c’est un idéal qui n’a pas de sens.

Mais ne faut-il pas admettre que certains désirs sont préférables à d’autres ? Comment régler la compétition de désirs contraires ? Ces questions éthiques supposent de mobiliser une dynamique des passions. Une passion calme est une passion préférable (parfois nommée, par abus de langage dans l’usage populaire, « raisonnable ») parce qu’elle ne cause pas la souffrance d’une émotion violente et parce qu’elle ne cause pas d’actions irresponsables, sources de regret futur. Ainsi un désir pour un bien à long terme, qui ne fait pas agir impulsivement sous le coup d’un violent attrait pour un plaisir présent, est plus calme. Mais comment alors une passion calme pourrait-elle prédominer sur les passions violentes ? Comment un désir pour un bien à long terme (supposant de limiter ses satisfactions présentes) pourrait l’emporter sur un fort attrait pour un plaisir immédiat ? Les prolongements politiques d’une telle théorie de la délibération sont évidents car il en va, par exemple, de l’origine des conventions de justice. C’est à cette dynamique que Hume consacre les sections 4 à 9 du Traité II.iii. Elle suppose de distinguer la force émotionnelle (violence du sentiment) et la force pratique (importance de l’habitude et de la tendance à l’action) et elle demande de considérer que la force d’une passion est fonction du complexe passionnel dans lequel elle s’insère. L’histoire affective compose des dispositions et un caractère qui l’avivent ou l’affaiblissent. C’est encore cette dynamique qui est à l’œuvre du premier de ses essais, De la délicatesse du goût et de la passion, lorsque celui-ci conclut que la culture du goût, cette affection calme, développe une disposition à la tranquillité des passions qui va de pair avec une moindre sensibilité aux revers de fortune et une sociabilité désintéressée avec les gens de goût (Hume 1999 [1777], p. 75).

 ii. Passions indirectes et relations sociales

Le nom de « passion indirecte » ne renvoie pas seulement au fait que la passion ainsi désignée ne porte pas directement à agir. Il s’applique aux passions qui se caractérisent par une « double association » : une association d’idées et une association affective. La première associe une personne (moi ou autrui) à une chose ou un fait, la seconde lie le plaisir ou la douleur que me cause cette chose ou ce fait à un sentiment pour la dite-personne. Ce sentiment est la passion (fierté, humilité ou honte ; amour ou haine) ; la personne en est l’objet ; la qualité plaisante ou déplaisante en est la cause. Ainsi, par nature, je suis l’objet déterminé de la fierté et la honte tandis que l’objet naturel de l’amour et de la haine peut être n’importe quel autre. Le self est donc l’objet originel de la fierté ou estime de soi et de la honte ou l’humilité, mais il n’y a pas, au sens strict d’amour de soi (self-love). Compte-tenu de la critique appliquée à l’idée d’identité personnelle (en TNH I.iv.6 et App.), plusieurs questions se posent, que Hume n’a pas explicitement traitées : la conception du self impliquée par la passion de fierté ou de honte est-elle différente de l’idée d’une identité personnelle ? le scepticisme qui y voyait une fiction est-il abandonné au profit d’une croyance de sens commun admettant qu’il y a là une croyance incontournable (Kemp Smith 2005 [1941]) ? ou faut-il considérer que l’apparition du self ne prend sens que dans le jeu des passions et des interactions sociales (Bonicco 2016) ?

Si l’objet de la fierté est simple, les causes en sont en revanche diverses, si bien que le premier intérêt de l’étude expérimentale en la matière est de dégager « les circonstances communes » par où elles la suscitent. Il peut s’agir du mérite, qualité que la fierté octroie à la vertu morale ou aux talents de l’esprit. Il peut s’agir de la beauté ou de toute autre qualité que la fierté reconnaît à notre physionomie. Mais il peut également s’agir de qualités plaisantes ou utiles revenant à tous les objets qui nous sont liés par quelque contiguïté ou ressemblance (notre famille, notre pays, notre province ou notre paroisse), mais surtout par quelque causalité. A cet égard, les choses sur lesquelles nous avons un certain pouvoir nous rendent fiers ou orgueilleux. La propriété et les richesses sont ainsi les « causes principales » de cette passion, éminemment sociale, qu’est l’estime de soi. Or le degré d’estime ne dépend pas seulement de la cause qui excite la fierté. Car nous sommes conscients que notre appréciation est partiale, et que les opinions flatteuses que nous avons sur nous-mêmes sont fragiles. C’est pourquoi l’estime de soi dépend toujours aussi de « l’opinion des autres » et pour confirmer notre point de vue, y compris sur nous-mêmes, nous avons besoin de l’approbation d’autrui, cherchons la renommée et sommes sensibles à la sympathie avec autrui (TNH II.i.11).

Or la théorie de la sympathie de Hume est à deux étages. Le premier est celui d’une théorie étroite de la sympathie présentée à propos de l’amour de la renommée. La description en est alors la suivante. Le comportement et la conversation d’autrui expriment des passions – plus exactement, la perception de ces comportements et paroles est associée à l’idée de leur passion. Cette « idée » devient « vive » au sens où elle est l’idée d’un fait non perçu (la passion ressentie par autrui) auquel on croit. La sympathie consiste dans le fait qu’en nous, cette idée se change de nouveau en passion. Quant au second étage, Hume y vient au moment où il traite de la pitié et de la compassion. Il fait alors trois remarques qui complètent et étendent la première description, faisant place à une sympathie qui, pour reprendre les termes de Vanessa Nurock, n’est plus tant « émotionnelle » que « situationnelle » (Nurock 2009). Hume note d’abord que l’on ne sympathise pas seulement avec l’affliction ou le chagrin puisqu’un spectateur de tragédie sympathise également avec la joie fictive du héros lors d’un heureux dénouement. Deuxièmement, il relève que la proximité ou la vue (sight) directe renforce la sympathie. Enfin, « la passion communiquée par sympathie naît même, par une transition, d’affections qui n’existent pas » (TNH II.ii.7 §5, tr. fr., p. 219). L’expérience de sympathies antérieures pour des émotions réellement exprimées dans des situations semblables a développé une règle générale par laquelle on peut ressentir de la sympathie pour une joie qui n’est pas manifestée, ou un chagrin qui n’est pas exprimé. Ainsi rougit-on pour ceux qui ne sont aucunement gênés de leur conduite stupide.

L’amour et la haine mettent en jeu la double association, mais dépendent également des relations établies par ailleurs entre soi et la personne aimée, qui peuvent être renforcées par la sympathie : la parenté ou ressemblance (akiness), la fréquentation (compagny, acquaintance) ou encore la ressemblance de caractère. Ce ne sont pas des passions directes, bien qu’elles s’accompagnent originellement d’un désir de faire du bien à autrui (bienveillance, benevolence) ou de lui faire du mal (colère, anger). La pitié et la malice imitent leurs effets pour des personnes avec qui nous n’avons pas les liens de ressemblance ou d’accointance.

c. Une philosophie de l’appréciation

Dans le troisième livre qu’il ajoute en 1740 au Traité de la nature humaine, Hume pose les bases d’une théorie de l’appréciation visant à expliquer comment nous en venons à estimer la valeur morale d’une action. Mais sa portée est plus large car elle permet également de comprendre comment nous évaluons nos obligations et comment nous mesurons les divers mérites et talents. Plus largement, elle met au jour les conditions anthropologiques de toute critique, qu’il s’agisse d’une critique sociale, d’une critique de l’art et du goût, ou encore d’une critique religieuse. Cette philosophie expérimentale de la critique se déploie dans les œuvres ultérieures, des essais aux Dialogues sur la religion naturelle. Elle accompagne également l’exercice de la critique historique dans L’histoire d’Angleterre dans ses deux aspects, à la fois établissant les faits et appréciant la valeur des actions, des institutions et des mœurs.

 i. L’appréciation morale et pratique

La théorie humienne de l’appréciation morale a pour but d’expliquer l’approbation ou la désapprobations des motifs à l’origine de nos actions. Nous avons vu que ces motifs étaient des passions ou des dispositions affectives accompagnant certaines croyances. Cette théorie se construit par opposition à trois autres philosophies de la morale bien connues au début du XVIIIe siècle en Grande-Bretagne. La cible principale de Hume, longuement réfutée dans les deux premières sections du troisième livre du Traité, est le rationalisme moral qui définit le jugement moral comme un simple rapport d’idées établi par la raison (c’est-à-dire par une comparaison entre idées indifférente à toute vivacité). Ainsi la désapprobation portant sur la punition d’un innocent consiste, pour le rationalisme moral, à établir un rapport de disconvenance entre la punition et l’innocence. Il ne faut pas confondre le rationalisme ici en question avec un autre rationalisme, qui peut lui être lié, mais qui porterait sur la motivation de l’action et qui a en réalité été réfuté dans le traitement des passions directes (TNH II.iii.3 et DP V). Le rationalisme de l’appréciation morale est une théorie du jugement moral dont les premiers promoteurs furent aux yeux de Hume Ralph Cudworth, Nicolas Malebranche et Samuel Clarke (EPM III §13n). En outre, du point de vue de Hume, on peut distinguer pour chacun de ces rationalismes, un sens large et un sens étroit, selon que la raison recouvre la capacité de mener tout type de raisonnement, qu’il soit abstrait ou probable, ou selon que son rôle soit borné en la matière à des raisonnements du premier type, abstraits (concevant les rapports a priori et sans recours à l’expérience). La version étroite du rationalisme de l’appréciation est celle d’un Balguy ou d’un Clarke qui pensent que les jugements moraux sont fondés sur des relations immuables et nécessaires du même ordre que les relations mathématiques. Mais un rationalisme qui, comme chez Joseph Butler, apprécie la convenance ou disconvenance à l’égard de la nature humaine n’a pas davantage de solidité (Cf. Butler 1736). On ne condamne pas la « punition d’un innocent » parce qu’elle est en relation de contrariété avec l’idée de nature humaine. On ne juge pas de ce qu’il faut faire en établissant ce qui convient à partir d’une connaissance des propriétés comprises dans les idées. Le rationalisme moral en effet échoue à comprendre ce qui est proprement motivant dans un précepte moral. Si l’appréciation morale n’était qu’un acte rationnel indépendamment de nos passions et de nos intérêts naturels, l’éducation morale n’aurait pas besoin d’un travail sur nos passions, d’un effort et d’exercices pratiques guidés par les règles morales (TNH III.i.1 § 5-7). En outre, la raison prétend découvrir ce qui est vrai et faux, alors qu’un motif passionnel ou l’action qui en découle ne sont jamais ni vraies ni fausses, et que la vérité découverte par la raison n’est jamais par elle-même motivante. Quant au rationalisme strict, le problème est pour lui d’établir des relations de moralité éternelles sans « nous rendre coupables en nous-mêmes » indépendamment de la situation, et sans non plus qu’elles soient si universellement contraignantes que la simple connaissance de la vertu suffise à s’y conformer – car ce n’est manifestement pas le cas (§19 et 20). De plus, il s’empêche de comprendre que l’on ne juge pas vertueux des objets inanimés, alors même que l’on établit des relations de convenances entre eux. Enfin Hume termine dans le Traité sa réfutation sur un appel à la vigilance qui fera couler beaucoup d’encre : un auteur n’a pas le droit de passer de considérations rationnelles (sur les relations abstraites ou sur les faits) à des assertions sur ce qui doit ou ne doit pas être sans explication. Nous reviendrons plus bas sur les interprétations qui ont pu être proposées de cette injonction méthodologique.

Parce qu’il avance que la seule raison qui nous fait juger un motif vertueux ou vicieux est un certain plaisir ou un certain malaise (TNH, III.1.2.3), Hume a parfois été lu comme un néo-épicurien professant une forme de théorie égoïste de l’appréciation. C’est contre une telle lecture qu’il se défend dans la Seconde Enquête, quand il en vient à critiquer « l’hypothèse égoïste » (EPM, V.i). La théorie morale égoïste fut d’abord épinglée par Hutcheson pour mieux définir ses cibles (Hutcheson 2006 [1730]). Sous la plume de ce dernier, elle désignait alors autant une théorie de la motivation qu’une théorie de l’appréciation, recouvrant le vaste corpus de ses adversaires, depuis Hobbes et Pascal jusqu’à La Rochefoucault et Mandeville. Christian Maurer a d’ailleurs montré que deux lignes anthropologiques très différentes le parcouraient : celle, théologique, qui dépeint l’homme de ce monde comme marqué par le péché (jansénistes, calvinistes et presbytériens) et celle plus naturaliste, qui cherche dans l’intérêt les causes de la société ou des phénomènes sociaux (Hobbes et Mandeville) (Maurer 2013). Mais Hume n’est pas tant soucieux, comme Hutcheson l’était, de prouver qu’il existe un désir naturel de faire le bien d’autrui (bienveillance), que de montrer que l’appréciation du bien ou du mal ne dépend pas de considérations intéressées. L’expérience offre de sérieux démentis à la thèse selon laquelle une telle appréciation a pour critère le bénéfice du spectateur (EPM V.i). Nous approuvons par exemple l’action généreuse ou le courage d’un ennemi. Mais la théorie égoïste peut se raffiner et invoquer un argument qui la rapproche apparemment de celle de Hume ou de Smith. Elle peut faire valoir que par l’imagination nous associons une action éloignée dans le temps ou le passé avec notre intérêt, que nous imaginons que cela nous touche et nous apprécions cette action en fonction de la passion suscitée par là (argument déjà discuté dans Hutcheson 1991 [1725], p. 157-160). Toutefois, selon Hume, ce ne serait là qu’un intérêt imaginaire, impossible à faire prévaloir sur notre intérêt réel. Force est de constater que nous louons des actions qui furent vertueuses en des temps anciens et des lieux reculés, quand l’imagination ne nous permet pas d’y découvrir un « début d’intérêt propre » ou un quelconque lien avec notre intérêt présent (EPM, V.i). Notre approbation ne juge pas seulement de ce qui nous est utile mais de ce qui est utile à ceux qui sont touchés par une action. C’est cette utilité pour autrui qui nous plaît, à nous qui en jugeons.

Opposée au rationalisme et à l’égoïsme de l’appréciation, la philosophie humienne de la morale ne doit cependant pas être confondue avec la philosophie du sens moral telle que Hutcheson la promeut. Car Hume ne considère pas que la faculté d’apprécier ce qui est bon (utile ou plaisant) à autrui et que Hutcheson nommait le sens moral soit un fait de la nature humaine impossible à résoudre en d’autres principes. Ce n’est pas, comme le pensait Hutcheson, une faculté originelle dont on doit seulement constater l’exercice. C’est une capacité qui s’explique, en ses variations mêmes, par le processus de sympathie. Hume conclut donc le troisième livre du Traité sur un accord en demi-teinte avec Hutcheson : « Ceux qui ramènent le sens de la morale à des instincts originels de la nature humaine défendent la cause de la vertu avec une autorité suffisante, mais il leur manque l’avantage que possèdent ceux qui expliquent ce sens par une sympathie étendue avec l’humanité » (TNH, III.iii.6, tr. fr., p. 250). Ainsi, pourquoi apprécie-t-on les vertus ou les talents ? Ils sont sans doute appréciés par celui qui en bénéficie ou en tire quelque agrément, et qui peut être l’acteur lui-même ou d’autres bénéficiaires. Mais le jugement moral relève d’une appréciation non égoïste qui approuve une utilité ou un agrément pour un bénéficiaire autre que soi – ou, lorsqu’une telle appréciation porte sur soi, elle suppose de se considérer du point de vue d’un autre que soi. Dans le Traité, en analysant la genèse de l’appréciation de la justice et de la bienveillance, Hume en vient finalement à dégager les quatre qualités qui sont moralement appréciées : utilité pour l’acteur ou pour son bénéficiaire, agrément pour l’acteur ou pour son bénéficiaire. La Seconde enquête commence par constater l’utilité de ces vertus pour en venir à expliquer que le juge y prend un plaisir propre, quand bien même il n’en bénéficie pas ; elle applique ensuite l’explication au goût pour l’agrément procuré par les vertus et les talents. Dans les deux ouvrages, la thèse est la même : l’appréciation morale et pratique est un plaisir de spectateur et non de bénéficiaire. Le juge découvre qu’une certaine motivation ou disposition chez l’agent procure un bien à des personnes, en sympathisant avec elles ; cela lui plaît ; son appréciation n’est rien d’autre que ce plaisir.

Le rôle de la sympathie dans l’appréciation soulève néanmoins le problème de la partialité. Car si le juge est un spectateur qui sympathise avec les bénéficiaires sans être lui-même de ceux qui tirent un profit ou un agrément direct de l’action, son appréciation sera proportionnelle à la sympathie, laquelle varie elle-même selon la contiguïté et la ressemblance. Notre sympathie avec le bien causé par la générosité peut être plus ou moins grande selon le rapport que nous avons avec le bénéficiaire. En outre, il existe un processus inverse de la sympathie, la comparaison, par laquelle « selon la part plus ou moins grande de bonheur ou de misère que nous observons chez les autres, nous ne pouvons pas nous empêcher d’estimer la nôtre et d’en ressentir en conséquence une peine ou un plaisir » (TNH II.ii.8 § 8-9). Pour résoudre ce problème, Hume avance une théorie de la correction contrefactuelle de nos émotions, analogue à celle qui, selon lui, vaut pour la perception. Nous ne disposons jamais d’une idée de la taille réelle de l’objet, indépendante de son apparence, plus ou moins grande selon qu’on s’en rapproche ou s’en éloigne. Notre croyance perceptive sur la distance ou la taille d’un objet se corrige d’après les expériences antérieures qui nous permettent de savoir ce que nous verrions si nous étions plus ou moins loin. De la même façon, le juge corrige son appréciation immédiate (son plaisir spontané) par un raisonnement sur ce qu’il ressentirait s’il était plus ou moins près des bénéficiaires (par exemple s’il appartenait ou non à la même culture). Ce faisant, son appréciation est bien un « jugement » qui repose principalement sur une affection (seule source de valence) mais que la raison contribue à former par des variations contrefactuelles sur cette affection (TNH, III.iii.1, p. 204-205 et EPM, V.ii § 26-27). L’inégalité de nos émotions se corrige comme celle de nos perceptions sensibles et la conversation nous rend familiers des distinctions générales qui sont supposées pour pouvoir communiquer et se comprendre (TNH, III.iii.3, p. 229 ; EPM, Ibid.).

La pratique du langage, et en particulier de la conversation, rend cette correction inévitable. Car la communication et l’intelligibilité mutuelle demandent d’exercer une correction contrefactuelle pour comprendre ce que nous ressentirions si nous étions dans la situation des autres.

 ii. L’appréciation des obligations sociales et politiques

Le sens de l’obligation consiste à apprécier une contrainte. Dans la mesure où cette contrainte pourrait être profitable à long terme, on peut comprendre qu’elle consiste en l’opposition d’un désir calme (pour un bien à long terme) à un désir violent (pour un plaisir proche). Le désir d’un bien indirect mais plus assuré et plus stable contrarie alors le désir d’un bien immédiat – tel est le sentiment de contrainte. En l’occurrence, l’appréciation a une implication sur la motivation. On se sent obligé à agir parce que le bien indirect à long terme paraît préférable au bien immédiat.

L’obligation naturelle à la justice est donc intéressée. Elle s’explique du fait qu’une frustration immédiate est préférable si elle garantit la paix sociale. La nécessité d’un acte équitable est établie par la raison, en tant que moyen pour la satisfaction d’un désir à long terme. Le sens moral pour la justice (que Hutcheson nommait « sens public ») n’est donc pas naturellement implanté en nous. Son observance n’est pas spontanée et rien dans notre nature humaine ne nous dispose originellement à être équitable. Hutcheson voyait dans le désir du bonheur public une motivation originelle, et dans le sens public l’approbation d’affections sociales naturelles (Essai sur la nature et la conduite des passions et affections, section I). Mais Hume montre que s’il n’y avait pas d’égoïsme individuel et de générosité partiale (pour ses proches), les règles de justice n’auraient pas été inventées. Selon lui, l’âge d’or des poètes mettait très exactement ce point en évidence : la justice est inutile s’il n’y a ni égoïsme, ni favoritisme (« générosité limitée ») pour ses proches. De la même façon, la justice est inutile dans une communauté d’amitié ou de mariage où tout se partage ; ou encore pour les biens qui ne sont pas rares comme l’air et l’eau. Car parmi les objets du désirs, on trouve, outre la satisfaction intérieure de l’esprit et les jouissances du corps qui dépendent plutôt de soi, les biens acquis par le travail et la fortune dont la jouissance est précaire en société en raison de leur « facilité à changer de main » (leur mobilité qui en rend la possession précaire) et de leur rareté (TNH, III.ii.2, tr. fr., p.88).

Ainsi les règles indispensables de justice sont les règles de stabilité des possessions et de distinction des propriétés (puis de transfert et de promesse ou contrat). Hume ne souscrit pas au contractualisme de Hobbes. Les règles de justice sont certes une invention humaine (à ce titre, elles sont artificielles) et elles dépendent d’un accord entre les individus (à ce titre, elles sont conventionnelles). Mais leur observance ne résulte pas d’une promesse préalable. Toute convention, d’ailleurs, n’est pas une promesse. Un accord entre individus peut être une manière commune d’agir dont l’intérêt se découvre au cours d’une expérience collective, précisément parce que l’on s’aperçoit qu’en étant accordé d’une certaine manière (mais sans avoir eu besoin de se concerter au préalable pour décider de la manière d’agir), la pratique est améliorée, plus efficace ou plus intéressante. L’accord et la confiance se renforce par la pratique elle-même ; la transgression se paie d’une défiance qui menace la paix et donc la satisfaction du désir à long terme (Le Jallé 2014, chap. 6).

Toutefois une telle explication de l’institution et de l’observance des règles de justice vaut seulement pour les sociétés naissantes ou réduites. Le motif qu’est l’intérêt personnel paraît insuffisant dans les sociétés qui se développent, où une transgression isolée ne semble pas entraîner la ruine de l’ordre social : pourquoi ne nous livrons-nous pas à cette transgression et pourquoi nous paraît-elle mal ? Qu’en sera-t-il dans une société un peu plus vaste où ma transgression ne m’exclut pas radicalement de la société et n’entraîne pas la ruine de la confiance générale ? Cependant, dans une société élargie, même si nous pouvons « perdre de vue cet intérêt que nous avons à maintenir l’ordre et suivre un intérêt moindre et plus immédiat », « nous ne manquons jamais de remarquer le préjudice que nous subissons de l’injustice des autres, que ce soit d’une manière directe ou indirecte, puisqu’en ce cas nous ne sommes pas aveuglés par la passion ou influencés par quelque tentation contraire » (TNH IIII.ii.2, tr. fr., p. 100). L’expérience de l’injustice subie donne toujours lieu à une désapprobation, que ce soit au nom de l’intérêt direct lorsque l’action cause un dommage immédiat qui m’empêche de prendre plaisir ou de tirer bienfait de mes possessions, de mon corps ou de mon esprit, ou que ce soit au nom de l’intérêt indirect lorsque le méfait me lèse indirectement ou fait par réaction peser sur moi des contraintes plus lourdes (parce que les autres me prêteront moins volontiers, seront moins accommodants, etc.). Quand l’injustice est commise au plus loin de moi, c’est-à-dire si elle n’affecte mes biens ni directement (par dommage) ni indirectement (par les effets de défiance produit sur les personnes touchées), l’injustice « déplaît encore » parce que l’habitude contractée à propos de notre propre préjudice opère encore dès lors que nous sympathisons avec les personnes lésées. L’injustice « en général » est alors pénible. Le point de vue du juge étant soumis aux biais sympathiques et comparatifs, il se forme et se rectifie au travers de corrections contrefactuelles.

 iii. L’appréciation de la beauté (et de l’harmonie : prolongements religieux)

Dans son Système de philosophie morale, Hutcheson fait la différence entre l’approbation morale d’une conduite et le goût pour une conduite de la façon suivante : le goût, d’après lui, apprécie une conduite parce qu’elle lui cause du plaisir ; au contraire s’il y a un goût moral c’est un plaisir qui s’explique par l’excellence de l’objet, et ce n’est pas le jugement d’excellence qui s’explique par le plaisir. Une telle distinction devient caduque chez Hume. L’appréciation du spectateur ou du juge pour une conduite est bien un goût qui ne se justifie naturellement que par un certain plaisir pris à l’utilité ou l’agrément de cette conduite (pour l’acteur ou un autre bénéficiaire). Ainsi l’approbation morale peut bien être identifiée à l’appréciation de la beauté morale propre à une conduite (TNH III.iii.1 § 7-10, tr. fr., p. 197-199). C’est pourquoi, en particulier, la grandeur d’âme est digne de l’éloge des poètes (EPM VII).

Mais pour autant le plaisir d’appréciation d’une œuvre d’art n’est pas exactement le même que celui de l’appréciation d’une conduite. Il consiste à apprécier non une vertu mais un ordre ou une forme, de sorte que « les sentiments d’utilité sont très différents dans les deux cas » (EPM V.i §1, tr. fr, p. 81-82n). Or, une fois encore, le critère d’appréciation de la beauté n’est pas ailleurs que dans le plaisir lui-même – si bien que l’on ne saurait dire si c’est parce qu’il y a un ordre dans les choses que nous apprécions leur beauté ou si c’est en vertu d’un certain plaisir que nous jugeons qu’elles sont bien ordonnées. En l’absence d’un critère extérieur à l’affectivité elle-même, la diversité des goûts soulève la question de savoir s’il existe « un standard of taste, une règle (rule) par laquelle il soit possible de réconcilier les divers sentiments des hommes, ou à défaut, de décider entre ces sentiments, confirmant l’un, condamnant l’autre » (De la règle du goût, Hume 1999-2009 [1777], vol. 2, p. 267).

Concernant la vertu, les « principes originels de l’appréciation » étaient susceptibles d’être définis par l’utilité ou l’agrément de la conduite (pour l’acteur ou un bénéficiaire). Mais dans le cas du goût pour la beauté, ces principes originels n’apparaissent pas aussi clairement au sein des variations expérimentales. Le goût peut en effet être plus ou moins « délicat », c’est-à-dire plus ou moins sensible à des qualités présentes dans une composition. D’un côté, il n’y a pas de jugement de fait permettant d’établir la beauté, de sorte que le sentiment en est toujours juste. D’un autre côté, la critique esthétique émet des jugements de valeur hiérarchisés et il serait absurde et extravagant de nier la disproportion dans la qualité des œuvres (des compositions) humaines. Il faut donc s’intéresser aux règles (rules) de composition des œuvres (§9 à 12) et comprendre si le goût peut suivre certaines règles (rules) lui-aussi, pour savoir si un standard peut en être dégagé. Le terme renvoie, on l’a vu, à l’idée d’un point de vue commun permettrait de mesurer les valeurs. Renée Bouveresse, insistant sur la façon dont ce standard se forme au sein des pratiques sociales, le traduit par « norme » ; Michel Malherbe par souci de ne pas projeter un sens sociologique rétrospectif préfère la traduction par « règle ».

Hume observe que les règles de compositions ne sont pas établies par un raisonnement, qu’il soit a priori ou a posteriori. Elles dépendent sans doute des principes associatifs. Mais compte-tenu de leurs variations culturelles, géographiques et historiques, elles ne sauraient offrir un critère naturel du goût. L’alternative est la suivante : soit parmi les différentes appréciations, certaines s’écartent manifestement des « principes originels », et il est alors possible de repérer les préjugés qui en sont des déviances, soit il est impossible de repérer de tels principes et déviances, et la critique ne peut condamner sans tomber elle-même dans le préjugé. Ces principes originels sont, quoique sensibles à un goût délicat ou éduqué, difficiles à énoncer, excepté lorsqu’il s’agit des principes d’approbation morale. Ainsi, lorsqu’au goût pour la beauté d’une œuvre comme celle d’Homère se mêle une appréciation morale, il est certain d’après Hume, qui reste ici pris dans un standard classique, que nous pouvons condamner « le manque d’humanité et de décence » qui se trouvent dans les conduites de certains héros de l’Antiquité. Il reste que lorsque les principes originels d’appréciation morale ne sont point choqués, différents standards sont acceptables (« La règle du goût », p. 279-280). Dans ce passage qui se présente comme une solution à la seconde controverse entre Ancien et Modernes, Jacqueline Taylor a lu une façon de montrer comment le sens de l’humanité pouvait venir limiter notre capacité pluraliste à adopter les points de vue éthique des autres (Taylor 2015, p. 181).

3. Naturalisme et scepticisme

Au XVIIIe siècle, le Traité est lu comme un ouvrage sceptique remettant en cause autant la vérité métaphysique que la vertu en morale et la foi religieuse. Sans avoir immédiatement le succès littéraire que son auteur escomptait, il reçoit peu à peu les critiques de plusieurs fronts (Jones 2005). Il y a d’abord les attaques du clergé, qu’il soit anglican, presbytérien ou épiscopalien – celles de William Wishart, elles-mêmes pastichées par Hume en 1745, ou celles de Richard Price et James Oswald en furent exemplaires. En Écosse, les universitaires théistes, Thomas Reid et James Beattie forment le projet de défendre le sens commun face aux assauts de « l’auteur du Traité de la nature humaine ». Du côté des savants et des philosophes de la Royal Society Henry Home (Lord Kames), James Burnett (Lord Monboddo) et Joseph Priestley discutent la critique de la causalité. En Europe plus généralement, il ne fait aucun doute pour les contemporains de Hume qu’il est sceptique. Les différentes recensions françaises qui sont immédiatement publiées à la parution du Traité se concentrent sur la dimension sceptique du Traité plutôt que sur sa méthode expérimentale ; même la moins hostile, parue dans la Bibliothèque raisonnée en 1740, fait encore l’éloge de l’originalité propre aux « paradoxes inouïs » que l’auteur du Traité se plaît à développer (Malherbe 2005). En Allemagne les recensions et traductions de Hume alimentent également la lecture sceptique qui engendrera la critique de Kant et la défense fidéiste plus inattendue d’un Jacobi (Kuehn 1987, 2001, 2005) – plus inattendue car elle prend le contrepied des critiques écossaises.

Thomas Reid avait en effet reproché à Hume, dans les Recherches sur l’entendement humain d’après les principes du sens commun (1764), de professer un scepticisme certes cohérent avec ses principes, et en particulier avec la thèse caractéristique de la Way of Ideas selon laquelle l’esprit n’a jamais accès qu’à des perceptions, en l’occurrence chez Hume des impressions et des idées, mais inconséquent. Car il était incapable de suspendre la croyance dans les choses externes, la causalité et soi-même comme sujet des pensées (Reid 2012 [1764]). Ainsi, la philosophie humienne, présentée comme un système réducteur où « tout le mécanisme des sens, de l’imagination, de la mémoire, de la croyance et de toutes les actions et passions de l’esprit » était ramené à « trois lois d’association jointes à quelques impressions primitives » (Ibid., p. 39), échouait à expliquer la croyance, aussi bien que l’action humaine ou encore le goût et le sens de l’obligation. La définition de la croyance comme « idée vive » est notamment fustigée sur l’exemple d’une croyance ferme en une existence post-mortem : à supposer que ce soit une idée vive, qu’aura à l’esprit l’agnostique qui « ne croit ni ne croit pas » ? Et s’il a une idée « faible et éteinte » que dire alors d’un troisième homme qui « croie fermement qu’il n’y a rien de tel ». En outre Reid comprend la vivacité par analogie avec un degré d’affectivité, de sorte que selon lui, la théorie de Hume réduit les différences d’attitudes doxastiques envers un même objet à des différences de degré. L’assurance de son existence, la présomption de son existence, ou la croyance en son inexistence sont équivalentes à des variations en degrés de vivacité (Ibid., p. 48-51). D’après Reid et Beattie, l’échec psychologique de la théorie humienne repose en outre sur une description sceptique de l’evidence, tandis que celle-ci doit être tenue pour une « juste » raison de croire (just ground of belief) et qu’il faut la décrire dans sa dimension véritative sans la réduire à un simple effet du fonctionnement mental (Etchegaray 2013). C’est la raison pour laquelle, selon eux, les principes de la croyance que doit dégager le philosophe et qui sont tenus pour admis par le sens commun, doivent être des principes de vérité (Reid 2002 [1785]).

Lorsque Jacobi se sert de Hume pour défendre la croyance perceptive sur le mode de la foi, il retourne donc les positions d’un débat écossais qui est parvenu en Allemagne par le biais de recensions, traductions, et références diverses – qu’on pense à Johann Georg Heinrich Feder ou Johann Nicolaus Tetens. Ce dernier avait par exemple rendu hommage à la bundle theory de Hume concernant le self (Kuehn 2005). Or ses Philosophische Versuche (1777) sont étudiées de près par l’auteur de la Critique de la raison pure. Depuis Lovejoy (1906), l’historiographie a souvent présenté celle-ci comme une « réponse » au scepticisme de Hume. Toutefois les historiens de la philosophie ont plus récemment incité à mieux caractériser ce qui, chez Hume, avait pu réveiller Kant de son sommeil dogmatique (Lebrun 1970, Waszek 1996, Puech 1990, Kuehn 2005). Certes, le point de départ retenu dans la préface des Prolégomènes est la critique humienne de la causalité, à laquelle la Déduction Transcendantale vient répondre par l’argument qui, de la validité objective des concepts qui rendent possibles l’expérience (tels la causalité), infère que ce sont des concepts purs a priori (Prol., AK IV 257-260 – cf. CRP, B 5 et B 20). Cette préface bien connue a donc donné lieu à la thèse selon laquelle la Déduction Transcendantale serait une « réponse » au problème de Hume, entendu comme défi sceptique. Une réponse d’où Barry Stroud (1968), en discutant P.F. Strawson (1966), a tiré la forme du non moins fameux « argument transcendantal » : « If there are particular concepts that are necessary for thought or experience then it is false that, for every one of our present concepts, we could dispense with it and still find the world or our experience intelligible » (Stroud 1968, p. 243-244). Mais plusieurs remarques méritent d’être faites.

D’abord, lorsque Kant prétend résoudre le problème de Hume, il lui attribue une formulation de ce problème en des termes déjà critiques. Ainsi lorsque Kant avance que « sans la relation [des concepts purs de l’entendement] originaire à l’expérience possible (…) la relation de ces mêmes concepts à un quelconque objet ne pourrait aucunement être comprise », il affirme sans scrupule : « David Hume reconnut que, pour pouvoir accomplir cette démarche, il était nécessaire que ces concepts eussent leur origine a priori » (CRP, A 94/ B 127, p. 175). Kant s’explique davantage dans la « Théorie transcendantale de la méthode » en précisant que chez Hume, le concept a beau s’étendre au fur et à mesure que nous augmentons nos perceptions, il faut parfois que nous « sortions a priori de notre concept » pour élargir notre connaissance, c’est-à-dire qu’il faut que notre connaissance se fasse d’après l’expérience passée, sans la justification de l’expérience. Cet « accroissement des concepts à partir d’eux-mêmes » qui fait « l’autoengendrement de notre entendement » ne peut néanmoins provenir, aux yeux de Hume, que d’une habitude issue de l’expérience (CRP, p. A 765 / B 793, p. 634-5). Résumons la lecture kantienne de Hume : la connaissance des faits se fait d’après l’expérience passée, sans autorisation empirique mais par le fait d’expérience qu’est l’habitude. Il reste que l’attribution à Hume d’une thèse concernant l’origine a priori des concepts reste tendancieuse.

Notre seconde remarque vise à indiquer que le rapport de Kant à Hume a des ramifications plus complexes que la discussion sur l’origine du concept de cause, que nous ne pouvons qu’esquisser ici. Ainsi, dans les années 1760, alors que Kant connaissait déjà la critique humienne de la causalité, il conseillait à ses étudiants de lire Hume. Dans le contexte d’une opposition au système wolffien et plus généralement à la thèse selon laquelle les faits peuvent être reconduits à un principe de raison, la référence humienne était en effet précieuse (Beck 1978, Kuehn 2005 – voir aussi Cohen 2001, p. 101-102). En outre, les cours de 1770 et 1775 enjoignaient de distinguer dans les écrits de Hume le résultat sceptique de l’examen, complaisance à douter de tout, et sa méthode, qui pouvait, elle, être mise à son crédit. Celle-ci, chez Hume comme chez Bayle avant lui, avaient le soin de considérer une question d’« un côté » puis de « l’autre », cherchant successivement « toutes les raisons possibles » puis « les raisons du contraire » (Logique Blomberg AK 24-217). D’après Puech et Kuehn, cette méthode n’est autre que celle qui est mise en œuvre dans les Antinomies, lesquelles ont été découvertes en 1769, alors que Kant cherchait à « démontrer certaines propositions et leurs contraires, non point pour établir une doctrine sceptique, mais pour y découvrir en quoi consistait l’illusion de la raison qu’ [il] soupçonnai[t] en être la cause « (selon le souvenir rapporté par Kant dans la Réflexion 5037). Ainsi donc Hume n’est pas seulement le nom du problème auquel répond la Déduction Transcendantale. Il fut une inspiration de la Dialectique. Par ailleurs, dégager la forme de la « réponse » kantienne au scepticisme de la seule Déduction Transcendantale paraît oublier que la réfutation kantienne de l’idéalisme se développe en d’autres endroits nodaux de la Critique de la raison pure, à savoir la réfutation du Quatrième paralogisme et l’ajout de la seconde édition à la fin des Postulats de la pensée empiriques. Plus généralement, on peut penser que la réfutation kantienne est indissociable de sa théorie de la connaissance. Elle repose principalement sur la thèse de l’esthétique transcendantale, à savoir celle selon laquelle il n’y a pas d’espace ou de temps en soi, distincts de notre perception, raison pour laquelle notre perception spatio-temporelle est immédiate (cf. article de P. Clavier (lien hyoertexte) dans cette Encyclopédie). L’idéalisme empirique qui y est visé est attribué à Descartes et Berkeley, plutôt qu’à Hume. En réalité, pour trouver l’expression de la critique kantienne adressée au scepticisme de Hume, il faut (re)lire le paragraphe de la Critique de la raison pure intitulé « De l’impossibilité de pacifier par le scepticisme la raison pure en désaccord avec elle-même ». Hume y est comparé au « géographe de la raison humaine », qui se contente de chercher à découvrir les bornes (die Schränke) de la raison par expérience et observation. Son tort est de rester pris dans l’horizon de la connaissance empirique et, pour cette raison, tout en excluant des objets de connaissance ce qui n’est pas objet d’expérience possible, d’être incapable d’en donner la raison ; il ne fait que l’expérience des contradictions de la raison sur les objets qui dépassent l’expérience. Il avance donc dans le plan de l’expérience et, sans s’en détacher, constate de fait que toute considération au-delà conduit à des illusions. Mais il lui manque le point de vue critique seul à même de déterminer les limites (die Grenzen) de la raison, c’est-à-dire de démontrer par principe l’ignorance de la question sur certains types de question. Hume est pareil au géographe qui se représente « la Terre comme une assiette » et ne peut savoir « jusqu’où elle s’étend » qu’en avançant et en voyageant, alors que le philosophe critique se la représente comme une sphère dont les dimensions peuvent être déterminées à partir de principes mathématiques dès lors qu’un degré de surface est connu (Kant CRP A 758 / B 786, p. 630). Ainsi Hume, incapable de distinguer entre une borne de fait et une limite de droit, n’a pas aperçu que la « sortie a priori » du concept à l’égard de l’expérience passée répondait à une loi rendant l’expérience possible, et non à une habitude contingente (CRP, A 766 / B 794, tr. fr., p. 635-636). L’un des intérêts actuels des historiens de la philosophie porte précisément sur la question de savoir si ce partage ne masque pas une complexité plus subtile, notamment parce que la philosophie transcendantale contient aussi l’appel à un fait (ou à une origine factuelle des catégories transcendantales) et la philosophie humienne procure une métaphysique de l’expérience (Malherbe 1993, Grandjean 2017).

A ces nuances concernant le rapport de Kant à Hume, il faut ajouter une dernière remarque qui conduit directement au conflit d’interprétation à propos des œuvres de Hume. Il est possible de trouver chez Hume une forme de réponse au scepticisme qui ne s’engage pas dans une réfutation mais montre tout bonnement que les doutes sont dépourvus de pertinence ou de sens. En effet, à la fin du premier livre du Traité, face à la contradiction insoluble entre la croyance perceptive qui demeure et le raisonnement philosophique qui la remet en cause, Hume déclare soudainement « Fort heureusement, il se trouve que, puisque la raison est incapable de disperser ces nuages, la nature elle-même y suffit et me guérit de cette mélancolie et de ce délire philosophiques (…) » (I.iv.7, p. 362). Et dans la Première Enquête, Hume admet volontiers que le sens (meaning) du scepticisme excessif est obscur (EEH XII.ii § 23). Norman Kemp Smith (1905, 1941) a baptisé cette réponse « naturalisme ». C’est en ce sens encore que P.F. Strawson (1985, chp. 1) emploie le terme « naturalisme » quand il rapproche Hume de Wittgenstein – même si, on va le voir, des nuances méritent d’être introduites entre ces deux interprétations.

Ainsi, la lecture qui voit en Hume un sceptique, lecture prévalant parmi les contemporains de Hume, doit désormais être confrontée à une interprétation naturaliste. En réalité, le terme « naturalisme » est très polysémique. Cédric Brun (2009) a distingué trois usages de ce terme appliqué au corpus humien. Il peut d’abord renvoyer à la méthode expérimentale prisée par la Royal Society (sens 1), qu’elle s’applique à la nature matérielle et vivante ou à l’esprit. Il connote une sorte de newtonianisme. La seule occurrence du terme, à notre connaissance, dans l’œuvre publiée de Hume a cette connotation (« unskilful naturalist », TNH II.i.3 § 6). Il peut également désigner l’étude de l’esprit qui décrit les opérations mentales sans chercher à les fonder. Ce sens (2) pourrait alors recouvrir autant l’épistémologie naturalisée de Quine que le projet d’une anatomie de l’esprit qui s’écarte d’un programme cartésien fondationaliste. Enfin, le troisième usage est celui qui est consacré par N. Kemp Smith et P.F. Strawson. En réaction à une lecture de Hume l’interprétant comme empiriste sceptique (celle que T.H. Green et T.H. Grose proposait dans leur introduction à l’édition des œuvres de Hume de 1874), Kemp Smith défend que Hume met en évidence la résistance de nos croyances et sentiments naturels face aux arguments sceptiques et qu’ainsi il accepte qu’ils sont « ultimes », au sens où ils ne sauraient être ruinés sans que notre nature même le soit aussi (1941, p. 125-127). Le scepticisme qui naît de l’opposition entre le raisonnement expérimental du philosophe et la croyance perceptive est, selon Kemp Smith, guéri par l’arbitrage de la nature de sorte que « la Nature maintient en santé et à l’équilibre l’économie complexe de notre constitution humaine » (1941, p. 125-127 et p. 494). En outre Kemp Smith rapproche explicitement Hume de Hutcheson, de telle sorte que le fait de nature ne serait pas seulement le fait de croire mais également le fait de tenir cette croyance pour vraie, ou ce jugement moral pour bon. Et ainsi l’inspiration newtonienne rejoint l’inspiration de Hutcheson, aux yeux de Kemp Smith, car ces croyances naturelles ont le même statut que la gravitation chez Newton. (Pour une discussion, cf. Wright 2007).

Les premiers articles de Kemp Smith sur Hume datent de 1905. A l’autre extrémité du siècle, Strawson (1985), a soin de distinguer le naturalisme qu’il attribue à Hume de l’épistémologie naturalisée de Quine. Il remarque en effet qu’à la différence de celle-ci, l’analyse humienne des croyances naturelles perceptives et probables en vient à remettre en question leur valeur et leur crédibilité. Puisque ces croyances se maintiennent malgré tout, Strawson conclut qu’il faut distinguer le niveau de la critique philosophique et celui de la pensée ordinaire, qui n’a besoin, pour répondre aux embarras philosophiques, que de les négliger. Le naturalisme de Hume ne procure pas d’argumentation transcendantale proprement dite, puisqu’elle consiste non pas à venir valider d’un point de vue philosophique la position naturelle, mais seulement à prendre acte en philosophie que nous ne pouvons pas nous empêcher d’adhérer à ces croyances naturelles. Toutefois Strawson a noté qu’elle pouvait également donner lieu à une investigation sur les liens entre nos croyances. Il l’a rapprochée de la stratégie de Wittgenstein, qui, dans De la certitude, met en évidence l’existence d’un faisceau de « croyances inébranlables » impossibles à prouver, mais qui sont les conditions sans lesquelles nos attitudes doxastiques, y compris nos doutes, n’auraient aucun sens. Le naturalisme tel que Strawson le comprend inclut donc des positions qui se laissent aller à la nature ou, aussi bien, à des jeux de langage conventionnels. Ce n’était évidemment pas la signification exacte de ce terme chez Norman Kemp Smith. L’on pourrait donc distinguer, au sein du naturalisme de sens 3, une version forte, qui impose d’admettre la vérité des croyances naturelles et une version faible qui ne fait aucune supposition sur une vérité métaphysique mais admet une forme de justesse pragmatique.

Cédric Brun fait valoir que les trois formes de naturalismes s’intriquent chez Hume, arguant notamment que l’empirisme de méthode se renverse en une phénoménologie. H.O. Mounce (1999) préfère conserver, pour éclairer les textes, l’opposition entre un « naturalisme écossais » (celui de Hutcheson et Reid, c’est-à-dire celui que Smith attribue encore à Hume au final) et un « naturalisme expérimental » (celui des sens 1 et 2). Par ailleurs, d’autres liens peuvent être envisagés, à l’articulation entre le scepticisme et les formes de naturalismes cette fois. Dans l’interprétation de Norman Kemp Smith, le scepticisme est clairement subordonné au naturalisme de sens 3 puisqu’il est un moment ou un instrument temporaire afin de mettre en valeur nos croyances naturelles. L’interprétation opposée arguera qu’accepter la croyance naturelle relève du scepticisme mitigé dont le modèle est le scepticisme académique de l’Antiquité (EEH, V §1-2 et XII.ii). Il est vrai qu’un scepticisme académique peut parfaitement s’accommoder d’un naturalisme faible de sens 3, un naturalisme qui accepte de s’en remettre aux croyances naturelles sans prétendre connaître leur vérité (Stroud 1977 et 2000). Quant aux rapports du scepticisme avec les sens 1 et 2, les tenants d’une lecture sceptique ont pu penser que le scepticisme était la conséquence d’une méthode empiriste se bornant à décrire l’expérience mentale – conséquence inéluctable si l’on ajoute que la méthode emploie des concepts analogues à ceux de la physique et ainsi objective l’esprit. Husserl a ainsi tenu l’analogie entre l’association et l’attraction pour le signe que Hume concevait l’esprit sur un mode « atomiste-mécaniste », c’est-à-dire comme un agrégat d’impressions et d’idées (atomes mentaux) reliées entre elles par la force de l’attraction mentale qu’est l’association. Il repère ainsi chez Hume un « positivisme » qui n’est que « l’accomplissement de son scepticisme » (Husserl 1970 [1923-1924], p. 227-228). Comme l’a noté Cédric Brun, Hume a ainsi souvent servi à illustrer l’erreur à ne pas commettre (que ce soit par son principe idéaliste, pour Reid ou par sa méthode empirique, pour Husserl). Sans discuter davantage ce point que les autres, ce qui demanderait d’entrer dans le détail des arguments et des textes de Hume (Etchegaray 2018), signalons que l’analyse brillante de la notion de « relation » par Brahami et Madelrieux (2009) permet notamment de réfuter l’accusation souvent portée d’une atomisation de l’esprit.

D’autres auteurs prennent acte d’une sorte de dédoublement, parfois appelé « schizophrénie », entre un Hume sceptique et un Hume naturaliste (Popkin (1980, p. 130-132 ; Popper 1988 [1972] et Strawson 1983). Mazza (2007) pour sa part préfère parler d’un « flux et reflux » ou d’alternance. A l’opposé de ces interprétations, Garrett (1997) et Jaffro (2011) ont souligné que le scepticisme mitigé consistant à admettre la croyance naturelle ne renonçait pas tant au pyrrhonisme, qu’il n’en résultait dans des conditions de vie pratique. Dès lors, si le scepticisme mitigé n’oublie pas le pyrrhonisme, et s’il admet la fiabilité de nos croyances, il consiste – sous l’urgence pratique – en une disposition à les réviser et par là-même à s’en rendre responsable (Etchegaray 2009, 2018).

Une fois l’interprétation du « Nouveau Hume » apparue sur la scène du commentaire, le débat s’est concentré sur la possibilité de lui attribuer un réalisme. Kemp Smith s’était en effet opposé à la thèse de Green selon laquelle la philosophie humienne était subjectiviste, et avait défendu que les croyances en un monde externe et en des pouvoirs indépendants de nous étaient, chez Hume, inscrites dans notre constitution naturelle. La littérature sur ce point est considérable. Nous nous bornerons ici à citer quelques jalons : John Wright (1983) a pu défendre que Hume était un « réaliste sceptique » en insistant sur le fait que son scepticisme, consistant à admettre que les processus de la raison réaliste sont naturels, n’est pas intéressé par la justification ou la vérité des croyances ; D. F. Norton (1982) qu’il était « un métaphysicien sceptique et un moraliste de sens commun ». Galen Strawson suppose implicitement que la croyance naturelle étant irrésistiblement réaliste, Hume doit également assumer un réalisme dans sa philosophie. Ainsi Galen Strawson (1989, 2000) pense que Hume est un philosophe réaliste dont le scepticisme est seulement épistémologique – c’est-à-dire que Hume affirme qu’il y a bel et bien des objets et des pouvoirs indépendants de nous mais que nous ignorons ce qu’ils sont. Cette thèse, dite des « pouvoirs cachés », s’appuie notamment sur certaines notes de l’Enquête (EEH VII, p. 103n, p. 107n, p. 111n). D’autres, tels que Winkler (2000), pensent que la naturalité de la croyance la rend indéniable (inescapable), mais non point nécessairement irrésistible (irresistible). En effet selon Winkler, « une croyance peut être indéniable (inescapable) de deux façons : elle peut être absolument irrésistible, ou elle peut être nécessaire pour la vie et par conséquent être susceptible d’être suspendue à condition que ce soit dans des circonstances spéciales ou isolées ». Or, dans sa lecture, la croyance naturelle en l’existence externe des objets est irrésistible et le philosophe doit nécessairement y assentir, à la différence de la croyance causale qui n’est pas irrésistible et peut être suspendue par le philosophe pour limiter sa croyance à l’existence d’une conjonction régulière.

Les lectures divergentes adressent plus ou moins expressément des critiques au « Nouveau Hume ». Certaines insistent sur la nécessité de prendre au sérieux le scepticisme de Hume, en définissant les conditions dans lesquelles ce « véritable scepticisme » apparaît, s’écrit ou se vit (Brahami 2001, Etchegaray 2013, Schmitt 2014, Ainslie 2015), ou bien montrant que la théorie des croyances et de la société est une « philosophie des fictions » (Cléro 1998), ou bien encore en mettant en évidence les conditions sceptiques dans lesquelles une entreprise de justification des croyances doit être repensée, (Loeb 2002 et 2010, Le Jallé 2005). Récemment, une interprétation sceptique, soulignant l’opposition au théisme de Hutcheson, Reid et Beattie, a pu voir dans le Traité un projet « irreligieux » (Russell 2008 – voir Loeb 2007 pour une comparaison différente entre Reid et Hume). D’autres interprètent Hume selon une ligne projectionniste, qui conçoit la réalité comme une projection de l’esprit (Blackburn 1984, Kail 2007).

L’examen des rapports entre naturalisme et scepticisme chez Hume n’a donc pas seulement un intérêt historique. Il éclaire les débats contemporains autant que ces derniers viennent, en retour, en nourrir les concepts (Domenach 2003). Toutefois, Sandra Laugier (2003) et Jocelyn Benoist (2003) ont insisté sur la différence entre le naturalisme de Hume et la naturalisation contemporaine des sciences : la dimension sociale, la source vitale et finalement le « fond » sceptique sont propres au premier. C’est ce sens vitaliste qui vient véritablement dépasser le naturalisme méthodologique ou l’épistémologie naturalisée et fait ainsi écho, selon P.F. Strawson ou Sandra Laugier, aux formes de vie chez Wittgenstein.

4. Questions humiennes

L’œuvre de Hume a légué un certain nombres de problèmes et ses lectures en ont suscité d’autres encore. Leur conceptualisation et leur traitement contemporains ont fait l’objet d’une ample présentation et d’une discussion détaillée par É. Le Jallé (2014). Nous n’en présentons ici que quelques-unes.

a. Causalité, induction, régularité

La critique humienne de la causalité soulève une question sémantique fondamentale : faut-il réduire le sens de toutes nos affirmations causales à celui de simples conjonctions ? Ou bien la connexion nécessaire n’est pas une idée et ce n’est qu’un mot creux ; ou bien encore c’est une idée, mais une idée « vierge », l’idée d’un pouvoir objectif, mais caché au sens où son mode opératoire nous est inconnu ; ou bien enfin c’est l’idée d’une détermination purement psychologique à passer d’un fait à un autre (sans y voir une détermination ontologique, mais seulement une habitude). Dans la première interprétation, la thèse humienne, « régulariste », est qu’il n’y a que des régularités dans le monde, et que la science ne dégage que des régularités (Kistler 1999). Elle fut souvent attribuée à Hume pour la critiquer – cf. par ex. Armstrong (1961) qui dans la lignée de Russel voit en Hume celui qui a sapé l’induction. Or une analyse de la causalité qui réduit son sens à celui d’une séquence régulière se heurte à différents problèmes.

1/ Le premier, qui à dire vrai n’atteint pas Hume, consiste à dire que parfois en présence d’une séquence dont on a l’expérience pour la première fois, on sait très bien reconstituer la causalité. Mais Hume admet parfaitement que notre expériences de croyances causales nous permet de développer une habitude telle que devant une expérience inédite une croyance probable soit engendrée (« de manière oblique »).

2/ Une autre objection un peu plus forte consiste à dire que toutes les conjonctions ou les successions régulières ne nous donnent pas de croyance causale. Toutefois Hume l’admet – et il réserve le terme de « causalité collatérale » à des cas de conjonctions ou successions régulières qui nous laissent penser qu’une cause est à leur origine. Par exemple, nous ne pensons pas que le jour cause la nuit ou la nuit le jour, mais nous pensons qu’il y a des causes qui expliquent que le jour succède régulièrement et invariablement à la nuit.

3/ L’objection la plus décisive est sémantique : ce n’est pas la même chose de concevoir une relation causale et de concevoir une conjonction constante.

Se tourner vers les autres options interprétatives pose d’autres problèmes. La seconde option reconduit à l’interprétation du « Nouveau Hume » présentée ci-dessus. Mais elle suppose de résoudre la question portant sur notre capacité à justifier l’affirmation de pouvoirs cachés ou inconnus. La troisième option, subjectiviste ou psychologisante, niant que la connexion causale soit une détermination « dans les choses » est loin d’être suffisante si elle laisse ouverte la possibilité que l’habitude mentale soit elle-même une sorte de pouvoir et elle se heurte une fois encore à l’objection sémantique (Stroud 1977, p. 83). Ces écueils sont en partie évités dans l’interprétation projectiviste et quasi-réaliste de Simon Blackburn et P.J.E. Kail. Selon Blackburn, lorsque nous pensons un pouvoir causal, nous « projetons une attitude ou une habitude qui n’est pas [par elle-même] descriptive sur le monde » (Blackburn 1984, p. 170).

Enfin, quelle que soit la manière dont la critique de la connexion menée dans le Traité et la Première Enquête peut être interprétée, elle a pu donner lieu à une opposition dans le rang des connexionistes parce qu’elle semble reconduire à un « atomisme » là où la cohérence de la réalité doit être pensée en termes de causation, de jonction ou encore de nexus (Whitehead 1995, 1998 et 2007 ; Nef 2017). Toutefois il n’est pas sûre que l’accusation d’atomisme soit juste envers Hume. Un simple indice suffira à le suggérer ici. Un lecteur du Dialogue sur la religion naturelle pourra constater toute l’attention que Hume a eu pour les processus, en particulier dans le vivant (génération, corruption, croissance, etc.). L’éclatement de la causalité en deux choses ou faits indépendants, eux-mêmes reconduits à deux perceptions séparables, n’est peut-être pas le seul ni le fin mot de la critique humienne.

Une autre question fondamentale découlant de la critique humienne de la connexion causale est la question de l’induction ou de la justification de nos croyances inductives. Hume, dans le Traité (I.iii.3-7) comme dans la Première Enquête (IV) a montré qu’aucune raison ne permet de conclure, à partir de l’expérience passée d’une propriété qui se répète, qu’elle se répétera dans le futur. Popper s’accorde avec cette critique lorsqu’il déclare qu’il est « impossible » de « justifier l’affirmation qu’une théorie explicative universelle est vraie par des ‘raisons empiriques’ ; c’est-à-dire par le fait qu’on admet la vérité de certains énoncés expérimentaux, ou énoncés d’observations » (Popper 1988 [1972], p.47). Comme on sait, la solution humienne existe – elle est sceptique (EEH V). Popper pour sa part, dans La connaissance objective, rejette la solution sceptique consistant à s’en remettre à la coutume et l’habitude pour chercher la vérité et à admettre en même qu’on n’est jamais sûr de la trouver. Il la tient tout bonnement pour un irrationalisme : Popper pense que se fier aux habitudes n’est qu’une manière de renoncer à la raison. Il ne retient pas davantage le psychologisme de Hume : on ne peut pas rendre compte de la scientificité d’une théorie par des attentes et des croyances. Il s’intéresse donc aux énoncés. Sa solution falsficationniste consiste à distinguer parmi des énoncés induits ceux qui sont légitimement scientifiques (même s’ils n’ont pas de fondement logique), et ceux qui ne le sont pas. Cette tâche, qui n’est plus sceptique, peut recevoir le nom de « nouveau problème de l’induction »

En réalité, l’appellation « nouveau problème de l’induction » vient de Nelson Goodman qui pour sa part désigne par « nouvelle énigme de l’induction » (lien hypertexte) un défi plus précis, qu’ É. Le Jallé (2014) a précisément exposé (cf. l’article « Goodman » dans cet Encyclopédie) et qui consiste à proposer une justification de l’induction en codifiant la pratique inductive valide et en justifiant les règles générales par là dégagées (Goodman 1984 [1955], p. 79). Selon Goodman, Hume échouerait à montrer comment l’on peut distinguer entre inférences valides et inférences non valides parce qu’il échouerait à montrer que toutes les prédictions fondées sur des régularités ne sont pas valides. C’est cet argument qu’É. Le Jallé conteste en s’appuyant sur une lecture du Traité I.iii.13 à 15 (Le Jallé 2014, chap. 1).

b. Liberté, nécessité, responsabilité

Dans le Traité, Hume présente sa position comme un nécessitarisme, qui doit néanmoins être redéfini à l’aune de sa conception de la causalité. En d’autres termes, un type d’action est régulièrement conjoint à un type de motif et l’on s’attend, en observant l’un, à la présence de l’autre. Dans l’Enquête, Hume présente explicitement son intention comme « un projet de réconciliation » entre la liberté et la nécessaire. En réalité, ainsi qu’on l’a souligné, la position de Hume à propos de la responsabilité n’est pas modifiée : il n’y a de responsabilité que parce que l’on peut croire que l’action est causée par les motifs de l’agent, ou encore parce qu’on peut s’attendre, compte-tenu de certains motifs, dans telle situation, à telle action.

Néanmoins, à partir de la déclaration explicite de l’Enquête, se pose la question de savoir si un compatibilisme est logiquement consistant (Botterill 2002). Une réponse négative pourra donner lieu soit à l’affirmation du libre-arbitre (libertarians), soit à l’affirmation d’un déterminisme excluant une agentivité reposant sur un pouvoir « par soi ». Que ce déterminisme soit tautologique, c’est ce qui apparaîtra aux tenants de l’incompatibilisme. Que l’on puisse penser en revanche une forme de déterminisme compatible avec une agentivité ayant un pouvoir d’agir « par soi », c’est ce que leurs adversaires avancent. Reste, pour les compatibilistes, à définir cette liberté en rapport au déterminisme, qu’elle soit conçue négativement (comme non-coercition ou non-contrainte) ou positivement (comme spontanéité, pouvoir d’agir ou pouvoir sur) : s’agit-il d’un pouvoir faisant exception au déterminisme ? S’agit-il d’une liberté de détermination spontanée ? S’agit-il d’une liberté d’autodétermination ?

Il est certain que Hume pense les raisons d’agir sur le mode de « causes » au sens redéfini par ses soins. Par avance, donc, est non pertinente dans ce cadre toute suspicion du type de celle qu’Anscombe fait peser sur la conception causaliste des motifs ou des raisons d’agir. Anscombe montre en effet que nos déclarations sont comprises comme l’expression de motifs plutôt que comme la référence à des causes quand elles permettent d’interpréter l’action sous une description répondant au sens intentionnel de la question « Pourquoi fais-tu ceci ? » (Anscombe 2002 [1957]). Elle invite même à étendre la notion de cause au-delà de ce que, d’après elle, Hume a compris : ce qu’elle appelle une « cause mentale » (dont nous savons sans observation qu’elle nous pousse à agir) ne doit pas davantage être confondue avec un motif (p. 53-65). A l’inverse, d’après Davidson (1963 repr. 1993 [1980]) qui rejoint ici Hume, c’est une thèse de sens commun que la rationalisation est une forme d’explication causale ordinaire. É. Le Jallé (2014) a défendu que Hume et Davidson partageait une même approche. Elle a montré que la distinction entre raison et cause par les wittgensteiniens avait trois présupposés qui étaient remis en question chez Hume et chez Davidson : la thèse selon laquelle la cause est établie par une loi prédictive et inductive ; celle selon laquelle il n’y a pas de sentiment ou d’expérience ressentie auquel identifier un motif ou une intention et qui soit une cause commune et enfin celle selon laquelle la cause explique l’action et la raison lui donne du sens. Pour ces raisons, Le Jallé défend que Hume soutient, comme Davidson, un compatibilisme cohérent.

Il est certain qu’une lecture déterministe forte de Hume ne serait pas satisfaisante car elle se heurterait aux deux définitions que Hume donne de la cause (conjonction et inférence associative). Inversement, il semble peu pertinent d’arguer de la réduction de la causalité à la conjonction pour utiliser Hume en faveur d’une définition de la liberté comme capacité à agir autrement. Hume a en effet dénoncé l’illusion de possibilités alternatives dans le Traité (II.iii.1-2).

S’en tenir à la thèse de Hume c’est donc uniquement penser l’attribution de la responsabilité sur le mode d’une croyance en un lien nécessaire entre le motif et l’action. C’est sur ce point que Stroud (1977), avec raison, concentre son objection. Selon Stroud, nous dirons que Paul est responsable de ses actions si nous faisons un lien entre les désirs de Paul et ce qu’il a fait. Néanmoins de là à conclure que l’on croira que Paul est responsable parce que ses actions sont nécessairement causées par ses désirs il y a un pas indu selon B. Stroud. Ce dernier maintient que nous ne croirons Paul responsable que si nous croyons qu’il aurait pu agir autrement. En d’autres termes, l’attribution de responsabilité suppose de croire qu’il y a un lien certes, mais non nécessaire entre les désirs de Paul et ses actions. A l’objection de Stroud toutefois s’oppose le célèbre exemple d’Harry Frankfurt (1997 [1969]), qui montre que la responsabilité peut être attribuée alors même que l’on croit que l’action était inévitable.

c. L’identité personnelle

Les questions qui sourdent du traitement humien de l’identité personnelle ont deux bases textuelles différentes : d’une part l’analyse portant sur l’idée d’identité personnelle telle qu’elle est supposée par l’imagination (TNH I.iv.6 et App), d’autre part l’articulation entre cette critique et l’idée de soi telle qu’elle est impliquée par les passions de pride et de humility (TNH II et DP II.4).

Dans la section « Sur l’identité personnelle », Hume commence par critiquer les philosophes, tels que Malebranche, qui prétendent tirer de toute impression plaisante ou déplaisante le sentiment de l’existence d’un soi persistant et la « plus haute certitude » de son identité. Or, selon Hume, tout ce dont nous faisons l’expérience dans une perception, c’est de cette perception singulière et non d’une impression de soi identique. Si l’on veut parler d’un esprit comme d’un ensemble de ces perceptions qui forment ce que Locke appelait « le train des idées », il faudra convenir que l’esprit n’est qu’un faisceau (bundle) ou une collection de perceptions différentes (§4). L’identité personnelle ne peut être substantielle. C’est cette thèse réductionniste de l’esprit-bundle que l’on a parfois retenu de Hume, comme si elle constituait la conclusion principale de son enquête ou tout au moins une formulation décisive du problème moderne de l’identité personnelle. Ainsi, c’est dans ces termes et en référence à Hume que les théories de l’identité narrative posent le problème auquel elles prétendent répondre (Ricœur 1985, p. 442-443 ; et Dennett 1988 ; Gallagher 2000). Sous cet angle, le constat de Hume est à la fois indépassable et révélateur de ce que l’identité personnelle doit être pensée comme identité-ipse ou bien encore qu’elle ne saurait être confondue avec le concept d’une même chose qu’au prix d’une « erreur de catégorie » car le self est précisément une fiction qui se raconte et non une chose que l’on perçoit.

Mais force est de constater que Hume ne borne pas son analyse à l’attaque de l’option substantialiste. Il tente ensuite de comprendre, comme il l’expliquera plus tard à Lord Kames, comment la notion d’identité personnelle peut être l’idée d’une union entre nos différentes perceptions (Hume 1932, vol.1, p. 94). Conformément à la méthodologie du Traité, son entreprise est à la fois génétique et critique. En cherchant l’origine de l’idée d’identité personnelle ainsi entendue il prétend redéfinir son sens. Hume se demande donc de quelle impression dérive l’idée d’identité personnelle. Constatant que nous n’avons pas l’impression d’un moi identique se maintenant au travers de nos différentes perceptions, toutes séparables, il montre que l’idée d’identité naît en l’occurrence d’une confusion entre succession et identité parfaite. Contre le principe méthodologique d’une telle approche, J. Perry a fait valoir que Hume s’est posé une mauvaise question car l’identité ne se découvre pas dans une impression d’unité et l’identité personnelle pas davantage dans une impression d’unité par-delà la variété :

En général, cela n’a pas de sens de demander « Est-ce que X voit une ou plusieurs choses ? ». Il est seulement sensé de demander « Est-ce que X voit un F ou plusieurs F ? » où F est un mot ou un groupe de mots comme « carte » ou « jeu de cartes », « homme » ou « bras », ou bien « arbre » ou « branche » (Perry 2008 [1975], p. 28).

Ainsi, l’application du terme « d’identité » dépend de l’usage des mots et il en va de même pour l’identité personnelle. Terence Penelhum a également noté que selon certains usages linguistiques, l’on peut attribuer une identité spécifique à des individus différents dans une même classe (nommée « homme ») sans que l’on ne songe à y voir une identité numérique et inversement l’emploi d’un même nom (par exemple « John ») pourra aller de pair avec l’attribution d’une identité numérique (à un individu) sans y voir une identité spécifique impliquant que cet individu ait les mêmes propriétés du début à la fin (Penelhum 2000, p. 42).

Perry reconnaît toutefois un mérite à Hume, celui d’avoir compris qu’une analyse du concept d’identité personnelle doit se demander « ce que le monde doit être, selon nous, pour que deux événements-de-personne appartiennent à la même personne » (p. 29). C’est à cela, selon Perry, que répond la théorie causale avancée par le Traité pour rendre compte de l’apparition et du sens que peut avoir la fiction d’identité personnelle. Or, de nouvelles questions sourdent de cette théorie. D’abord, le lien entre les perceptions, qui donne lieu à la confusion entre succession et identité, est-il un lien réel (dans les choses de l’esprit que sont les perceptions) ou est-il un lien attribué aux perceptions quand on y réfléchit ? Strawson (2011) défend que l’association est bel et bien un lien réel entre les perceptions, mais l’on peut, à la lecture du paragraphe 16, en douter. S’il est réel, alors l’association constitue réellement l’esprit ; s’il est purement associatif, alors il est toujours second. Comme Hume affirme que l’association entre différentes perceptions est causale au moins dans le cas du souvenir (retour en idée d’une impression qui peut être tenue pour la cause antérieure de l’idée présente), d’autres questions se posent à propos du rôle de la mémoire. Ce lien est-il vraiment suffisant pour tisser un flux mental continu dont la succession pourra être dite (au prix d’une confusion certes) identique ? La thèse doit faire face à l’objection classique de circularité, héritée de Joseph Butler initialement dirigée contre la théorie lockienne (Hamou 2018). Car pour reconnaître telle perception comme un souvenir, ne faut-il pas supposer que c’est moi qui aie vécu l’impression originale – et donc déjà posséder l’idée du moi ? É. Le Jallé pense que sur ce point la position de Hume n’est pas très éloignée de celle de D. Parfit. Ce dernier suppose une relation R entre les connexions assurant la continuité d’une chaîne qui est plutôt composée d’enchassement successifs : le flux de conscience, en effet, est la totalité d’un vécu qui n’est vécu (conscient) que de moment en moment – un flux qui, pourquoi pas, pourrait se scinder dans le cas des « cerveaux divisés ». Or, empruntant à Shoemaker le concept de quasi-souvenir, il fait valoir que la mémoire n’a pas besoin ici de supposer que l’impression originale fut vécue par moi mais seulement qu’elle a été vécue (par quelqu’un). Par ailleurs, l’objection de transitivité émise par Reid contre Locke n’a plus lieu d’être si ce n’est pas la mémoire qui permet d’attribuer l’identité à la totalité des perceptions, mais si c’est la rétention des perceptions, ponctuellement vécue, qui constitue leur flux. D’ailleurs, d’après Parfit, un même flux de conscience pourrait se continuer (« survivre » en un sens) dans des corps différents. Le Jallé (2014) – dont la comparaison minutieuse de Hume à Perry et Parfit ne peut être complètement reprise ici – a montré que chez Hume également, la question de savoir si c’est le même moi est parfois indécidable sans que cela ne soit un problème puisqu’il suffit de décrire la connectivité qui fait le flux (et ses éventuelles ramifications). Deux points marquent selon elle la parenté entre Hume et Parfit : la possibilité d’une description impersonnelle des faits de continuité et connectivité et le caractère scalaire de la continuité et/ou connectivité, d’où résulte une indétermination de l’identité (Le Jallé, 2014, chap. 2). Notons toutefois que le caractère impersonnel des perceptions peut être discuté (cf. Strawson 2011).

Le dernier type de problème posé par la théorie causale de l’identité, telle qu’elle est exposée par Hume, vient du fait qu’il s’en est lui-même déclaré insatisfait. Dans l’Appendice, Hume en appelle au droit de « plaider le privilège du sceptique », laissant pendante la question de savoir si la science de la nature humaine était apte à rendre compte de l’idée d’identité personnelle ou même de la croyance en une identité personnelle. Se posent alors les questions soulevées par le scepticisme de Hume : la croyance à soi a-t-elle ou non une pertinence ? On ne s’étonnera pas, par exemple, que Kemp Smith interprète l’identité comme un fait de croyance légitime (Kemp Smith 2005 [1941],p. 501).

Cette dernière question devient plus intrigante encore si l’on rappelle que dans le traitement des passions, la conception du moi est au centre de l’explication de la fierté et de l’humilité ou la honte, comme de l’explication de la sympathie et de ses effets. L’échec de la philosophie de l’entendement ne fait donc pas oublier que le soi est l’objet de la fierté ou la honte. Une interprétation consiste à comprendre que l’idée de soi est produite par ces passions. Or Bonicco a souligné que compte-tenu de la valeur sociale que prennent les choses par le biais de la correction sympathique et contrefactuelle, l’approbation d’autrui est toujours recherchée, y compris dans l’appréciation de soi. Dès lors, si le self est bien le produit de la fierté, « l’amour de la renommée » est « constitutif de notre personnalité » (Bonicco, p. 26) et plus généralement :

Le self émerge au cours d’un processus de communication sociale où je prends conscience de moi par l’intermédiaire de l’opinion d’autrui et de la valeur sociale qu’il attache à mes différents attributs (Bonnico 2016, p. 27).

A tout le moins, la personne est un complexe de passions, de disposition et d’affections dont les croyances et les désirs sont toujours déjà socialement informés. Ainsi Jean-Pierre Cléro peut-il dire que chez Hume « l’individu est une fiction d’une dynamique vitale et sociale, dont il appartient au savant de chercher les lois » (Cléro 1998, p. 216).

c. Les faits et les valeurs

Hume distingue nettement le jugement qui porte sur l’existant (les faits perçus et les faits non perçus) et la passion qui est source de motivation et d’approbation (TNH II.iii.3 et III.i). Toutefois, la vivacité de l’un peut avoir des effets sur l’autre. Certes, par elle seule, une passion ne nous dit rien sur le réel puisqu’elle n’a pas de qualité représentative. Par lui seul, le jugement de fait (perceptif ou probable) qui conçoit un objet est impuissant à nous le faire désirer, craindre, aimer ou haïr, estimer ou mépriser. Mais les effets de l’un sur l’autre sont constamment au centre de l’attention de Hume (TNH I.iii.10 ; II.iii). Ainsi, le désir ou la crainte accompagne le jugement probable sur un fait à venir ; mais son degré n’est pas toujours proportionnel à la probabilité des causes puisque, comme nous l’avons vu, une passion dépend également du caractère ou des disposition affectives acquises, si bien qu’une disposition chagrine avivera la crainte qu’un fait, pourtant très improbable, ne se produise et augmentera la vivacité de la croyance en ce fait.

Hume a certainement contribué à faire une dichotomie entre fait et valeur mais il n’est pas sûr que cette distinction ait chez lui le statut de dogme, que Hilary Putnam (1984 [1981], chap. 6 et 2004) a dénoncé. Ainsi, Putnam soutient que la vérité est une valeur que la science se donne. Hume ne le nierait pas, car chez lui, la vérité n’est pas seulement un « effet » attendu de la raison ou un fait de croyance probable que le sceptique peut aisément remettre en question (TNH I.iv.1), c’est aussi l’objet d’un désir bien spécifique, la curiosité (TNH II.iii.10). En somme nous ne savons jamais si nous sommes faits pour la vérité, mais nous la désirons et l’apprécions.

Mais la critique soulevée par Putnam touche plus fondamentalement à ce que sont un jugement de fait et un jugement de valeur. D’un côté – mais nous ne creuserons pas ce point ici – il se peut que ce que nous tenons pour un fait soit établi, conceptualisé, identifié au travers de schèmes conceptuels incluant des valeurs (de sorte qu’il y aurait des critères d’acceptabilité rationnelle pour évaluer la description d’un fait). D’un autre côté – et c’est ce qui nous intéresse ici – Putnam refuse la réduction des jugements de valeur à des projections sentimentales, parce qu’il en refuse la conséquence, qui revient encore à séparer dogmatiquement faits et valeurs. Selon Putnam, la thèse de la projection (qui dit qu’un jugement de valeur consiste seulement à supposer une qualité dans les choses qui n’est que la projection d’un sentiment), l’idée qu’un acte (comme torturer un enfant) ne serait pas horrible, et qu’il faudrait s’en tenir au seul fait « ma réaction est d’être horrifié ». Putnam interprète explicitement Hume comme un « projectionniste », pour qui « il existe des sentiments éthiques, mais il n’existe pas de propriétés objectives des valeurs » (Putnam 1984 [1981], p. 160). Putnam a bien conscience qu’un tel projectionnisme fait place à une correction de nos appréciations sentimentales par la sympathie, mais selon lui, ce serait une erreur d’ignorer que cette correction ne pourrait se mettre en place si nous n’avons pas la conviction qu’elle doit, en quelque façon, se faire (Ibid., p. 162). Bref, d’après Putnam, nous avons conscience que pour juger moralement il ne faut pas simplement avoir un plaisir ou un déplaisir mais qu’il faut sympathiser avec d’autres points de vue. Or, à la question de savoir pourquoi nous devons sympathiser avec d’autres points, une simple description factuelle (prétendant ne pas présupposer de valeur) serait bien en peine de répondre, selon Putnam.

La composition du jugement de valeur est également en cause. En admettant qu’il repose à la fois sur la passion et le jugement susceptible de correction contrefactuelle, la question est la suivante : se combinent-ils en sorte que l’expérience de l’appréciation mêle intrinsèquement un élément « cognitif » (le jugement) et un élément affectif ? Ou s’accompagnent-ils mutuellement en conservant leurs prérogatives et leurs phénoménalités respectives, si bien que l’expérience de l’appréciation n’est jamais qu’affective ? Lorsque vous désapprouvez une action ou un caractère, vous éprouvez seulement, nous dit Hume, un « sentiment de blâme » (TNH III.i.1).

Mais l’on a dit que la notion de « sentiment » pouvait être équivoque. Une lecture « sentimentaliste » de Hume y verra une pure affection ou émotion (Snare 1991). Une lecture cognitiviste fera valoir que la croyance en est une composante essentielle. Davidson (1976 repr. 1993 [1980]) argue ainsi que l’appréciation est une passion indirecte particulière irréductible au plaisir qui la fait naître (par l’association affective) et dont la cause sine qua non est une croyance analysée comme relation d’idées. Une autre question d’interprétation se pose, quand bien même elle serait purement affective comme le veut la lecture sentimentaliste : peut-elle être une sorte de perception ? Jaffro (2006, 2009) a répondu négativement parce que Hume ne réduit pas l’émotion qui fait l’approbation à une perception de l’excellence ou dignité, mais seulement et uniquement à un feeling. Une autre question, enfin, est de savoir si la valeur par là appréciée est en quelque façon réelle  et si elle est un fait (ce que pense Lépine 2016). Sur ces questions, on pourra se reporter au tableau dressé par Jaffro (2006) et Lépine (dans l’article « sentimentalisme » de cette Encyclopédie).

La distinction entre les prérogatives de la raison et le rôle appréciatif de la passion a pu conduire à lire un passage célèbre du Traité comme une dichotomie entre l’être et le devoir-être (Searle 1964 et 1969, p. 175). Il s’agit de la fin de la première section du Premier Livre qui épingle un abus fréquent dans les « systèmes de moralité », consistant à passer d’un raisonnement factuel (sur l’être de Dieu ou les « affaires humaines ») à une proposition comportant devoir (ought) ou ne devoir pas (ought not). Hume fait valoir que cette dernière relation ne peut être déduite des autres relations qui sont exprimées avec la copule est ou n’est pas (TNH I.i.1 § 27).

Cependant ce passage a fait l’objet de nombreuses discussions, portant à la fois sur la position propre de Hume ici, sur l’argument qu’il avance et enfin sur les auteurs ciblés par là. Hume dit-il qu’il est impossible d’inférer toute proposition normative ou évaluative à partir d’un constat factuel ? Lorsqu’il enjoint aux auteurs incriminés de « donner la raison » de leur glissement, sous-entend-il que c’est impossible ou indique-t-il sérieusement que l’obligation morale peut, à certaines conditions qui méritent d’être explicitées, dériver d’un constat factuel ?

L’argument consiste-t-il à dire qu’aucune proposition factuelle n’est un candidat d’où il serait possible de dériver une proposition en devoir/ne devoir pas ? Interdit-il la dérivation, à partir de propositions factuelles, de la seule « obligation morale » ou, aussi bien, celle de « l’obligation naturelle » (Hudson 1964) ? Appelons une telle lecture celle de l’interdiction (par la « loi de Hume »). Comme l’a souligné Nurock (2009), elle fait de l’argument une « loi » interdisant la dérivation des valeurs à partir des faits, en écho à la critique, par G.E. Moore, du « sophisme naturaliste » mais elle laisse très douteuse la cohérence de ce passage avec la propre théorie humienne de l’obligation. Pour sa part, Nurock (2009) pense que Hume exclut des prémisses les faits d’existence établis par la raison parce qu’un jugement moral relève d’un autre type de fait, passionnel. Alors, seules des propositions descriptives exprimant une appréciation affective pourraient–elles constituer un candidat acceptable ? On pourrait nommer cette interprétation celle de l’exclusion (des faits de raison). Elle permet de conserver la distinction entre jugement de fait (de raison) et jugement de valeur (exprimant des faits affectifs). Une troisième manière de comprendre le caveat humien consiste à dire qu’à toute prémisse descriptive, comportant la copule est/n’est pas, il faut ajouter une autre forme de prémisse pour dériver la proposition en devoir/ne devoir pas (Schulthess 2011). Ce serait la lecture de l’addition.

Enfin, le dernier type d’interrogation porte sur les cibles visées par ce passage. On s’accorde généralement pour y compter les auteurs rationalistes, en particulier Clarke, Balguy ou Wollaston. Les systèmes de préceptes chrétiens, tels que The Whole Duty of Man, peuvent également y appartenir (MacIntyre 1993, p. 334-335). Enfin l’argument porte aussi contre le jusnaturalisme de Grotius (1999 [1625]).

Ces questions ne sont pas sans incidence sur la façon dont le passage de Hume peut être compris. Les critiques qui lui sont adressées, en retour, méritent d’être contextualisées. Schulthess (2011) a montré, par exemple, que la critique de Searle ne peut se comprendre que si, loin de revenir à une thèse jusnaturaliste (évidemment), elle suppose que des formes d’énoncés émis, de fait, par des locuteurs, ont certaines fonctions parce que leur sens dépend uniquement des institutions humaines. Chez Searle l’obligation dérive directement des actes de langage parce que ceux-ci constituent l’institution elle-même (la promesse, le mariage, etc.). Hume de son côté, d’après Schulthess qui suit l’interprétation de l’addition, doit déduire un énoncé normatif (par exemple « je dois tenir ma promesse ») à partir d’éléments passionnels et d’éléments descriptifs. Précisons que les énoncés évaluatifs et conatifs reposent sur les appréciations et les désirs. Les énoncés descriptifs portent sur la motivation humaine et établissent les rapports de cause à effet qui permettent de savoir ce qu’il faut faire pour atteindre une satisfaction dans des conditions données (motivation intéressée de nos semblables, générosité limitée, etc.). Ainsi Hume exclurait une dérivation directe parce que la seule qu’il pourrait concevoir est celle des rationalistes, théologiens ou jusnaturalistes, mais il admettrait une dérivation indirecte par addition.

Bibliographie

 a. Œuvres de Hume

Hume, David (1932). The Letters of David Hume, J. Y. T. Greig (éd.), 2 vols., New York : Oxford University Press. Cité LH.

Hume, David (1954). New Letters of David Hume, R. Klibansky et E.C. Mossner (éds.), Oxford : Clarendon Press.

Hume, David (1964 [1882-1886]). The Philosophical Works of David Hume, T.H. Green et T.H. Grose (éds.), Darmstadt : Scientia Verlag.

Hume, David (1975 [1748-1751]). Enquiries concerning Human Understanding and Concerning the Principles of Morals, L.A. Selby-Bigge (éd.), rév. P.H. Nidditch, Oxford : Clarendon Press.

Hume, David (1983 [1754-1762]). The History of England from the Invasion of Julius Caesar to the Revolution of 1688, W.B. Todd (éd.), 6 vol. Indianapolis : Liberty Fund.

Hume, David (1985 [1777]). Essays, Moral, Political and Literary, Indianapolis : Liberty Fund.

Hume, David (1998 [1779]). Dialogues Concerning Natural Religion, G.A. Gaskin (éd.), Oxford : Oxford University Press.

Hume, David (1998 [1751]). An Enquiry concerning the Principles of Morals, T. Beauchamp (éd.), Oxford : Oxford University Press.

Hume, David (1999 [1748]). An Enquiry concerning Human Understanding, T. Beauchamp (éd.), Oxford : Oxford University Press.

Hume, David (2000-2007 [1739-1740]). A Treatise of Human Nature, D. Fate Norton et M. Norton (éds.), 2 vols., Text (2000 [1739-1740]) and Editorial Materials, Oxford : Oxford University Press.

Hume, David (2007 [1757]). A Dissertation on the Passions. The Natural History of Religion, T. Beauchamp (éd.), Oxford : Oxford University Press.

Traductions françaises :

Entre crochets sont rappelées les dates de parution originale en langue anglaise.

Hume, David (1819-1822 [1754-1762]). Histoire d’Angleterre depuis l’invasion de Jules César jusqu’à la Révolution de 1688, tr. fr., J-B-D. Deprès, 10 vol., Paris : Janet et Cotelle.

Hume, David (1946 [1739-1740]). Traité de la nature humaine, tr. fr. A. Leroy, Paris : Aubier Montaigne.

Hume, David (1977 [1745]). Lettre d’un gentleman à son ami d’Edimbourg, tr. fr., D. Deleule, Besançon et Paris : Annales littéraires et Belles lettres.

Hume, David (1983 [1748]). Enquête sur l’entendement humain, tr. fr. A. Leroy, rev. et prés. Par M. Beyssade, Paris : Garnier-Flammarion.

Hume, David (1991 [1739]). Traité de la nature humaine. Les passions, tr. fr. du Livre II du Treatise of Human Nature et de la Dissertation sur les passions, Ph. Cléro, Paris : Garnier-Flammarion. Cité TNH II (suivi des numéros de partie, de chapitre et de paragraphe) et DP (suivi de la section).

Hume, David (1991 [1751]). Enquête sur les principes de la morale, tr. fr., Ph. Baranger Ph. Saltel, Paris : Garnier-Flammarion.

Hume, David (1993 [1740]). Traité de la nature humaine. La morale, tr. fr. du Livre III du Treatise of Human Nature, Ph. Saltel, Paris : Garnier-Flammarion. Cité TNH III (suivi des numéros de partie, de chapitre et de paragraphe).

Hume, David (1995 [1739]). Traité de la nature humaine. L’entendement, tr. fr. du Livre I du Treatise of Human Nature, Ph. Baranger, Ph. Saltel, Paris : Garnier-Flammarion. Cité TNH I (suivi des numéros de partie, de chapitre et de paragraphe).

Hume, David (1997 [1779]). Dialogues sur la religion naturelle, tr. fr., M. Malherbe, Pars : Vrin.

Hume, David (1999-2009 [1777]). Essais et traités sur plusieurs sujets, tr. fr., M. Malherbe, 4 vols., Paris : Vrin.

Hume, David (1999 [1748]). Enquête sur l’entendement humain, tr. fr. M. David, rev. et éd. par D. Deleule, Paris : Le Livre de Poche.

Hume, David (1999 [1777]). Essais moraux, politiques et littéraires, tr. fr., J.-P. Jackson, Paris : Alive.

Hume, David (2000 [1741-1757]). Essais esthétiques, Paris : Garnier-Flammarion.

Hume, David (2001). Essais moraux, politiques et littéraires et autres essais, tr. fr., G. Robel, Paris : PUF.

Hume, David (2002 [1751]). Enquête sur les principes de la morale, tr. fr., M. Malherbe in Essais et traités sur plusieurs sujets, 4ième volume, Paris : Vrin.

Hume, David (2004 [1748]). Enquête sur l’entendement humain, tr. fr., M. Malherbe in Essais et traités sur plusieurs sujets, 3ième volume, Paris : Vrin. Cité EEH (suivi du numéro de section).

Hume, David (2016 [1740]). Abrégé du Traité de la nature humaine, tr. fr., G. Coqui, Paris : Allia.

Autres références

Entre crochets sont indiquées les dates de parution originale.

Ainslie, Donald C. (2015), Hume’s True Scepticism, Oxford : Oxford University Press.

Anscombe, G.E.M (2002 [1957]). L’intention, tr. fr., M. Maurice et C. Michon, Paris : Gallimard.

Armstrong, D.M. (1961). Perception and the Physical World, Londres : Routledge and Paul Kegan.

Balguy, John (1728,1729). The Foundation of Moral Goodness, Londres : John Pemberton.

Beck, Lewis White (1978). Essays on Kant and Hume, New Haven, NJ : Yale University Press.

Benoist, Jocelyn (2003). « Le naturalisme, avec ou sans le scepticisme ? », Revue de Métaphysique et de Morale, 2, p. 127-144.

Botterill, George (2002). « Hume on Liberty and Necessity », in Reading Hume on Human Understanding, P. Millican (éd.), Oxford : Clarendon Press.

Bergont, Sophie (2018). Empirisme et raison chez David Hume. Thèse de doctorat soutenue à Université Paris 1.

Blackburn, Simon (1984). Spreading the World : Groundings in the Philosophy of Language, Oxford : Clarendon Press.

Bonicco, Céline (2016). Une archéologie de l’interaction, Paris : Vrin.

Brahami, Frédéric (2001). Le travail du scepticisme, Paris : Presses universitaires de France.

Brahami, Frédéric (2003). Introduction au Traité de la nature humain, Paris : Presses universitaires de France.

Brahami, Frédéric et Madelrieux, Stéphane (2009). « La perception de la ressemblance. Hume, James, Deleuze », Philosophique, n°12, p. 21-46.

Brun, Cédric (2009a). « Perception et représentation mentale dans le Traité de la nature humaine », in Lectures de Hume, J-P Cléro et PH. Saltel (éds.), Paris : Ellipses, p. 151-171.

Brun, Cédric (2009b). « Les naturalismes de David Hume », in L’invention philosophique humienne, Ph. Saltel (éd.), Grenoble, Recherches sur la philosophie et le langage, p. 35-63.

Butler, Joseph (1736). The Analogy of Religion, Natural and Revealed, Londres : J. et P. Knapton.

Broadie, Alexander (2001). The Scottish Enlightenment, Edimbourg : Birlinn.

Broadie, Alexander (2003). The Cambridge Companion to the Scottish Enlightenment, Cambridge : Cambridge University Press.

Chauvier, Stéphane (2000). « Du bon usage des arguments transcendantaux », Cahiers de Philosophie de l’université de Caen, n°35, p. 51-79.

Clarke, Samuel (1705). A Discourse Concerning the Unalterable Obligations of Natural Religion, and the Truth and Certainty of the Christian Revelation, reprint in The Works of Samuel Clarke (1738), vol. 2. Edited by John Clarke, Londres : Knapton.

Cléro, Jean-Pierre (1998). Hume, Paris : Vrin.

Cléro, Jean-Pierre & Saltel, Philippe (2009) (éds.). Lectures de Hume, Paris : Ellipses.

Cohen, Hermann (2001). La théorie kantienne de l’expérience, tr. fr., Eric Dufour et Julien Servois, Paris: Cerf.

Davidson, Donald (1993 [1980]). Actions et événements, tr. fr., P. Engel, Paris : Presses Universitaires de France.

Deleuze, Gilles (2010 [1953]). Empirisme et subjectivité, Paris : Presses universitaires de France.

Domenach, Élise (2003). « Naturalisme et scepticisme chez Cavell, McDowell et Strawson », Revue de Métaphysique et de Morale, 2, p. 159-179.

Etchegaray, Claire (2009). « Le concept de croyance naturelle », in L’invention philosophique humienne, Ph. Saltel (éd.), Grenoble, Recherches sur la philosophie et le langage, p. 83-116.

Etchegaray, Claire (2013). « Can we know Whether Scepticism is Right or Wrong ? Reid’s criticisms and Hume’s Answer », Scepticism in the Eighteenth Century : Enlightenment, Lumières, Aufklärung, Dordrecht : Springer.

Etchegaray, Claire (2018). David Hume. L’esprit sensible, Paris : Belin.

Flanagan, Owen (1991). The Science of Mind, MA : MIT Press.

Fogelin, Robert J. (2009). Hume’s Skeptical Crisis. A Textual Study, New York : Oxford University Press.

Frankfurt, Harry (1997 [1969]). « Partis contraires et responsabilité morale », trad. fr. M. Neuberg, in La responsabilité. Questions philosophiques, Paris : Presses universitaires de France.

Garrett, Don (1997). Cognition and Commitment in Hume’s Philosophy, Oxford : Oxford University Press.

Gautier, Claude (2005). Hume et les savoirs de l’histoire, Vrin / EHESS, 2005

Gautier, Claude (2009). « Le problème des croyances communes en politique. Expérience et histoire chez Hume », in Lecturse de Hume, Paris : Ellipses.

Goodman, Nelson (1984 [1955]) Faits, fictions, prédictions, trad. fr., Paris : Éditions de minuit.

Grandjean, Antoine (éd.) (2017). Kant et les empirismes. Paris : Classiques Garnier.

Grotius, Hugo (1999 [1625]). Le droit de la guerre et de la paix, trad. fr. Pradier-Fodéré, D. Alland et S. Goyard-Fabre (éds.), Paris : Presses universitaires de France.

Harris, James (2015). Hume. An Intellectual Biography, Cambridge : Cambridge University Press.

Harris, James & Tolonen, Mikko (2015). « Hume In and Out of Scottish Context », in Scottish Philosophy in the Eighteenth Century, J. Haaris et A. Garrett (éds.), Oxford : Oxford University Press.

Husserl, Edmund (1970 [1923-1924]), Philosophie première. 1. Histoire critique des idées, tr. fr., A. Kelkel, Presses universitaires de France.

Hutcheson, Francis (1991 [1725]). Recherche sur l’origine de nos idées de la beauté et de la vertu, tr. fr., A-D. Balmès, Paris : Vrin.

Hutcheson, Francis (2006 [1730]). The Natural Sociability of Mankind, in Logic, Metaphysics and the Natural Sociability of Mankind, Indianapolis : Liberty Fund.

Hutcheson, Francis (2016 [1754]). Système de philosophie morale, tr. fr., J. Szpirglas, Paris : Vrin.

Jaffro, Laurent (2006). « What Is Wrong With Reid’s Criticism of Hume On Moral Approbation », European Journal of Analytic Philosophy, vol. 2, n°2, p. 11-26.

Jaffro, Laurent (2009). « Emotions et jugement moral chez Shaftesbury, Hutcheson et Hume » in Les émotions, Paris: Vrin, p. 135-159.

Jaffro, Laurent (2010). «  Reid, Hume et les raisons d’agir », Critique. Revue générale des publications françaises et étrangères, 761, p. 883-893.

Jaffro, Laurent (2011). « Le sceptique humien est-il modéré ? Le rôle du pyrrhonisme dans la genèse causale du scepticisme mitigé », Δαιμων. Revista Internacional de Filosofía, 52, p. 53-69.

Jessop, Thomas E. (1938). A Bibliography of David Hume and Scottish Philosophy, Londres : Brown.

Jones, Peter (éd.) (2005). The Reception of David Hume in Europe, Londres, New Delhi, New York, Sydney : Thoemmes Continuum.

Kail, P.J.E (2007). Projection and Realism in Hume’s Philosophy, OOxford et New York : Oxford University Press.

Kant Emmanuel (2001 [1781, 1787]). Critique de la raison pure, tr. fr., Alain Renaut, Paris : Garnier-Flammarion.

Kant, Emmanuel (1996). Prolégomènes à toute métaphysique future qui pourra se présenter comme science, tr. fr., Louis Guillermit, Paris: Vrin.

Kemp Smith, Norman (1905). « The Naturalism of Hume » (I et II), Mind, Oxford University Press, 14, réimpr. dans David Hume. Critical Assessments, S. Tweyman (éd), Londres et New York, Routledge, 1995, vol. 3, pp. 207-239

Kemp Smith, Norman (2005 [1941]). The Philosophy of David Hume, London, Macmillan, réimpr. NewYork, Palgrave Macmillan.

Kistler, Max (1999). Causalité et lois de la nature, Paris : Vrin.

Kuehn, Manfred (1983). « Kant’s Conception of Hume’s Problem », Journal of the History of Philosophy, 21, p. 479-486.

Kuehn, Manfred (1987). « Hume in the Göttingische gelehrte Anzeigen », Hume Studies, 13, p. 46-73.

Kuehn, Manfred (2005). « The Reception of Hume in Germany », in The Reception of David Hume in Europe, Peter Jones (éd.), Londres, New Delhi, New York, Sydney : Thoemmes Continuum, p. 98-138.

Laugier, Sandra (2000). « Langage, scepticisme et argument transcendantal », Cahiers de Philosophie de l’université de Caen, n°35, p. 11-34.

Laugier, Sandra (2003). « Deux ou trois naturalismes », Revue de Métaphysique et de Morale, 2, p. 117-125.

Lebrun, Gérard (2003 [1970]). Kant et la fin de la métaphysique. Essai sur La critique de la faculté de juger, Paris : Livre de Poche.

Le Jallé, Éléonore (1999). Hume et la régulation morale, Paris : Presses universitaires de France.

Le Jallé, Éléonore (2005). L’autorégulation chez Hume, Paris : Presses universitaires de France.

Le Jallé, Éléonore (2014), Hume et la philosophie contemporaine, Paris : Presses universitaires de France.

Lépine, Samuel (2016). Une Défense du Sentimentalisme : émotions, motivations et valeurs. Thèse de doctorat soutenue à l’Université Lyon 3 Jean Moulin. Consultable sur https://www.academia.edu/31240797/Une_D%C3%A9fense_du_Sentimentalisme_%C3%A9motions_motivations_et_valeurs

Loeb, Louis E. (2002). Stability and Justification in Hume’sTreatise, Oxford : Oxford University Press.

Loeb, Louis (2010). Reflection and the Stability of Belief. Essays on Descartes, Oxford : Oxford University Press.

Lovejoy, Arthur (1906). « On Kant’s Reply to Hume », Archiv für Geschichte der Philosophie, p. 380-440.

MacIntyre, Alsadair (1993 [1988]). Quelle justice ? Quelle rationalité ?, trad. fr., M. Vignaux d’Hollande, Paris : Presses universitaires de France.

Malherbe, Michel (1993). Kant ou Hume ou la raison et le sensible, Paris : Vrin.

Malherbe, Michel (1995). « Philosophie facile et philosophie abstraite au XVIIIe siècle », in Popularité de la philosophie, éd. Ph. Beck et T. Thouard, Fontenay/Saint Cloud : ENS Éditions, pp. 65-86.

Malherbe, Michel (20014). La philosophie empiriste de David Hume, Paris : Vrin.

Maurer, Christian (2013). « Self-Interest and Sociability », in The Oxford Handbook of British Philosophy in the Eighteenth Century, Oxford : Oxford University Press, p. 291-314.

Mazza, Emilio (2007). « In and out of the well: fluw and reflux of scepticism and nature », New Essays on David Hume, E. Mazza et E. Ronchetti (éds.), Milan : Francoangeli, p. 101-130.

Michaud, Yves (1983). Hume et la fin de la philosophie, Paris : Presses universitaires de France.

Mounce, H.O. (1999). Hume’s Naturalism, Londres : Routledge.

Mossner, Ernst C. (1980). The Life of David Hume, Oxford : Clarendon Press.

Nef, Frédéric (2017). L’Anti-Hume. De la logique des relations à la métaphysique des connexions, Paris : Vrin.

Norton, David Fate (1982). David Hume ; Common-sense Moralist, Skeptical Metaphysician, Princeton : Princeton University Press.

Norton, David Fate (1994). The Cambridge Companion to Hume, Cambridge : Cambridge University Press.

Nurock, Vanessa (2009). « Faut-il guillotiner la loi de Hume ? », Lectures de Hume, J-P. Cléro et Ph. Saltel (éds), Paris : Ellipses.

Nurock, V (2009). « Le spectre sympathique » in Adam Smith philosophe, M. Bessone et M. Biziou (éds.), Rennes : Presses universitaires de Rennes.

Oswald, James (1766-1772). An Appeal to Common Sense in Behalf of Religion, Edimbourg : Kincaid et Bell (vol.1) et Edimbourg : Kincaid et Creech (vol.2).

Penelhum, Terence (2000). Themes in Hume : the Self, the Will, Religion, Oxford : Clarendon Press.

Pocock, J.G.A. (1999). Barbarism and Religion. Vol. 2. Narrative of Civil Government, Cambridge : Cambridge University Press.

Popper, Karl (1988 [1972]). La connaissance objective : une approche évolutionniste, trad. fr., Paris : Champs Essais.

Popkin, Richard (1951). « David Hume : His Pyrrhonism And His Critique of Pyrrhonism », The Philosophical Quarterly 1, réimpr. dans (1980) The High Road to Skepticism, San Diego: Austin Hill Press.

Price, Richard (1767), Four Dissertations, Londres : A. Millar, T. Cadell.

Puech, Michel (1990). Kant et la causalité, Paris : Vrin.

Putnam, Hilary (1984). Raison, vérité et histoire, Paris : Editions de Minuit [1981].

Putnam, Hilary (2004). Fait/Valeur : la fin d’un dogme et autres essais, Paris : L’Éclat [2002].

Reid Thomas (2002 [1785]). Essays on the Intellectual Powers of Man, Edimbourg : Edinburgh University Press.

Reid, Thomas (2009 [1788]). Essais sur les pouvoirs actifs de l’homme, tr. fr. G. Kervoäs et E. Le Jallé, Paris : Vrin.

Reid, Thomas (2012 [1764]). Recherches sur l’entendement humain d’après les principes du sens commun, tr. fr., M. Malherbe, Paris : Vrin.

Ricœur, Paul (1985). Temps et récit 3, Paris : Seuil, Point Essais.

Russell, Paul (2008). The Riddle of Hume’sTreatise. Skepticism, Naturalism and Irreligion, Oxford et New York : Oxford University Press.

Ryan, Todd (2017). « Academic Scepticism and Pyrrhonian Scepticism in Hume’s Dialogues », in Academic Scepticism in the Development of Early Modern Philosophy, Dordrecht : Springer International Publishing, p. 319-343

Saltel, Philippe (1999). Le vocabulaire de Hume, Paris : Ellipses.

Saltel, Philippe & Cléro, Jean-Pierre (2009) (éds.). Lectures de Hume, Paris : Ellipses.

Schmitt, Frederick F. (2014). Hume’s Epistemology in the Treatise. A Veritistic Interpretation, Oxford : Oxford University Press.

Schulthess, Daniel (2011). « Hume and Searle : the ‘is/ought’ gap versus speech act theory », The Institute for Advances Studies in the Humanities, University of Edinburgh.

Searle, John (1964). « How to Derive ‘Ought’ form ‘Is’ », The Philosophical Review, 73, p. 43-58.

Searle, John (1969). Speech Acts. An Essay in the Philosophy of Language, Cambridge : Cambridge University Press.

Simon, Alexandre (2009). « Scepticisme, sociabilité et art d’écrire » in Lectures de Hume, J-P Cléro et PH. Saltel (éds.), Paris : Ellipses, p. 95-122.

Simon, Alexandre (2016). Scepticisme et politesse dans l’œuvre de Hume. Thèse doctorale soutenue à l’Université de Franche-Comté.

Smith, Adam (1999 [1759-1790]). Théorie des sentiments moraux, tr. fr., M. Biziou, Cl. Gautier, J-F. Pradeau, Paris : Presses universitaires de France.

Smith, Plinio Junqueira (2017). « Hume’s Academic Scepticism in its French Context », Academic Scepticism in the Development of Early Modern Philosophy, Dordrecht, Springer International Publishing, p. 345-364.

Snare, F (1991). Morals, Motivation and Convention : Hume’s Influential Doctrines, Cambridge : Cambridge University Press.

Stewart, M.A. (2002). « Two Species of Philosophy : The Historical Significance of the First Enquiry » in Reading Hume on Human Understanding, P. Millican (éd.) , Oxford : University Press, p. 67-95.

Strawson, Galen (1989). The Secret Connexion : Causation, Realism and David Hume, Oxford : Clarendon Press.

Strawson, Galen (2000). « David Hume : objects and powers », The New Hume Debate, R. Read et K. A. Richman (éds.), London and New York: Routledge, p. 31-51.

Strawson, Galen (2011). The Evident Connexion. Hume on Personal Identity, Oxford : Oxford University Press.

Strawson, Peter Frederick (1966). The Bounds of Sense. An Essay on Kant’s ‘Critique of Pure Reason’, Londres: Methuen.

Strawson, Peter Frederick (1973 [1959]). Les Individus, tr. fr. de A. Shalom et P. Drong, Paris : Seuil.

Strawson, Peter Frederick (1985). Skepticism and Naturalism. Some Varieties, New York: Columbia University Press.

Stroud, Barry (1968). « Transcendantal Arguments », The Journal of Philosophy, 65, n°9, p. 241-256.

Stroud, Barry (1977). Hume, Londres : Routledge.

Stroud, Barry (2000). « Hume’s Scepticism : Natural Instincts and Philosophical Reflection », Hume. General Philosophy, D. Owen (éd.) , Ashgate: The International Library of Critical Essays in the History of Philosophy, p. 472-493.

Taylor, Jacqueline (2015). Reflecting Subjects, Oxford : Oxford University Press.

Waszek, Norbert (1996). « Histoire et politique : Kant et ses prédécesseurs écossais », Revue germanique internationale, 6, p. 75-88.

Waxman, Wayne (2005). Kant and the Empiricists. Understanding understanding, Oxford : Oxford University Press.

Whitehead A. N. (1995 [1929]). Procès et Réalité, trad. fr. D. Janicaud et al., Paris : Gallimard.

Whitehead A. N. (1998 [1920]). Le Concept de Nature, trad. fr. J. Douchement, Paris : Vrin.

Whitehead A. N. (2007). Les principes de la connaissance naturelle, trad. fr. H. Vaillant – S. Schwer, Louvain-la-Neuve : Chromatika.

Williams, Michael (2004). « The Unity of Hume’s Philosophical Project », Hume Studies, 30, p. 265-296.

Winkler, Kenneth (2000). « The New Hume », première éd. dans Philosophical Review, 100, 4, 1991, réimpr et augm. dans The New Hume Debate, R. Read et K. A. Richman (éds.), Londres et New York: Routledge.

Wright, John P. (1983). The Sceptical Realism of David Hume, Minneapolis : University of Minnesota Press.

Wright, John P. (2007). « Kemp Smith and the Two Kinds of Naturalism in Hume’s Philosophy », New Essays on David Hume, E. Mazza et E. Ronchetti (éds.), Milan : Francoangeli.

Humes Studies, 2 livraisons par an.

Site de la Hume Society : http://www.humesociety.org.

Claire Etchegaray
Université Paris Nanterre
claire.etchegaray@parisnanterre.fr

Comment citer cet article? 
Etchegaray, C. (2020), « Hume », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/david-hume-a/

By admin

Ontologie Formelle (A)

Publié en septembre 2018

Table des matières

Introduction

1. Ontologie formelle comme analyse de la forme pure de l’être

a. Catégories formelles et matérielles chez Husserl
b. De la « neutralité » des principes formels : le cas de la méréologie
c. De la portée formelle de l’ontologie matérielle : dépendance ontologique

2. Corrélation formelle entre logique et ontologie

a. Forme logique et forme ontologique : les deux versants formels de l’unité théorique
b. Du contenu ontologique de la logique formelle
c. Ontologie formelle et renouveau de la logique comme langage

3. Ontologie formelle et formalisée : de la philosophie à l’informatique

a. Propriétés « algébriques » et formalisation des relations ontologiques formelles
b. Ontologies formalisées et représentation des connaissances
c. Réutilisabilité et Interopérabilité et ontologies de haut niveau
d. Distinctions et analyse catégorielles empruntées à la philosophie et applications

Bibliographie


Introduction

Si l’ontologie se définit étymologiquement comme la théorie de l’être, il est difficile de donner une définition univoque de son objet précis d’étude. Certains considèrent ainsi qu’il incombe à l’ontologie d’étudier l’être, et en particulier d’aboutir à un inventaire de ce qui existe. D’autres considèrent que l’objet de l’ontologie est d’étudier les caractéristiques les plus générales de l’être, et plus précisément la façon dont les choses qui existent sont reliées les unes aux autres. D’autres encore défendent que l’ontologie se résume dans l’étude de l’engagement ontologique de théories ou langages donnés (théories scientifiques, langage ordinaire, etc.). Partant, et étant donné que l’ontologie formelle est bien sûr un sous-domaine de l’ontologie, il n’est pas surprenant de retrouver dans les divers courants de l’ontologie formelle des différences relevant de l’ontologie plus généralement et de l’objectif qui lui est reconnu. Par ailleurs, comme le laisse penser le qualificatif formel, du moins sous une certaine interprétation, l’ontologie formelle rejoint à bien des égards la logique formelle. Or, là encore, il existe de nombreuses interprétations de ce qu’est la logique, celle-ci étant tantôt comprise comme l’étude de langages artificiels et de leurs propriétés structurelles, tantôt comme l’étude des inférences valides et de la conséquence logique, tantôt encore comme l’étude des formes générales du jugement. Là encore, il n’est pas surprenant que les différents courants de l’ontologie formelle soient solidaires d’une certaine vision de la logique plutôt qu’une autre dans leur façon de concevoir le recoupement entre investigations logiques et ontologiques.

Cependant, dans ce chapitre dédié à l’ontologie formelle, nous ne procèderons ni suivant les clivages caractéristiques de l’histoire de l’ontologie, ni suivant ceux qui caractérisent les différents projets logiques. Ceci nous mènerait à la fois trop loin de notre objet particulier et serait impossible à couvrir dans l’espace d’un seul chapitre. Nous aborderons donc l’ontologie formelle relativement à ses problématiques propres, et lorsque celles-ci rejoignent des questions qui dépassent l’objet propre de l’ontologie formelle nous pointerons vers les entrées dédiées. En particulier, nous suivrons le fil directeur suivant. Nous considèrerons les différentes acceptions que revêt le formel lorsqu’employé pour qualifier un projet ontologique : (i) théorie de la forme de l’être, (ii) structure logique du monde, (iii) théorie formalisée de l’être.

Derrière cette tripartition que nous nous efforcerons de maintenir pour des raisons de clarté d’exposition, se trouvent bien sûr des recoupements fondamentaux qu’il convient de souligner. Ainsi la naissance de l’ontologie formelle comme théorie de la forme de l’être, abordée dans la première section, est historiquement liée au développement de la logique formelle moderne. Ces deux disciplines formelles se rejoignent en particulier dans un idéal Leibnizien de développement d’une caractéristique universelle et s’articulent à plusieurs niveaux, comme nous le verrons dans la seconde section de cette entrée. Par ailleurs, la notion de formalisation, relevant de la formulation dans un langage symbolique artificiel, est en réalité transversale en ce que toute théorie est en principe formalisable. La formalisation occupe ainsi une place centrale dans l’ensemble des travaux contemporains relevant de l’ontologie formelle comprise comme théorie de la forme de l’être, et bien sûr dans l’ensemble des travaux, y compris ontologiques, mobilisant la logique formelle contemporaine. C’est cependant dans le domaine informatique de la représentation des connaissances que la formalisation et l’ontologie se rejoignent de façon plus essentielle, pour donner naissance à l’ontologie formelle informatique. Dans la troisième section dédiée à l’ontologie formelle comme ontologie formalisée, nous aborderons alors les liens entre les différents projets ontologiques formels issus de la tradition philosophique et cette nouvelle discipline qu’est l’ontologie informatique.

Enfin notons que si les débats et théories de l’ontologie formelle reposent souvent sur l’usage de systèmes symboliques formels, comme le laisse entrevoir cette brève introduction, nous avons pris le parti de rester au niveau de leur discussion conceptuelle (aucun symbolisme ne sera donc introduit). Les théories formalisées abordées sont en effet tellement variées que cela demanderait trop d’espace pour que les langages correspondants soient tous convenablement et rigoureusement définis.


1. Ontologie formelle comme analyse de la forme pure de l’être

Le terme même d’ontologie formelle fit sa première apparition dans les travaux de Husserl. En effet, les Recherches Logiques (1900/01), posèrent les fondements de ce qui devint par la suite un sous-domaine à part entière de la philosophie, reprenant et systématisant l’étude de la distinction entre forme et matière d’origine Aristotélicienne. L’ontologie formelle se définit ainsi, en première approximation, comme l’étude de l’être indépendamment de toute détermination matérielle particulière, de l’être en tant qu’être, en tant que pur quelque chose.

a. Catégories formelles et matérielles chez Husserl

La distinction entre forme et matière a une longue histoire qui remonte à Aristote (Métaphysique), pour qui tout être est un composé (hylomorphique) de forme (eidos ou morphê) et de matière (hulê). Tout homme, par exemple, est constitué de matière, mais ce qui subsiste à travers les différents changements (accidents) qui affectent la matière, ce qui lui confère son unité et son identité malgré les propriétés changeantes (e.g. poids, couleur de peau, etc.) est sa forme, ou son essence (i.e. humain). Toute modification de la forme n’est pas une modification de l’individu, mais correspond nécessairement soit au moment de sa naissance soit au moment de sa mort. La « mise en mouvement » de la forme est ce par quoi toute entité vient à l’être ou cesse d’être. En s’appropriant cette distinction, et une part importante de la terminologie Aristotélicienne, Husserl lui donne cependant une toute autre portée, opérant des distinctions nouvelles.

En effet, Husserl distingue deux types d’essences, et corrélativement d’ontologies : l’une matérielle, l’autre formelle. La première se divise en trois régions (non-exclusives) : la Nature, la Culture, et la Conscience. Au règne de la nature appartiennent toutes les entités concrètes localisées dans l’espace et le temps, les objets physiques, les plantes, les animaux, les humains etc. Mais les humains, par exemple, appartiennent également à la région culturelle, au même titre que les institutions (tels que les états, les universités, etc.), l’art, les religions, les sciences, ou encore les artéfacts (comme les bâtiments, les outils en tout genre, etc.). Enfin la conscience regroupe tous les actes ou expériences intentionnels, comme la pensée, le désir, l’imagination, mais aussi les humains en tant que sièges de la conscience. Il est donc clair, qu’une seule et même entité peut être catégorisée sous plusieurs régions matérielles, et être simultanément régie par les lois de chacune d’entre elles. Les catégories de l’ontologie formelle s’appliquent quant à elles à toute entité, quelle que soit la région matérielle à laquelle elle appartient, portant sur l’étude de concepts comme quelque chose, une chose quelconque, objet, qualité, relation, connexion, pluralité, nombre, ordre, tout, partie, grandeur, etc. (Husserl 1900/01, RL III, §11, trad. p35-36).

Nous voyons déjà que le déplacement opéré ici par rapport à la philosophie première d’Aristote, à son étude de l’être en tant qu’être, est significatif et loin d’être purement terminologique. Les formes ou essences Aristotéliciennes sont bien plus proches des catégories ou essences matérielles que des catégories formelles du système Husserlien. Il est par ailleurs intéressant de constater que les catégories de l’être (substance, qualité, quantité, relation, etc.) présentées en ouverture des Catégories d’Aristote, ouvrage qui appartient à son corpus logique, sont bien plus proches des catégories de l’ontologie formelle, laissant entrevoir un lien fort entre ontologie formelle telle que définie par Husserl et logique formelle, point sur lequel nous reviendrons par la suite. Cependant, et malgré cette parenté évidente, Husserl concluait à juste titre que « Aristote eut uniquement une ontologie générale « réelle » et c’est cette ontologie réelle qui valut pour lui comme « philosophie première ». Il lui manqua l’ontologie formelle et donc aussi la connaissance que l’ontologie formelle, en soi, précède l’ontologie réelle » (Husserl 1929, §26a, trad. p110-111).

Contrairement aux catégories matérielles, qui procèdent de l’abstraction généralisante, et s’ordonnent dans un rapport hiérarchique de genre à espèce (e.g. chienmammifèreanimal etc.), les catégories formelles sont vides de tout contenu, de toute détermination matérielle aussi générale soit-elle. Elles procèdent d’une toute autre forme d’abstraction, i.e. formalisante. Les catégories formelles ne sont donc pas les catégories supérieures de la hiérarchie des catégories matérielles ; elles ne sont pas dans un rapport de plus grande généralité par rapport à ces dernières. Elles sont transversales par rapport à la division du réel en régions matérielles et peuvent, en principe, être exemplifiées par des objets appartenant à toutes les sphères ou domaines du réel.

En ce sens, la tâche de l’ontologie formelle n’est pas d’établir ce qui existe. La question de savoir si tel ou tel type d’entité existe, comme les nombres ou autres entités idéelles abstraites, est hors de son champ. Il s’agit d’une philosophie première, posant les conditions nécessaires de toute ontologie réelle ou matérielle possible. Les lois de combinaison des catégories matérielles sont subordonnées aux lois de l’ontologie formelle, les premières étant, selon Husserl, des lois a priori synthétiques, et les secondes des lois a priori analytiques. Sans rentrer dans le débat concernant l’existence de vérités synthétiques a priori, il est aisé de saisir la visée de cette distinction d’origine Kantienne. La loi selon laquelle un objet ne peut être simultanément de deux couleurs, entièrement rouge et entièrement vert par exemple, ou bien la loi selon laquelle un carré ne peut être rond, sont nécessairement vraies en vertu de propriétés spatiales, et appartiennent donc à l’ontologie matérielle. La loi selon laquelle rien ne peut avoir une unique partie propre est quant à elle en principe applicable à tout le réel, aussi bien aux objets physiques, qu’aux expériences intentionnelles ou aux significations. Elle appartient donc, à supposer qu’elle soit vraie, à l’ontologie formelle, comme l’ensemble de la théorie des touts et des parties.

Mais est-il possible, comme le suppose Husserl, d’accéder aux conditions formelles de l’être indépendamment de toute prise de position quant à ce qui est matériellement possible, et inversement ? Comme le souligne Varzi (2010) « Il existe, en fait, un quantificateur caché dans la caractérisation du formel, un quantificateur portant sur toutes les entités possibles (i.e. concevables). Et il n’est absolument pas clair que l’on puisse en saisir la portée sans s’engager dans des considérations ontologiques matérielles. Inversement, en posant l’existence et en décrivant certaines entités, on est également amené à spécifier certaines règles nécessaires qui structurent ces entités ». Comme nous le verrons dans les sections qui suivent, la frontière entre le matériel et le formel est ainsi loin d’être aussi nette. D’un côté, nous verrons que les débats contemporains concernant la théorie des touts et des parties ainsi que la dépendance ontologique, relations ontologiques formelles par excellence (constituant d’ailleurs le thème central de la IIIé RL qui donne naissance à l’idée d’une ontologie formelle), sont loin de la neutralité métaphysique visée. De l’autre côté, nous montrerons que certains débats appartenant à l’ontologie matérielle, portant sur l’existence de tel ou tel type d’entité, mobilisent bien souvent des analyses proprement formelles. Cette partie des investigations matérielles est d’ailleurs généralement désignée par le terme « ontologie formelle de X » (par exemple des trous, des entités géographiques, etc.). Sachant que dans les deux cas, les débats s’entrecroisent, et afin d’éviter les redondances, nous traiterons de la porosité de l’ontologie formelle à l’égard de l’ontologie matérielle en prenant des exemples de débats méréologiques, et dans la direction inverse, en prenant appui sur la théorie de la dépendance.

b. De la « neutralité » des principes formels : le cas de la méréologie

Avant même d’aborder la question de savoir s’il existe réellement une théorie (ensemble de principes) qui soit métaphysiquement neutre et qui qualifie adéquatement la relation partie-tout, notons que le fait même de considérer cette relation comme une relation formelle, au sens où elle serait applicable à tous les domaines de l’être sans restriction aucune, offre matière à débat. Ainsi, si la majorité des métaphysiciens accepte volontiers que la relation partie-tout s’applique aussi bien aux entités matérielles, ou spatio-temporellement localisées, qu’aux entités abstraites comme les propositions (e.g. le sujet S comme partie d’une proposition prédicative P(S) fait partie de P(S)) ou aux universaux (e.g. l’hydrogène H fait partie de l’eau H2O), il existe également des arguments contre. Lewis, par exemple, dans son célèbre article sur les universaux structurés (1986), argumentait que les universaux ne pouvaient être méréologiquement structurés (voir l’entrée de l’encyclopédie dédiée aux « Universaux »). Par exemple, le lien entre un universel de méthane (CH4) et celui d’hydrogène (H) ne peut, selon Lewis, être de nature méréologique, puisque, chaque universel étant isomorphe à ses instances, cela reviendrait à dire que l’hydrogène fait quatre fois partie du méthane. Mais que pourrait bien signifier pour un universel de faire quatre fois partie d’un autre universel ? Comme le fait justement remarquer (Varzi 2010), que l’on accepte ou non l’argument en question, sa possibilité même montre que l’inclusion des relations méréologiques au rang des relations ontologiques formelles n’est pas totalement indépendante de prises de positions quant à la nature, par exemple, des universaux. Or, cela appartient clairement au domaine de l’ontologie matérielle au sens de Husserl.

Maintenant, mettant un instant en arrière plan ces considérations quant à la nature formelle de la relation du tout à ses parties, et admettant qu’elle soit applicable à toute entité, quel que soit son domaine ou sa nature, la question subsiste de savoir s’il est possible d’établir les principes particuliers que devrait contenir une théorie méréologique adéquate indépendamment de tout biais ontologique substantiel. Etant donné l’ampleur des travaux dédiés à la méréologie, l’étendue des débats concernant l’admissibilité de tel ou tel principe et le développement de systèmes axiomatiques alternatifs, il est pratiquement impossible de procéder de façon systématique et exhaustive. Nous nous contenterons ainsi de mentionner certains principes centraux de la méréologie extensionnelle classique (CEM) qui se sont avérés inconciliables avec des positions métaphysiques particulières concernant la nature de tel ou tel type d’entité, et ont à ce titre été rejetés par certains auteurs. Si ces arguments n’établissent pas la fausseté des principes en question, il mettent néanmoins à mal leur supposée « innocence » ontologique, et par là même, sont indicatifs de la difficulté à tracer une frontière claire entre investigations ontologiques formelles et intuitions ontologiques matérielles. Pour une présentation systématique et détaillée de la CEM et de ses alternatives voir (Simons 1987) ainsi que l’entrée de cette encyclopédie consacrée à la « Méréologie ».

De façon informelle, les axiomes de la CEM définissent la relation partie-tout comme (i) une relation d’ordre partiel (réflexive, transitive et antisymétrique), (ii) munie de principes de décomposition (allant du tout aux parties) et (iii) de principes de composition (allant des parties au tout). Sans entrer dans leur formulation axiomatique précise, chacun de ces ensembles de principes exclut des positions métaphysiques particulières. Plusieurs auteurs rejettent par exemple le principe de transitivité de la relation partie-tout, arguant qu’elle est inapte à rendre compte de l’existence de « touts intégraux » et de la notion de partie fonctionnelle (voir entre autres, Cruse 1979, Winston et al. 1987, Moltmann 1997, Johansson 2004). En un mot, l’idée est que certains touts sont caractérisés par un principe d’intégration qui leur confère leur unité, principe auquel participent leurs parties propres, mais pas nécessairement les parties de leurs parties. Tel est le cas des touts organiques ou des objets fonctionnels comme les artéfacts. Par exemple, s’il est commun de considérer que la porte fait partie de la maison et que la poignée fait partie de la porte, la poignée ne fait néanmoins pas intuitivement partie de la maison. De même, de nombreux auteurs défendent que les cellules font partie des organes ou organismes qu’elles composent, et que les sous-unités de ces cellules font partie de ces dernières, mais que ces même sous-unités ne font pas partie de l’organe ou organisme en question.

Concernant les axiomes correspondant aux principes de décomposition de la CEM, ceux-ci expriment intuitivement l’idée qu’il existe toujours une différence méréologique, i.e. une partie restante, entre le tout et ses parties propres. A l’évidence, cette idée va à l’encontre d’une théorie comme celle des qua-objets de Fine (1982) selon laquelle l’objet de base (e.g. John) est la seule partie propre de ses incarnations (e.g. John qua philosophe, John qua mari, etc.), incarnations qui sont cependant des entités distinctes en vertu du principe des indiscernables de Leibniz (e.g. John peut être très doué qua philosophe mais pas qua mari). Par ailleurs les principes de décomposition de la CEM impliquent le principe d’extensionalité selon lequel :

Si x et y sont des objets composites avec les mêmes parties propres, alors x = y

Or, de nombreux auteurs ont opposé à ce principe que les comités et autres collectivités pouvaient être composés des mêmes personnes sans pour autant être identiques (Simons 1987). De même, certaines théories de la composition matérielle affirment que les objets matériels et les portions de matière qui les constituent sont, à tout instant, distincts bien que composés des mêmes parties (Baker 1997, Lowe 2013). En particulier, si un objet peut survivre à la perte de certaines parties, ce n’est pas le cas de la portion de matière. Inversement, si un objet peut ne pas survire à l’altération totale de sa forme, la portion de matière quant à elle subsiste.

Enfin, les axiomes correspondant aux principes de composition expriment quant à eux l’idée que lorsque l’on considère certaines entités, il existe toujours un tout qui contient exactement lesdites entités. Là encore, nombreux sont les philosophes qui se sont opposés à l’import ontologique de tels principes de composition, introduisant selon eux l’existence d’un « bric-à-brac » infini, supportant la vision d’un monde constitué de sommes méréologiques aussi improbables que la somme de mon bras droit, du soleil et du chiffre 2 (Schaffer 2010, Watson 2010).

c. De la portée formelle de l’ontologie matérielle : dépendance ontologique

La relation de dépendance ontologique occupe, comme celle de partie, une place centrale en ontologie formelle. Intuitivement, l’idée est qu’une entité x dépend d’une autre y si, et seulement si, x ne peut exister sans y. Dans sa formulation la plus générale, la relation de (in)dépendance ontologique ne connaît donc pas de restriction métaphysique, couvrant tous les domaines de l’être. L’analyse systématique de cette notion, qui remonte aussi loin que la théorie des substances Aristotélicienne, révèle cependant que la dépendance ontologique n’est pas une unique relation, mais bien une famille de relations proches : dépendance existentielle ou essentielle, générique ou rigide, permanente ou historique, etc. Comme pour la méréologie, nous ne nous attacherons pas ici à présenter un panorama exhaustif des différentes notions de dépendance et leurs théorisations alternatives, et renvoyons le lecteur intéressé à (Fine 1994a, Lowe 1998, Correia 2005 et 2008). Nous nous pencherons plutôt sur certaines des positions métaphysiques qui s’articulent traditionnellement en termes de dépendance ontologique. Ce faisant, nous verrons que, si le formel se défait difficilement des intuitions ou positions matérielles, à l’inverse les investigations matérielles, dès lors qu’elles vont au delà de la simple énumération de ce qui existe, requièrent des analyses formelles substantielles pour être développées.

Il existe par exemples différentes positions métaphysiques quant à la nature des universaux (e.g. les couleurs). Considérons brièvement l’opposition entre la vision Aristotélicienne des universaux et la vision Platonicienne. De façon générale l’opposition s’articule autour de la question de savoir si les universaux, comme la propriété être rouge, peuvent exister sans être instanciés. En d’autres termes, le débat s’articule autour de l’énoncé de dépendance suivant :

Nécessairement, la propriété être rouge dépend des instances de rouge

Ceci n’est cependant qu’une première approximation. Cet énoncé de dépendance appel d’avantage des qualifications, qui varient selon la position métaphysique exacte défendue. En particulier, la proposition ci-dessus peut être interprétée comme énonçant une relation de dépendance existentielle générique. C’est-à-dire que l’existence de l’universel être rouge ne dépend pas de telle ou telle instance particulière, mais de l’existence d’au moins une instance (i.e. rejet des propriétés non-instanciées).

Nécessairement, si la propriété être rouge existe, alors il existe quelque chose qui est rouge

Mais il ne s’agit pas de la seule interprétation possible, ni même de la plus répandue. Ainsi, la position Aristotélicienne est généralement comprise comme affirmant que les universaux ne sont que des abstractions, et que seules les propriétés particularisées – également nommées tropes, moments, ou accidents individuels – existent (e.g. le rouge particulier de tel ou tel objet concret). Dans ce cas, deux interprétations distinctes de la relation de dépendance sont à nouveau possibles. L’une générique, suivant laquelle :

Nécessairement, si tel rouge particulier existe, alors il existe quelque chose de rouge

L’autre rigide, affirmant que les tropes ne peuvent « migrer ». Le rouge particulier de telle, fleur par exemple, ne peut exister que dans cette fleur et ne saurait changer de porteur.

Nécessairement, si le rouge particulier de x existe, alors x existe

Comme ces quelques considérations l’indiquent, toute théorie matérielle postulant l’existence d’entités ontologiquement non auto-suffisantes, parasitiques par rapport à d’autres, ou mineures, comme sont parfois appelées les entités dépendant d’autres entités, ne peut faire l’économie d’incursions dans le domaine de l’ontologie formelle (voir entre autres Casati & Varzi 1999, Casati 2009).

D’autres exemples méritent ici d’être cités, illustrant la nécessité de s’engager dans des considérations formelles, et souvent de contribuer au développement des outils de l’ontologie formelle, afin de mener à bien telle ou telle investigation matérielle. Nous mentionnions plus haut la distinction entre dépendance existentielle et dépendance essentielle. Un certain nombre d’auteurs ont en effet défendu l’idée que certaines entités non seulement ne peuvent exister sans que d’autres n’existent également, mais que cette dépendance est qui plus est constitutive de leur identité ou essence. La fameuse thèse Kripkéenne de l’essentialité des origines (Kripke 1980) en est un exemple. Lorsque Kripke se demande si la Reine Elisabeth II aurait pu naître de parents différents tout en étant elle-même, la question qu’il pose n’est pas une simple question d’existence mais bien d’identité. Ou encore, remontant à l’origine Aristotélicienne de la notion d’essence, celui-ci identifiait (dans les Catégories) le rapport des objets à leur forme, ou propriété essentielle, comme un type de dépendance spécifique, distinct de la dépendance existentielle liant les objets à leurs propriétés accidentelles. Il distinguait en effet clairement la dépendance entre Socrate et la propriété particulière correspondant à la taille ou au poids de Socrate, de la dépendance essentielle entre Socrate et l’humanité de Socrate.

Or, s’il était commun, jusqu’à récemment, de considérer que la notion de dépendance pouvait être entièrement caractérisée en termes modaux-existentiels (position classiquement défendue par Marcus 1967), des voix de dissensions ont émergé, issues principalement de travaux métaphysiques de tradition néo-Aristotélicienne. Ce qui est plus précisément reproché à ce réductionnisme modal est qu’il résulte en une définition trop grossière de la dépendance essentielle. La position rejetée peut alors être informellement résumée ainsi :

Un objet x est essentiellement P si et seulement si, nécessairement, si x existe, alors x est P

Or, certains auteurs (Fine 1994b, le premier) ont fait valoir qu’une telle définition était non seulement inapte à pleinement caractériser la notion Aristotélicienne d’essence, mais qu’elle induisait des conséquences non souhaitées. En particulier elle implique que tout objet x dépend essentiellement du singleton {x} qui le contient comme unique élément, mais aussi de toute entité nécessairement existante, comme par exemple les nombres. En somme, si la notion de dépendance semble neutre quant à la nature des propriétés essentielles, certaines de ses applications (en particulier néo-Aristotéliciennes) ont amené à élargir l’ensemble des outils de l’ontologie formelle, là où d’autres, appartenant à d’autres bords métaphysiques, préfèrent maintenir la version modale sur la base de la parcimonie (voir Fine 1995, Koslicki 2012, Lowe 2012, pour des analyses non modales de la dépendance essentielle).

Au cours des dernières décennies, de nombreuses analyses matérielles sont ainsi venues enrichir la panoplie de l’ontologie formelle, et en particulier de la théorie de la dépendance. Dans son ouvrage consacré à l’étude du statut métaphysique de la fiction et des personnages de fiction Thomasson (1999) consacre par exemple un chapitre entier à l’analyse systématique des différents types de dépendance ontologique, ajoutant la distinction entre dépendance historique (e.g. des personnages de fiction par rapport à leur auteur) et dépendance permanente (e.g. des personnages de fiction par rapport à certains types d’actes intentionnels). Nous pourrions multiplier les exemples, mais ceux déjà mentionnés suffisent à établir la perméabilité, du moins de fait, et très probablement de principe, de l’ontologie matérielle à l’égard de l’ontologie formelle.

2. Corrélation formelle entre logique et ontologie

Dans une veine différente, le formel s’identifie au logique et l’ontologie formelle se définie par son articulation avec la logique, par l’application des méthodes rigoureuses de la logique mathématique aux descriptions ontologiques informelles. Ce couplage du niveau logique et ontologique se justifie alors par une l’analogie évidente entre logique et ontologique formelle, au sens où, dans leurs sphères respectives, ces disciplines procèdent de l’abstraction du particulier pour atteindre les lois structurelles les plus générales. Mais cette corrélation laisse elle-même place à divers interprétations, étant comprise de façon plus où moins étroite.

a. Forme logique et forme ontologique : les deux versants formels de l’unité théorique

Une première façon de concevoir ce lien entre logique et ontologie formelle repose sur la conception selon laquelle la logique serait une théorie pure des formes de jugement (qu’ils soient mentaux ou linguistiquement exprimés). En ce sens, la logique rejoint l’ontologie formelle comme théorie de la forme au même titre que l’ontologie formelle, abstraction faite de tout contenu particulier. Pour reprendre les termes de Smith (2000) : l’ontologie formelle est au monde ce que la logique formelle est aux théories du monde. Dans les deux cas, la question n’est pas de savoir quelles entités existent, respectivement quelles propositions sont vraies, mais quelles sont les relations qui subsistent entre les différentes entités en vertu de leurs conditions d’existence, respectivement entre propositions en vertu de leurs conditions de vérité. Suivant cette idée, ces disciplines procèderaient toutes deux de l’abstraction formalisante, opérant sur les catégories objectuelles dans le cas de l’ontologie, et sur les catégories de signification dans le cas de la logique. Là où la logique élucide les principes gouvernant les relations entre les catégories formelles de signification : proposition, vérité, sujet, prédicat ; l’ontologie formelle étudie les relations entre les catégories formelles de l’être : état de chose, propriété, relation, relata, etc. (cf. Smith 2000). On notera tout de suite la similitude entre les catégories de ces deux domaines, qui n’est pas surprenante étant donné que toute proposition particulière et les concepts qui la composent portent in fine sur le monde. Leurs modes de composition sont également étroitement liés, comme l’illustre l’analogie entre les propositions ou jugements de type Sujet-Prédicat, et les faits ou états de choses de type Objet-Propriété.

Telle est la vision de Husserl qui se dessine dans ses Recherches Logiques et qui s’articule plus clairement dans Logique Formelle et Logique Transcendantale (1929). La logique, ou apophantique formelle, se définit comme l’analyse des formes pures de jugement et de leur clôture, qui déterminent conjointement la structure nécessaire et a priori de toute théorie, de tout ensemble unifié de connaissances, quel qu’il soit. L’ontologie formelle, quant à elle, est, selon Husserl, une mathématique formelle universelle. Il s’agit d’une théorie des multiplicités pures, dépourvues de toute détermination quant à leur matière, déterminées exclusivement quant à la forme de leurs liaisons. « Dans la théorie de la multiplicité le signe « + » par exemple n’est pas le signe de l’addition numérique mais le signe d’une liaison en général pour laquelle sont valables des lois de la forme a + b = b + a, etc. La multiplicité est déterminée par le fait que ses objets […] rendent possibles ces « opérations ». » (ibid, pp124-125). Le lien nécessaire entre logique et ontologie formelle se pose dès lors comme suit. Il existe une corrélation nécessaire entre les déterminations purement formelles de toute théorie possible et les déterminations purement formelles de tout domaine possible de connaissance. D’une part, les lois élémentaires formelles de tout domaine de connaissance déterminent la forme des théories, et inversement, tout domaine de connaissance ne peut être dominé que par des connaissances déductivement unifiées, obéissant aux lois logiques élémentaires de toute théorie possible.

Malgré cette solidarité, logique et ontologie formelle restent cependant thématiquement bien distinctes. Et si la symbolisation et le partage de certaines caractéristiques algébriques entre ontologie et logique formelle attestent de la proximité de ces deux nivaux d’analyse, ils n’en demeurent pas moins séparés. Husserl soulignait ainsi le danger d’une « surenchère symbolique » et la perte de vue de la nature propre de la logique. Bien que l’ontologie formelle n’était alors qu’à ses débuts, et restait encore pour une large partie descriptive, Husserl était conscient de la révolution qui était en train de s’opérer à l’époque dans le domaine de la logique et des mathématiques formelles. Il en mesurait la portée et l’impact pour les disciplines connexes comme l’ontologie, tout en tirant la sonnette d’alarme : « Nous ne pouvons pas […] nous laisser abuser par le fait que la syllogistique se laisse traiter algébriquement et qu’elle a alors un aspect théorique semblable à celui d’une algèbre des grandeurs et des nombres [ontologie formelle], et nous ne pouvons nous laisser abuser même par le fait que, d’après une remarque géniale de G. Boole, le calcul de l’arithmétique (considéré formellement) se réduit au « calcul logique » si on s’imagine la suite des nombres limitée à 0 et à 1. L’analytique apophantique [logique formelle] et l’analytique de l’ontologie formelle seraient donc deux sciences différentes, séparées par leur domaine » (Husserl 1929, p108).

Notons ici que, bien que cette façon d’aborder la corrélation entre logique et ontologie formelle repose sur une conception de cette première comme métathéorie des jugements et de leur forme, corrélée à une métathéorie de la forme des domaines possibles de connaissance, cette corrélation ne préjuge pas en soi du primat de l’un des niveaux par rapport à l’autre. Ceci est en effet compatible avec l’idée réaliste selon laquelle la forme de nos jugements serait déterminée par la structure du monde sur lequel porte toute connaissance, tel le réalisme Aristotélicien. La première classification Aristotélicienne de l’être, que l’on retrouve dans les Catégories, opère des divisions métaphysiques suivant les concepts « être dit de » et « être présent dans » (ainsi que leur négation). Si l’on retrouve ici les bases de la structure apophantique Sujet-Prédicat, qui constituent les prémisses de la syllogistique Aristotélicienne, le concept « être dit de » qualifie en premier lieu l’être, et non les parties du jugement. Ceci explique la place des Catégories, analyse métaphysique centrale du corpus Aristotélicien, dans l’Organon, qui réunit ses travaux logiques. Au contraire, l’hypothèse d’une corrélation entre structure du monde et des jugements est appréhendée et expliquée par la tradition idéaliste selon l’ordre de priorité inverse. Dans cette perspective, les choses en soi n’existent pas. Elles n’existent qu’en tant qu’elles sont connaissables, en tant qu’elles sont formatées par la structure de l’entendement (le plus fameux des philosophes ayant soutenu une telle position est bien sûr Kant (1781/7)). Husserl, quant à lui semble dans un premier temps, celui des Recherche Logiques, avoir embrassé une position réaliste proche à bien des égards de celle d’Aristote, position qu’il a par la suite abandonnée pour embrasser l’idéalisme, sans que cela n’impacte sa vision du lien entre logique formelle et ontologie formelle.

b. Du contenu ontologique de la logique formelle

Aussi bien la logique que l’ontologie formelle, en tant que théories universelles posant respectivement les conditions de possibilité de toute théorie particulière, présentent des affinités évidentes avec l’idée Leibnizienne de Characteristica Universalis. En effet, ces deux disciplines, dans leurs développements modernes, comportent l’idéal d’une langue universelle formelle (lingua characteristica capable d’exprimer aussi bien les concepts mathématiques, que scientifiques, ou métaphysiques) associée à un calcul universel (calculus ratiocinator permettant de résoudre tout problème par des raisonnements calculatoires décidables). On retrouve ainsi cette idée aussi bien dans les travaux de Husserl, qui réunit logique formelle et ontologie formelle sous le projet unifié d’une mathesis universalis, que dans l’Idéographie (Begriffsschrift) de Frege (1879, 1884). Malgré l’héritage commun de l’idéal Leibnizien, ces deux auteurs ont cependant tracé des orientations distinctes pour la réalisation dudit projet, reflétant leur divergence quant au poids accordé à la logique par opposition au versant ontologique. Suivant (Smith 1978) nous pouvons ainsi tracer deux lignées philosophiques, deux écoles de pensée : l’une adhérant à la philosophie de Frege, Russel et Wittgenstein ; l’autre à la philosophie de Brentano, Husserl et Ingarden. Comme nous l’indiquions plus haut, la deuxième tradition conçoit l’ontologie et la logique comme des disciplines étroitement liées, deux versants distincts d’une même entreprise de fondation rigoureuse de toute connaissance possible. La tradition issue de Frege donne quant à elle le primat à l’analyse logique, qui s’identifie dès lors à une Characteristica Universalis, tenant place à la fois de calcul et de langage universel. Le langage logique est alors porteur d’engagements ontologiques, contrairement à la vision contemporaine prédominante de la logique comme calcul abstrait sans contenu propre, entièrement neutre quant à ce qui est.

Historiquement, l’idée selon laquelle la logique opèrerait tel un miroir du monde, révélant sa structure profonde, était vraisemblablement en grande partie motivée par le lien étroit qu’elle entretenait avec les mathématiques au tournant du XIXè siècle, lien qui se retrouve derrière les plus grands résultats de la logique contemporaine. En effet, la naissance de la logique formelle telle que nous la connaissons aujourd’hui prend racine dans le programme logiciste, et en particulier la philosophie de l’arithmétique Frégéenne. Elle fut développée dans l’objectif de fournir un fondement à l’arithmétique, i.e. de démontrer que celle-ci et les nombres dont elle implique l’existence pouvaient être dérivés à partir des lois de la logique (munies de certaines définitions supplémentaires). Ainsi, loin d’être ontologiquement innocente, la logique devait permettre de prouver l’existence de certaines entités, parmi lesquelles les nombres. Dans le système Frégéen, le cœur de sa thèse ontologico-logique se trouve condensé dans la formulation de la Loi V et la théorie des parcours-de-valeurs, ou extensions de concepts, qu’il pensait être de nature purement logique. Sa théorie de l’extension des concepts à partir de laquelle il tenta de dériver les nombres cardinaux, reflète le postulat ontologique substantiel de l’existence de classes abstraites.

On retrouve également chez Russell (1959), allant de pair avec l’hypothèse logiciste qu’il partageait avec Frege, cette vision de la logique comme reflet de la structure ontologique profonde. Au delà de la sphère des mathématiques, Russell concevait en effet la logique comme un langage parfait dans lequel tout ce qui serait intelligemment exprimable par une proposition pourrait être formulé en ajoutant à la théorie des types simples (Russell 1908) le vocabulaire non-logique requis par les sciences particulières ou le langage ordinaire. Ainsi, si le programme de fondation logique de l’arithmétique fut à l’origine du bond que connu la logique formelle à cette époque, il inspira également un programme plus ambitieuse d’une reconstruction logique du monde. Notons de plus que, si le traitement formel de la notion de classe a évolué au fil des travaux de Russell, ayant aboutit au développement de la théorie intensionnelle des types simples suite à la découverte du paradoxe auquel était sujet leur traitement extensionnel de Frege, l’ensemble de l’édifice logique Russellien témoigne de son adhésion à une vision platoniste des universaux. Pour une analyse plus détaillée de l’engagement ontologique des travaux logiques de Russell nous renvoyons le lecteur à (Quine 1966).

Aux vues de cette forte adhésion historique entre logique et mathématiques, et partant, entre logique et ontologie, la question qui se pose est de savoir dans quelle mesure la logique peut encore être considérée comme porteuse d’engagements ontologiques une fois le projet logiciste abandonné. Est-il encore possible, contre la vision Husserlienne, et tout en maintenant une séparation plus stricte entre logique et mathématiques, de concevoir la logique comme langage porteur d’un contenu ontologique substantiel, viz. d’identifier logique et ontologie formelle ?

c. Ontologie formelle et renouveau de la logique comme langage

Le principal défenseur de l’idée que la logique serait ontologiquement chargée et que l’analyse ontologique formelle procèderait de l’analyse logique est actuellement Cocchiarella (1991, 2001, 2007), qui identifie cette vision à l’idée de la logique comme langage, et donc comme moyen de représentation, par opposition à l’approche calculatoire de la logique. Selon Cocchiarella, les formes et principes de la logique devraient être formulés dans le but de représenter adéquatement les différentes catégories de l’être et leurs lois de connexion. Les catégories ontologiques et logiques devraient ainsi non seulement être étroitement liées, mais être combinées dans un cadre unifié. Telle est sa vision de l’ontologie formelle comme science déductive complète, comme science première. Pour reprendre ses propres termes : « L’Ontologie Formelle résulte de la combinaison des méthodes intuitives et informelles classiques de l’ontologie avec les méthodes mathématiques formelles de la logique symbolique moderne, et en définitive de leur identification en tant qu’aspects différents d’une seule et même science. C’est-à-dire, là où la méthode de l’ontologie est l’étude intuitive des propriétés, modes et aspects de l’être les plus fondamentaux, ou des entités en général, et la méthode de la logique symbolique moderne consiste en la construction rigoureuse de systèmes formels axiomatiques, l’ontologie formelle résulte de la combinaison de ces deux méthodes, s’identifie au développement formel axiomatique de la logique de toutes les formes de l’être. En tant que telle, l’ontologie formelle est une science qui précède toutes les autres dans lesquelles des formes, modes, ou sortes d’être sont étudiés. » (Cocchiarella 1991).

Cette vision n’est pas en tout point opposée à la vision de l’ontologie formelle héritée de Husserl. Elles partagent toutes deux la conviction que, grâce aux méthodes et aux outils symboliques, la théorie ontologique des formes de l’être peut évoluer pour devenir une science stricte, une réelle ontologie formelle. Les investigations intuitives laissent dès lors place à la construction de langages artificiels dont la syntaxe puisse se faire le miroir systématique de la structure de l’univers, les différents types syntaxiques correspondant à différentes catégories ontologiques formelles, et les relations entre symboles de chaque type correspondant aux relations entre entités des catégories correspondantes. Mais la position ici défendue s’écarte de façon significative de la tradition Husserlienne en ce qu’un tel langage artificiel ne serait pas simplement soumis aux principes de la logique, mais serait identifiable à la logique même. Il ne s’agirait ni d’appliquer la logique à l’ontologie, par l’ajout de primitives non-logiques et d’axiomes correspondant aux notions ontologiques, ni de construire une théorie ontologique formelle qui satisfasse les principes fondamentaux de la logique. Mais bien de voir dans les catégories syntaxico-grammaticales de la logique l’expression de distinctions fondamentales entre catégories ou modes de l’être. A cet égard Cocchiarella se revendique explicitement de l’héritage de Frege, de Russel et du premier Wittgenstein (suivant ici (van Heijenoort 1967) qui les range parmi les partisans de la logique comme langage).

Dans le sillon de ces auteurs, Cocchiarella réactualise la distinction entre logique comme langage portant sur le monde, doté de contenu propre, par opposition à la logique comme calcul pur. Comme le souligne Cocchiarella, les développements de la sémantique modèle-théorique à la Tarski, ainsi que les théorèmes d’incomplétude de Gödel, marquèrent un tournant important dans l’histoire de la logique, et motivèrent l’abandon progressif de la vision Leibnizienne de la logique comme langage. En effet, l’idée que la logique pourrait se voir assigner différentes interprétations sur des domaines ensemblistes était complètement étrangère, voir incompatible, avec la vision initiale de la logique comme lingua characteristica (Sluga 1999). Par ailleurs, les théorèmes d’incomplétude achevèrent le projet logiciste et avec lui le projet de fondement logique de l’ontologie mathématique comprenant la théorie des nombres (le premier théorème montrant que pour tout système suffisamment riche pour démontrer les théorèmes de base de l’arithmétique il existe des propositions arithmétiques qui ne sont ni démontrablement vraies ni fausses ; le deuxième établissant que la cohérence d’un tel système ne peut être démontrée dans ledit système).

Résistant au divorce subséquent, aujourd’hui fortement consolidé, entre logique et représentation du monde, Cocchiarella insiste quant à lui sur la nécessité de distinguer sémantique interne à la logique et sémantique externe. Seule la première, non-ensembliste, serait alors à même de révéler l’engagement ontologique du langage logique, permettant de saisir, derrière les catégories syntaxiques tracées par les différents systèmes logiques, les catégorisations de l’être correspondantes. La seconde, qui correspond à la théorie standard des modèles ensemblistes, porterait quant à elle sur le versant proprement calculatoire de la logique, ayant attrait aux notions de validité et de déduction. Les importants résultats de la théorie des modèles et de la théorie des ensembles, en particulier les résultats d’incomplétude de Gödel, n’auraient dès lors pas de portée directe sur l’adéquation de telle ou telle logique du point de vue de la catégorisation du monde qu’elle exprime. Ils permettraient cependant, du point de vue externe des mathématiques ensemblistes, de mener une analyse comparative des différents systèmes logiques, à savoir, des différentes ontologies formelles. Un tel cadre « fournit un modèle mathématique externe de l’ontologie que [chaque logique] vise à représenter de façon interne selon son mode propre» (Cocchiarella 2001). En d’autres termes, si les notions de validité et de déduction sont les notions centrales autour desquelles s’articule la sémantique (comparative) externe des différents systèmes logiques, c’est sur la notion de prédication que doit se focaliser la sémantique interne, celle-ci reflétant différentes positions quant à la nature des universaux.

3. Ontologie formelle et formalisée : de la philosophie à l’informatique

a. Propriétés « algébriques » et formalisation des relations ontologiques formelles

Bien qu’informelle, ou plutôt descriptive, à ses débuts, l’ontologie formelle se développe actuellement majoritairement sous la forme de théories symboliques axiomatiques, mobilisant de façon intensive les outils de la logique formelle. De fait, la formalisation dans un langage symbolique artificiel est devenue pratique courante dans de nombreux domaines, dont la philosophie (et en particulier la métaphysique) analytique. Bien que l’abréviation symbolique des relations ontologiques ne soit conceptuellement nécessaire, l’analyse pouvant en principe être entièrement poursuivie, avec des formulations plus longues, dans le langage naturel, elle a cependant le mérite d’exposer clairement certaines ambiguïtés ou présupposés implicites qui passeraient autrement inaperçus.

Par ailleurs, au même titre que les relations logiques ou arithmétiques, les relations ontologiques formelles possèdent certaines propriétés générales, comme la réflexivité, la transitivité, ou encore la clôture ou non clôture relativement à certaines opérations ontologiques (e.g. la somme ou le produit méréologiques). De tels principes sont communément considérés comme fixant de façon non-extensionnelle la signification du concept qu’ils caractérisent, i.e. indépendamment des entités dans le monde qui le satisfont. Or, s’il y a matière à débat concernant les propriétés algébriques des concepts ontologiques formels (cf. Husserl 1929 et Varzi 2008 sur la vision de l’ontologie formelle comme algèbre), la formulation et la comparaison logique des différents systèmes axiomatiques est un outil précieux. Elles permettent en effet d’en mesurer comparativement la puissance et le pouvoir expressif, démontrant par exemple que certains systèmes, et donc certaines interprétations d’une même relation, sont strictement plus faibles ou forts que d’autres.

Enfin, là où certains concepts fondamentaux de l’ontologie formelle semblent plus naturellement être formalisables en termes de relations entre entités, comme la relation partie-tout, d’autres sont traditionnellement traités comme des opérateurs ou connecteurs propositionnels. Par exemple, bien qu’il existe des traitements formels des notions d’essence et de fondation en termes de relations, la position actuellement dominante consiste à les traiter comme des opérateurs propositionnels primitifs (Fine 1995, 2000, Correia 2000). Intuitivement, cela revient à traiter la notion d’essence de façon analogue, mais non réductible, à la modalité aléthique de nécessité, et la notion de fondation comme une forme d’implication explicative de nature métaphysique. Les systèmes formels définis pour ces connecteurs incluent ainsi des ensembles d’axiomes établissant le comportement propositionnel des opérateurs en question, des règles d’inférences, ainsi qu’une sémantique relativement à laquelle ces systèmes sont démontrablement adéquats et complets. Construits sur le modèle de systèmes logiques standards, les auteurs de ces théories les qualifient d’ailleurs volontiers de « logique de l’essence » ou « logique de la fondation » respectivement.

b. Ontologies formalisées et représentation des connaissances

Puisant dans l’ensemble des traditions philosophiques que nous avons parcourues jusqu’à présent, et en grande partie grâce à leur formalisation, un nouveau domaine d’étude s’est développé au cours des dernières décennies en informatique, portant sur la modélisation logique du domaine, i.e. du monde, à différentes fins : allant de l’Intelligence Artificielle (IA), à la Linguistique Computationnelle, ou encore à la Théorie des Bases de Données. Suivant l’usage philosophique, de tels systèmes logiques s’appellent des ontologies, soulignant leur parenté avec l’ontologie comme disciplines philosophique. Si, comme nous tâcherons de le montrer, ces deux sous-disciplines, l’une philosophique, l’autre informatique, partagent certaines méthodes et objectifs, il convient néanmoins d’être nuancé dans l’affirmation de leurs similitudes. Pour cette raison, il est usuel d’insister sur la différence entre Ontologie (avec une majuscule et au singulier) et ontologies (avec une minuscule et au pluriel). En particulier, à ses débuts, et encore aujourd’hui de façon significative, le développement d’ontologies n’a été considéré que de façon secondaire, comme un passage nécessaire à l’accomplissement de certaines tâches calculatoires de raisonnement mobilisant un certain nombre de connaissances sur le monde. Le plus souvent formulées dans la logique du premier ordre, ces ontologies constituent des représentations du monde lisibles par des machines, et sur la base desquelles les ordinateurs peuvent « raisonner ». L’accent est ainsi mis, en grande partie jusqu’à aujourd’hui, sur la capacité cognitive de raisonnement, c’est-à-dire la résolution de problèmes par différents types de systèmes experts, le monde n’intervenant que de façon indirecte, relativement à la tâche considérée. D’où le fait que les informaticiens parlent plus volontiers de représentation du domaine (relatif à une tâche) que du monde (en soi). Nous verrons que cet écart tend de nos jours à se resserrer, et que l’apparition desdites ontologies formelles ou de haut niveau dans le champ des systèmes traitant de l’information (au sens le plus général) témoigne de cette orientation, ou du moins de la volonté d’amorcer une telle orientation.

Avant d’aborder ces questions, il convient cependant de poser certaines définitions générales afin de clarifier ce que constitue une ontologie du point de vue informatique. En premier lieu, ce terme est employé de façon prédominante en IA pour désigner un artéfact (construction humaine) formel constitué des éléments suivants : (i) un vocabulaire spécifique utilisé pour décrire une portion donnée de la réalité, (ii) un ensemble de postulats explicites concernant la signification attendue pour ce vocabulaire. Le plus souvent, ces postulats sont formulés dans un segment de la logique du premier ordre, où le vocabulaire en question est introduit par des constantes non-logiques (noms de prédicats unaires ou binaires) représentant des concepts et des relations. Dans les cas les plus simples, les ontologies ainsi définies décrivent des hiérarchies de concepts ordonnées par la relation de subsomption. Dans les cas les plus sophistiqués, des axiomes spécifient des relations supplémentaires entre concepts, contraignant d’avantage l’interprétation attendue (Guarino 1998).

Plus précisément, il est courant, reprenant la définition de (Gruber 1995), de définir une ontologie comme « spécification d’une conceptualisation ». Formellement, une conceptualisation est une structure comportant un domaine D et un ensemble de relations pertinentes R définies extensionnellement sur le domaine. Etant donné un langage formel L constitué du vocabulaire VL, l’ontologie est un ensemble d’axiomes contraignant l’interprétation de VL de sorte à ce qu’elle corresponde à l’interprétation attendue, i.e. à la conceptualisation correspondante. En ce sens, une ontologie pour un langage donné vise à spécifier une conceptualisation. (Guarino & Giaretta 1995) proposent quant à eux une définition plus fine de la notion de conceptualisation, représentant les relations de façon intensionnelle. Une conceptualisation est ainsi redéfinie comme une structure qui contient un domaine, un ensemble de mondes possibles, et des « relations conceptuelles » qui sont définies comme des fonctions associant à chaque monde possible une relation extensionnelle, c’est-à-dire, un ensemble d’éléments du domaine. Cela impacte alors directement l’adéquation des ontologies, qui doivent contraindre les interprétations possibles du langage de sorte à être au plus proche des modèles attendus, à savoir des modèles compatibles avec la conceptualisation intensionnelle visée. Comme le souligne (Guarino 1995) une correspondance parfaite entre l’ensemble des modèles d’un langage spécifié par une ontologie et l’ensemble exact des modèles compatibles avec la conceptualisation intensionnelle associée au langage est de fait impossible. Il est en effet impossible de reconstruire la correspondance entre l’ensemble des mondes possibles et les relations extensionnelles établies par la conceptualisation sous-jacente (pour une introduction à la notion de monde possible voir les entrées de cette encyclopédie dédiées à la « Logique Modale » ainsi que la « Connaissance formelle »). L’ontologie n’est alors, à proprement parler, pas la spécification d’une conceptualisation, mais plutôt la caractérisation faible d’une conceptualisation, une approximation indirecte des modèles attendus.

c. Réutilisabilité et Interopérabilité et ontologies de haut niveau

S’il existe une définition partagée bien précise de ce qu’est, formellement, une ontologie pour les informaticiens, et si les travaux portant sur le développement d’ontologies ont fleuri au cours des dernières décennies, force est de constater que ceux-ci se situent dans des sous-domaines aussi nombreux que variés. Visant avant tout des applications et tâches bien particulières, le développement d’ontologies se focalise bien souvent sur les aspect les plus pragmatiques relevant de l’ingénierie et ne constitue pas une discipline à part entière, unifiée par certains grands principes méthodologiques et problématiques centrales. En effet, l’importance des ontologies, entendues comme des artéfacts formels définis plus haut, a été progressivement reconnue dans des domaines aussi variés que l’ingénierie et la représentation des connaissances, l’ingénierie du langage, la conception de bases de données, l’intégration d’informations, l’extraction de connaissances, etc. Leurs applications sont certes notoires, mais également très disparates, incluant la traduction de langues naturelles, le traitement d’informations médicales, le commerce électronique, les systèmes traitant d’informations géographiques, légales ou encore biologiques.

Le problème est qu’au fur et à mesure de l’évolution de nos sociétés vers une digitalisation croissante, l’ensemble de ces systèmes traitant de l’information, en un sens ou un autre, a progressivement évolué vers une complexité croissante. Cette complexification a à son tour entrainé des difficultés quant à la capacité de ces systèmes à être réutilisés pour des tâches connexes ultérieures. Par ailleurs, leur développement étant, comme nous l’avons souligné, généralement guidé par des contraintes pragmatiques d’implémentation, chacun de ces systèmes s’est basé sur des langages et concepts idiosyncratiques, propres à la résolution d’un problème spécifique, appliqué à un domaine tout aussi spécifique et restreint. Ce second aspect pose quant à lui la difficulté de l’interopérabilité de ces systèmes peu propices à une intégration à une plus grande échelle (problème de la tour de Babel). En particulier, les efforts d’intégration de différentes ontologies domaines-spécifiques ont mis en lumière des incompatibilités terminologiques et conceptuelles notoires. De ces difficultés a progressivement émergé l’idée d’une certaine standardisation des langages et terminologies employés. Allant un pas plus en avant, et constatant que de fait, l’incompatibilité terminologique superficielle pouvait cacher une incompatibilité plus profonde des conceptualisations sous-jacentes, l’idée de construire des ontologies de haut niveau a émergé, i.e. des ontologies indépendantes de tout domaine d’application, à mêmes de fournir un fondement et de spécifier des contraintes générales pour les ontologies de domaine. De telles ontologies, également désignées comme ontologies formelles, ont ainsi vu le jour (DOLCE, BFO, GFO, UFO, etc.), et avec elles, un certain nombre de grandes conférences interdisciplinaires dédiées à ce sujet (en particulier la conférence annuelle Formal Ontology for Information Systems lancée en 1998).

Dans cette direction, certaines voix se sont donc élevées insistant sur la nécessité de fournir au champ naissant des ontologies informatiques un fondement plus solide, d’identifier des principes scientifiques communs et questions ouvertes communes, tels qu’ils se dégagent des outils et méthodologies à l’œuvre et de l’ensemble des applications actuelles de l’ontologie. Le besoin croissant de concevoir des systèmes globaux traitant de tout type d’information, par les nouveaux défis technologiques qu’il soulève, semble ainsi donner un souffle nouveau à l’idée Leibnizienne d’encyclopédie universelle, réactivant la question du lien entre le niveau linguistique (terminologie), le niveau conceptuel (conceptualisation) et celui de la réalité (ontologie). Il semblerait que l’ontologie formelle rejoigne à l’heure actuelle, par d’autres chemins que ceux tracés par l’histoire de la philosophie, le projet d’une Characteristica Universalis, dans une veine proche de l’ontologie formelle philosophique. En effet, les ontologies formelles (de haut niveau ou fondationnelles), indépendantes des domaines particuliers d’application (loi, biologie, géographie, etc.), sont conçues comme des ontologies générales, neutres, et à la fois compatibles avec toutes les ontologies de domaine, incluant ainsi la spécification et théorisation axiomatique de catégories comme : espace, temps, identité, instanciation, mesure, qualité, dépendance, processus, évènement, attribut, frontière, etc.

Parmi les pionniers de cette quête d’unification et de fondement, il convient de mentionner d’une part N. Guarino, ontologiste informaticien partisan d’une approche fortement interdisciplinaire pour la bonne conception d’ontologies formelles de haut niveau, et en particulier intégrant les questions et méthodes centrales de l’ontologie philosophique et de la logique. Provenant du camp opposé, si l’on peut dire, la figure centrale incontestée est B. Smith, ontologiste philosophe s’inscrivant dans la tradition des Brentano-Husserl-Ingarden et un des premiers et rares philosophes à défendre la pertinence de distinctions et analyses proprement philosophiques pour les ontologies informatiques de haut niveau, et par extension pour toutes les ontologies de domaine. Dans la section qui suit, nous clorons cette brève incursion dans le domaine des ontologies informatique en mentionnant certaines des distinctions et notions philosophiques précédemment discutées qui sont actuellement largement adoptées dans le domaines des ontologies informatiques, sous l’influence particulière des deux auteurs que nous venons de citer.

d. Distinctions et analyse catégorielles empruntées à la philosophie et applications

Si les ontologies de haut niveau doivent elles aussi répondre à des questions et problématiques applicatives concrètes, et ne se posent pas en premier lieu comme des théories de l’être et de ses formes, leurs concepteurs ont cependant pu montrer que de nombreuses distinctions et méthodes philosophiques étaient bien souvent les plus à même de répondre aux nouveaux défis technologiques posés par la recherche informatique liée aux ontologies. Les théories de la dépendance ou la méréologie font ainsi à l’heure actuelle partie de « la trousse à outils » de la plupart des concepteurs d’ontologies, régulièrement mobilisées dans la représentation de relations non-taxonomiques entre catégories. De façon plus importante peut être, le recours à l’ontologie formelle philosophique s’est avérée centrale s’agissant d’adresser des problèmes de cohérence auxquels se trouvait confronté le domaine informatique de l’ontologie.

Guarino et Welty (2009) ont par exemple montré que des notions aussi fondamentales que celles d’essence, d’identité et d’unité, puisées dans la littérature philosophique, pouvaient fournir des critères de cohérence interne, i.e. des « moyens de validation de l’adéquation ontologique de relations taxonomiques ». Plus précisément, une des principales menaces d’incohérence réside dans l’usage abusif et ambigu des relations de subsomption, qui constituent le squelette de toute ontologie, problème plus connu en tant que « IS_A overloading problem ». Dans une certaine mesure, ce problème renvoie au problème bien connu des philosophes de la non univocité de la copule « être », exprimant de façon ambiguë des liens de prédication, d’identité ou encore de catégorisation. La perspective adoptée est cependant celle de la conception de taxonomies cohérentes, et à cet effet, les notions d’essence, d’identité et d’unité sont envisagées comme des méta-propriétés caractérisant les propriétés et relations constitutives de l’ontologie (e.g. chien est une propriété rigide ou essentielle de ses instance, alors que étudiant est une propriété anti-rigide). De telles méta-propriétés sont alors employées pour spécifier des contraintes concernant les liens taxonomiques qui les ordonnent. Il est ainsi stipulé, par exemple, qu’étant données deux propriétés p et q, si q subsume p alors, si q est porteuse d’un principe d’identité (propriété sortale) p l’est aussi. Ou encore, si q est anti-rigide (i.e. n’est pas une propriété nécessaire de ses instances) alors p l’est aussi. De tels principes permettent par exemple de distinguer, parmi les propriétés, celles qui constituent des catégories à proprement parler (e.g. humain), des rôles (e.g. président), et des attributs (e.g. rouge) qui se retrouvent bien souvent regroupés dans une unique hiérarchie confuse in incohérente.

De l’autre côté, certains travaux abordent l’apport de la philosophie en insistant plutôt sur le problème de la cohérence entre ontologies, en un mot, de leur interopérabilité. Celui-ci peut se résumer de la façon suivante : comment faire en sorte que des données collectées dans un système soient utilisables dans le cadre d’un second système sans intervention humaine supplémentaire. Soulevant plus spécifiquement le problème de la compatibilité terminologique entre différentes ontologies, il a été montré qu’au lieu de corriger les imprécisions et apporter des clarifications au cas par cas, i.e. de manière « bottom-up », il était bien plus efficace d’aborder le problème de manière « top-down », en adoptant des distinctions claires et théoriquement fondées sur les catégories de plus haut niveau, et en les répercutant de manière systématique sur toute l’arborescence des catégories plus spécifiques. Comme le soulignent (Arp et al. 2016), les problèmes d’interopérabilité résultent bien souvent de confusions quant aux catégories et aux distinctions ontologiques les plus fondamentales, se répercutant systématiquement dans les différents systèmes développés. Face à ce problème, les ontologies de haut niveau les plus philosophiquement inspirées et informées (en particulier BFO) ont en particulier grandement contribué à familiariser la communauté informatique avec la distinction entre les Occurrences qui perdurent dans le temps (e.g. processus, événements, etc.) et les endurants (Cuntinuants) qui existent entièrement à chaque instant, ainsi que leurs sous-divisions en termes d’entités dépendantes et indépendantes. On retrouve ainsi la distinction Aristotélicienne, héritée également par la tradition Husserlienne, entre continuants indépendants (objets concrets et universaux) et les continuants dépendants (incluant les qualités et les entités réalisables comme les rôles et les dispositions). Dans la plupart des ontologies appliquées, de telles distinctions ontologiques fondamentales sont bien souvent couvertes par les imperfections du langage, des usages abusifs, ou encore des définitions terminologiques vagues et erronées.

Il semble clair que si l’usage de méthodes et de distinctions philosophiques s’est avéré porter ses fruits pour adresser des problèmes technologiques concrets, allant de pair avec une approche plus conceptuelle et fondationnelle caractéristique des ontologies formelles de haut niveau, cela témoigne d’un lien plus profond entre ontologies informatiques et Ontologie philosophique. Bien sûr il est impossible de livrer ici une présentation ou une discussion détaillée des enjeux philosophiques des ontologies de haut niveau, restant en grande partie encore à découvrir. Nous nous contentons donc, pour clore ce chapitre, d’attirer l’attention et d’insister sur l’existence de ponts possibles, comme en témoignent les exemples éloquents que nous venons de mentionner.

Bibliographie

Arp, R., Smith, B. & Spear, A. (2016) Building Ontologies with Basic Formal Ontology, Cambridge, MA : MIT Press.

Baker, L. R. (1997) « Why Constitution Is Not Identity », Journal of Philosophy, 94: 599–621.

Casati, R. (2009) « Minor Entities : Surfaces, Holes and Shadows », dans Le Poidevin, R. (ed), The Routledge Companion to Metaphysics. Routledge, 382—388.

Casati, R. & Varzi, A. C. (1999) Parts and Places: The Structures of Spatial Representation, Cambridge (MA): MIT Press.

Cocchiarella, N.B. (1991) « Ontology II: Formal Ontology », in: Burkhardt, H., Smith, B. (eds.) Handbook of Metaphysics and Ontology. Philosophia Verlag, Munich, Philadelphia and Vienna, 640-647.

—— (2001) « Logic and Ontology », Axiomathes, 12, 117—150.

—— (2007) Formal Ontology and Conceptual Realism, Springer Verlag.

Correia, F. (2000) « Propositional Logic of Essence », Journal of Philosophical Logic, 29(3), 295—313.

—— (2005) Existential Dependence and Cognate Notions, München: Philosophia Verlag.

—— (2008) « Ontological Dependence », Philosophy Compass, 3(5): 1013–1032.

Cruse, D. A. (1979) « On the Transitivity of the Part-Whole Relation », Journal of Linguistics, 15: 29–38.

Fine, K. (1982) « Acts, Events, and Things », dans Leinfellner, W. et al. (eds.), Language and Ontology. Proceedings of the 6th International Wittgenstein Symposium, Vienna: Hölder-Pichler-Tempsky, 97–105.

—— (1994a) « Ontological Dependence », Proceedings of the Aristotelian Society, 95: 269–290.

—— (1994b) « Essence and Modality », dans J.E. Tomberlin (ed.), Philosophical Perspectives 8: Logic and Language, Atascadero, CA: Ridgeview Publishing Company.

—— (1995) « The Logic of Essence », Journal of Philosophical Logic, 24: 241–73.

—— (2000) « Semantics for the Logic of Essence », Journal of Philosophical Logic, 29(6), 543—584.

—— (2003) « The Non-identity of a Material Thing and Its Matter », Mind, 112: 195–234.

—— (2012) «  The Pure Logic of Ground », Review of Symbolic Logic, 5(1), 1—25.

Frege, G. (1879) Begriffsschrift, trad. Besson, C., Idéographie, Vrin, 1999.

—— (1884) Grundlagen der Arithmetik, trad. Imbert, C., Les Fondements de l’arithmétique, L’ordre philosophique, Seuil, 1969.

Gruber, T. R. (1995) « Toward Principles for the Design of Ontologies Used for Knowledge Sharing », International Journal of Human and Computer Studies, 43(5/6): 907—928.

Guarino, N. (1998) « Formal Ontology and Information Systems », dans Guarino, N. (ed.), Formal Ontology in Information Systems. Proceedings of FOIS’98, Amsterdam, IOS Press, 3—15.

Guarino, N. & Giaretta, P. (1995) « Ontologies and Knowledge Bases: Towards a Terminological Clarification », dans Mars N. (ed.) Towards Very Large Knowledge Bases: Knowledge Building and Knowledge Sharing, IOS Press, Amsterdam: 25—32.

Husserl, E. (1900/01) Logische Untersuchungen, Halle (Saale) : M. Niemeyer, trad : H. Elie, A.L. Kelkel et R. Schérer, Recherches Logiques, Presses Univeristaires de France, 1972.

—— (1929) Formale und Transzendentale Logik, Halle (Saale) : M. Niemeyer, Traduction française Logique Formelle et Logique Transcendantale, par S. Bachelard, Presses Universitaires de France, 1957.

Johansson, I. (2004) « On the Transitivity of Parthood Relations », dans Hochberg, H. & Mulligan, K. (eds) Relations and Predicates, Frankfurt, Ontos/Lancaster, 161—181.
Emmanuel, K.  (1781/7) Kritik der reinen Vernunft, trad : Tremesaygues et Pacaud, Critique de la Raison Pure, Presses Universitaires de France, 1975.

Koslicki, K. (2012) « Varieties of Ontological Dependence », dans Correia F. & Schnieder B. (eds), Metaphysical Grounding: Understanding the Structure of Reality, Cambridge: Cambridge University Press, 186–213.

Kripke, S. (1980) Naming and Necessity, Harvard, MA: Harvard University Press.

Leonard, H. S. et Goodman, N. (1940) « The Calculus of Individuals and Its Uses », Journal of Symbolic Logic, 5: 45–55.

Leśniewski, S. (1927–1931) « O podstawach matematyki », Przegląd Filozoficzny, 30: 164–206; 31: 261–291; 32: 60–101; 33: 77–105; 34: 142–170; Trad. Ang. D. I. Barnett: « On the Foundations of Mathematics », dans S. Leśniewski, Collected Works (ed. by S. J. Surma et al.), Dordrecht: Kluwer, 1992, Vol. 1, pp. 174–382.

Lewis, D.K. (1986) « Against Structural Universals », Australasian Journal of Philosophy, 64: 25–46.

Lowe, E.J. (1998) The Possibility of Metaphysics: Substance, Identity, and Time, Oxford: Clarendon Press.

—— (2012) 2012, « Asymmetrical dependence in individuation », dans Correia F. & Schnieder B. (eds), Metaphysical Grounding: Understanding the Structure of Reality, Cambridge: Cambridge University Press, 214–233.

—— (2013) « Mereological Extensionality, Supplementation, and Material Constitution », The Monist, 96: 131–148.

Marcus, M.B. (1967) « Essentialism in Modal Logic », Noûs, 1(1): 91–96.

Moltmann, F. (1997) Parts and Wholes in Semantics, Oxford University Press.

Poli, R. & Simons, P. (eds.) (1995) Formal Ontology, Dordrecht, Bonston, London, Kluwer.

Quine, W.V. (1966) « Russell’s Ontological Development », Journal of Philosophy, 63: 657–667.

Russell, B. 1908, « Mathematical logic as based on the theory of types, » American Journal of Mathematics, 30: 222–262.

—— (1959)  My philosophical development, London and New York: Routledge.

Schaffer, J. (2010) « Monism: The Priority of the Whole », Philosophical Review, 119: 31–76.

Sluga, H. (1999) « Truth before Tarksi », dans Wolenski, J. & Köler, E. (eds), Alferd Tarski and the Vienna Circle, Dordrecht : Kluwer Academic Publishers, 27—41.

Simons, P. (1987) Parts a Study in Ontology, Oxford University Press.

Smith, B. (1978) « An Essay in Formal Ontology », Grazer Philosophische Studien, 6: 39–62.

—— (2000) « Logic and Formal Ontology », Manuscrito 23 (2):275—323.

van Heijenoort, J. (1967) « Logic as Calculus and Logic as Language », Synthese, 17, 324–330.

Varzi, A. (2008) Ontologia, 2e ed., Laterza, Biblioteca Essenziale.

—— (2010) « On the Boudaries between Material and Formal Ontology », dans Smith, B. Mizoguchi, R & Nakagawa, S. (eds.), Interdisciplinary Ontology, Vol. 3: Proceedings of the Third Interdisciplinary Ontology Meeting. Keio University Press. 3—8.

Winston, M., Chaffin, R. & Herrmann, D. (1987) « A Taxonomy of Part-Whole Relations », Cognitive Science, 11: 417—444.

Alexandra Arapinis
Istituto di Scienze e Tecnologie della Cognizione
alexandra@loa.istc.cnr.it

Comment citer cet article ?
Arapinis, A. (2018), « Ontologie Formelle (A) », dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL : http://encyclo-philo.fr/ontologie-formelle-a/

By admin

Empirisme (A)

Publié en septembre 2018

Résumé

Défendu depuis l’Antiquité, l’empirisme renvoie à l’idée que l’observation et l’expérience sensible jouent un rôle central dans l’acquisition et la justification de nos croyances, qu’elles soient ordinaires (je crois que le chat est dans le jardin parce que je viens de l’y voir), ou beaucoup plus sophistiquées, comme celles qu’entretiennent les scientifiques (d’après les résultats d’analyses et la nature des artéfacts retrouvés à proximité, ce squelette est celui d’un Aurignacien).

Si l’empirisme s’accorde bien avec les intuitions du sens commun, il ne va épistémologiquement pas de soi. En effet, toute expérience n’est pas nécessairement porteuse de vérité : les apparences sont parfois trompeuses, et même le paléoanthropologue le plus scrupuleux est susceptible de faire des erreurs. Il semble donc faux d’affirmer que l’expérience suffit à fonder la connaissance : d’une part, elle est toujours limitée (même si toutes les corneilles que j’ai vues jusqu’à présent étaient noires je ne peux pas conclure que toutes les corneilles sont noires), et d’autre part il faut qu’elle soit conduite et interprétée avec un minimum de méthode et de raison, sans quoi, comme Bouvart et Pécuchet dans le roman éponyme de Flaubert, on peut en tirer les conclusions les plus farfelues. Mais alors quelle est la place que joue l’expérience sensible dans l’élaboration de notre connaissance ?

Pour mieux saisir en quoi consiste la doctrine de l’empirisme, nous partirons d’une définition qui la caractérise par l’adhésion à trois thèses : une thèse psychologique ; une thèse épistémologique ; et enfin, une thèse sémantique. Nous verrons comment, au cours de l’histoire de la philosophie occidentale, différents auteurs ont tenté d’articuler ces trois thèses de manière cohérente et les difficultés auxquelles ils ont alors été confrontés. La plus délicate d’entre elles est le fait que l’empirisme semble faire le lit du scepticisme, bien plus que de permettre de fonder la connaissance. Nous aurons ainsi l’occasion de nous pencher sur les origines de l’empirisme comme méthode dans l’art médical, puis son développement et son élaboration comme doctrine proprement philosophique durant la Modernité. Nous verrons alors comment, par le recours à l’analyse logique et sémantique des énoncés, des philosophes de première moitié du 20ième siècle ont tenté d’écarter la menace sceptique qui semble toujours attachée à l’empirisme et l’empêche de jouer pleinement son rôle en théorie de la connaissance. L’échec de cette tentative et les alternatives qui ont alors été proposées pour rendre compte de la valeur de la connaissance empirique malgré tout nous permettront finalement de mieux saisir les termes dans lesquels se présente aujourd’hui le débat épistémologique, notamment concernant la valeur de l’expérience perceptuelle comme preuve ou justification.


Table des matières 

Introduction

1. Origines de l’empirisme : de la médecine à la philosophie

a. Réflexions de Galien sur les sectes médicales
b. Bacon : la fourmi empirique, l’araignée dogmatique et l’abeille philosophe.

2. John Locke : un empirisme amendé

a. L’articulation des trois thèses de l’empirisme
b. Un empirisme modéré

3. Empirisme et scepticisme

a. Limiter nos prétentions à connaître, plutôt que les fonder
b. Empirisme psychologique et scepticisme épistémologique

4. Empirisme et sémantique

a. La thèse sémantique au premier plan
b. De l’empirisme sémantique à l’empirisme épistémologique

5. L’empirisme en crise

a. Le dogme de l’analyticité
b. Le dogme réductionniste

6. L’empirisme réformé

a. Empirisme et épistémologie naturalisée
b. Le problème de la normativité de la connaissance
c. Empirisme, internalisme et externalisme de la justification

Bibliographie


Introduction

En philosophie, le terme « empirisme » désigne un courant de pensée très ancien, mais dont on considère qu’il a connu son plein épanouissement aux 17ème et 18ème siècles, sous la plume de philosophes britanniques tels que Thomas Hobbes, John Locke, George Berkeley ou encore David Hume. Tel qu’on le présente d’ordinaire, cet « empirisme britannique » se serait constitué en réaction au « rationalisme continental », mouvement sous la bannière duquel on enrôle habituellement des auteurs tels que Platon, René Descartes, Nicolas Malebranche ou encore Gottfried Leibniz. L’opposition entre empirisme et rationalisme reposerait alors sur un désaccord concernant la source de la connaissance : tandis que pour l’empirisme, celle-ci dérive essentiellement de l’expérience sensible et est en ce sens a posteriori, pour le rationalisme elle n’est au contraire rendue possible et garantie que par la raison, et a donc un fondement a priori (indépendante de l’expérience).

Aux yeux des historiens de la philosophie cependant, cette dichotomie est simplificatrice et demande à être amendée. Dans une large mesure, on peut en effet considérer que l’idée d’une opposition stricte entre empirisme et rationalisme renvoie moins à une réalité historique qu’à un artifice de classement rétrospectif des positions philosophiques de l’époque moderne : c’est notamment l’usage qu’en fait Kant dans la Critique de la Raison Pure, et on y a encore largement recours en ce sens dans les classes de philosophie, à des fins pédagogiques (Norton, 1981 ; Woolhouse, 1988).

Cette mise en garde ayant été faite, nous pouvons essayer de proposer une définition liminaire de l’empirisme tel qu’on le conçoit aujourd’hui en philosophie et en histoire de la philosophie. On dira alors qu’être empiriste revient essentiellement à adhérer à trois thèses :

  1. une thèse psychologique, qui porte sur le mode d’acquisition de nos pensées et de nos contenus mentaux. Plus précisément, l’empirisme psychologique soutient que les éléments constitutifs de toutes nos pensées (aussi bien nos croyances que les produits de notre imagination ou de nos raisonnements) sont acquis par l’intermédiaire de l’expérience sensible, et proviennent très probablement, en dernière instance, du monde.
  2. une thèse épistémologique, qui porte sur la justification de nos croyances et, a fortiori, de nos connaissances. En ce sens, l’empirisme est une réponse possible au problème sceptique, c’est-à-dire à la question de savoir ce qui peut nous garantir que nos croyances sont vraies et justifiées, et correspondent bien à ce qui existe effectivement dans le monde. L’expérience sensible serait donc non seulement à l’origine, mais aussi au fondement de la connaissance, au sens où c’est elle qui, en dernière instance, la valide. C’est alors sur la base de leur adéquation ou de leur inadéquation avec les données de l’expérience que l’on jugera les croyances comme vraies ou fausses. On peut être un empiriste plus ou moins radical sur le plan épistémologique, selon que l’on considère que l’expérience est une voie d’accès à la connaissance parmi d’autres (notamment la raison), ou qu’elle est au contraire la seule, auquel cas toute connaissance ne peut être qu’empirique et a posteriori, c’est-à-dire qu’elle est toujours logiquement dépendante de l’expérience. En général, l’empirisme épistémologique implique l’empirisme psychologique, mais l’inverse n’est pas vrai : on peut accepter la thèse psychologique sans accepter la thèse épistémologique, et nous verrons que c’est l’articulation de l’une à l’autre qui pose philosophiquement le plus de problèmes.
  3. une thèse sémantique, qui porte sur la nature de la signification. Il s’agit alors de l’idée selon laquelle au moins certaines des expressions que nous employons (notamment les termes et les énoncés descriptifs) tirent leur signification du fait qu’elles renvoient en dernière instance à des objets ou des faits du monde. De même, des propriétés sémantiques comme la vérité ou la fausseté s’expliqueraient par la relation que les énoncés concernés entretiennent, directement ou indirectement, avec ces objets ou ces faits. La thèse sémantique implique elle aussi la thèse psychologique, tandis que la réciproque est fausse. Elle est en revanche étroitement solidaire, on le verra, de la thèse épistémologique.

On peut alors juger qu’une position philosophique est plus ou moins empiriste selon le degré auquel elle souscrit à ces trois thèses : par exemple, on peut tout à fait soutenir que certains de nos contenus mentaux sont tirés de l’expérience (par exemple toute représentation que nous pouvons nous faire des couleurs, des sons ou des textures), mais que certains autres sont acquis par d’autres moyens (par exemple quand je pense à un nombre, à un espace à n dimensions, ou à des notions abstraites comme la liberté ou l’identité). De même, on peut considérer, sur le plan épistémologique, que certaines connaissances se fondent et trouvent leur justification dans l’expérience sensible (notamment tout ce qui ressort des sciences empiriques ou « expérimentales »), mais que ce n’est pas le cas des connaissances mathématiques ni des discours philosophiques. Enfin, on peut également soutenir que si certains mots tirent leur signification de leur relation avec des entités du monde extérieur (par exemple les termes descriptifs tels que « rouge », « ornithorynque » ou « Mont Everest »), d’autres (comme « le plus grand des nombres entiers », « carré rond », ou encore « le comte Dracula ») la trouvent ailleurs.

Dans cet article, nous nous efforcerons d’exposer chacune de ces thèses avec les arguments qui la supportent ainsi que ceux qui ont pu lui être opposés, en nous appuyant sur les principaux auteurs qui, au cours de l’histoire, ont pu les formuler et les discuter.

1. Origines de l’empirisme : de la médecine à la philosophie

a. Réflexions de Galien sur les sectes médicales

Intéressons-nous pour commencer à l’histoire du mot « empirisme », que l’on peut faire remonter au grec ancien « empeiria », l’expérience. Dans l’Antiquité, ce terme est notamment utilisé dans le cadre des disputes méthodologiques qui opposaient les différentes sectes médicales. Dans ce contexte, les « empiriques » étaient ceux qui s’opposaient résolument à la réflexion spéculative portant sur les causes invisibles des troubles observables, et préféraient concentrer leur attention sur les données de l’observation et les résultats de l’expérimentation. Pour leurs opposants en revanche, le qualificatif « empirique » était péjoratif et revenait à accuser un médecin de n’être qu’un charlatan, un amateur qui s’il parvient parfois à guérir son patient, ne le doit qu’au hasard (Pomata, 2011 ; Howick, 2016). Galien (131 env.-201env.), dont les traités sur la médecine ancienne ont exercé une influence cruciale durant tout le Moyen-Âge et jusqu’au dix-septième siècle, distinguait de la même manière la secte médicale des « empiriques » de celle des « rationnels ». La première désigne ceux qui dérivent leur savoir de ce qui est bon ou nocif pour la santé de l’expérience seule, tandis que la seconde regroupe ceux qui se fondent sur le raisonnement et ne voient dans les symptômes observables que les effets ou des indications de causes ou de mécanismes cachés, ces derniers étant l’objet propre de l’intervention médicale (Galien, 1854 : 376).

Le terme « empirique » désigne ainsi d’abord la démarche adoptée et promue par une certaine tradition médicale, en réponse à la question méthodologique de savoir ce qui permet le mieux au médecin d’atteindre son but, à savoir la guérison ou la conservation de la santé. Soit celui-ci s’intéresse aux principes invisibles des maladies ou des troubles directement observables, avec le risque de se perdre en spéculations sans fin sur la présence et les propriétés de supposées causes occultes ; soit il se concentre sur les données de l’observation, procède par essais et erreurs, mais avec cette fois le risque de ne parvenir qu’à des explications locales, superficielles, et éventuellement fausses. Il y a ainsi, dès l’origine, une forme d’ambivalence qui entoure ce qui donnera par la suite la notion d’empirisme telle que nous la connaissons, et qui mérite d’être soulignée car où l’on peut y voir la première exposition d’un thème et d’une problématique qui seront récurrents dans les discussions à venir : l’expérience est d’une part l’instance qui paraît le mieux à même de garantir la validité de nos connaissance, mais dans le même temps, elle ne semble pas suffisante pour permettre d’élaborer une véritable science, permettant de rendre raison de l’ordre des phénomènes observables de manière satisfaisante, systématique et certaine.

b. Bacon : la fourmi empirique, l’araignée dogmatique et l’abeille philosophe.

L’interrogation de Galien concernant ce qui constitue la bonne méthode à appliquer dans l’art médical (methodus medendi) sera poursuivie au dix-septième siècle sous l’influence des travaux de Sydenham (sur le traitement de la variole) et Harvey (concernant la circulation sanguine). C’est dans son sillage, plus que sous l’influence de toute autre discussion ayant trait par exemple à la physique moderne, que l’on passera des considérations sur la méthode empirique en médecine, et dont la valeur dépendait essentiellement des succès thérapeutiques qu’elle permettait d’obtenir, à l’empirisme comme thèse proprement épistémologique, portant sur la structure de la science et de la connaissance humaine en général (voir sur ce point Waldow, 2010).

Cette transition est manifeste chez un auteur tel que Francis Bacon (1561-1626) qui, dans son Novum Organum (1620/1986), étend la désignation « empirique » à une école philosophique et non plus seulement médicale. Cependant, c’est bien à partir d’une référence à un traité médical de Celse (De Medicina) qu’il propose de penser les rapports entre expérience et raisonnement théorique (voir Bacon, 1986 : 32). Les succès de la médecine, lorsqu’elle s’appuie sur l’observation plutôt que sur la spéculation, indiquent suffisamment à ses yeux qu’il faut que, dans les sciences en général, la théorie seconde, chronologiquement et logiquement, l’expérience.

Cela ne signifie cependant pas que cette dernière se suffise à elle-même : se contenter d’engranger les données de l’observation et de les fixer dans sa mémoire dans l’ordre où on les acquiert sans plus d’élaboration, comme une fourmi récolte et entasse les divers matériaux qu’elle trouve au hasard de son chemin, n’est pas faire œuvre de science. À l’opposé cependant, prétendre parvenir à saisir l’ordre du monde sans jamais se rapporter effectivement à lui, mais à partir des seules ressources de la raison, comme une araignée qui tire d’elle-même tous les fils qui lui servent à construire sa toile, c’est s’exposer au risque d’élaborer des hypothèses que rien ne permettra de vérifier, et qu’il faudra admettre sans plus de justification, comme autant de dogmes. À la recherche d’une troisième voie qui permettrait d’échapper à chacun de ces écueils, Bacon soutient qu’une explication rationnelle par les causes sous-jacentes est bien nécessaire pour assurer une authentique intelligibilité aux phénomènes observables – ce qu’une collecte passive de faits ou d’événements accidentels ne saurait garantir par elle-même – mais que celle-ci doit être étroitement guidée et validée par l’expérience. C’est ce qu’illustre, après celle de la fourmi-empirique et de l’araignée-dogmatique, la célèbre métaphore de l’abeille-philosophe « qui ne se fie pas aux seules forces de l’esprit humain et n’y prend même pas son principal appui, qui ne se contente pas non plus de déposer dans la mémoire, sans rien y changer, des matériaux recueillis dans l’histoire naturelle et les arts mécaniques, mais les porte jusque dans l’esprit modifiés et transformés. » (Bacon, 1986 : 51)

Si l’on suit Bacon, nos connaissances dérivent de deux sources : d’une part la révélation divine, d’autre part, nos sens. C’est cependant l’observation qui nous permet d’accéder à l’ensemble de nos connaissances sur l’homme, le monde et même Dieu. En effet, si les desseins de la Providence nous échappent et sont l’objet exclusif de la Révélation, l’organisation que nous constatons empiriquement dans la nature nous assure néanmoins de son existence. Cependant, Bacon déplore que les préjugés et les errements méthodologiques du passé, entretenus dans les Écoles sous l’influence de la philosophie d’Aristote, fassent obstacle au développement des savoirs et à l’émergence de nouvelles découvertes au sein de la philosophie naturelle. Plusieurs de ces erreurs tiennent selon lui à un mésusage des données de l’expérience et de l’observation : soit qu’on les néglige en tirant des conclusions hâtives sur la base d’observations insuffisantes, voire inexistantes, comme le font les dogmatiques qui se perdent dans la considération de principes et de causes occultes ; soit au contraire qu’on se contente de les collecter et de les accumuler à mesure qu’elles surviennent, sans ordre ni mesure, comme le font les empiriques. La voie que Bacon préconise, par contraste, est celle sur laquelle nous place un usage raisonné et systématique de l’observation dont les données ne se laissent pas recueillir passivement, et qu’il convient parfois de provoquer afin de mettre au jour les causes réelles des phénomènes. À nouveau, tout ceci ne vaut pas seulement en médecine, mais dans tout ce qui relève de la philosophie naturelle, c’est-à-dire des sciences de la nature. L’empirisme, comme le rationalisme (ou dogmatisme) deviennent alors des options épistémologiques et philosophiques au sens plein du terme.

2. John Locke : un empirisme amendé

a. L’articulation des trois thèses de l’empirisme

John Locke (1632-1704), plus encore peut-être que Bacon, est considéré comme l’un des Pères fondateurs de l’empirisme moderne. Tandis que Bacon se préoccupait essentiellement de méthodologie de la science, ce dernier place la discussion des relations entre expérience et raison sur le plan proprement épistémologique. Il faut cependant noter que Locke a lui-même reçu une formation médicale qui a sans doute influencé la théorie générale de la connaissance – ce qu’elle est, comment elle se constitue, et quelles en sont les limites – qu’il a élaborée par la suite et qui est exposée dans son œuvre majeure, L’essai sur l’entendement humain (voir Duschesneau : 1973).

Ce « tournant épistémologique » dans l’histoire de l’empirisme doit beaucoup à la rupture cartésienne dans la conception des rapports entre l’esprit et le monde : comme Descartes, Locke considère en effet que l’objet immédiat ou direct de l’entendement n’est pas la réalité extérieure, mais ce qu’il appelle les « idées » et qu’il conçoit comme des événements internes au sujet. Simples ou complexes, ce sont ces idées qui constituent l’ameublement fondamental de l’esprit, et contribuent à constituer aussi bien les raisonnements mathématiques que les fantaisies de l’imagination ou encore les souvenirs. Le problème épistémologique qui se pose alors immédiatement est celui de la valeur objective de nos idées : si celles-ci relèvent de notre entendement et en sont le produit, comment pouvons-nous assurer qu’il existe bien un monde extérieur avec ses objets tel que nos idées nous le représentent et sur la base desquelles nous prétendons établir la connaissance ? L’empirisme, non plus comme méthode mais comme thèse proprement épistémologique portant sur la nature et la structure de la connaissance, est la voie que choisit Locke pour répondre au problème sceptique soulevé dès l’Antiquité (la connaissance est-elle possible ou devons-nous nous en tenir à suspendre notre jugement en toute chose ?), et plus précisément encore celui de notre connaissance du monde extérieur (le sujet pensant peut-il avoir cognitivement accès à autre chose qu’à ses propres idées?).

Selon Locke, il n’est pas besoin de la garantie métaphysique cartésienne d’un Dieu vérace pour que nous puissions être assurés qu’au moins certaines de nos idées sont vraies, c’est-à-dire représentent adéquatement les objets ou les faits qu’elles prétendent représenter. Plus précisément, le premier livre de l’Essai sur l’entendement humain est consacré à la réfutation minutieuse de la thèse cartésienne selon laquelle l’esprit disposerait de manière innée de certaines « vérités premières », absolument indubitables et sur la base desquelles la connaissance pourrait être ensuite fermement établie pour peu que l’on procède, comme l’affirmait l’auteur des Règles pour la direction de l’esprit, avec « ordre et mesure » (voir, dans cette Encyclopédie, l’article consacré à l’innéisme). L’expérience, notamment l’expérience sensible, ne constitue pas une source fiable de connaissance pour Descartes. Non que nos sens soient nécessairement toujours trompeurs, mais les idées que nous en tirons sont parmi celles qui sont le plus confuses et obscures pour l’entendement (voir sur ce point la sixième des Méditations Métaphysiques). Elles nous induisent d’autant plus facilement en erreur que les jugements spontanés que nous portons sur elles – par exemple le jugement selon lequel le Soleil est beaucoup plus petit que la Terre – sont très souvent formés ou adoptés durant l’enfance, alors que nous n’avons pas la pleine maîtrise de nos moyens cognitifs et nous laissons très facilement abuser par les préjugés de nos proches et de nos maîtres. Ce n’est alors pas l’expérience mais le raisonnement abstrait et a priori (indépendant de l’expérience) qui permet de corriger nos erreurs et de nous garantir l’accès au savoir, l’existence d’un Dieu vérace (établie dans la troisième Méditation) assurant que les idées qui s’imposent à nous comme claires et distinctes au terme d’une réflexion bien conduite sont effectivement vraies. Par exemple, ce sont les principes et démonstrations de l’astronomie et des mathématiques qui nous permettent de découvrir que, contrairement à ce que nous aurions tendance à croire sur la base de ce que nous percevons, le Soleil est en réalité « plusieurs fois gros comme la Terre ».

Par opposition, et contre la thèse selon laquelle la raison pourrait à elle seule fournir des contenus comme des méthodes de connaissance, Locke soutient que toutes nos idées, mêmes celles qui nous semblent les plus assurées et les plus universellement partagées, procèdent d’une manière ou d’une autre de l’expérience. Par conséquent, avant ou sans l’expérience (a priori), on doit reconnaître que l’entendement est vide : il demeure, selon l’image que Locke emprunte à Aristote, comme une page blanche. La raison est incapable de tirer quoi que ce soit de son propre fond, pas plus le principe de non-contradiction que le principe moral selon lequel on ne doit pas faire à autrui ce qu’on ne voudrait pas qu’il nous fasse. En même temps que l’innéisme de Descartes, la cible de l’argumentation de Locke lorsqu’il s’intéresse à l’origine de nos idées est la thèse scholastique selon laquelle il existerait des principes premiers et évidents, théoriques aussi bien que moraux, et dont nous ne saurions discuter l’autorité.

En résumé, quelle est la source de nos idées et de nos connaissances ? « Je répondrai, écrit Locke, d’un seul mot : de l’expérience ; en elle toute notre connaissance se fonde et trouve en dernière instance sa source. » (Locke, 2001 : 164). Cette déclaration concentre l’essentiel de ce qu’il est convenu, en philosophie, d’appeler « empirisme ». Comme on le voit, Locke souscrit aux deux premières thèses que nous avons proposé plus haut de distinguer :

  1. D’une part la thèse psychologique, d’après laquelle l’ensemble de nos contenus mentaux (ce que Locke appelle « le matériau de la pensée ») dérivent des données immédiates qui nous sont fournies par l’expérience, c’est-à-dire via le contact que nos sens nous permettent d’avoir avec les objets hors de nous, mais aussi avec ce qui peut se produire en nous, dans notre intériorité (les opérations de notre esprit sur les idées que lui fournissent les sens externes). En ce sens, l’empirisme peut se résumer à la maxime dite « scholastique », selon laquelle il n’y a rien dans l’entendement qui n’ait premièrement été dans les sens (sur l’histoire de cette maxime, voir Cranefield, 1970).
  2. D’autre part, la thèse épistémologique, qui ne porte plus seulement sur l’origine de nos idées ou de nos croyances, mais sur leur justification. Si la connaissance, conformément à la définition traditionnelle qu’on lui donne, est une croyance vraie et justifiée, l’épistémologie empiriste consiste à soutenir que c’est l’expérience qui nous permet de nous assurer que certaines de nos croyances sont vraies plutôt que fausses, et justifiées ou bien fondées, plutôt qu’arbitraires ou l’expression de simples préjugés (voir Ayers, 1993).

À ceci s’ajoute, au livre IV de l’Essai sur l’entendement humain, une théorie de la signification selon laquelle : « Les mots, dans leur signification première ou immédiate, ne tiennent lieu de rien d’autre que des idées dans l’esprit de celui qui s’en sert, quels que soient l’imperfection et le manque de soin avec lesquels ces idées sont tirées des choses qu’elles sont supposées représenter. » (Locke, 2006 : 38) Puisque que les idées dérivent elles-mêmes de l’expérience sensible, c’est elle qui, quoi qu’indirectement, constitue fondamentalement la signification des termes que nous utilisons dans le langage. Locke adhère ainsi également à la thèse sémantique de l’empirisme :

  1. Ce qui constitue la signification des mots, et plus largement des expressions linguistiques, est ultimement le lien qu’ils entretiennent avec les données de l’expérience sensible (ici par l’intermédiaire des idées de sensation et de réflexion que cette expérience fait naître dans notre entendement).

b. Un empirisme modéré

L’adhésion à ces trois thèses et leur articulation les unes avec les autres ne va cependant pas de soi. En particulier, il pourrait sembler que pour Locke, les thèses psychologique et épistémologique aillent de pair. Or tel n’est pas tout-à-fait le cas : si l’empirisme psychologique est une condition nécessaire pour fonder une épistémologie empiriste, il n’est nullement suffisant. C’est pourquoi l’auteur de l’Essai sur l’entendement humain, en même temps qu’il soutient que l’expérience est la seule source de nos idées simples, reconnaît néanmoins que l’entendement n’est pas que pure passivité face au monde et participe au contraire activement à l’élaboration de nos idées complexes et, ce faisant, de nos connaissances (Locke, 2001 : 581). En effet, parce qu’elles sont le produit de l’articulation entre elles d’idées simples qui ne peuvent elles-mêmes être tirées que de l’expérience, nos connaissances en dérivent nécessairement. Mais ceci ne signifie nullement que l’expérience pourrait, ni même devrait nous les fournir directement et immédiatement comme telles, déjà toutes constituées. L’expérience nous donne bien le matériau élémentaire de la connaissance, mais celui-ci demande encore à être élaboré, et l’entendement a recours à un certain nombre de ressources qui lui sont propres pour ce faire : par exemple, c’est par l’opération de composition qu’il parvient à lier des idées simples en une seule idée complexe, puis des idées complexes entre elles pour réaliser un jugement ou un raisonnement. Le principe de jonction, pour sa part, permet d’associer entre elles des idées simples ou complexes, sans pour autant les unir : de là viennent les idées de relations. L’entendement peut encore avoir recours à l’abstraction, qui permet de passer d’un certain nombre d’idées particulières (par exemple celles de lait, de neige, de nuage) à des idées générales (par exemple l’idée de blancheur).

Cette constitution des idées complexes à partir des idées simples requiert l’intervention de facultés telles que la mémoire et l’imagination, qui permettent d’associer les idées entre elles, de les examiner et de les comparer. Sur ce point Locke est un empiriste moins radical que ne le sera notamment Condillac dans son Traité des sensations (1754/1984) : rien n’indique que pour le premier nos facultés et opérations cognitives (et pas seulement nos contenus de pensées) soient elles-mêmes engendrées par l’expérience, tandis que c’est le cas pour le second. Bien que l’on continue encore souvent d’associer l’empirisme à des philosophes britanniques, il est désormais clairement établi qu’il y a eu des empiristes français plus radicaux encore que leurs homologues d’outre-Manche (voir en particulier Charrack, 2009).

L’étude de l’épistémologie de Locke est ainsi l’occasion de saisir l’indépendance relative entre les thèses psychologique et épistémologique de l’empirisme. En effet, si nos idées complexes sont bien le fruit de l’expérience mais aussi d’une certaine activité de l’entendement, par quoi cette activité de l’entendement est-elle régulée ? Il est impératif de répondre à cette question sans quoi ce que nous appelons « connaissance » pourrait n’être que le produit contingent d’associations spontanées et arbitraires entre nos idées : quelles sont donc, demande Locke, les idées qui s’accordent avec la réalité, et celles qui sont de « pures combinaisons imaginaires » ?

C’est sur ce point que se joue le rapport délicat entre les composantes psychologique et épistémologique de l’empirisme. Selon Locke, la connaissance au sens fort du terme (comme certitude apodictique) émerge des opérations que l’entendement réalise sur ses propres idées, en vertu de leur contenu. Ainsi, lorsque l’esprit les examine, il se peut que les rapports de « convenance » ou de « disconvenance » qu’entretiennent certaines d’entre elles lui apparaissent comme évidentes, et donnent ainsi immédiatement lieu à une certitude. Ceci correspond à ce que Locke appelle la « connaissance intuitive » : elle surgit à l’occasion de la simple considération simultanée de deux idées, sans qu’il soit besoin qu’aucune autre ressource n’entre en jeu. Ainsi, parce que notre idée de « somme des parties » s’accorde immédiatement à notre idée de « tout », nous savons avec certitude que le tout est égal à la somme des parties. De la même manière, si selon Locke nous savons que le mot « or » renvoie à l’idée d’un métal jaune, nous pouvons tenir l’énoncé « l’or est jaune » pour analytiquement et absolument vrai. Il est cependant aussi parfois nécessaire de procéder de manière indirecte, et non plus intuitive, afin de faire apparaître ces rapports de convenance ou de disconvenance. Cela présuppose l’intervention d’idées intermédiaires : c’est par exemple le cas si nous voulons évaluer le rapport entre notre idée de « somme des trois angles d’un triangle » et celle de « somme de deux angles droits ». Locke parle en ce sens de connaissance démonstrative. Celle-ci fait également l’objet d’une absolue certitude lorsqu’elle est bien conduite.

Le problème est que dans ces deux cas (connaissance intuitive et démonstrative), la connaissance est définie de manière interne, comme résultat d’un examen portant sur des idées que nous avons déjà, mais dont la valeur cognitive pourrait être remise en doute : mes idées de licorne et de cheval avec une corne sur le front concordent certainement, et en ce sens, il est vrai que les licornes sont des chevaux avec des cornes. Pourtant, il semble difficile de parler ici de connaissance, si du moins par connaissance on veut parler de croyances vraies et justifiées, qui présentent le monde tel qu’il est et non tel que notre imagination pourrait nous le dépeindre. Or dans la mesure où, selon Locke, nous ne pouvons jamais avoir affaire qu’à nos idées et leurs relations, comment savoir si nos jugements sont non seulement valides, mais aussi vrais au sens ordinaire (correspondantiste) du terme ?

Selon Locke, nos idées simples de sensation ne peuvent pas être fausses : elles sont le résultat direct de l’action du monde sur notre corps. Il n’est pas en mon pouvoir, par exemple, de faire en sorte que ce qui m’apparaît rond, chaud et jaune, m’apparaisse plutôt carré, froid ou bleu. Mais cela signifie aussi que la nature de ce qui cause ces idées simples en nous, nous reste caché : nous ne pouvons pas, pour ainsi dire, sortir hors de nos idées pour en observer l’origine ou la cause dans le monde. Tout ce que nous pouvons connaître du monde et des choses qui nous environnent, c’est ce que nous pouvons en percevoir, au moment où nous le percevons. Tout le reste, notamment tout ce qui constituerait la substance des objets et ce qu’ils sont quand nous ne les percevons pas, nous échappe. C’est un argument de ce genre qui conduira un autre philosophe britannique et empiriste, George Berkeley, à critiquer les notions métaphysiques de substance et de matière (voir Berkeley 1991 et 1998).

Pour l’illustrer, nous pouvons utiliser l’exemple célèbre du morceau de cire proposé par Descartes dans la quatrième des Méditations métaphysiques : selon Descartes, nous pouvons savoir avec certitude que ce que nous appelons « cire » est la même chose, qu’elle se présente sous la forme d’un morceau de matière solide, avec une certaine couleur et une certaine odeur, ou bien, après avoir été exposée à une source de chaleur, sous une forme liquide, avec une toute autre couleur et une toute autre odeur. Si vraiment nous tirions nos connaissons de l’expérience sensible, nous serions incapables de reconnaître que nous avons affaire à une seule et même chose dans chaque cas, puisque les propriétés sensibles dont nous faisons l’expérience sont si différentes. Et pourtant, nous savons, souligne Descartes, qu’il s’agit toujours de la même cire. Une réponse empiriste à cette objection consisterait à dire que ce n’est pas d’une connaissance au sens rigoureux du terme qu’il s’agit alors. Sans doute ne pouvons-nous pas nous empêcher de croire qu’il existe, au-delà de ce que nous percevons, quelque chose comme une substance « cire », qui pourrait se présenter sous différentes apparences selon les circonstances, mais il s’agit là d’un fait psychologique et non d’un fait épistémologique. Autrement dit, l’expérience cartésienne du morceau de cire nous en apprend davantage sur la manière dont fonctionne l’esprit humain que sur la nature du monde hors de nous, la substance des objets qui le constituent, ou encore leurs propriétés et relations.

Il y a là une difficulté (comment pouvons-nous connaître le monde tel qu’il existe indépendamment de nous, et notamment des idées et perceptions que nous en avons ?) qui n’a pas échappé aux différents interlocuteurs et critiques de Locke – notamment Leibniz, dans les Nouveaux Essais sur l’entendement humain (Leibniz, 1993) – et dont Locke lui-même avait parfaitement conscience (Locke, 2006 : 326). Ce qu’elle nous permet surtout de mettre particulièrement en évidence ici est le divorce qui peut séparer l’empirisme comme thèse psychologique, relative à la genèse de nos idées, et l’empirisme comme thèse épistémologique, relative à la nature de la justification et qui consiste à voir dans l’expérience sensible non seulement la source, mais aussi ce qui fonde la connaissance en raison. L’empirisme psychologique n’est clairement suffisant pour fonder l’empirisme épistémologique et, loin de pouvoir rendre compte de la possibilité de la connaissance empirique, au sens de connaissance du monde hors de nous, il semble nous conduire plus ou moins directement à passer sous les fourches caudines du scepticisme.

3. Empirisme et scepticisme

a. Limiter nos prétentions à connaître, plutôt que les fonder

Le philosophe écossais David Hume (1711-1776) nous donne une bonne illustration de ce en quoi consiste un système philosophique qui adhère résolument à l’empirisme psychologique et en assume parfaitement les conséquences sur le plan épistémologique – à savoir un scepticisme qui, s’il n’a sans doute pas la force de nous condamner à la suspension éternelle du jugement en théorie et à l’inaction en pratique, n’en inflige pas moins une cruelle humiliation à la raison dans ses prétentions à connaître quoi que ce soit qui excèderait d’une manière ou d’une autre les limites étroites de l’expérience.

Pour Hume, en effet, l’ensemble des représentations que chacun peut entretenir peut en principe être entièrement dérivé de l’expérience sensible : celle-ci nous livre d’abord ce qu’il appelle des impressions (par exemple la sensation de chaleur que je ressens en approchant la main du feu), impressions dont nous pouvons conserver un écho même après que l’expérience a eu lieu, sous la forme d’idées, au moyen de l’imagination et de la mémoire. Ainsi, je tire mon idée de chaleur de l’impression qu’a suscitée en moi l’expérience d’être auprès d’un feu. Il n’y a pas, selon Hume, de différence de nature entre les impressions (qui renverraient, par exemple, à des états du corps) et les idées (qui seraient par contraste de nature mentale), mais seulement une différence de degré. Les deux renvoient à des événements internes à l’entendement, et ne se distinguent qu’en termes de degré de vivacité, les idées étant des copies qualitativement plus faibles des impressions qu’elles représentent. Ainsi, mon idée de douleur, quand je me souviens d’une brûlure que j’ai subie ou quand je m’imagine en train de me brûler, me fait beaucoup moins d’effet que la douleur que je ressens en me brûlant effectivement. Il demeure que cette idée, quand je l’entretiens en imagination – par exemple en rêvant que je me brûle – suscite elle-même en moi une certaine douleur, nouvelle impression qui peut à son tour donner lieu à une idée et se combiner avec d’autres pour, par exemple, éveiller en moi l’impression de crainte, laquelle donnera à son tour naissance à une autre idée, et ainsi de suite.

L’essentiel, ici, est la thèse psychologique selon laquelle il n’y a aucune idée dans notre entendement qui ne dérive pas d’impressions sensibles, que celles-ci surgissent à l’occasion d’un contact avec le monde extérieur, ou qu’elles soient engendrées par un événement relatif à notre intériorité propre, comme l’occurrence d’une passion ou d’un mouvement de notre propre pensée. Par contraste avec les auteurs que nous avons précédemment mentionnés cependant, Hume tire de cette thèse des conséquences très critiques sur le plan épistémologique. Si en effet il adhère bien aux thèses psychologique et épistémologique de l’empirisme, c’est pour souligner combien la connaissance humaine est étroitement bornée. Autrement dit, bien loin de viser à fonder le savoir dont nous pensons déjà disposer, notamment celui que les sciences empiriques prétendent constituer, l’enquête que mène Hume sur l’origine de nos contenus mentaux et, plus encore, sur la structure de la justification de nos croyances, met plutôt en évidence que la grande majorité de ce que nous pensons connaître, nous ne faisons en réalité que le croire et l’imaginer.

En effet, selon l’auteur, entre autres, du Traité de la nature humaine (1730/1995) et L’enquête sur l’entendement humain (1748/2006), les raisons pour lesquelles nous croyons ou sommes convaincus de quelque chose (par exemple, je suis sûr que si je lâche le verre que j’ai dans la main, il va tomber par terre) sont de nature strictement psychologique. À partir du moment où nous nous prononçons sur ce qui échappe à notre perception actuelle, ici et maintenant, nous spéculons plus que nous ne connaissons. On peut reconstruire l’argument qui permet à Hume d’étayer cette affirmation de la manière suivante : spontanément au moins, il semble difficile de nier que le monde, pour ce qui est de son existence comme de la nature de ce qui y existe ou pourrait y exister, ne doit rien à notre propre existence (voir notamment Russell et le premier chapitre de ses Problèmes de philosophie (1912/1989) sur ce point). De cette indépendance logique et ontologique strictes entre le monde et ce que nous en pensons découle la possibilité que le premier soit totalement autre que ce que nous nous en représentons, ou encore qu’il y corresponde, mais que, subitement et sans que nous puissions anticiper quand ni pourquoi, il cesse de l’être. Ainsi, insiste Hume, le contraire d’un fait est toujours concevable et donc au moins possible : aussi contre-intuitif que cela puisse paraître, le réel pourrait bien être radicalement différent de ce que nous pensons qu’il est. Il se peut également qu’il change, ou encore qu’il disparaisse, nous ne pouvons avoir aucune certitude à cet égard.

Ce point est important, dans la mesure où l’ensemble des sciences de la nature, depuis la révolution Galileo-Cartésienne, ambitionnait de déchiffrer l’ordre du monde et d’en faire, à l’aide de lois universelles et nécessaires, un objet de connaissance et de certitude apodictiques. Hume met à jour le caractère infondé d’une telle prétention. En effet, d’où tirons-nous ces lois intangibles auxquelles, selon la physique classique, les phénomènes naturels sont censés obéir sans exception, et qui nous permettraient d’établir des prévisions fiables concernant les événements à venir ? Si on est un empiriste conséquent, comme l’est Hume, il faut admettre qu’elles ne peuvent être tirées que de l’expérience sensible, et donc qu’elles ne peuvent être vraies qu’a posteriori. Ce sont des « vérités de faits », toujours contingentes et susceptibles d’être démenties par l’avenir, par contraste avec ce que Hume appelle les « vérités de raison », qui sont absolument nécessaires, mais strictement analytiques et portent non pas sur les faits, mais seulement sur les relations entre nos idées (par exemple, « un triangle a trois côtés fermés » est un vérité de raison, non pas en vertu d’un état du monde, mais de l’implication réciproque qui existe entre nos idées de « triangle » et de « polygone à trois côtés »).

Si l’on accepte l’idée selon laquelle une large part de nos connaissances portent sur les faits et leurs relations, notamment pour tout ce qui concerne l’étude des phénomènes naturels et moraux, plutôt que sur les idées comme le font, selon Hume, des disciplines comme la logique ou les mathématiques, on se heurte à un problème épistémologique important, que l’on appelle traditionnellement le problème de l’induction. Celui-ci découle directement du caractère logiquement fallacieux de toute inférence qui conduirait à tirer des conclusions universelles du type « Tous les A sont f » à partir de prémisses particulières du type « Quelques A sont f ». Dans les sciences de la nature, on s’efforce en effet de mettre en évidence l’existence de lois susceptibles de rendre compte de l’ensemble des phénomènes observables, à l’image par exemple de la loi newtonienne de la gravitation universelle, capable de rendre compte à la fois de la chute des corps, du mouvement des astres, ou encore du phénomène des marées. En principe, une loi de la nature est donc universelle, au sens où elle n’admet pas d’exception : un seul contre-exemple suffit normalement à la réfuter. Si un seul corbeau est blanc, alors il est faux que tous les corbeaux sont noirs.

Le problème de l’induction « naturelle » (par opposition à l’induction « mathématique », à laquelle on a par exemple recours en mathématiques dans le raisonnement par récurrence) consiste précisément dans le fait que cette démarche ne permet jamais d’exclure, a priori, la possibilité que des contre-exemples ne surgissent. Si l’expérience nous permet d’acquérir des connaissances, celles-ci ne concernent jamais que ce qui se présente à nous, dans l’expérience, ici et maintenant. Imaginons par exemple que la tasse que j’ai dans la main m’échappe et tombe sur le sol. Spontanément, on pourrait croire qu’il suffit de multiplier les expériences pour donner à nos connaissances une portée plus générale, voire universelle, et parvenir ainsi à de véritables lois. Après tout, toutes les tasses qu’il m’est arrivé de lâcher au-dessus du vide sont tombées, et à ma connaissance, personne dans les mêmes circonstances n’a vu sa tasse rester suspendue ou monter dans les airs. Que puis-je légitimement en conclure ? Une règle générale, certainement bien utile dans la vie de tous les jours. Mais pas une loi universelle : celle-ci supposerait, pour être énoncée, que l’on ait une garantie que toutes les tasses existantes, ayant existé, et surtout qui existeront à l’avenir, tombent, sont tombées, ou tomberont. Or l’expérience humaine, bien qu’elle puisse être cumulative, est toujours finie : d’une part, il y a fort à parier que nous ne pourrons jamais rien savoir de ce qui est arrivé à toutes les tasses qui ont existé jusqu’à présent. D’autre part, notre expérience des objets qui existent actuellement est limitée. Quant à celle des objets qui existeront, nous n’en avons tout simplement aucune. En particulier, rien ne nous garantit que les phénomènes et les régularités que nous avons déjà pu observer se reproduiront éternellement à l’identique : pour affirmer cela, il faudrait d’abord que nous soyons sûrs que le futur ressemblera au passé, et donc qu’il existe des lois universelles de la nature. Or c’est précisément ce qu’il s’agissait de démontrer.

L’intérêt de l’analyse humienne est alors de montrer qu’en fait, adopter la thèse psychologique de l’empirisme devrait nous dissuader d’adhérer à la thèse épistémologique, ou du moins de lui donner plus de force qu’elle n’en a réellement : à partir du moment où nous nous prononçons sur quoi que ce soit qui excède ce qui nous est actuellement donné dans l’expérience, en particulier ce qui nous sera donné à l’avenir, nous réalisons une sorte d’acte de foi et non, à proprement parler, un acte de connaissance. C’est là un point que Bertrand Russell, à nouveau dans les Problèmes de philosophie, illustrera avec beaucoup d’humour à l’aide de la fable de la « dinde inductiviste » : une dinde a été nourrie chaque jour à la même heure par le fermier, qu’il vente ou qu’il pleuve, hiver comme été. C’est donc tout naturellement qu’elle se précipite à sa rencontre un 25 décembre, sans imaginer un instant qu’en l’occurrence, il n’est pas là pour la nourrir mais pour lui couper le cou. En partant du principe que l’avenir ressemblera immanquablement à l’avenir, et que par exemple, le soleil se lèvera demain comme chaque jour jusqu’à présent, nous ne nous conduisons pas autrement que la dinde de Russell.

b. Empirisme psychologique et scepticisme épistémologique

L’empirisme humien, loin de fournir une justification et un fondement à la science, notamment aux sciences de la nature, conduit bien plutôt à une forme de scepticisme épistémologique assez radicale qui paraît sinon fausse, du moins très contre-intuitive. N’avons-nous pas raison de partir du principe que les expériences passées et présentes, surtout si elles sont nombreuses et cohérentes, sont un moyen fiable d’anticiper celles que nous ou d’autres pourront faire à l’avenir (voir par exemple la méthode expérimentale définie par Claude Bernard dans Bernard, 1966)? Pouvons-nous même tout simplement faire autrement ?

Si nous avons le plus grand mal à accepter ces conclusions sceptiques, ce n’est pas selon Hume pour des raisons épistémologiques, mais pour des raisons strictement psychologiques. La nature humaine, et notamment l’entendement humain, sont ainsi faits que l’uniformité et l’étendue de notre expérience passée nous dispose presque mécaniquement à entretenir certaines idées, formuler certains jugements, et à les entretenir avec plus ou moins de certitude. Ainsi, plus un sujet a été confronté à la coexistence ou à la succession régulière de deux idées renvoyant chacune à un événement (lâcher un objet pesant ; le voir/l’entendre tomber), et plus il aura tendance à les associer l’une à l’autre, si bien que l’occurrence de l’une le conduira immédiatement à penser voire à anticiper l’avènement de l’autre. Dans certains cas, nous en arrivons même à considérer que l’un de ces événements est à l’origine de l’autre, et que si l’un se manifeste, alors nécessairement l’autre devrait s’en suivre. De là vient notre idée de connexion nécessaire, celle d’un « pouvoir » qu’auraient certains objets ou certaines configurations de faits (par exemple renverser sa tasse de thé bouillant sur ses genoux) d’en causer, nécessairement, d’autres (ressentir une brûlure). Or si l’on suit le précepte de l’empirisme psychologique, on est forcé de conclure que rien de cette sorte (un « pouvoir » de causation) ne nous est jamais donné dans l’expérience : nous ne faisons jamais l’expérience de la causalité elle-même, tout ce à quoi nous avons affaire, c’est à des conjonctions ou des successions entre plusieurs événements logiquement indépendants (« eau bouillante en contact avec ma peau », puis « sensation de brûlure »). Autrement dit, notre psychologie nous incline très fortement, sous l’effet de l’habitude et de l’accoutumance, à transformer de simples corrélations ou coïncidences qui se répètent régulièrement, en relations de cause à effet. Ces dernières sont donc, au sens strict, le produit de notre imagination, et on peut en dire autant de tout ce que nous appelons « lois de la nature » : celles-ci ne nous révèlent rien sur le monde ou son ordre, si tant est qu’il ait un ordre. Ce qu’elles nous révèlent, en revanche, c’est la dynamique de nos pensées, sous l’influence de certaines expériences, notamment celles qui se répètent fréquemment, à l’identique.

Voici comment, chez Hume, la thèse psychologique de l’empirisme conduit non pas à fonder la thèse épistémologique, mais au contraire, débouche sur un scepticisme théorique radical. Celui-ci se présente sous au moins trois formes :

  1. un phénoménalisme : nous n’avons jamais cognitivement accès au réel, mais seulement aux effets que celui-ci provoque sur nos sens (impressions) puis, dans un second temps, sur notre entendement (idées) ;
  2. un psychologisme : notre croyance dans les lois de la nature est moins fondée en raison que par l’imagination et par l’intervention d’un certain nombre d’instincts ou de dispositions psychologiques parfaitement contingentes ;
  3. un faillibilisme : aussitôt que nous nous prononçons sur l’existence ou la nature d’événements ou d’objets qui échappent à notre perception actuelle, nous quittons le domaine (très limité) de la certitude pour entrer dans celui de la probabilité subjective.

Bien que Hume, notamment dans le dernier chapitre de l’Enquête sur l’entendement humain, insiste sur le fait qu’il ne s’agit nullement pour lui de nous conduire à pratiquer la suspension du jugement à la manière des sceptiques de l’Antiquité (pour la bonne raison qu’une telle chose ne serait ni souhaitable ni même possible, étant donné les impératifs de l’action), le doutes qu’il a jeté sur notre capacité à rendre raison de nos croyances les plus chères et les plus fermement ancrées (il existe un monde extérieur, et nous pouvons le connaître) motivera nombre de ses successeurs à entreprendre de lui répondre, soit en prenant le parti opposé, celui du rationalisme, comme le fera notamment Kant avec la thèse selon laquelle notre expérience est toujours déjà structurée a priori et de manière universelle, par les formes de la sensibilité ainsi que les catégories de l’entendement ; soit en persévérant dans la défense de l’empirisme, mais en montrant comment, en dépit de ce que semble impliquer la thèse psychologique, celui-ci constitue encore une option épistémologique valable.


4. Empirisme et sémantique

a. La thèse sémantique au premier plan

Le problème de l’induction et les conséquences sceptiques auxquelles il semble conduire nous oblige à nous interroger sur la manière dont, fondamentalement, l’expérience perceptuelle permet de fonder rationnellement – et non plus seulement psychologiquement – la connaissance. Autrement dit, il s’agit de comprendre le type de justification ou de raison de croire qu’elle peut procurer.

C’est, au moins en partie, la tâche qui a été entreprise à l’orée du vingtième siècle par de nombreux épistémologues et philosophes des sciences. L’empirisme a alors connu un fort regain d’intérêt, à la fois contre l’héritage néo-kantien et néo-hégélien et le type de métaphysique et d’idéalisme sous lequel il s’est manifesté au 19ième siècle, et en réponse à la « crise des fondements » qui a frappé les mathématiques avec, notamment, la découverte des géométries non-euclidiennes. Il est défendu aussi bien en Grande Bretagne, sous l’influence de philosophes tels que G. E. Moore, B. Russell, ou encore A. J. Ayer, qu’en Autriche et en Allemagne, avec les travaux de E. Mach, du « premier » Wittgenstein, puis ceux des membres du Cercle de Vienne.

Il est impossible, dans les limites de cet article, de fournir une caractérisation de l’empirisme de cette première moitié du 20ième siècle qui rendrait fidèlement compte de toutes ses déclinaisons et spécificités. Ce que l’on peut néanmoins relever, sur le plan de l’histoire des idées, est l’importance relativement inédite qui est alors accordée à la philosophie du langage et à une analyse scrupuleuse des énoncés scientifiques. Grâce aux nouveaux outils fournis par la logique frégéenne et post-frégéenne, la thèse sémantique de l’empirisme a trouvé un nouveau souffle et l’attention particulière dont elle a fait l’objet constitue, dans une large mesure, la principale caractéristique que revêt l’empirisme dans la tradition dite « analytique » en philosophie (voir sur ce point Dummett, 1991).

La thèse sémantique de l’empirisme porte sur la nature de la signification des énoncés. Elle avait déjà été développée par Locke, Berkeley, et encore une fois Hume, comme une conséquence de la thèse psychologique : si toutes nos idées simples sont directement issues des impressions sensibles, alors toutes nos idées, aussi complexes soient-elles, doivent également pouvoir être analysées en termes de ces idées simples. Et si, d’autre part, les expressions linguistiques sont, comme l’affirme Locke, des signes par lesquels nous exprimons publiquement nos idées afin de les communiquer, alors de la même manière, tout énoncé linguistique doit pouvoir être analysé et rapporté à l’idée dont il est le signe, et indirectement, aux impressions sensibles à l’origine de cette idée.

La thèse sémantique de l’empirisme porte ainsi sur la nature et l’origine de la signification des énoncés descriptifs, c’est-à-dire les énoncés par le moyen des desquels nous parlons du monde et qui sont susceptibles de constituer des énoncés de connaissance (à la différence d’autres actes de discours comme les ordres ou les questions par exemple). Selon cette thèse, la signification doit être essentiellement conçue en termes référentialistes : elle renvoie à la relation conventionnelle qui est établie entre le mot ou l’énoncé en question – par exemple « blanc » ou « la rose est blanche » – et la chose, individu, propriété ou fait, qu’il désigne dans la réalité observable. Si nous sommes incapables de retrouver à quel objet ou fait renvoient un mot ou une expression (« carré rond », « Pégase », « le plus grand des nombres entiers naturels », « blancheur », etc.), il faut conclure que ces derniers sont en réalité vides de sens. Ils ne peuvent alors être ni vrais, ni faux, et n’ont par conséquent aucune valeur épistémologique.

L’adhésion à cette thèse se traduit ainsi généralement par l’adoption d’un attitude critique à l’égard de toutes les expressions linguistiques qui, à première vue au moins, font référence à des entités ou des principes qui échappent par principe à l’expérience sensible : par exemple des entités abstraites ou des universaux (« être un carré », ou encore « la pugnacité »). Elle motive également, notamment chez les empiristes britanniques du 18ème siècle, le rejet des discours métaphysiques néoscolastiques qui, pour avoir un sens, semblent contraindre à accepter l’existence de qualités « occultes » (par exemple les causes finales), ou de substances cachées derrière les propriétés manifestes des objets (par exemple la « matière », le « moi », ou encore « l’âme immatérielle »). Appliquant méthodiquement ce critère de discrimination, Hume, dans la conclusion de l’Enquête sur l’entendement humain, recommande tout simplement à ses lecteurs de jeter au feu tous les traités de métaphysique, « parce qu’ils ne contiennent que sophismes et illusions ».

Au début du 20ième siècle, et rompant définitivement avec l’héritage aristotélicien, la révolution initiée notamment par G. Frege, A. Whitehead et B. Russell en logique a des conséquences très importantes sur la manière dont on conçoit la signification et la validité des énoncés logico-mathématiques et scientifiques, et aussi, plus généralement, celle des énoncés descriptifs du langage naturel. L’expérience sensible demeure cependant centrale pour la détermination de la signification et de la valeur de vérité des énoncés : à part peut-être dans les cas où l’on a affaire à des tautologies, il ne suffit pas qu’une expression soit logiquement bien formée pour qu’elle ait un sens, et encore moins pour qu’elle soit vraie et nous apprenne effectivement quelque chose sur le monde. Pour des auteurs tels que G. E. Moore, B. Russell et L. Wittgenstein (voir Moore, 1925 et 1939 ; Russell, 1911 et 1989 ; Wittgenstein, 2001), il faut encore que cette expression soit validée par l’expérience, au sens où l’on doit pouvoir établir une relation de correspondance entre les mots ou ce qu’ils disent, et les faits perceptibles qu’ils prétendent décrire (voir, dans cette Encyclopédie, l’article Vérité).

L’adoption de l’empirisme sémantique, comme thèse relative à la nature de la signification linguistique et de la vérité a deux conséquences : une conséquence critique, à l’égard des énoncés et de ce qu’ils semblent parfois, au moins en apparence, signifier et impliquer sur le plan ontologique ; une conséquence positive, concernant le statut privilégié qu’occupent les énoncés d’observation et leur rôle de fondement pour la connaissance, notamment scientifique. Nous exposerons ici la première, et aborderons la seconde dans la prochaine section.

La thèse sémantique de l’empirisme, secondée par les moyens de l’analyse logique, permet de dissiper un certain nombre d’ambiguïtés de la langue naturelle, et de ne pas se laisser abuser par ce que Russell appelait la « grammaire de surface » des énoncés (voir Russell, 1991). En particulier, ce n’est pas parce qu’un énoncé est logiquement bien formé et contient des termes descriptifs comme des noms ou des prédicats, qu’il fait référence à quelque chose qui existe effectivement. On peut ainsi parfaitement parler de « la pâleur » d’une personne, sans pour autant être obligé d’accepter qu’il existerait, quelque part dans un monde des Idées platonicien, une chose aussi abstraite que « la Pâleur » en général. De la même manière, nous pouvons fort bien parler de choses fictives ou impossibles, comme « Sherlock Holmes » ou « le carré rond », sans croire en l’existence de tels objets. Grâce à un certain nombre de distinctions conceptuelles – par exemple entre concept et objet, ou entre sens (Sinn) et référence (Bedeutung) chez Frege (Frege, 1994), ou entre noms propres et descriptions chez Russell (Russell, 1991) – et à la paraphrase logique des énoncés de la langue naturelle, ces philosophes et logiciens se sont efforcés de préciser les critères en vertu desquels une expression décrit effectivement et correctement quelque chose d’existant, et constitue une authentique forme de connaissance. Parmi eux, il y a le rapport que cette expression, une fois correctement analysée sur le plan logique, entretient avec les données de l’expérience sensible. S’il n’y en a aucun, comme dans l’expression « L’actuel roi de France est chauve » que Russell propose en exemple, alors l’expression est fausse et n’a aucune valeur sur le plan de la connaissance.

Quoiqu’il soit en désaccord avec Russell sur le statut épistémologique de la logique et des mathématiques et qu’il défende une sémantique différente, Wittgenstein, dans le Tractatus adopte également une théorie de la signification et une épistémologie empiristes en ce sens (voir par exemple les paragraphes 6.1222, 2.21, 2.222 et 2.223). Celles-ci le conduisent à soutenir que les seuls énoncés susceptibles d’avoir un sens et une valeur cognitive sont ceux des sciences de la nature. Il exclut donc du domaine de la connaissance « dicible » les énoncés logico-mathématiques, les jugements de valeurs esthétiques et éthiques, mais aussi les énoncés métaphysiques et philosophiques. Cette critique, avancée une fois encore sur la base d’une sémantique empiriste et d’une analyse rigoureuse de la structure logique des énoncés sera reprise à leur compte et approfondie par plusieurs des membres du Cercle de Vienne, en particulier Rudolf Carnap dans son célèbre article « Le dépassement de la métaphysique par l’analyse logique du langage » (voir Carnap, 2010). C’est essentiellement cette approche du langage qui a valu au courant philosophique formé par ces philosophes et scientifiques le nom d’ « empirisme logique » (voir dans cette encyclopédie l’article Positivisme logique).

b. De l’empirisme sémantique à l’empirisme épistémologique

La seconde conséquence que l’on peut tirer de l’adoption de la thèse sémantique de l’empirisme est un corollaire de la précédente : si l’analyse logico-sémantique des énoncés permet de mettre en évidence que certains d’entre eux sont faux ou dénués de sens, elle permet aussi, plus positivement, de montrer que d’autres sont absolument vrais, et/ou justifiés dans la mesure où l’on peut les dériver d’énoncés vrais. C’est de cette manière que, tandis que la thèse psychologique de l’empirisme risquait de mener au scepticisme, la thèse sémantique permet de fonder une épistémologie empiriste non sceptique. Les positions de Frege, Russell, du premier Wittgenstein ou encore de Carnap sont ainsi marquées par leur anti-psychologisme, notamment pour ce qui a trait à la nature des règles de la logique. L’empirisme qu’ils défendent est en ce sens sémantique et épistémologique, et non psychologique.

Comment la thèse sémantique permet-elle donc, mieux que la thèse psychologique, de fonder une épistémologie satisfaisante ? Cela vient du statut spécifique qui est alors attribué à une certaine classe d’énoncés, que l’on peut appeler les énoncés d’observation directe (les positivistes logiques, tels que Carnap ou Schlick, les appellent « énoncés protocolaires »). Formulés dans la langue naturelle, ces énoncés sont ceux qui ont la forme « Ceci, ici et maintenant, est f », lorsqu’on les prononce en pointant du doigt un objet que l’on perçoit comme ayant la propriété d’être f (« Ceci, ici et maintenant, est rouge/brûlant/cylindrique, etc. »). Ce sont des énoncés par lesquels nous rapportons directement le contenu de nos expériences sensibles les plus élémentaires, en réponse directe à ce que nous percevons. Ils constituent les propositions atomiques les plus simples à partir desquelles, dans un second temps, nous pouvons former des énoncés plus complexes, portant non plus sur un contenu de perception particulier à chaque fois, mais sur des collections de tels contenus, et sur cette base, sur des objets, des propriétés et relations, voire des lois générales ou universelles. Les énoncés d’observation directe sont donc premiers au regard de tous les autres, sur les plans à la fois logique et épistémologique : d’une part, sur le plan logique, ils ne sont eux-mêmes déduits d’aucun autre énoncé mais seulement de l’occurrence de l’expérience perceptuelle ; d’autre part, sur le plan épistémologique, ils sont absolument vrais et immédiatement justifiés par l’expérience puisqu’ils ne font qu’en exprimer le contenu : ainsi, quand par exemple à l’occasion d’une blessure, j’affirme que j’ai mal, je n’ai besoin de rien d’autre que de cette expérience consciente de la douleur pour savoir que mon affirmation est vraie et parfaitement justifiée.

Comme on le voit, l’argument est ici à nouveau de nature sémantique. Il repose sur l’idée, héritée de Frege, selon laquelle il y a un lien essentiel entre comprendre la signification d’un énoncé et connaître ses conditions de vérité (ou, pour les positivistes logiques, de vérification. Sur ce point, voir Schlick 2003 et l’article « Positivisme logique » dans cette encyclopédie). Ceci paraît intuitivement correct : si un locuteur affirme comprendre la proposition « le chat dort sur le tapis », mais qu’il s’avère incapable de dire dans quelles conditions cette proposition est vraie (à savoir, quand un chat dort effectivement sur le tapis) plutôt que fausse (quand le chat est dans le jardin), on pourra légitimement se demander s’il comprend réellement le sens de son énoncé. Maîtriser la signification d’un énoncé dans un langage donné, c’est ainsi savoir comment doivent être le monde, les objets, leurs propriétés et relations, pour que cet énoncé soit vrai. Or dans le cas des énoncés d’observation directe, l’application de ce principe a pour résultat que si on en maîtrise la signification et qu’on les formule donc dans les circonstances appropriées, alors on ne peut faire autrement que reconnaître qu’ils sont vrais par définition. En effet, quelle que soit la nature exacte de ce que l’on perçoit (que cela existe effectivement, ne soit que le produit d’une illusion d’optique, ou encore celui d’une hallucination engendrée par la stimulation artificielle de mon système nerveux), il demeure que l’on perçoit effectivement quelque chose qui a la propriété sensible qu’on lui attribue dans l’énoncé – si du moins on comprend le sens des termes qu’on utilise : si je sais ce que « rouge » veut dire, c’est-à-dire à quelles conditions cette propriété est satisfaite par un objet, il n’y a aucun risque que je me trompe quand j’affirme, face à un objet rouge, « Ceci, ici et maintenant, est rouge ».

Ce qu’il y a par conséquent de remarquable dans les énoncés de perception directe, c’est que lorsqu’on les exprime dans les circonstances appropriées, ils semblent être aussi nécessairement vrais que pourraient l’être des énoncés analytiques a priori. Pourtant, ce sont des énoncés synthétiques a posteriori, par lesquels nous pouvons formuler de nouvelles connaissances. Voici donc comment la thèse sémantique de l’empirisme peut en principe fonder la thèse empirique et écarter toute menace sceptique : les énoncés d’observation directe sont tels que l’expérience en détermine entièrement la signification, et par conséquent les comprendre, c’est reconnaître immédiatement qu’ils sont vrais et justifiés. Or si la connaissance est bien une croyance vraie justifiée, on peut légitimement conclure que les énoncés d’observation directe constituent des énoncés de connaissance au sens plein du terme. Ceci signifie que ces énoncés peuvent parfaitement jouer le rôle de prémisse dans un raisonnement et contribuer ainsi à la formation d’autres énoncés de connaissance. La tâche à laquelle plusieurs épistémologues empiristes de la première moitié du 20ième siècle se sont attelés a ainsi consisté à montrer comment il était possible de fonder la science sur le donné de l’expérience, autrement dit, dériver l’ensemble des énoncés vrais qui constituent la connaissance scientifique à partir des énoncés d’observation directe (voir notamment Carnap, 2002).


5. L’empirisme en crise

La seconde moitié du vingtième siècle marque un tournant important pour l’empirisme en théorie de la connaissance. Plusieurs des membres du Cercle de Vienne, ayant émigré en raison de la montée du nazisme, seront amenés à occuper des positions institutionnelles importantes dans le monde anglophone (Carnap, Neurath, Feigl, Popper). En Grande Bretagne, A. Ayer avait déjà pour sa part largement contribué à diffuser le positivisme viennois. Sous l’influence de leurs travaux et de leur enseignement émergera aux États-Unis une nouvelle génération d’épistémologues et philosophes des sciences qui, fortement influencés par le pragmatisme de W. James, C. S. Peirce et C. I. Lewis, partageront certaines de leurs intuitions empiristes, mais se montreront néanmoins particulièrement critiques à l’égard de tout projet fondationnaliste. Parmi eux, on compte notamment W. V. O. Quine, W. Sellars, N. Goodman et R. Rorty.

Nous avons précédemment souligné que ce qui distinguait l’empirisme britannique et viennois du début du 20ième siècle de celui de Locke, Berkeley ou Hume, était la primauté qu’il accordait à la thèse sémantique en raison de ses implications épistémologiques. On ne sera donc pas surpris de constater que les critiques, et dont certaines s’avèreront tout à fait dirimantes, prennent en priorité cette thèse pour cible. C’est notamment le cas d’un célèbre article de W.V.O. Quine, intitulé « Les deux dogmes de l’empirisme » (Quine, 1980).

Comme son titre l’indique, cet article s’attaque à deux présupposés que l’empirisme (notamment l’empirisme logique) tient pour acquis. Le premier, dit « dogme de l’analycité », est l’idée qu’il existerait une distinction réelle entre les énoncés analytiques et les énoncés synthétiques, c’est-à-dire entre les énoncés dont la vérité est garantie a priori et en vertu de la seule signification des termes qui les composent, et les énoncés dont la signification et la vérité dépendent de l’état du monde au moment où on les énonce, et qui ne peuvent donc être garantis qu’a posteriori. Le second est le « dogme du réductionnisme » : il s’agit en fait de ce que nous avons présenté comme le versant négatif de la thèse sémantique de l’empirisme, qui veut qu’un énoncé ne soit doué de sens et vérifié que s’il peut être analysé en termes d’énoncés plus fondamentaux portant directement sur le contenu de l’expérience empirique, ou s’il peut être logiquement dérivé à partir de tels énoncés. Ces deux dogmes résultent, soutient Quine, d’un présupposé sémantique arbitraire, qui consiste à considérer que la signification et la vérité des énoncés sont toujours et exclusivement affaire de propriétés logico-linguistiques intangibles (par exemple le fait que certaines expressions soient synonymes, ce qui serait le cas dans les énoncés analytiques) et de relations avec les faits extra-linguistiques accessibles par la perception (dans le cas des énoncés synthétiques, notamment les énoncés d’observation directe).

a. Le dogme de l’analyticité

Telle qu’on la conçoit d’ordinaire, la distinction entre les énoncés analytiques et les énoncés synthétiques revient à affirmer qu’il existe une différence de nature entre deux classes d’énoncés : ceux qui sont toujours vrais, pour des raisons purement logiques et linguistiques, et que l’on pourrait paraphraser dans le métalangage comme des énoncés établissant un rapport d’identité, ou du moins de synonymie, entre deux expressions du langage-objet. Ainsi, l’énoncé « Un célibataire est une personne qui n’est pas mariée » n’est pas vrai en vertu d’un état de fait dans le monde, mais en vertu d’un fait linguistique, et de nature tout-à-fait conventionnelle, à savoir la signification que nous donnons dans le langage ordinaire aux expressions « célibataire » et « personne qui n’est pas mariée ». On pourrait alors paraphraser l’énoncé de départ sous la forme suivante :

« En français, ‘célibataire’ signifie ‘personne qui n’est pas mariée’. »

Par contraste, la vérité d’un énoncé synthétique n’a rien de nécessaire et n’est pas, ou du moins pas seulement, une affaire de convention linguistique : ce qui le rend vrai est un certain état du monde, qui peut s’actualiser ou non, de manière tout-à-fait indépendante de nous, de nos pensées et de notre langage.

L’objection de Quine, fortement influencé sur ce point par C. I. Lewis (voir Lewis, 1929), est que si les énoncés dits « analytiques » sont de nature métalinguistique, et affirment notamment des rapports de synonymie entre différentes expressions d’une langue donnée, cette synonymie elle-même est une affaire de relation entre les expressions en question, et ce à quoi elles sont censées référer dans le monde. Or cette relation-là n’a rien de nécessaire, comme en atteste le fait que certains termes changent parfois progressivement de sens. Ainsi, on pouvait peut-être considérer que « célibataire » et « personne qui n’est pas mariée » étaient synonymes en français, jusqu’au moment où le fait d’être marié n’a plus été la seule manière, pour les individus, de vivre en couple et d’être socialement et institutionnellement reconnus comme tels.

Ce que cet exemple met en lumière, c’est que l’analycité de certains énoncés est moins une question de vérité a priori, universelle et absolue, qu’une affaire de pratiques linguistiques et épistémologiques (voir Laugier, 2002). Considérer un énoncé comme analytique, c’est moins lui reconnaître une nature spécifique, en vertu de laquelle sa vérité serait indépendante de l’expérience, que :

  1. faire état de l’existence de certaines relations sémantiques et intralinguistiques telles que l’usage les a consacrées (certaines expressions linguistiques sont considérées comme synonymes, s’impliquant l’une l’autre, ou encore comme antonymes);
  2. manifester un très haut degré de confiance épistémique à l’égard du contenu de cet énoncé, et attribuer à la croyance correspondante une place dans notre économie cognitive qui la rend particulièrement robuste. Ainsi, nous tenons certaines croyances pour fondamentales, évidentes et indubitables, alors qu’elles ne le sont pas absolument.

Si on accorde ces deux points, il faut reconnaître qu’il n’y a, entre les énoncés analytiques et les énoncés synthétiques, qu’une différence de degré et non une différence de nature. Ce qui se trouve alors remis en question est le statut épistémologique privilégié que les empiristes logiques assignaient d’une part aux principes de la logique, et d’autre part aux énoncés d’observation directe. Comme on l’a vu plus haut, ces derniers jouaient un rôle de fondement pour la connaissance dans la mesure où, sans être analytiques ni a priori (puisqu’ils répondent directement à l’expérience sensible), ils étaient néanmoins toujours vrais ou immédiatement vérifiés en raison de leur seule signification. Or selon Quine, de tels énoncés ne sont en fait pas plus nécessairement vrais que n’importe quel autre énoncé synthétique du type « Les baleines sont des mammifères ». Si nous avons pourtant tendance à les considérer comme tels, c’est pour des raisons historiques et pragmatiques, c’est-à-dire fondamentalement contingentes. La preuve est en que dans certaines circonstances, nous n’hésitons pas à remettre ces énoncés d’observation directe en question, ou du moins à leur retirer toute ou partie de leur crédibilité. Par exemple, parce que nous savons qu’il s’agit d’une illusion d’optique, nous n’affirmerons pas qu’il y a un segment plus long que l’autre dans la figure de Müller-Lyer, quoi que cela nous puisse nous paraître perceptuellement « évident » au premier abord.

Sur le plan épistémologique, ceci a pour conséquence que l’empirisme, en particulier l’empirisme logique, se trompe quand il prétend fonder la science et justifier ses énoncés en s’appuyant sur la prétendue certitude que la sémantique des énoncés de la logique d’une part, et celle des énoncés d’observation directe d’autre part étaient censées assurer. Comme n’importe quel autre énoncé, les « vérités » logiques, tout comme les « évidences » perceptuelles, sont toujours susceptibles d’être remises en cause : il suffit pour cela qu’une telle remise en question nous paraisse justifiée, pour des raisons aussi bien pratiques que théoriques. Quine remarque cependant que nous avons une tendance naturelle au conservatisme et à l’inertie cognitive : nous ne renonçons que difficilement aux vérités et aux évidences longtemps entretenues, et de manière générale, tâchons au maximum de préserver celles que nous avons déjà et qui en supportent beaucoup d’autres. De là vient l’impression que certaines d’entre elles, par exemple les lois de la logique ou de la physique, sont immuables et échapperaient par principe à toute révision.

b. Le dogme réductionniste

Le second dogme que dénonce Quine est celui selon lequel un terme ou un énoncé n’ont de sens (et, dans le cas des énoncés, ne sont vérifiés ou infirmés) que si l’on peut les mettre en relation, de manière plus ou moins directe, avec des énoncés d’observation directe et, ce faisant, le contenu de l’expérience sensorielle immédiate. Comme nous l’avons vu, le statut spécifique qu’un auteur tel que Carnap – que Quine prend principalement pour cible dans cet article – attribue aux énoncés d’observation directe découle de l’idée selon laquelle ces énoncés pourraient être compris et vérifiés individuellement et immédiatement, par simple confrontation à l’expérience. Or il y a de bonnes raisons de douter de la validité de cet atomisme sémantique et épistémologique, c’est-à-dire de la thèse selon laquelle la signification et la vérité des énoncés d’observation pourrait être saisie par simple référence à l’état de choses observable qu’ils décrivent, indépendamment de la signification et de la vérité de tout autre énoncé. Faisant sur ce point explicitement référence aux travaux de Pierre Duhem sur les rapports entre théorie et expérience en physique (voir Duhem, 1906), Quine soutient en effet que, contrairement aux apparences, les énoncés d’observation ne sont jamais ni confirmés ni infirmés de manière individuelle, pris isolément ou indépendamment les uns des autres. Il y a en réalité bien d’autres choses que, consciemment ou non, nous faisons intervenir lorsque nous jugeons du rapport de correspondance entre un énoncé et l’expérience. Par exemple, nous mettons en jeu un certain nombre de croyances, ou présupposons la vérité d’un certain nombre d’autres énoncés, relatifs à la fiabilité de notre expérience et de l’interprétation que nous en faisons. Or ceci vaut également pour les énoncés d’observation directe.

Ce dernier point est particulièrement bien explicité par un contemporain de Quine, Wilfrid Sellars (1912-1989), dans un article également très critique contre l’empirisme (« Empirisme et philosophie de l’esprit »). Il y met en scène un vendeur de cravates dans la boutique duquel, à son insu, on installe un jour l’éclairage électrique. Alerté par l’un de ses clients, ce vendeur découvre alors qu’il n’est plus capable de distinguer correctement la couleur des étoffes. Ainsi, ce que spontanément il prenait pour du vert se révèle, une fois exposé à la lumière du jour, être bleu. Il fait alors désormais la distinction entre ce que les choses sont (leur « vraie » couleur, sous la lumière naturelle) et ce qu’elles semblent être (la couleur qu’elles ont sous la lumière artificielle). Avec un peu d’entraînement cependant, poursuit Sellars, nous pouvons raisonnablement penser que ce vendeur sera très vite capable d’identifier à nouveau correctement la couleur des cravates de son magasin, et tout aussi immédiatement qu’avant.

Ce qu’illustre cet exemple est le fait que quand nous formulons un énoncé d’observation directe comme « Ceci est vert », et que nous considérons que cet énoncé est immédiatement vrai étant donné l’expérience perceptuelle que nous sommes en train d’avoir, nous ne nous contentons pas de rapporter le contenu de notre expérience : nous partons du principe que celle-ci est véridique, c’est-à-dire que les conditions de perception sont telles que les choses sont bien telles qu’elles nous semblent l’être. Il n’y a ainsi rien de direct ou d’immédiat dans la confirmation d’un énoncé d’observation, quelle qu’en soit la simplicité apparente : cette immédiateté est un mythe, que Sellars appelle le « mythe du donné », et elle ne permet de justifier aucun contenu (voir sur ce point Bandini, 2012). Il rejoint en ce sens pleinement Duhem et Quine et défend comme eux un holisme à la fois sémantique et épistémologique. Cette double thèse consiste à soutenir que les énoncés n’ont jamais de sens ni de vérité les uns indépendamment des autres : leur signification comme leur vérification impliquent toujours celles d’autres énoncés « auxiliaires », en nombre indéfini. Dans le cas des énoncés de perception « directe » notamment, on fait ainsi toujours intervenir, au moins implicitement, des considérations relatives aux conditions de la perception et à sa fiabilité. C’est pourquoi Quine, contre le dogme réductionniste, soutient que « nos énoncés sur le monde extérieur sont jugés par le tribunal de l’expérience sensible, non pas individuellement, mais seulement collectivement. » (Quine, 1980 : 115).

Les travaux de Quine comme de Sellars porteront un coup fatal à l’entreprise sémantique et épistémologique initiée par les empiristes logiques. Tous deux mettent notamment en évidence qu’il est en fait vain de chercher à fonder la connaissance humaine sur une théorie de la signification des énoncés d’observation : la thèse sémantique de l’empirisme ne vaut finalement pas mieux que la thèse psychologique, dans la mesure où si l’on refuse, avec Quine, le dogme de l’analyticité et le dogme du réductionnisme, ou encore le « mythe du donné » dénoncé par Sellars, il faut alors renoncer à trouver dans la structure et la nature de la signification des énoncés (notamment d’observation) la garantie de leur vérité, et par conséquent, de leur valeur épistémologique. La menace du scepticisme refait alors naturellement surface.

6. L’empirisme réformé

Une bonne partie des débats qui entourent l’empirisme aujourd’hui visent moins à le rejeter qu’à le renouveler. Ceci apparaît clairement chez des auteurs comme Quine, Sellars, ou plus récemment John McDowell, Jim Pryor ou encore Duncan Pritchard. Au sein de la tradition analytique de la seconde moitié du 20ème siècle et du début du 21ème, le rejet d’un certain nombre des principes de l’empirisme (sous sa forme moderne, mais surtout sous celle que lui ont donnée les positivistes logiques) sert ainsi très souvent un objectif thérapeutique : il y s’agit moins de réfuter l’empirisme, et notamment l’idée selon laquelle l’expérience sensible est une composante essentielle pour la connaissance humaine, que de le sauver de ses propres errements.

Afin de présenter quelques-unes des principales discussions qui entourent l’empirisme dans l’épistémologie contemporaine, on propose de reprendre à nouveau les trois thèses (psychologique, épistémologique et sémantique) de l’empirisme telles qu’on les a définies au début de cet article.

a. Empirisme et épistémologie naturalisée

Une manière de défendre au moins minimalement la thèse épistémologique de l’empirisme consiste à affirmer que le statut et l’autorité épistémique spécifiques des croyances empiriques viennent fondamentalement du fait qu’elles sont le résultat de l’action causale de la réalité extérieure sur notre système perceptif et cognitif. Elles ne sont donc pas arbitraires, au sens où des représentations strictement imaginaires le sont.

Le philosophe à avoir peut-être le plus directement défendu une telle thèse et à l’avoir développée en détails est à nouveau W. V. O. Quine. Bien que très critique, comme on l’a vu, au sujet de l’empirisme logique, ce dernier n’en demeure pas moins convaincu que l’expérience constitue une instance importante de régulation rationnelle pour nos croyances en général et nos théories scientifiques en particulier. Leur succès, prises comme des touts, dépend en effet au moins en partie de leur capacité à fournir des prédictions empiriquement valables. On pourrait lui objecter qu’il échoue alors à fonder empiriquement l’empirisme, même sous une forme modeste, et qu’il présuppose au contraire ce qu’il s’agissait justement de démontrer : à savoir, par exemple, qu’il existe des connexions causales entre la réalité extérieure et nos croyances perceptives, assurant l’existence de relations de type nomologiques entre elles, et que nos croyances perceptives seraient au moins minimalement fiables.

Aux yeux d’un sympathisant du pragmatisme épistémologique tel que Quine cependant, une telle objection est irrecevable : elle nous contraint artificiellement à devoir chercher une fondation pour la certitude scientifique, qui serait finalement plus solide que la méthode scientifique elle-même. Nous n’aurions alors pas d’autre choix que celui de nous aventurer, comme le fit Descartes, sur le terrain glissant de la spéculation métaphysique. Jusqu’à présent cependant, nous ne disposons pas de meilleures méthodes que celles qu’exemplifient les sciences, notamment les sciences empiriques, et si la philosophie, ou en l’occurrence l’épistémologie, entendent faire œuvre de connaissance, il paraît parfaitement raisonnable de conclure qu’elles devraient suivre ce modèle.

À quoi renverrait alors une épistémologie empiriste et « scientifique » ? De fait, il est une science qui s’intéresse précisément aux phénomènes d’acquisition, de fixation et de révision des différents contenus et attitudes mentales que peut entretenir un individu, en lien avec son environnement et son comportement : il s’agit de la psychologique empirique, dans sa version béhavioriste, particulièrement en vogue au lendemain de la seconde guerre mondiale aux États-Unis. Rompant avec le paradigme de compréhension de la psychologie introspectionniste, ce courant, développé notamment par Gilbert Ryle en philosophie de l’esprit, propose de considérer l’esprit humain comme un objet naturel semblable aux autres, dont au moins certaines propriétés sont publiquement observables et peuvent, par conséquent, faire l’objet d’une enquête empirique et intersubjective. Une épistémologie « scientifique » se ramènerait donc à une psychologie empirique, suivant dans ses méthodes le modèle des sciences de la nature. Quine se propose en ce sens de « naturaliser » l’épistémologie empiriste (Quine, 2004).

Si on le suit, une épistémologie naturalisée a en effet le mérite de faire l’économie de toute spéculation concernant d’hypothétiques facultés de connaître a priori (« lumière naturelle », « formes a priori de l’entendement », « intuition pure », etc.), dont les opérations nous permettraient d’accéder à des contenus tout aussi hypothétiques, comme des entités abstraites, des « principes premiers », ou encore des lois universelles de la nature. La réflexion philosophique a priori sur les conditions de possibilité de la connaissance est ainsi écartée au profit d’une étude empirique stricte, qui ne tient compte que des phénomènes publiquement observables et s’efforce de décrire leurs relations et corrélations. L’idée est donc que l’on peut rendre compte de ces phénomènes naturels que sont la connaissance, depuis la croyance spontanée en l’existence d’un monde extérieur jusqu’aux théories de la physique et aux principes de la logique, en termes de simples corrélations entre certains stimuli (la stimulation de nos récepteurs sensoriels) et les réponses comportementales, notamment linguistiques et cognitives, auxquelles ceux-ci donnent lieu.

En ce sens, un énoncé d’observation tel que « Ceci est chaud » renvoie simplement à un comportement verbal socialement acquis et encouragé au sein d’une communauté linguistique donnée, lorsque se présentent les circonstances jugées appropriées (par exemple quand on plonge le pied dans un bain fumant). Croire de manière justifiée, ou même savoir que quelque chose est chaud, c’est donc être disposé à affirmer « c’est chaud » dans les circonstances appropriées, telles qu’elles sont définies culturellement, et même, selon les partisans de l’épistémologie dite « évolutionniste » (voir Campbell, 1997 ou Ruse, 1986), biologiquement par voie de sélection naturelle. Ceci vaudrait autant pour ce que nous appelons « sciences » que pour les croyances observationnelles ordinaires dont nous nous satisfaisons au quotidien.

L’approche naturaliste en épistémologie demeure donc empiriste, au sens où elle considère que c’est bien l’expérience, et plus précisément les stimulations de nos récepteurs sensoriels, qui constitue la source et la norme de toute activité et de tout contenu cognitif. Il n’y a alors plus de divorce entre l’empirisme comme thèse psychologique et l’empirisme comme thèse épistémologique : une croyance observationnelle (qu’elle soit celle de l’homme de la rue ou du scientifique devant ses instruments de mesure) est justifiée et peut servir à justifier d’autres croyances en vertu de son mode de formation, tant et aussi longtemps que celui-ci satisfait les critères de ce que la neurologie, la physiologie et le corps social considèrent comme étant un système perceptuel et cognitif « standard », fonctionnant « normalement » dans des circonstances « normales ».

On voit ainsi comment un empirisme réformé, tel que Quine veut le défendre, peut être conçu : le fait que l’expérience invalide les prévisions établies sur la base d’une théorie scientifique ne nous dit encore rien sur ce qui, dans la théorie prise comme un tout, voire dans l’ensemble de notre économie de croyances, devrait être corrigé. Peut-être s’agit-il d’une hypothèse en particulier, peut-être de nos critères de ce en quoi consiste une expérience valable, ou peut-être encore de notre conception des règles de la logique. Le fait que les théories soient toujours sous-déterminées par l’expérience ne signifie pas que celles-ci ne puissent pas être justifiées, en tout ou en partie, par l’expérience. En même temps que l’on renonce à la distinction entre énoncés analytiques et synthétiques, et au principe de l’atomisme à la fois épistémologique et sémantique, on se donne les moyens de penser un empirisme et, plus largement, une épistémologie modestes et volontiers pluralistes, qui ne prétendent plus nous garantir l’accès à des vérités absolues et « invincibles à tout le scepticisme » (car de telles choses sont en fait hors de notre portée), mais visent simplement une meilleure compréhension des phénomènes observables sur le plan intellectuel et une plus grande efficacité sur le plan pragmatique.

b. Le problème de la normativité de la connaissance

L’épistémologie naturalisée promue par Quine a cependant été, et est encore la cible de nombreuses critiques. On lui reproche notamment de ne plus rien avoir de philosophique, puisque, par principe, elle se limite à une enquête empirique portant sur les faits plutôt que sur les concepts, sur ce qui est plutôt que sur ce qui doit être : comment des créatures comme nous, telles du moins que nos meilleures théories scientifiques nous dépeignent, parviennent-elles à entretenir des croyances et des théories qu’elles jugent adéquates à propos du monde extérieur (compte tenu de ce que nos meilleures théories scientifiques décrivent également comme étant ce « monde extérieur ») ? Une telle épistémologie, réduite à la description des phénomènes perceptuels et cognitifs, ne serait pas « modeste » comme l’affirment ses partisans en y voyant une vertu : en réalité elle serait tout simplement vide, n’ayant rien offrir que la psychologie empirique ou les sciences cognitives ne sauraient dévoiler par leurs propres moyens. Aux yeux de ceux qui s’objectent ainsi à la naturalisation de l’épistémologie, il y a quelque chose dans la connaissance humaine, qui justifie une approche proprement philosophique et rend l’empirisme « psychologiste », si l’on peut dire, problématique sur le plan conceptuel : ses propriétés normatives. C’est notamment le cas de Wilfrid Sellars et de plusieurs de ceux qu’il a influencés. Sur ce point, il se sépare donc résolument de Quine.

L’argument que développe Sellars contre la tentation de sauver l’empirisme au moyen de sa naturalisation est exposé entre autres dans « Empirisme et philosophie de l’esprit » (1992) et « La philosophie et l’image scientifique de l’homme » (2002). Il repose sur une distinction fondamentale entre les causes (naturelles) et les raisons (normatives) qui peuvent nous conduire à connaître. Sellars est naturaliste dans la mesure où il considère que nos représentations mentales sont bien des faits naturels, que l’on peut correctement décrire dans le vocabulaire des neurosciences, comme effets de causes appliquées sur notre appareil perceptif et cognitif. Cependant, quand ce sont des occurrences de connaissance proprement dite que nous cherchons à décrire, nous ne pouvons pas nous satisfaire du seul cadre descriptif et causal. En effet, la connaissance, et de manière générale tous les états cognitifs, ne sont pas des phénomènes autorégulés comme peuvent l’être la digestion ou la régulation de notre température interne. Ils relèvent, selon Sellars, d’un espace logique et conceptuel spécifique, irréductiblement normatif, qu’il appelle « l’espace logique des raisons » (par contraste avec « l’espace logique des causes »).

Pour le mettre en évidence, Sellars nous invite à nous intéresser à la grammaire – au sens wittgensteinien – de nos énoncés d’attribution de connaissances. Que faisons-nous exactement lorsque nous jugeons que quelqu’un sait quelque chose ? Certes, nous visons à décrire l’état mental dans lequel, en nous fondant sur son comportement observable, nous inférons que cette personne se trouve (savoir, douter, ou encore ignorer quelque chose). Mais ce n’est pas tout : en lui attribuant une connaissance, nous lui reconnaissons immédiatement un certain nombre d’aptitudes et de compétences, de droits, de devoirs ou encore d’interdictions, vis-à-vis de lui-même et d’autrui. Par exemple, considérer qu’une personne X sait où se trouve la gare SNCF, c’est implicitement s’attendre à ce qu’elle nous réponde correctement si nous lui posons la question, et qu’elle soit même capable de justifier ce qu’elle affirme si nous avons un doute (elle sait où se trouve la gare parce qu’elle en vient justement, ou a un plan de la ville sur son téléphone portable). Nous nous attendons également à ce qu’elle soit capable de réaliser certaines inférences et raisonnements (« Si la gare est hors de la ville, alors on ne peut y aller à pieds et il vaut mieux s’y rendre en taxi »), et qu’elle s’en interdise d’autres (« Si la gare est à tel endroit, alors la France gagnera la coupe du monde de rugby cette année »). Enfin, nous nous attendons aussi à ce qu’elle réalise certaines actions plutôt que d’autres (aller vers la gare plutôt que vers le port si elle a un train à prendre). D’après Sellars, c’est l’ensemble de ces obligations et interdictions, relatives à ce que le sujet est supposé penser, dire et faire, qui constituent sur un mode fonctionnaliste ce que c’est qu’une connaissance, bien plus que la nature des processus cognitifs et neurologiques qui sont alors impliqués.

Cette réflexion sur nos énoncés d’attribution de connaissance du type « X sait que p » (où X peut aussi bien une autre personne que nous-même) met en évidence que ces énoncés ne sont descriptifs qu’en surface : en réalité, ils sont évaluatifs. C’est pourquoi, notamment, on aura spontanément du mal à dire que quelqu’un sait quelque chose si cette chose se trouve être fausse, ou encore s’il s’avère incapable de donner les raisons qu’il a de croire que cette chose est vraie. Cette dimension évaluative correspond à ce que, dans l’épistémologie contemporaine, on appelle la responsabilité épistémique et signale que la connaissance est une question de droit, plus encore que de fait. Plusieurs auteurs contemporains, influencés par les arguments de Sellars – Donald Davidson, 1986 ; Richard Rorty, 2017 ; Robert Brandom, 2009 ; John McDowell, 2007 ; Ernst Sosa, 1991 – défendent en ce sens une position normativiste en épistémologie et se montrent très critiques à l’égard de tout projet de naturalisation de l’épistémologie, en vertu de l’argument selon lequel on ne saurait, en principe, ni expliquer ni définir correctement des phénomènes normatifs tels que ceux de la connaissance, la justification ou encore la responsabilité épistémique, dans les termes d’un discours strictement descriptif, en l’occurrence celui des théories scientifiques dont nous disposons par ailleurs, concernant la perception et la cognition humaines. Rendre compte de la normativité de la connaissance humaine constitue en ce sens un nouveau défi pour l’empirisme.

De fait, les philosophes contemporains qui soutiennent l’empirisme et le naturalisme en théorie de la connaissance reconnaissent sans ambages le caractère normatif des phénomènes cognitifs (par exemple Kim, 2010 ; Goldman : 2005). Ce qu’ils contestent en revanche est qu’il faille nécessairement, pour l’expliquer, accepter de poser l’existence de faits ou de propriétés normatifs irréductibles et « surnaturels » au sens où l’on ne pourrait d’aucune façon les mettre en rapport avec ce qu’on appelle d’ordinaire les phénomènes naturels, localisés dans le temps et l’espace et directement ou indirectement publiquement observables. L’empirisme demeure ainsi une option épistémologique séduisante voire, comme l’affirme John McDowell (2007), tout bonnement irrésistible : de fait, les philosophes qui soutiennent aujourd’hui encore qu’il existe de la connaissance a priori au sens fort sont très minoritaires (on peut mentionner l’exception de Carrie Jenkins, dans Jenkins 2008). En revanche, le débat demeure vif quand il s’agit d’expliquer comment il est possible de rendre compte des aspects normatifs de la connaissance et de la justification au sein d’une épistémologie empiriste. Bien que cela soit source de tensions importantes dans son œuvre, c’est ce que Sellars s’est efforcé de faire (voir O’Shea, 2007), et à sa suite John McDowell.

c. Empirisme, internalisme et externalisme de la justification

Dans une large mesure, les débats que nous avons présentés ici ont été tranchés en faveur de l’empirisme, au sens où aucun épistémologue ne serait sans doute aujourd’hui prêt à nier que l’expérience perceptuelle joue bien un rôle dans la constitution de la connaissance ou de la signification de nos énoncés. Il demeure néanmoins que plusieurs des difficultés que nous avons identifiées sont encore loin d’avoir été surmontées, en particulier pour ce qui concerne la force normative – ou autorité épistémique – que tout le monde semble s’accorder à reconnaître à l’expérience perceptuelle. C’est en effet ce problème qui se trouve encore au cœur des discussions contemporaines qui opposent les partisans de l’internalisme à ceux de l’externalisme fiabiliste en théorie de la justification (voir sur ce point Meylan : 2015).

Pour le présenter grossièrement, l’externalisme fiabiliste est la thèse selon laquelle il faut et il suffit, pour qu’une croyance soit justifiée et puisse être reconnue comme telle, qu’elle ait été adoptée ou soit entretenue en vertu d’un processus causal perceptuel et cognitif fiable. Autrement dit, pour pouvoir affirmer être justifié à croire, ou même savoir, que quelque chose est le cas, il n’est pas nécessaire qu’un sujet ait accès, ou même puisse avoir accès, aux raisons qu’il pourrait avoir de le croire. On peut donc en ce sens parfaitement savoir quelque chose, sans être capable de le justifier. Un exemple caractéristique de ce type de situation, pris pour cible par R. Brandom (2009) est celui des trieurs de poussins, qui savent immédiatement distinguer les mâles des femelles en les regardant, sans y réfléchir, ni pouvoir expliquer comment ils y parviennent : le fait est qu’ils ne commettent néanmoins que très peu d’erreurs et il paraît difficile de ne pas reconnaître qu’ils savent ce qu’ils font. La justification des croyances, dans ce type de cas, repose clairement sur la fiabilité des processus perceptuels et cognitifs qui président à leur formation.

Contre cette approche externaliste et volontiers naturaliste de la justification, assez proche d’un empirisme à la fois psychologique et épistémologique, les partisans de l’internalisme objectent, dans la lignée de Sellars et Davidson, que pour considérer le contenu d’une expérience perceptuelle comme justifiant une croyance, il faut d’abord la reconnaître comme fiable, et donc savoir que l’on est soi-même un agent épistémique normal, et que les conditions de perception sont également normales – ce qui excède de loin le contenu de la seule expérience en question. Cela a cependant pour conséquence que pour de tels philosophes, seuls les êtres humains d’un certain âge (et pas, par exemple les très jeunes enfants), et peut-être certains animaux susceptibles de maîtriser des concepts ou des proto-concepts, peuvent être reconnus comme ayant des croyances justifiées et des connaissances (voir Steup 1999, 2001 ; Sosa 2003 ; Brandom 2009, 2010). Par contraste, pour les partisans de l’externalisme, il n’y a aucune objection à considérer que des animaux « savent » ou sont « justifiés à croire » certaines choses. Sur ce point encore les données de sciences empiriques telles que l’éthologie, la psychologie du développement ou la paléoanthropologie semblent leur donner raison.

L’externalisme en théorie de la justification, et avec lui l’empirisme épistémologique, sont sans aucun doute les options aujourd’hui les plus populaires, et celles qui rendent également le mieux compte des avancées des sciences cognitives. Nous espérons avoir cependant mis en évidence que sur le plan philosophique elles demeurent toujours questionnables : si elles permettent de saisir en quel sens la perception peut fournir des croyances fiables et dont on peut, au moins prima facie, présumer qu’elles sont à la fois vraies et justifiées, elles échouent toujours, en revanche, à offrir une explication satisfaisante de nos pratiques épistémologiques normatives, et pour lesquelles c’est moins la vérité ou la fiabilité des croyances en elles-mêmes que la responsabilité épistémique individuelle et sociale du sujet qui les entretient qui importe (voir par exemple Peels : 2017).


Bibliographie

Ayers, Michael : Locke : Epistemology and Ontology, New York, Routledge, 1993.

Bacon, Francis : Novum Organon, trad. M. Malherbe et J.-M. Pousseur, Paris, Presses Universitaires de France, (1620) 1986.

Bandini, Aude : Wilfrid Sellars et le Mythe du Donné, Paris : Presses Universitaires de France, 2012.

Berkeley, George : Trois dialogues entre Hylas et Philonous, G. Brykman et R. Dégremont (trad.), Paris, GF-Flammarion, 1998.

Berkeley, George : Principes de la connaissance humaine, trad. D. Berlioz, Paris, G-F Flammarion, (1710) 1991.

Bernard, Claude : Introduction à l’étude de la méthode expérimentale, Paris, G-F Flammarion, 1966.

Brandom, Robert : L’articulation des raisons : introduction à l’inférentialisme, trad. J.-P. Cometti et C. Tiercelin, Paris, Cerf, 2009.

Brandom, Robert : « How Analytic Philosophy Has Failed Cognitive Science », in Reason in Philosophy : Animating Ideas, Cambridge, Harvard University Press, 2009, pp. 197-226.

Brandom, Robert : Rendre explicite : Raisonnement, représentation et engagement discursif, I. Thomas-Fogiel (éd.), Paris, Cerf, 2010.

Campbell, Donald T. : « From Evolutionary Epistemology Via Selection Theory to a Sociology of Scientific Validity » in Cecilia Heyes and Barbara Frankel (eds.), Evolution and Cognition, 3 (1), 1997, pp. 5-38.

Carnap, Rudolf : La construction logique du monde, trad. Th. Rivain, introduction et révision par E. Schwartz, Paris, Vrin, (1928) 2002.

Carnap, Rudolf : « Le dépassement de la métaphysique par l’analyse logique du langage », in A. Soulez (éd.), Manifeste du Cercle de Vienne et autres écrits, Paris, Vrin, (1932) 2010, p. 149-171.

Condillac, Étienne Bonnot de : Traité des sensations, Paris, Fayard, 1984.

Condillac, Étienne Bonnot de : Essai sur l’origine des connaissances humaines, Paris, Vrin, 2014.

Charrak, André : Empirisme et théorie de la connaissance, Vrin, Paris, 2009.

Chisholm, Roderick : Perceiving: A Philosophical Study, Ithaca: Cornell University Press, 1957.

Chisholm Roderick : Theory of Knowledge, Englewood Cliffs, N.J. : Prentice Hall, (1966 1rst ed.), 1989.

Cranefiel, Paul : “On the Origin of the Phrase Nihil est in Intellectu”, Journal of the History of Medicine and the Allied Sciences, vol. 25, 1970, pp. 77-80.

Davidson, Donald : « A Coherence Theory of Truth and Knowledge », in Ernest LePore (ed.), Truth and Interpretation: Perspectives on the Philosophy of Donald Davidson, Oxford: Blackwell, 1986, pp. 307-319.

Dummett, Michael, Les origines de la philosophie analytique, trad. Marie-Anne Lescouret, Paris, Gallimard, 1991.

Duschesneau, François : « L’empirisme de Locke », Archives internationales d’histoire des idées, 57. La Haye: M. Nijhoff, 1973.

Frege, Gottlob : « Sens et dénotation », in Écrits logiques et philosophiques, trad. C. Imbert, Paris, Seuil, 1994.

Galien : Œuvres anatomiques, physiologique et médicales, trad. C. Daremberg, Paris : J.-B. Baillière, 1854-1856.

Goldman, Alvin : “A Causal Theory of Knowing.” The Journal of Philosophy 64, 1967, pp. 357-372.

Goldman, Alvin : « Qu’est-ce qu’une croyance justifiée? » in J. Dutant et P. Engel (éd.), Philosophie de la connaissance, Paris, Vrin, 2005, pp. 187-220.

Goldman, Alvin: Epistemology and Cognition, Cambridge, Harvard University Press, 1986.

Howick, Jeremy: “Aulus Cornelius Celsus and ‘empirical’ and ‘dogmatic’ medicine, Journal of the Royal Society of Medicine, vol. 109 (11), 2016, pp. 426-430.

Hume, David : Traité de la nature humaine I, trad. P. Saltel, G-F Flammarion, 1999.

Hume, David : Enquête sur l’entendement humain, trad. A. Leroy, G-F Flammarion, 2006.

Jenkins, Carrie : Grounding Concepts: An Empirical Basis for Arithmetical Knowledge, Oxford, Oxford University Press, 2008.

Kim, Jaegwon : Philosophie de l’esprit, trad. M. Mulcey (dir.), Paris, Ithaque, 2010.

Laugier, Sandra : L’anthropologie logique de Quine, Paris, Vrin, 2002.

Leibniz, Gottfried W. : Nouveaux Essais sur l’entendement humain, Paris, G-F Flammarion, 1993.

Lewis, Clarence I. : Mind and the World Order, New-York, Dover, 1929.

Locke, John, Essai sur l’entendement humain, Livre I et II ; trad. J.-M. Vienne, Paris, Vrin, 2001.

Locke, John, Essai sur l’entendement humain, Livres III et IV; trad. J.-M. Vienne, Paris, Vrin, 2006.

Meylan, Anne, Qu’est-ce que la justification? Paris, Vrin, 2015.

Moore, G. E. : « A Defense of Common Sense », Contemporary British Philosophy, ed. J. H. Muirhead, Allen & Unwin, London : 1925 ; p. 192-233.

Moore, G. E. : « Proof of an External World », Proceedings of the British Academy 25 (1939), p. 273-300.

Norton, David N. : « The Myth of ‘British Empiricism’ », History of European Ideas, Vol. 1, No 4, 1981, p. 331-344.

McDowell, John : L’esprit et le monde, trad. Alsaleh, Paris, Vrin, 2007.

McDowell, John : « Avoiding the Myth of the Given », in Having the World in View : Essays on Kant, Hegel and Sellars, Cambridge : Harvard University Press, 2009, pp. 256-272.

Peels, Rik : Responsible Belief, New York, Oxford University Press, 2017.

Pomata, Gianna : « A Word of the Empirics : the ancient concept of observation and its recovery in early modern medicine », Annals of Science, vol. 68, n° 3, July 2011, pp. 1-25.

Quine, W. V. O. : “Les deux dogmes de l’empirisme”, in P. Jacob, De Vienne à Cambridge – L’héritage du positivisme logique, Paris, Gallimard, 1980, pp. 93-105.

Quine, W. V. O. : « L’épistémologie naturalisée », in S. Laugier et P. Wagner (dir.), Philosophie des sciences, vol. 2, Paris, Vrin, 2004.

Rorty, Richard : La philosophie et le miroir de la nature, trad. T. Marchaisse, Paris, Seuil, (1979) 2017.

Ruse, Michael : Taking Darwin Seriously : A Naturalistic Approach to Philosophy, Oxford : Blackwell, 1986.

Russell, Bertrand : « Le réalisme analytique », Bulletin de la Société Française de Philosophie, vol. 11 : 53, 1911, pp. 3-11.

Russell, Bertrand : Problèmes de philosophie, trad. François Rivenc, Paris, Payot, (1912) 1989.

Russell, Bertrand : Introduction à la philosophie des mathématiques, trad. F. Rivenc, Paris, Payot, 1991.

Sellars, Wilfrid : Empirisme et philosophie de l’esprit : trad. Fabien Cayla, Paris, éditions de l’Éclat, 1992.

Sellars, Wilfrid : « La philosophie et l’image scientifique de l’homme », in D. Fisette et P. Poirier (éd.) Philosophie de l’esprit I, Paris, Vrin.

Schlick, Moritz : Forme et contenu, trad. D. Chapuis-Schmitz, Marseille, Agone, (1932) 2003.

Sosa, Ernst : “Knowledge and intellectual virtue” in Knowledge in Perspective: Selected Essays in Epistemology. New York: Cambridge University Press, 1991, pp. 225-244.

Sosa, Ernst : “Are There Two Grades of Knowledge”, Aristotelian Society Supplementary Volume, Vol. 77, Issue 1, 2003, pp. 113-130.

Steup, Mathias : “A Defense of Internalism” in The Theory of Knowledge : Classical and Contemporary Readings, 2nd ed. Belmont, CA: Wadsworth, 1999, pp. 373-84.

Steup, Mathias : “Epistemic Duty, Evidence, and Internality” in Knowledge, Truth, and Duty, New York: Oxford University Press, 2001.

Williams, Michael : Unatural Doubts : Epistemological Realism and the Basis of Skepticism, Princeton: Princeton University Press, 1996.

Williams, Michael : Groundless Belief : An Essay on the Possibility of Epistemology, 2d edition, Princeton University Press, 1999.

Waldow, Anik : “Empiricism and its Roots in the Ancient Medical Tradition” in C. T. Wolfe and O. Gals (eds.), The Body as Object and Instrument of Knowledge: Embodied Empiricism in Early Modern Science, New-York, Srpinger, 2010, pp. 287-308.

Woolhouse, Roger S. : The Empiricists, New York, Oxford University Press, Oxford, 1988.

Wittgenstein, Ludwig : Tractatus Logico-Philosophicus, trad. G. G. Granger, Gallimard, 2001.

Wright, C. and Davies, M. : “On Epistemic Entitlement”, Proceedings of the Aristotelian Society, Supplementary Volumes, Vol. 78 (2004), pp. 167-245


Aude Bandini
Université de Montréal
aude.bandini@umontreal.ca


Comment citer cet article ?
Bandini, A. (2018), « Empirisme », version Grand Public, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL : http://encyclo-philo.fr/empirisme-a/

By admin

Carnap (A)

Publié en janvier 2018

Résumé

Carnap (1891-1970) est connu comme l’un des grands philosophes des sciences du xxe siècle, l’une des figures majeures de la philosophie analytique et de la philosophie du langage, ainsi que l’un des principaux représentants du Cercle de Vienne et de l’empirisme logique. Après avoir connu l’atmosphère intellectuelle d’Iéna, de Vienne puis de Prague jusqu’en 1935, ce philosophe allemand émigra aux États-Unis où il devint professeur à Chicago et citoyen américain avant de poursuivre sa carrière à Princeton et à Los Angeles.

Une vaste entreprise de relecture et d’étude de ses œuvres, engagée depuis le début des années quatre-vingt-dix, a corrigé l’image caricaturale de sa philosophie qui a longtemps prévalu. De nouvelles interprétations ont été proposées, notamment de La construction logique du monde (1928) et de la Syntaxe logique du langage (1934). On connaît mieux aujourd’hui son parcours philosophique, du néokantisme des premières années aux recherches sur la logique inductive en passant par l’empirisme de la période viennoise, et l’on comprend davantage les enjeux et le sens du principe de tolérance, du pluralisme logique, de la méthode d’explication conceptuelle ou encore des modèles d’une théorie scientifique tels que Carnap les concevait.

Carnap est aujourd’hui une référence majeure pour un grand nombre de questions de philosophie contemporaine : sur le réalisme et l’anti-réalisme en philosophie des sciences, sur le conventionnalisme, la caractérisation de l’empirisme, le problème de la confirmation, l’analyticité, la logicité, les questions d’engagement ontologique ou encore l’unité de la science. Les interactions intellectuelles ou débats qu’il a pu avoir avec Frege, Russell, Wittgenstein, Neurath, Schlick, Quine, Popper, Tarski, Gödel, Sellars, Hempel, Strawson, Goodman et bien d’autres contribuent également à faire de Carnap l’une des figures majeures de la philosophie du xxe siècle.


Table des matières

1. Biographie

2. Une philosophie scientifique engagée

3. La thèse sur l’espace (1921) : une contribution à la théorie de la science

4. Les enjeux épistémologiques de l’Aufbau (1928)

5. Philosophie et langage : méthode syntaxique et pluralisme logique

6. Le tournant sémantique et la recherche de nouvelles méthodes

7. Le projet de logique inductive et l’interprétation logique des probabilités

8. La reconstruction rationnelle des théories scientifiques

9. Empirisme, sémantique et ontologie

10. En quels sens les énoncés mathématiques pourraient-ils être analytiques ?

11. La méthode de l’explication conceptuelle et la fonction des langues construites

12. Carnap et la philosophie contemporaine


Carnap est né le 18 mai 1891 à Ronsdorf, ville autonome de l’Empire allemand devenue, en 1929, une partie de Wuppertal. De 1910 à 1914 il étudie les mathématiques, la physique et la philosophie à l’université d’Iéna, où il suit notamment des cours de Gottlob Frege, d’Herman Nohl et du néokantien Bruno Bauch, son futur directeur de thèse. À cette époque, il participe activement aux activités du « Sera-Kreis », version locale du Mouvement allemand de la jeunesse (Jugendbewegung) où l’on prônait un état d’esprit authentique et sincère, des valeurs proches de la nature et du peuple, opposées à la morale et aux conventions bourgeoises traditionnelles (Bouveresse 2011).

Il s’enrôle dans l’armée en 1914 et combat au front. Blessé en 1916, il est envoyé à Berlin en 1917 où il a l’occasion de suivre des conférences d’Einstein sur la théorie de la relativité. C’est à Berlin qu’il forme ses premières réflexions politiques et en 1918, il s’engage dans le parti social-démocrate indépendant (USPD) qui prend position contre la poursuite du conflit. Il écrit plusieurs articles sur la responsabilité des intellectuels dans la guerre et leur rôle dans la reconstruction de la société. La même année, il épouse Elisabeth Schöndube dont il aura quatre enfants, entre 1918 et 1923. Résidant alors près de Fribourg-en-Brisgau (à l’époque où Husserl y est professeur), il poursuit ses études à l’université d’Iéna où il soutient en 1921 une thèse intitulée L’Espace, une contribution à la théorie de la science, publiée en 1922 dans un supplément de la revue néokantienne Kant-Studien. En 1923, il organise avec Reichenbach, à Erlangen, une conférence où sont discutées les méthodes exactes en science et en philosophie ainsi que l’idée de philosophie scientifique. Plusieurs articles de philosophie de la physique paraissent entre 1923 et 1926, ainsi qu’un ouvrage sur la formation des concepts, Physikalische Begriffsbildung.

En 1926, il s’installe à Vienne où il soutient une habilitation sous la direction de Moritz Schlick, ce qui lui permet d’enseigner à l’université comme privatdocent. Il participe aux réunions du Cercle de Vienne, lieu de débats que fréquentent également Schlick (son fondateur), Neurath, Frank, Waismann, Hahn, Feigl, Kraft ou encore Karl Menger et Kurt Gödel, l’un et l’autre élèves de Hahn. En 1928 paraît La construction logique du monde, dont la plus grande partie avait été rédigée dès 1925. De 1927 à 1930, Carnap est engagé dans une recherche sur l’axiomatique générale et la complétude des systèmes d’axiomes (Carnap 2000) et en 1928-1929, Gödel suit l’un de ses cours sur les fondements de l’arithmétique. En 1930, la rencontre avec Tarski, en visite à Vienne, est décisive pour la suite de ses travaux de logique, notamment sur la distinction entre langage et métalangage. Séparé de son épouse dès 1925, divorcé en 1929, il se remarie avec Ina Stöger en 1931.

À partir de l’automne de la même année, il occupe un poste de professeur à l’université allemande de Prague et de 1931 à 1933, il se consacre à la rédaction de la Syntaxe logique du langage qui paraît en 1934. À partir du début des années trente, après la parution du Manifeste du Cercle de Vienne (publié anonymement mais dont Carnap, Hahn et Neurath sont coauteurs) les idées débattues à Vienne, Prague et Berlin au sein de cercles philosophiques restreints commencent à connaître une plus large diffusion du fait de la publication de livres et d’articles (notamment dans la revue Erkenntnis créée en 1930) et l’organisation de colloques. Ce mouvement philosophique nouveau, qui amorce également peu à peu une phase d’internationalisation, sera bientôt connu sous le nom d’ « empirisme logique » (ou de positivisme logique ; cf. article Positivisme logique), terme qui regroupe en réalité des conceptions philosophiques variées, objets de débats, parfois virulents, y compris entre ses principaux protagonistes (Bonnet et Wagner 2006, Uebel 2007). Les divergences portent sur la caractérisation d’un empirisme cohérent, les modalités d’une critique de la métaphysique, les fonctions de l’analyse logique du langage, les fondements de la connaissance, ou encore les usages du Tractatus logico-philosophicus de Wittgenstein, dont la lecture suscite des réactions variées, rarement l’indifférence. Au milieu des années trente, Carnap prend connaissance des travaux de Tarski sur le prédicat de vérité dans les langues formalisées et il adopte une méthode sémantique, sévèrement critiquée par Neurath qui croit pouvoir déceler dans cette évolution le retour insidieux de concepts métaphysiques que l’empirisme devrait proscrire. En décembre 1935, Carnap émigre aux États-Unis où il réussit à obtenir un poste de professeur à l’université de Chicago et où commence une nouvelle phase de sa carrière philosophique.

Le long article Testabilité et signification, premier grand texte de Carnap rédigé en anglais, paraît dans la revue Philosophy of science en 1936 et 1937. Invité à l’université de Harvard en 1940-1941, il a d’importantes discussions avec Quine, Russell, Tarski et d’autres sur la sémantique, le finitisme et les mathématiques (Frost-Arnold 2013). Carnap devient citoyen américain en 1941. L’Introduction à la sémantique paraît en 1942, Formalisation de la logique en 1943. Dans les années quarante, il s’engage dans un vaste projet de logique inductive qui l’occupera jusqu’à la fin de sa vie, c’est-à-dire pendant près de trente ans. Il publie également d’importants travaux en logique modale et s’intéresse ultérieurement à la constitution d’une logique du sens. Signification et nécessité paraît en 1947, Les Fondements logiques de la probabilité en 1950, la même année que l’article « Empirisme, sémantique et ontologie ». De 1952 à 1954, il travaille à l’Institut d’étude avancée de Princeton où la rencontre de John Kemeny est l’occasion d’une fructueuse collaboration sur des questions de logique inductive. À cette époque, il travaille également sur l’idée d’une sémantique fondée sur le concept d’entropie (Carnap 1977).

En 1954, Carnap prend la succession de Reichenbach à l’université de Los Angeles (UCLA) où sa carrière de professeur s’achève officiellement en 1961 bien qu’il poursuive au-delà de cette date son activité d’enseignement. Son épouse Ina se suicide en 1964. En 1966 paraissent Les fondements philosophiques de la physique. Une introduction à la philosophie des sciences, notes de cours prises par Martin Gardner. Carnap décède le 14 septembre 1970 à Santa Monica, âgé de soixante-dix-neuf ans.

La pensée de Carnap est indissociable du style philosophique adopté dans le Cercle de Vienne, dont des membres, de formations scientifiques diverses (les uns sont mathématiciens, les autres physiciens, économistes, sociologues, logiciens, historiens…), se réunissent pour discuter de questions diverses, mais plus particulièrement celles qui touchent à la philosophie, aux sciences et à la connaissance. Leur conception argumentative de la pensée, ouverte aux échanges et aux débats, aux antipodes de l’expression toute personnelle d’une intuition propre au génie d’un philosophe visionnaire, est plus inspirée de la tradition des Lumières que de celle des bâtisseurs de systèmes, et davantage fondée sur la discussion critique de questions philosophiques précises que sur l’étude scrupuleuse et respectueuse des grands auteurs du passé. À l’idée de « vision du monde » (Weltanschauung) est substituée celle d’une « conception scientifique du monde », expression qui forme le titre original (Wissenschafliche Weltauffassung. Der Wiener Kreis) de la brochure militante connue sous le titre de « Manifeste du Cercle de Vienne ». Dans la préface de La construction du monde, Carnap décrit l’esprit qui anime cet ouvrage comme celui d’une entreprise collective née du contact étroit avec les scientifiques, faite de « rigueur » et de « sens des responsabilités », éloignée des inspirations poétiques et des recherches stylistiques (Carnap 1928/2002, 54-55). Carnap se sent pleinement en accord avec Russell lorsque celui-ci appelle de ses vœux, pour les philosophes du futur, une formation scientifique et des intérêts philosophiques qui ne soient pas « entravés par les traditions du passé » ni « égarés par les méthodes littéraires de ceux qui imitent les anciens en tout excepté leurs mérites » (Carnap 1963, 13).

Pour autant, la philosophie de Carnap est à mille lieux de celle qu’on décrit parfois comme étroitement technique et détachée des questions relatives à la vie. Bien qu’il ait peu écrit sur la question des valeurs (cf. néanmoins Carnap 1934c ; Carnap 1963a, 999-1013 ; Carnap 2017) et bien que les membres du Cercle du Vienne aient été peu enclins à rendre publics leurs débats politiques, le Manifeste met clairement en évidence le sens éthiquement, socialement et politiquement engagé que les protagonistes du Cercle donnaient à leur idéal d’une philosophie scientifique. Quant à Carnap, l’éducation qu’il reçoit au sein d’une famille d’origine protestante, profondément empreinte des valeurs de tolérance et de respect, sa participation enthousiaste aux activités du Sera-Kreis, aussi bien que ses réflexions sur la responsabilité des clercs dans la catastrophe de la Grande Guerre et dans la reconstruction de la société le conduisent à juger indispensable un travail intellectuel capable de renouveler la pensée et d’éclairer les décisions, individuelles ou collectives. « Les besoins de l’âme, nous les connaissons aussi en philosophie, mais cela doit conduire à la clarté des concepts, la netteté des méthodes, à des thèses dont on peut répondre, à l’efficience, fruit d’un travail collectif au sein duquel l’individu a sa place. » (Carnap 1928/2002, 55) Il ne s’agit certes pas pour lui de chercher à constituer une science des valeurs, à laquelle il ne crut jamais. Il n’en reste pas moins que le travail de clarification conceptuel qu’il entreprend dans les années vingt est explicitement articulé à une dimension pratique. La philosophie scientifique au sens où Carnap l’entend est donc aux antipodes d’une philosophie neutre, non engagée, purement spéculative ou servilement soumise au développement de la science.

Il est question, dans la préface de La construction logique du monde, d’une « intime parenté » entre le travail intellectuel qui s’y déploie et une « attitude spirituelle » perceptible « dans des courants artistiques, en architecture notamment, et dans les mouvements qui s’attachent à donner à la vie humaine une forme rationnelle : à la vie personnelle et collective, à l’éducation, en somme à ce qui règle la vie extérieure » (ibid.). Les aspirations de Carnap, dans cet ouvrage, sont clairement apparentées aux recherches modernistes du Bauhaus de Dessau (où il donne du reste une conférence sur la science et la vie en 1929) et à l’esthétique de la « nouvelle objectivité » (Neue Sachlichkeit) par la recherche d’une forme de vie moderne. Le Manifeste du Cercle de Vienne décrit également l’idéal d’une « réforme consciente de la vie » (bewusste Lebensgestaltung), à laquelle participe très concrètement l’Association Ernst Mach (Verein Ernst Mach) fondée en 1929 et à laquelle appartiennent Schlick, Hahn, Neurath, Carnap… Si l’objectif initial de cette association est de diffuser les idées de la pensée scientifique par des cours et des conférences publics, elle finit par promouvoir la conception scientifique du monde élaborée au sein du Cercle de Vienne, formant un mouvement d’émancipation et d’éducation des adultes. Cela passe également par la critique d’une certaine métaphysique, que le Manifeste du Cercle de Vienne associe à la théologie et à des modes de pensée réactionnaires qu’il s’agit de combattre. Quant à la méthode d’analyse logique du langage et les recherches sur un cadre linguistique de base que Carnap développe à partir des années trente, elles dépassent de loin la dimension strictement épistémologique et participent elles aussi d’une volonté de réforme moderniste et de la promotion d’un « humanisme scientifique » (Carnap 1963, 83). Si l’on en croit ce qui est relaté dans l’« Autobiographie intellectuelle », les membres du Cercle de Vienne partageaient tous l’opinion selon laquelle « l’humanité est capable de changer les conditions de vie d’une manière telle que bien des souffrances d’aujourd’hui peuvent être évitées et que la situation externe et interne, pour l’individu, la communauté, et enfin l’humanité se trouvera essentiellement améliorée. » Ils estimaient également que « la méthode scientifique est la meilleure méthode pour l’acquisition de la connaissance et qu’en conséquence, la science doit être considérée comme l’un des plus précieux instruments pour l’amélioration de la vie » (ibid.).

Les raisons ne manquaient pas, en 1920, de s’engager dans une recherche doctorale sur l’espace, surtout pour un étudiant qui, comme Carnap, avait reçu une formation universitaire en mathématiques, en physique et en philosophie. Les mathématiques du xixe siècle avaient en effet si radicalement transformé la géométrie héritée d’Euclide et de Descartes qu’il était devenu difficile de dire précisément quels étaient ses objets, ses limites et ses domaines d’application. En outre, la théorie de la relativité d’Einstein, récemment confirmée par les expériences d’Eddington, avait profondément remis en question les relations entre géométrie et expérience et entre espace et théorie physique. Enfin, les philosophes se demandaient si la découverte d’une pluralité de géométries non euclidiennes remettait en question la théorie kantienne de l’espace comme forme a priori de la sensibilité et quelle était, en définitive, la structure de l’espace réel.

Au regard des solutions mutuellement incompatibles que proposaient les théoriciens de l’espace, qu’ils fussent mathématiciens, physiciens ou philosophes, Carnap jugeait indispensable de distinguer plusieurs significations de l’espace. Les trois premières parties de sa thèse sont consacrées aux expositions respectives de ce qu’il entend par espace formel (un système relationnel purement logique et abstrait), espace de l’intuition (ce dernier terme étant pris au sens husserlien d’une intuition des essences qui délivre des vérités sur la structure de l’espace) et espace physique (système de relations données dans l’expérience). Une distinction transversale est établie entre espaces topologiques, projectifs et métriques, seul l’espace métrique étant muni de l’outillage conceptuel nécessaire aux mesures spatiales. Chacun des espaces ainsi déterminés se décline, en outre, en espaces à une ou un nombre fini quelconque de dimensions. Cette classification ayant été établie, Carnap explique que les contradictions mentionnées entre mathématiciens, physiciens et philosophes tiennent au fait que les uns et les autres n’ont pas à l’esprit la même signification de l’espace.

Cette théorie carnapienne des multiples sortes d’espace répond en outre à trois enjeux distincts. Il s’agit premièrement de faire le départ, dans notre connaissance physique, entre ce qui relève d’un « état de fait » irréductiblement donné dans l’expérience, ce qui dépend au contraire d’une stipulation librement choisie et, enfin, ce qui se trouve déterminé par cet état de fait sur la base de ces stipulations, que celles-ci soient relatives au choix d’une métrique (une méthode de mesure) ou à celui d’une structure spatiale, euclidienne ou non euclidienne. La manière singulière dont Carnap entend établir ces distinctions détermine une forme particulière de conventionnalisme qui rejette à la fois l’empirisme pur (selon lequel la structure de l’espace est entièrement donnée dans l’expérience) et l’apriorisme intégral (selon lequel la structure de l’espace est purement a priori). Cette théorie de la science, selon laquelle notre connaissance dépend pour une grande part de conventions, soulève une question méthodologique relative à l’application du principe de simplicité : à l’heure du choix, convient-il d’opter pour la métrique la plus simple ? ou pour la structure spatiale la plus simple ? Carnap suggère de suivre une tierce voie, qui consiste à n’appliquer le principe de simplicité ni à la métrique ni à la structure spatiale mais à la théorie physique dans sa globalité. Encore faut-il comprendre qu’il s’agit là d’une question méthodologique qui relève bien d’une décision, non d’une donnée de l’expérience ou d’une détermination a priori.

Le second enjeu de L’Espace est celui d’une justification de la théorie de la relativité générale d’Einstein, que certains philosophes, tels Hugo Dingler, rejetaient purement et simplement. Cette théorie semblait si éloignée des intuitions et des habitudes de pensée relatives à l’espace que certains doutaient qu’elle exprime une authentique connaissance empirique. Telle n’est pas la position de Carnap, qui considère cette théorie comme suffisamment confirmée par l’expérience. Il entend montrer comment une théorie physique peut tout à fait avoir recours à une géométrie non-euclidienne dans laquelle la « courbure » de l’espace n’est pas uniforme alors même que les vérités géométriques fondamentales connues par « intuition des essences » sont conformes à la géométrie d’Euclide. Pour rendre compte de la possibilité d’une telle théorie, Carnap distingue, parmi les axiomes d’une théorie géométrique, ceux qui sont effectivement donnés par l’intuition pure, mais qui ne valent alors que pour une portion limitée de l’espace, et ceux qui ont en réalité valeur de postulats librement choisis et qui déterminent, au moins partiellement, la structure globale de l’espace.

Enfin, le troisième enjeu de l’ouvrage est de rendre justice à la théorie kantienne de l’espace en en proposant une réinterprétation qui préserve l’idée des jugements synthétiques a priori. Il existe bien, comme le pensait Kant, une structure spatiale qui conditionne la possibilité de notre expérience, mais cette structure est ce que Carnap nomme « espace topologique de l’intuition à un nombre illimité de dimensions ». Cette relecture de la philosophie kantienne de l’espace ne suffit cependant pas à faire de Carnap un penseur authentiquement néokantien car au-delà des influences de Cassirer, Bauch ou Natorp, la thèse de Carnap emprunte aussi bien au logicisme de Russell et Couturat, au conventionnalisme de Poincaré et Dingler, à l’intuition des essences de Husserl, ou encore aux travaux d’axiomatisation de la géométrie dus à Pasch et Hilbert. Dans les travaux ultérieurs, si l’on discerne encore quelques influences néokantiennes dans certains ouvrages comme La construction logique du monde, l’idée de jugements synthétique a priori est assez rapidement abandonnée. Dans L’Espace, au début des années vingt, Carnap est donc encore fort éloigné des positions empiristes qui seront les siennes après son arrivée à Vienne en 1926. L’évolution de sa pensée est visible dans une série de travaux de philosophie de la physique qui paraissent entre 1923 et 1926, avant l’Aufbau de 1928 (cf. Schmitz 2009, chap. II).

La Construction logique du monde, souvent nommé l’Aufbau d’après son titre allemand (Der logische Aufbau der Welt), passe pour un ouvrage emblématique de l’empirisme logique. Carnap y expose en effet le projet d’un système de la connaissance dans lequel les objets (ou les concepts, ou les relations) sont définis à partir de données empiriques au moyen de méthodes empruntées à la logique moderne. Selon une interprétation courante de l’ouvrage, Carnap se serait ainsi placé dans la tradition empiriste en montrant que les objets (les concepts, les relations) dont il est question dans la science empirique peuvent être définis ou caractérisés sur la base des données de l’expérience, à condition de faire appel aux ressources de la logique et de reprendre la méthode que Russell et Whitehead avaient suivie, dans les Principia Mathematica, pour la reconstruction rationnelle des mathématiques. Cette lecture empiriste de l’Aufbau est remise en question par les commentateurs (Friedman 1999, Richardson 1998) qui comprennent l’ouvrage comme relevant plutôt d’un héritage néokantien : celui du projet de constitution de l’objectivité sur la double base de données sensorielles a posteriori et de structures logico-mathématiques a priori. D’autres interprétations ont également été proposées (par exemple Pincock 2002), dont aucune ne se révèle être entièrement satisfaisante (cf. Uebel 2007, chap. 2), ce qui laisse penser qu’il est probablement vain de vouloir rendre compte de cette œuvre complexe en cherchant à l’inscrire dans une tradition philosophique particulière (cf. Laugier 2001). Un point au moins semble néanmoins suffisamment clair, à savoir que dans l’Aufbau – comme du reste dans ses autres textes et contrairement à ce qui est parfois affirmé – la position de Carnap n’est pas fondationnaliste. Il ne s’agit nullement de fonder la connaissance sur une base assurée, ni de concevoir un quelconque système absolu du savoir mais de rendre compte de la science telle qu’elle existe présentement en constituant un système conceptuel unifié.

Dans un premier temps, Carnap expose l’idée d’un « système de constitution », c’est-à-dire d’un ensemble de définitions de tous les concepts en usage dans les sciences (et, plus généralement, dans les discours doués de sens), sur la base d’éléments primitifs et de relations primitives entre ces éléments. L’idée de Carnap, qui contredit certaines formulations antérieures de l’empirisme ou du positivisme (par exemple celle de Mach), est que les données primitives (qu’il s’agisse de données des sens, d’expériences élémentaires, ou d’autres éléments de base de ce genre) ne suffisent pas à définir objets ou concepts si aucune relation entre ces éléments n’est également prise en considération dans leur définition.

Dans un second temps, il indique différents choix possibles pour les éléments et les relations primitifs et opte pour l’un d’entre eux. Dans le système retenu, les éléments primitifs sont des « vécus élémentaires » (Elementarerlebnisse), par quoi Carnap entend la totalité de l’expérience vécue d’un individu à un instant donné, notion qu’il emprunte à la psychologie de la forme (Gestaltpsychologie) ; quant aux relations primitives,  le système considéré n’en comporte qu’une seule, à savoir le « rappel (mémoriel) de ressemblance » (Ähnlichkeitserinnerung) entre deux « vécus élémentaires ». Le choix de Carnap est donc celui de ce qu’il nomme une base « auto-psychique ». D’autres bases, par exemple constituées de sensations ou de choses physiques, eussent également été possibles, que Carnap ne retient pas pour des raisons purement pragmatiques : celles-ci ne sont pas jugées fausses, elles sont seulement estimées moins commodes, ou moins adéquates aux fins qui sont celles de Carnap. L’objectif est de parvenir, par étapes, sur cette base minimale, à une définition de tous les objets dont il est question dans la science en général, à l’aide d’une méthode inspirée des Principia Mathematica. Les définitions forment un système de constitution au sein duquel elles appartiennent à des strates ou des niveaux différents selon le type des objets définis : objets du psychisme propre, objets physiques, objets du psychisme d’autrui, etc.

Le système de constitution produit une reconstruction rationnelle de tous les objets dont il est question dans les sciences, reconstruction qui n’est ni une réplique ou une description de la genèse des concepts, ni une explication de quelque essence de la réalité. En d’autres termes, la signification du système n’est ni génétique, ou psychologique, ni ontologique. Carnap adapte ici la maxime russellienne qui enjoint de remplacer, partout où cela est possible, les entités inférées (les objets) par des constructions, par application du principe d’économie ontologique connu sous le nom de « principe d’Ockham ». Les objets définis le sont comme des « fictions » sur l’origine ou la nature desquelles rien n’est affirmé.

L’un des enjeux est de démontrer une forme d’unité de la science : tous les objets de la science (au sens large d’un discours doué de sens) peuvent être constitués dans le système, les concepts qui ne peuvent l’être étant en conséquence considérés comme tombant hors du domaine de la science. Tel est typiquement le cas, selon Carnap, de ce que les philosophes entendent souvent par « causalité », « moi », « relation intentionnelle », « esprit », etc. lorsque ces termes désignent une essence ou une substance. L’une des thèses formulées à la fin de l’Aufbau est que les discours philosophiques dans lesquels il est question d’une certaine réalité essentielle des choses (que ces discours soient d’inspiration réaliste, idéaliste, positiviste ou qu’ils procèdent de quelque autre doctrine philosophique) n’appartiennent pas à la science (au sens large du terme) et n’expriment donc en fait aucune véritable connaissance.

Un autre enjeu de l’Aufbau est de parvenir à une théorie de la formation des concepts (Begriffsbildung) qui ne se réduise ni à la théorie simple de l’abstraction (selon une telle théorie, le concept de cheval résulterait d’une opération par laquelle l’esprit fait abstraction de certains traits particuliers à partir d’un cheval concret) ni à des définitions implicites comme dans la géométrie de Hilbert ou dans la théorie schlickéenne de la connaissance (cf. article Définition, § 11.a). Dans l’Aufbau, les définitions du système de constitution sont des définitions explicites, qui ne procèdent donc pas par postulats. Il s’agit, en outre, de définitions structurelles, c’est-à-dire de caractérisations univoques qui reposent sur de pures indications de structures (Carnap 1928/2002, § 14-15), car une des thèses fondamentales défendues par Carnap dans cet ouvrage est précisément que tous les énoncés scientifiques sont des énoncés structurels ou doivent au moins, en principe, pouvoir être formulés comme des énoncés de structure (ibid., § 16). Pour y parvenir, Carnap a recours non seulement à la méthode de définition par abstraction (cf. article Définition, § 12) mais également à une procédure spécifique qu’il nomme « quasi-analyse » (cf. Schmitz 2009, chap. III).

Cette ambitieuse entreprise, dont La Construction logique du monde expose l’idée en esquissant les premières étapes de sa possible réalisation, sera reprise ultérieurement sous différentes formes par d’autres philosophes (Goodman 1951, cf. article Goodman ; Leitgeb 2005). Quant à Carnap lui-même, il se tourne dans les années suivantes vers de nouveaux projets plus nettement orientés par la question de l’analyse du langage, et fortement influencés par certains éléments du contexte intellectuel viennois à la fin des années vingt et au tournant des années trente : découverte et lecture du Tractatus de Wittgenstein, discussions avec Tarski sur l’idée d’une métalogique, début des débats avec Neurath et Schlick sur le physicalisme, l’unité de la science et les exigences d’un empirisme cohérent, découverte par Gödel des théorèmes d’incomplétude.

Dans la Syntaxe logique du langage (1934), Carnap expose une méthode d’analyse applicable aux langues formellement définissables par des règles. L’objectif est de parvenir à une clarification conceptuelle du langage de la science, élargi à tout discours doué de sens ou exprimant une connaissance. Après l’Aufbau et son projet d’un « système de constitution », la Syntaxe logique du langage marque un tournant linguistique : la théorie de la science procède maintenant par l’analyse de son langage, c’est-à-dire par la définition d’une langue formelle dans laquelle les énoncés de la science puissent être rationnellement reconstruits.

Carnap donne à « langage » un sens très particulier. Par ce terme, il faut entendre un ensemble de signes régis par un double système de règles : non seulement des règles de formation, qui déterminent quelles suites de signes forment un énoncé, mais également des règles de transformation, qui fixent les conditions auxquelles un énoncé est conséquence d’un ensemble d’énoncés. Ainsi compris, un « langage » est donc, en réalité, ce que nous nommerions aujourd’hui un « système formel », qui intègre aussi bien une logique (une relation de conséquence logique) qu’un système d’axiomes mathématiques, c’est-à-dire, selon Carnap, rien de moins que toute la partie formelle et analytique de la science.

Une distinction nouvelle est établie entre le langage objet, conçu comme le medium d’une telle reconstruction, et le métalangage, dans lequel sont formulées les définitions dont procède l’analyse. C’est dans le métalangage qu’est formulée une définition exacte de termes comme « valide », « analytique », « synthétique », « contradictoire », « énoncé empirique », « énoncé logique », « preuve », « conséquence », « conséquence logique », etc. sur lesquels repose la méthode syntaxique d’analyse du langage.

Cette méthode est dite « syntaxique » parce que les définitions en question ne reposent en aucune manière sur la signification ou la référence des signes et mots du langage objet. On s’abstiendra donc, par exemple, de définir un énoncé analytique par le fait qu’il est vrai en vertu de la signification des termes qui le composent. Les seuls moyens que la méthode syntaxique autorise sont ceux de la logique et des mathématiques appliqués aux signes et combinaisons de signes du langage objet, considérés comme des objets formels, sans considération de ce qu’ils signifient ou de ce à quoi ils font référence. L’enjeu est de parvenir à faire l’économie de toute notion jugée obscure, comme celles de sens, d’intensionalité, de vérité ou de désignation, et de réussir néanmoins à établir une distinction essentielle entre trois composantes du discours, bien souvent confondues dans la langue usuelle : 1) la composante empirique, 2) la composante analytique, 3) ce qui relève, parfois en dépit des apparences, d’un discours syntaxique et métalinguistique. Tout ce qui, dans les énoncés usuels, philosophiques, scientifiques ou autres, ne relève d’aucune de ces catégories est réputé dépourvu de toute signification cognitive. Le synthétique a priori, en particulier, est exclu du discours doué de sens. En quoi consiste alors le travail philosophique ? Non à produire des théories ou des connaissances, mais en une activité d’analyse qui vise la clarification conceptuelle au moyen de la méthode syntaxique, mise au service de la reconstruction rationnelle de la science dans un langage adéquat qu’il s’agit justement de concevoir et de définir.

On reconnaît dans l’invention de cette nouvelle méthode philosophique un important tournant, à caractère linguistique et même syntaxique. La Syntaxe logique du langage opère cependant également un second tournant, plus radical encore, qui n’est pas toujours bien distingué du premier. Il consiste en l’adoption d’un pluralisme logique qui prend la forme du célèbre principe de tolérance : « Il ne s’agit pas pour nous de poser des interdits mais de fixer des conventions. (…) En logique, il n’y a pas de morale. Chacun est libre de construire sa propre logique, i.e. sa propre forme de langage, comme il le désire. » (Carnap 1934, § 17). Bien que l’on parle fréquemment du langage de la science, comme si, fondamentalement, il devait être unique, Carnap fait sienne l’idée qu’il existe un « océan infini » de cadres logico-linguistiques théoriquement concevables, et donc autant de reconstructions rationnelles possibles de la science. Le sens de son pluralisme logique est que le choix d’un tel cadre n’est pas une question de vérité mais une décision purement pragmatique, prise pour des raisons de simplicité ou de commodité.

Un langage – au sens d’un système formel – n’est ni correct ni incorrect, seulement commode ou malcommode, adéquat ou non aux fins qui sont les nôtres, ou celles de quiconque se propose de construire un « langage ». Il n’y a rien à quoi se référer pour juger vrais ou faux les énoncés de la partie formelle du langage : aucune réalité idéale, aucun monde des vérités logico-mathématiques, aucune logique transcendantale à la mode kantienne qui ne soit l’objet d’un choix. Logique et mathématiques n’ont pas d’objet qui subsisterait indépendamment de nos décisions. La subtilité de cette position est qu’elle ne se ramène pourtant pas, en dépit des apparences, à l’expression d’un anti-réalisme au sens usuel du terme. Le pluralisme carnapien ne se conçoit en effet nullement comme une thèse susceptible d’être vraie ou fausse ; il est lui-même l’effet d’une décision : celle de ne plus rechercher la logique censée être correcte, et de préférer l’exploration de multiples systèmes linguistiques syntaxiquement définissables, évalués à l’aune des fins qu’ils sont censés servir.

En dépit de sa complexité, la genèse de la Syntaxe logique du langage éclaire le sens du projet de Carnap dans cet ouvrage, fruit de multiples interactions intellectuelles au début des années trente : notamment avec Tarski, pour la distinction entre langage objet et métalangage, avec Wittgenstein, pour l’idée même de syntaxe logique (cf. Tractatus logico-philosophicus, 3.325, 3.33, 6.124), avec Hilbert, pour l’étude métathéorique des systèmes d’axiomes, avec Gödel, pour la réponse à donner aux difficultés soulevées par la démonstration des théorèmes d’incomplétude.

Cette dernière question, comme le traitement que lui réserve Carnap, est assurément l’un des points fort