Connaissance formelle (A)
Comment citer ?
Paternotte, Cédric (2018), «Connaissance formelle (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/connaissance-formelle-a
Publié en septembre 2018
La connaissance est un objet d’intérêt classique en philosophie. Depuis Platon dans le Ménon et le Théétète jusqu’à la philosophie contemporaine des sciences, on a pu tenter d’en cerner la nature, d’en déterminer la valeur, d’en tracer les limites. Mais le XXe siècle a vu l’émergence d’un mode d’étude particulier de la connaissance, fondé sur les méthodes formelles, notamment avec la logique mathématique. L’une des conséquences concrètes de ces développements techniques concerne leur application aux agents artificiels en informatique, et à la façon dont ils pourraient ou devraient obtenir, rassembler et combiner informations et connaissances. Mais l’étude formelle de la connaissance a également porté des fruits proprement philosophiques, notamment pour ce qui concerne la clarification de notre concept de connaissance, de ses propriétés et des difficultés qu’il peut rencontrer.
L’étude formelle de la connaissance s’est faite à l’aide de très nombreux outils qu’il serait utopique de vouloir décrire exhaustivement ici. Nous nous concentrerons donc sur les représentations classiques, à la fois les plus utilisées et ayant motivé un certain nombre de discussions fondamentales, à savoir la logique modale et la sémantique des mondes possibles. Nous privilégierons également la présentation des propriétés formelles de la connaissance par le biais d’exemples voire de paradoxes, qui permettent souvent de dépasser une certaine aridité technique. Enfin, le but de cette entrée est de présenter et de discuter les analyses formelles de la connaissance ainsi que leurs conséquences et utilisations philosophiques, plutôt que de les décrire dans tous leurs détails techniques.
Nous présenterons d’abord à la logique épistémique : ses aspects syntaxique, sémantique ainsi que leurs liens. Nous pourrons alors évaluer l’apport de ce formalisme à la compréhension de la connaissance individuelle, à travers les discussions du principe de luminosité de la connaissance, du problème de l’omniscience logique et du paradoxe de Church-Fitch. Nous aborderons ensuite la formalisation de la connaissance en contexte social, qu’elle soit partagée, distribuée ou commune, notamment à partir du paradoxe des enfants sales et du problème des généraux ; cela nous mènera à quelques conclusions concernant les rapports entre les analyses formelle et non formelle de la connaissance.
Table des matières
1. Logique épistémique
a. Syntaxe
b. La sémantique des mondes possibles
c. Liens syntaxe-sémantique
2. Nature de la connaissance et approches formelles
a. L’omniscience logique
b. Le principe KK
c. Le paradoxe de la connaissabilité
d. La dimension sociale de la connaissance
e. Connaissance commune et enfants sales
3. Connaissance commune : l’approche formelle
a. Syntaxe
b. Sémantique
4. Quelques problèmes
a. Le problème des généraux
b. Analyse philosophique
Conclusion
Bibliographie
1. Logique épistémique
a. Syntaxe
La logique épistémique s’intéresse à la représentation formelle de propositions impliquant la connaissance ou la croyance, à leurs combinaisons et à leurs liens. On parle de propositions plutôt que d’énoncés, qui sont relatifs à un langage particulier. Un énoncé est relatif à un langage particulier, mais pas une proposition. Par exemple « L’herbe est verte » et « The grass is green » sont deux énoncés différents, mais expriment la même proposition. Les formules logiques sont donc censées représenter ou exprimer des propositions.
Le langage de la logique épistémique étend celui de la logique classique (cf. l’entrée correspondante de l’Encyclopédie) en y ajoutant l’opérateur K (pour Kripke, le premier philosophe à avoir développé la logique modale épistémique ; par bonheur elle correspond au terme « knowledge » – « connaissance » en anglais). Cet opérateur n’est autre que l’opérateur □ de la logique modale (voir l’entrée correspondante de l’Encyclopédie), interprété en termes épistémiques plutôt qu’aléthiques (c’est-à-dire relatifs à la vérité, et dans ce cas particulier à la nécessité). La formule Kp exprime ainsi la proposition que p est connue (par un agent quelconque, dont l’identité n’importe pas).
Comme tout système de logique modale, la logique épistémique contient d’abord toutes les tautologies (les formules valides, toujours vraies) de la logique classique. Un système épistémique normal contient comme règles d’inférences :
- le modus ponens : p, p → q ⊢ q (si p et si p implique q, alors on peut déduire que q) ;
- la règle de nécessitation ou de généralisation du savoir : si p alors Kp.
Les propriétés plus spécifiques à la connaissance sont alors traditionnellement exprimées par le biais des axiomes suivants, ou d’une partie d’entre eux (l’axiome (5) étant particulièrement discutable, comme nous le verrons).
(K) K(p → q) → (Kp → Kq)
En langage courant : si je sais que la proposition p implique la proposition q, alors si je sais que p, je sais également que q. Par exemple, si je sais que si Matthias est humain, alors il est mortel, et si je sais également que Matthias est un être humain, alors je sais qu’il est mortel. Cet axiome semble intuitivement acceptable et s’applique par ailleurs à nombre d’autres modalités que la connaissance, telle la nécessité (s’il est nécessaire que p implique q, et si p est nécessairement vraie, alors q est nécessairement vraie). Cependant, il mène aussi au problème de l’omniscience logique (cf. section 2.1. ci-dessous).
(T) Kp → p
Cet axiome traduit la thèse selon laquelle la connaissance est factive : seule une proposition vraie peut être sue ou connue. En d’autres termes, il n’existe pas de savoirs faux. Ce n’est pas vrai de certaines autres attitudes propositionnelles – des états mentaux qui ont pour objet des propositions – telles que la croyance par exemple. On peut en effet croire quelque chose sans que cela soit vrai.
Parmi ses propriétés possibles, la factivité de la connaissance est sans doute la mieux acceptée de toutes, à tel point qu’on a pu soutenir qu’elle permet de caractériser la connaissance. Williamson (1995) défend ainsi la thèse que la connaissance est la plus générale des attitudes propositionnelles factives, c’est-à-dire que toute attitude propositionnelle factive implique la connaissance. Par exemple, « voir que p » ou « se rappeler p » sont factives et impliquent la connaissance de p. Cependant, cette thèse spécifique de Williamson est contestée, tandis que la factivité de la connaissance ne l’est pas.
(4) Kp → KKp
Cet axiome, parfois appelé axiome d’introspection positive ou principe KK, exprime la propriété de transparence ou luminosité de la connaissance, selon laquelle si l’on connaît une proposition, alors on sait qu’on la connaît. Cet axiome est intuitivement convaincant : peut-on imaginer savoir qu’il pleut tout en ignorant le savoir ? Notons d’abord que si la connaissance est factive (si l’axiome (T) tient), alors on peut tirer KKp → Kp. Allié à l’axiome (4), cela entraîne l’équivalence logique entre Kp et KKp.
L’axiome a par ailleurs été défendu par Hintikka (1962), dans l’une des premières discussions de la logique épistémique. Si pour Hintikka, il est « virtuellement équivalent » de savoir et de savoir que l’on sait, les raisons de cette affirmation ne sont « pas entièrement claires » (Stalnaker 2006). On pourrait penser défendre la transparence de la connaissance par des arguments psychologiques, mais c’est au niveau logique qu’Hintikka se place. Stalnaker (2006) décrit l’argument d’Hintikka comme suit : supposons que l’on accepte le principe selon lequel lorsque les propositions Kp et ¬K¬q sont logiquement compatibles (lorsqu’elles peuvent être simultanément vraies), alors Kp et q le sont aussi. Alors la connaissance doit être transparente. Pour le voir, il suffit de remplacer q par ¬Kp pour en tirer la conclusion que Kp et ¬KKp ne peuvent être compatibles (sans quoi Kp et ¬Kp le seraient également, ce qui est absurde).
Le principe lui-même est intuitivement convaincant (bien que pas nécessairement davantage que le principe KK lui-même) : si je peux savoir que p tout en considérant comme possible que q soit vraie, alors q ne pourrait être incompatible avec ma connaissance de p ; car en cas d’incompatibilité, alors je ne saurais savoir que p sans m’être d’abord assuré que q n’est pas le cas.
Cependant, malgré son attrait intuitif, le principe KK remporte aujourd’hui considérablement moins l’adhésion des philosophes. Cela est dû à un important argument récent qui s’oppose à la thèse de luminosité de la connaissance (auquel nous consacrons la section 2.2 ci-dessous).
(5) ¬Kp → K¬Kp
Cet axiome dit d’introspection négative, le plus contesté de tous, se traduit comme suit : si l’on ne sait pas que p, alors on sait que l’on ne sait pas que p. En d’autres termes, de tout ce qu’on ignore, on sait qu’on l’ignore. Bien que cet axiome rappelle le principe KK – de fait, on aurait pu la baptiser « principe de transparence de l’ignorance » – son attirance est significativement moindre. Une objection de nature psychologique est qu’il existe des propositions que l’on ignore parce qu’on ne les a jamais formulées, voire qu’on serait incapable de les comprendre. Par exemple, la majorité des gens ignorent si l’émission considérable de rayons gamma du centre de la Voie Lactée est due à la présence de matière noire. Il semble plausible qu’ils l’ignorent sans savoir qu’ils l’ignorent, puisque la proposition en question contient des termes dont la signification leur est inconnue (et que certains n’ont sans doute jamais lus ou entendus).
Un second argument, logique celui-là, est donné par Hintikka, qui rejette (5) aussi clairement qu’il soutient (4). Hintikka montre en effet que (5) a la conséquence logique suivante : de toute proposition vraie, on sait qu’elle est possible (qu’on ne sait pas qu’elle est fausse). De façon équivalente, de toute proposition fausse, on doit savoir qu’on ne la connaît pas. Cependant, il semble évident qu’on puisse croire une proposition fausse et en particulier croire qu’on la connaît, ce qui s’oppose à la thèse précédente. Pour ces deux raisons parmi d’autres, le principe de transparence du doute est peu plausible et est considéré comme demandant trop de la connaissance.
Cette courte discussion illustre un avantage possible d’une approche formelle de la connaissance : elle permet d’en identifier de façon précise ses propriétés supposées ainsi que leurs conséquences, et est donc susceptible de compléter voire d’orienter l’analyse philosophique de la connaissance. Nous verrons par la suite que c’est l’analyse formelle de divers exemples ou paradoxes concernant la connaissance qui ont permis d’en faire avancer notre compréhension.
La réunion des axiomes (K), (T), (4) et (5) constitue ce qu’on appelle le système logique S5 ; sans (5), on obtient le système logique S4. Notons que la modification de certains axiomes permettrait par ailleurs de caractériser d’autres concepts que la connaissance. Par exemple, on considère généralement que la croyance peut être représentée par un système logique qui remplace dans celui de la connaissance (qu’il s’agisse de S4, S5…) l’axiome (T) par l’axiome (D) : Kp → ¬K¬p (si l’on croit que p, alors on ne peut croire également son contraire).
Revenons à la connaissance. La discussion précédente suggère que S4 fournit une meilleure représentation de la connaissance que S5 ; c’est pourtant ce dernier qui a été privilégié dans bon nombre d’études formelles de la connaissance. Notons cependant que ces deux systèmes ne sont pas exhaustifs. Il existe tout un ensemble d’autres axiomes susceptibles de mieux caractériser la connaissance que S4, sans tomber dans les excès de S5, et que l’on peut donc ajouter à S4 pour l’enrichir. Cependant, ces axiomes perdent graduellement en force intuitive. A titre d’illustration, voici l’axiome .2 : ¬K¬Kp → K¬K¬p (Si je ne sais pas que je ne connais pas p, alors je sais que je ne connais pas non-p). Une liste de tels axiomes peut être trouvée dans Bull & Segerberg (1984) ou Blackburn et al. (2001).
Si l’on se limite à S4 et S5, les raisons de la préférence pour le second sont multiples, mais tiennent pour la plupart aux avantages du système S5 en termes de représentation et de maniabilité. Avant d’y revenir, il nous faut introduire, outre sa syntaxe, la sémantique de la connaissance.
b. La sémantique des mondes possibles
Classique en logique, la distinction entre syntaxe et sémantique vaut évidemment en logique épistémique. Là où la syntaxe concerne les règles d’inférences ou de calcul de conclusions à partir de prémisses données, la sémantique s’intéresse aux valeurs de vérité des propositions et permet de les déterminer.
La sémantique de la logique épistémique repose sur le concept de monde possible. Un monde doit être compris comme équivalent à la donnée à l’ensemble des propositions qui y sont vraies. Par exemple, notre monde sera caractérisé par un ensemble (sans doute infini) de proposition du type : Emmanuel Macron est président de la France depuis 2017, François Hollande l’a été de 2012 à 2017, une année dure 365 jours, la Lune tourne autour de la Terre, etc. Les propositions qui caractérisent un monde sont fondamentalement non-épistémiques, c’est-à-dire qu’elles n’impliquent pas de connaissance des individus. Certes, il est vrai dans notre monde que je sais qu’Emmanuel Macron est le président français ; mais cette proposition ne fait pas partie des propositions fondamentales qui caractérisent notre monde. L’idée de la sémantique épistémique est que les valeurs de vérité des propositions impliquant la connaissance vont découler de celles des propositions fondamentales ainsi que de la relation de possibilité qui tient entre les mondes.
Le concept de monde possible peut en effet s’interpréter de différentes manières, selon la notion de possibilité choisie. Certains mondes sont conceptuellement possibles – on peut imaginer un monde dans lequel certaines lois de la nature sont différentes, la vie est fondée sur le silicium et non le carbone, etc. Certains mondes sont physiquement possibles – différents du nôtre mais compatibles avec les lois de la nature qui y existent. Certains enfin sont épistémiquement possibles : différents du nôtre mais compatibles avec ce que tel ou tel agent en sait (par exemple dans lequel le président du Kenya, dont j’ignore le nom, est un autre individu).
On représente l’idée qu’un monde w’ est épistémiquement possible (à partir d’un monde de référence w donné) par une relation de possibilité, que l’on peut illustrer comme suit :
Une fois que l’on dispose d’un ensemble de mondes, chacun défini par l’ensemble des propositions fondamentales qui y sont vraies, et des liens (orientés) de possibilité entre eux, on peut alors obtenir en chaque monde la valeur de vérité des propositions impliquant la connaissance, de la façon suivante. On dira qu’il est vrai en un monde w que Kp (la proposition p est connue) si et seulement si p est vraie dans tous les mondes épistémiquement possibles du point de vue de l’agent considéré. Cela correspond à une intuition simple : on ne peut prétendre savoir quelque chose si on considère qu’il est possible que le contraire soit vrai. Il ne s’agit pas de ne pouvoir imaginer ce contraire (impossibilité conceptuelle) mais de ne pouvoir en exclure la possibilité étant donné tous ce que nous savons par ailleurs. On comprend au passage qu’il ne s’agit pas ici d’une analyse du concept de connaissance, puisque l’évaluation de la valeur de vérité de propositions impliquant la connaissance dépend d’une relation de possibilité qui l’implique également.
Formellement, on appelle un modèle (M) le rassemblement d’un ensemble de mondes (W) et d’une relation (R) qui fixe l’ensemble des liens de possibilité entre eux (à strictement parler, un modèle devrait aussi inclure l’ensemble des propositions susceptibles d’être vraies dans un monde – l’ensemble de toutes les propositions fondamentales, susceptibles d’être vraies dans un monde ; nous faisons ici abstraction de cet aspect).
Que Kp soit vrai dans le monde w étant donné le modèle M est alors noté :
M, w ⊨ Kp
Ce sera donc le cas si et seulement si pour tous les mondes w’ liés à w, on a : M, w’ ⊨ p
Il en découle naturellement qu’on aura M, w ⊨ ¬K¬p (on ne sait pas que p est fausse en w) si et seulement si il existe au moins un monde w’ lié à w et tel que M, w’ ⊨ p .
Ce qui précède permet de définir une modalité K quelconque. Pour qu’elle représente la connaissance, on considère en outre que la relation de possibilité R entre mondes doit posséder trois propriétés spécifiques. Premièrement, tout monde doit être lié à lui-même – c’est la propriété de réflexivité. Le monde actuel doit être considéré comme épistémiquement possible – il doit toujours être compatible avec ce que nous savons par ailleurs. Formellement, on dit que pour tout w on doit avoir wRw :
Deuxièmement, si un monde est lié à un deuxième, alors le deuxième est lié au premier (cela ne va pas de soi puisque les liens sont orientés – ils vont d’un monde en direction d’un autre). Je ne peux pas considérer comme possible un monde dans lequel, s’il était réel, je considérerais le monde actuel comme impossible. C’est la propriété de symétrie. Formellement, on dit que pour tous mondes w et w’, alors wRw’ si et seulement si w’Rw :
Troisièmement, si pour un monde un deuxième est possible, et qu’un troisième est possible pour le deuxième, alors le troisième est possible pour le premier. Quelque chose dont il est possible qu’elle soit possible, est également possible. Par exemple, supposons que j’estime possible qu’il pleuve à Saint Brieuc en ce moment, et que s’il pleut il soit possible que mes amis travaillant sur un marché doivent annuler leur journée, alors il est tout simplement possible que mes amis doivent annuler leur journée. C’est la propriété de transitivité. Formellement, on dit que pour tous mondes w1, w2, w3, si w1Rw2 et w2Rw3, alors w1Rw3 :
Lorsqu’une relation tenant pour un ensemble de mondes est réflexive, symétrique et transitive, on dit alors qu’il s’agit d’une relation d’équivalence. Des mondes liés par une relation d’équivalence peuvent être représentés sous forme d’une partition, c’est-à-dire qu’ils peuvent être répartis en sous-groupes disjoints de mondes. S’il existe par exemple huit mondes w1… w8, liés par une relation d’équivalence, ils pourraient par exemple être représentés par la partition suivante :
{{w1, w2},{w3},{ w4, w5, w6},{ w7, w8}}
Dans ce cas, les mondes faisant partie d’un même sous-groupe (compris entre deux accolades – un élément de la partition) constituent tous des possibilités mutuelles. En conséquence, une proposition sera connue en un monde si et seulement si elle est vraie dans tous les mondes appartenant au même élément de la partition. Par exemple, dans le cas ci-dessus, une proposition sera connue dans n’importe lequel des trois mondes w4, w5 ou w6 si et seulement si elle est vraie dans chacun de ces trois mondes ; et elle y sera considérée comme possible si et seulement si elle est vraie dans l’un de ces trois mondes.
La simplicité de cette représentation sémantique de la connaissance explique en partie l’attrait de sa caractérisation en termes de relation d’équivalence, ainsi que l’utilisation répandue des axiomes fondamentaux vus en section 1.1., pour des raisons que nous allons voir.
c. Liens syntaxe-sémantique
Les axiomes (K), (T), (4) et (5) sont plus ou moins convaincants en tant que propriétés de la connaissance. Par contre, les propriétés de la relation de possibilité épistémiques entre mondes semblent, elles, facilement acceptable. Il peut donc être surprenant d’apprendre qu’il existe entre ces axiomes et ces propriétés de puissants résultats d’équivalence. Introduisons d’abord le terme de validité : une formule est dite valide au sein d’un modèle lorsqu’elle est vraie dans tous les mondes de ce modèle. Par exemple, toutes les formules classiques de la logique propositionnelle (celles qui n’impliquent pas l’opérateur K) sont naturellement vraies dans tous les mondes d’un modèle et sont donc toujours valides dans un modèle. Syntaxiquement, cela correspond à la règle d’inférence de généralisation de la connaissance.
Les résultats évoqués établissent alors des liens entre la validité d’un axiome dans la syntaxe de la logique et la présence d’une propriété de la relation de possibilité dans sa sémantique. On peut par exemple montrer que l’axiome (T) est valide dans tout modèle dont la relation de possibilité R est réflexive ; que l’axiome (4) de transparence est valide dans tout modèle dont la relation de possibilité est transitive ; ou encore que l’axiome (5) d’introspection négative est valide dans tout modèle dont la relation de possibilité R est euclidienne – c’est-à-dire telle que si w est lié à w’ ainsi qu’à w’’, alors w’ est lié à w’’ (Blackburn et al. 2001, p. 129). Fagin et al. (1995, pp. 60-61) proposent une liste de telles correspondances.
Plus généralement, on peut montrer que l’ensemble des axiomes de S5 – (K), (T), (4) et (5) – est valide dans tout modèle dont la relation de possibilité est réflexive, symétrique et transitive – une relation d’équivalence. On obtient donc une correspondance forte entre la caractérisation syntaxique de la connaissance par ces quatre axiomes et sa représentation sémantique par une relation (de possibilité) d’équivalence. On peut démontrer la même correspondance entre les axiomes de S4 et les relations de possibilité réflexives et transitives. La force de ces résultats subsiste donc même si on accepte les réserves concernant l’adéquation de l’axiome (5) à la connaissance.
Ces correspondances assurent par ailleurs que toute formule dérivable dans la syntaxe de la logique épistémique fondée sur les trois ou quatre axiomes sera valide dans tout modèle fondé sur la relation de possibilité associée – c’est-à-dire que la logique épistémique est consistante, ou cohérente par rapport à cette classe de modèles. Enfin, on peut également démontrer des résultats de complétude de cette logique – que toute formule valides dans une classe de modèle donnée peut être prouvée à partir des axiomes correspondants (Blackburn et al. 2001, ch. 4).
Cette analyse formelle donne une certaine cohérence à la compréhension de la connaissance, car elle en identifie deux types de propriétés caractéristiques qu’elle fait ensuite correspondre. Elle ne suffit certes pas à en définir strictement les caractéristiques fondamentales, puisque les résultats d’équivalence existent entre différents ensembles s’axiomes et différents types de relations de possibilité. Cependant, elle permet de comprendre l’utilisation répandue de S5 pour formaliser la connaissance malgré les difficultés liées à l’axiome (5). En effet, la sémantique de S5 est celle fondée sur les relations d’équivalence ; or nous avons vu que celles-ci permettent une représentation des mondes possibles à l’aide de partitions, à la fois intuitives et maniables (en particulier dans le cas d’agents multiples, comme nous le verrons).
Nous nous tournons maintenant vers les applications de l’analyse formelle de la connaissance, c’est-à-dire vers les aspects de la connaissance qu’elles ont permis d’éclairer, ainsi qu’aux difficultés qu’elles ont mises en évidence.
2. Nature de la connaissance et approches formelles
a. L’omniscience logique
Le premier problème classique que rencontre la logique épistémique est celui dit d’omniscience logique. Il provient de deux règles ou axiomes vus précédemment. D’abord, la règle de généralisation de la connaissance (cf. supra) stipule que toutes les formules logiques valides sont connues. En d’autres termes, un agent connaîtra nécessairement toutes les tautologies, ce qui inclut par exemple tous les résultats mathématiques. La seconde origine du problème est l’axiome (K), qui comme nous l’avons vu est présent dans les principaux systèmes formalisant la connaissance, et est valide dans toute sémantique des mondes possibles. Pour rappel, cet axiome stipule que si un agent sait que p implique q, alors s’il sait également que p il doit savoir que q. L’évidence intuitive de cet axiome cache en réalité une exigence considérable quant à la portée des connaissances d’un agent, puisqu’il demande que l’agent connaisse l’ensemble des propositions qui découlent logiquement de ses connaissances actuelles. En somme, un agent raisonnant selon les principes de la logique épistémique devrait connaître tous les théorèmes mathématiques ainsi que toutes les conséquences logiques de ses connaissances, ce qui ne serait évidemment possible que pour un agent aux capacités cognitives (mémoire, facultés de raisonnement) extrêmement idéalisées.
Il existe plusieurs façons de remédier à ce problème, dont aucune n’est cependant pleinement satisfaisante. La première est philosophique et consiste à considérer que l’opérateur K ne doit pas être interprété en termes de connaissance effective mais de connaissance implicite. Kp se traduirait donc par : l’agent connaît implicitement p, ou est en mesure d’arriver à la connaissance (explicite) de p (Fagin et al. 1995). Cette option a cependant ce désavantage qu’elle rompt le lien entre le formalisme et les connaissances réelles d’un agent. La logique épistémique ne deviendrait donc capable que d’établir ce qu’un agent pourrait savoir, sans façon d’accéder à ce qu’il sait réellement, ou même devrait savoir, dans une situation donnée. Cela limite son application à des cas concrets.
Les autres solutions au problème de l’omniscience logique sont formelles ; nous en citerons trois (voir Halpern & Pucella 2011 pour une discussion formelle récente des solutions au problème de l’omniscience logique ainsi qu’une comparaison de leurs portées respectives).
La première solution est de type syntaxique : elle consiste à modifier la façon dont, en chaque monde possible, sont évaluées les formules impliquant l’opérateur de connaissance p. Il s’agit ici de stipuler explicitement, en chaque monde, l’ensemble des propositions qui y sont vraies. Chaque monde possible se verrait donc associer une liste des formules qui y sont vraies. En particulier, Kp par exemple serait vraie en un monde w si et seulement si elle figure dans la liste associée à w, et non pas si p est vraie dans tous les mondes possibles liés à w. Avec une telle sémantique, ni la règle de généralisation du savoir ni l’axiome (K) ne tiennent plus ; on évite donc l’omniscience logique. Le prix de ce résultat est cependant la pauvreté sémantique, puisque la relation de possibilité entre mondes se retrouve privée de toute pertinence pour la détermination des connaissances d’un agent. On perd donc également la possibilité de lier diverses caractéristiques de la connaissance par les résultats d’équivalence décrits précédemment (cf. section 1.3).
La deuxième solution formelle enrichit au contraire la sémantique des mondes possibles en y adjoignant des mondes possibles impossibles. Il s’agit de mondes particuliers, dans lesquels les tautologies logiques peuvent être fausses. Ils ne doivent donc pas être considérés comme possibles au sens métaphysique (ils ne décrivent pas un état possible du monde), mais peuvent cependant l’être au sens épistémique. Leur introduction date de Hintikka (1975) et Rantala (1975, 1982), d’abord sous l’appellation de « mondes apparemment possibles » chez ce dernier.
Sémantiquement, les mondes possibles impossibles peuvent être liés aux mondes classiques. Le monde réel peut donc être lié à des mondes possibles ou impossibles. On applique alors la définition sémantique classique de la connaissance – Kp est vraie en w si et seulement si p est vraie dans tous les mondes liés à w. Or si un agent dans le monde w considère comme possible un monde w’ contenant une contradiction logique, l’omniscience logique peut être évitée. Imaginons que p et p → q soit vraies en w’ alors que q y est faux (la tautologie p ∧ (p → q) → q y est donc fausse). Supposons par ailleurs que p, p → q et q soit vraies dans tous les autres mondes possibles liés à w. Il serait alors vrai en w que Kp, que K(p → q) mais pas que Kq (puisqu’il existe un monde, w’, lié à w et dans lequel q est fausse). Cependant, une telle solution nécessite que soit clarifiée la nature exacte des mondes possibles impossibles, ce qui est encore aujourd’hui l’objet de débats animés (Priest 2005, Berto 2010, Jago 2015).
Une troisième solution formelle au problème de l’omniscience logique repose sur le concept d’awareness ; elle combine la sémantique classique et la restriction syntaxique opérée par la première solution. Son principe est le suivant : pour qu’une proposition soit connue d’un agent, elle doit être vraie dans tous les mondes possibles liés au monde réel, mais l’agent doit également en être aware, c’est-à-dire conscient – il doit l’avoir à l’esprit. Sémantiquement, en chaque monde, les propositions dont l’agent est aware sont spécifiées explicitement par l’adjonction d’une liste. A chaque monde sont donc associés des mondes possibles qui lui sont liés et une liste des propositions que l’agent a à l’esprit. Sont connues en w celles des propositions de la liste qui sont en outre vraies dans tous les mondes possibles liés à w. Cette solution souffre des mêmes défauts que la première, en raison de la spécification ad hoc de listes pour chaque monde. Notons qu’il existe cependant de nombreuses traductions formelles sémantiques du concept d’awareness (Fagin & Halpern 1988, Modica & Rustichini 1994).
b. Le principe KK
Williamson (2000a) développe ce qui est devenu l’argument le plus connu et le plus discuté contre le principe KK, c’est-à-dire contre la thèse que si l’on connaît une proposition, alors on sait qu’on la connaît. L’importance de cet argument justifie que nous le décrivions en détail.
Imaginons un agent qui regarde un arbre à distance et tente d’en estimer la hauteur. L’agent est conscient que l’acuité de sa vision est limitée, et en particulier qu’il serait incapable de connaître la hauteur de l’arbre à un centimètre près. En d’autres termes, l’agent sait que si l’arbre est haut d’un certain nombre de centimètres, alors il ne peut savoir qu’il n’est pas haut d’un centimètre de moins. En notant hi la proposition « l’arbre est haut de i centimètres », l’énoncé précédent devient :
K (hi+1 → ¬K(¬hi))
Appelons (M) cette formule, qui traduit l’idée que la connaissance est compatible avec une certaine marge d’erreur : un agent pourrait connaître la hauteur d’un arbre sans être capable de distinguer des différences de hauteur d’un centimètre.
Notre agent peut alors tenir le raisonnement suivant quant à la hauteur de l’arbre. D’abord, il sait qu’il a une hauteur non nulle : K(¬h0). En appliquant le principe KK, il sait qu’il le sait, ce qui donne : KK(¬h0).
Par (M), on obtient K(h1 → ¬K(¬h0)), ce qui est équivalent par contraposition à K(K(¬h0) → ¬h1). Par l’axiome (K) nous en tirons KK(¬h0) → K(¬h1)). Or nous savons que KK(¬h0) est vraie, d’où l’on obtient donc la conclusion K(¬h1) : l’agent sait que l’arbre ne fait pas 1 centimètre.
En présupposant (K), (KK) et (M), on a donc déduit de l’agent qu’il savait que l’arbre ne faisait pas 1 centimètre à partir du fait qu’il ne faisait pas 0 centimètre. On peut alors répéter le raisonnement pour obtenir la conclusion que l’agent sait que l’arbre ne fait pas 2, 3,… , 10,… 10000 centimètres, ni même davantage. Autrement dit, de toute hauteur possible l’agent sait que ce n’est pas celle de l’arbre ! Conclusion évidemment fausse, puisque l’arbre a bien une hauteur. Le raisonnement étant logiquement valide, l’une de ses prémisses est fausse.
Puisqu’il est vrai que l’agent sait que l’arbre, qu’il voit, n’a pas une hauteur nulle, restent les prémisses (M), (K) et (KK). Laquelle faut-il abandonner ? Pour Williamson, le principe KK est le fautif. (M) traduit comme on l’a vu cette caractéristique générale de notre connaissance perceptive qu’elle admet une marge d’erreur. Quant à (K), elle est certes critiquable en général (cf. section 2.1) ; cependant, Williamson l’emploie sous une forme restreinte. Rappelons que (K) stipule que si un agent sait que p implique q, alors s’il sait que p, il sait que q. Or Williamson accepte explicitement que « nous échouons souvent à connaître les conséquences de ce que nous savons, parce que nous ignorons qu’elles en sont des conséquences. » (2000, p. 116). (K) ne tiendrait alors que lorsque p et q sont des propositions « pertinentes », c’est-à-dire effectivement prises en considération par l’agent ; or les propositions ayant trait à la hauteur de l’arbre et à ce que l’agent en sait sont bien censées être prises en considération par cet agent lorsqu’il s’interroge sur la hauteur de l’arbre et ce qu’il peut en savoir. Si (M) et (K) sont ainsi défendues, le rejet du principe KK semble la seule option restante : la connaissance ne serait donc pas transparente.
On peut cependant tempérer cette conclusion. Notons d’abord que l’argument de Williamson repose sur une preuve par l’absurde : il n’identifie pas de raison positive pour laquelle le principe KK caractérise mal la connaissance, mais montre que s’il tenait, alors un agent aurait un ensemble absurde de connaissances. On pourrait alors opposer des raisons positives en faveur du principe. Par exemple, Greco (2014) propose une défense générale du principe KK face à nombre d’objections, notamment celle qu’il implique la possibilité de connaissances d’agents sur celles d’autres agents qui sont extrêmement peu plausibles, ou bien qu’il permet de justifier des positions sceptiques. Cette défense se fonde sur une définition informationnelle de la connaissance, où la présence d’information se rapporte à ce qui serait vrai dans des conditions normales, pour laquelle la principe KK s’applique de façon non problématique (caractérisation défendue notamment par Dretske 1981, Millikan 1984, Stalnaker 1999). Le principe KK est donc défendable car respecté par un concept assez largement accepté de connaissance et de plus inclusif, puisqu’il est, toujours selon Greco, compatible avec les théories contextualistes de la connaissance à la Lewis (1999).
Cependant, l’argument de Williamson dépend aussi de la force de la défense du principe (M) (ainsi que de celle de l’axiome (K), déjà discuté en section 2.1). Les objections faites à Williamson sur ce point tendent à restreindre la portée de (M), c’est-à-dire à montrer que le principe ne tient pas pour certains types importants de connaissance. D’abord, Mahtani (2008) estime que le principe (M), bien que fondé sur l’inexactitude de la connaissance, ne tient en fait pas pour tous les types de connaissance inexacte. La connaissance de la hauteur de l’arbre est inexacte parce que sa hauteur aurait pu être différente (dans un proche monde possible) sans que nos conclusions changent. Mais une connaissance, par exemple celle du nombre de spectateurs à un concert auquel je participe, peut être inexacte même si ce nombre n’aurait pu être différent que dans des cas éloignés (par exemple parce que le personnel avait pour consigne de ne laisser entrer que mille personnes). L’argument de Williamson ne fonctionnera donc pas dans de tels cas.
Dokic & Egré (2009) défendent également le principe KK en attaquant la portée de (M), par le biais d’une distinction entre deux types de connaissance : la connaissance acquise par la perception et celle acquise par la réflexion. Selon eux, dans le principe KK tel qu’il est utilisé par Williamson (la perception d’un arbre), les deux types de connaissances sont impliqués : si l’on sait perceptivement quelque chose, alors on sait réflexivement qu’on le sait perceptivement. Par ailleurs, le principe (M) –pour rappel : K (hi+1 → ¬K(¬hi+1)) – implique également les deux types de connaissance. Si la hauteur de l’arbre est i+1, on ne sait pas (perceptivement) qu’elle n’est pas i ; mais ceci, on le sait par réflexion. Or, lorsque les principes KK et (M) sont ainsi reformulés, ils peuvent coexister sans mener à la conclusion absurde que l’agent sait de toute hauteur possible qu’elle n’est pas celle de l’arbre. En d’autres termes, l’attaque par l’absurde du principe KK est dissoute par une analyse plus fine des types de connaissances impliqués.
Indépendamment de ces arguments et contre-arguments spécifiques, et même si le débat concernant la pertinence du principe KK pour la connaissance n’est pas clos, son intérêt est qu’il porte sur les propriétés même de la connaissance et illustre donc l’apport que la formalisation peut procurer à l’analyse d’un concept philosophique.
c. Le paradoxe de la connaissabilité
Nous avons déjà vu que certains axiomes de la logique modale classique peuvent se révéler discutables, voire inadaptés, lorsqu’on souhaite interpréter l’opérateur K comme représentant la connaissance d’un agent. Mais l’inadéquation entre un système logique et son interprétation naturelle la plus répandue ne se révèle pas toujours dès l’examen de ses axiomes. C’est parfois la dérivation d’une conséquence logique, pas nécessairement immédiate, d’un système qui met en évidence un problème. Ainsi en va-t-il du paradoxe de la connaissabilité, aussi appelé paradoxe de Church-Fitch : popularisé par Fitch (1963), il est originellement dû à Church, dans son rapport d’évaluation d’un article précédent de Fitch en 1945 (cf. Salerno 2009).
Le paradoxe s’exprime par la formule suivante :
(Pour tout p, p → ◊ Kp ) → (Pour tout p, p → Kp)
La formule implique deux types de modalités : une modalité épistémique, la connaissance (opérateur K) ; et une modalité métaphysique, la possibilité (opérateur ◊). Pour rappel, en logique modale classique, la formule □p se lit : « p est nécessairement vraie » et ◊p « il est possible que p soit vraie ». Dans la sémantique des mondes possibles, ◊p est vraie si et seulement s’il existe un monde (métaphysiquement) possible dans lequel p est vraie.
Que signifie cette formule? La partie de droite stipule que pour toute proposition p, si elle est vraie alors on ne peut pas savoir qu’on ne la connaît pas. En d’autres termes, on estime qu’il possible de connaître toute proposition vraie – toute proposition vraie est connaissable. La partie de gauche dit que toute proposition vraie est connue. Le problème est donc immédiat : la formule exprime le fait que tout ce qui est connaissable est connu – qu’un agent doit effectivement savoir tout ce qu’il pourrait savoir en principe.
Le problème est alors le suivant. Etant donné que la conclusion que toute vérité est connue est inacceptable, la prémisse que toute vérité est connaissable devrait être rejetée. Or, le principe de connaissabilité de la vérité a été accepté par de nombreux philosophes, en particulier les défenseurs de l’anti-réalisme sémantique (par exemple Dummett 2009). Il s’agit de la thèse selon laquelle la vérité n’est pas une propriété intrinsèque d’une proposition mais dépend des capacités humaines et en particulier de nos capacités de formation de connaissances. Par exemple, une version possible de cet anti-réalisme consiste à considérer qu’une proposition ne peut être dite vraie que si on dispose qu’une méthode permettant de à prouver – elle pose l’équivalence entre vérité et prouvabilité. Les anti-réalistes étant naturellement portés à défendre la prémisse selon laquelle toute vérité est connaissable, le paradoxe de Church-Fitch leur pose donc un problème particulièrement aigu.
Le paradoxe est d’autant plus inquiétant que la formule s’obtient à partir de principes faibles concernant la connaissance et les modalités métaphysiques (sa preuve, trop longue pour être donnée ici, peut être consultée dans Salerno, 2009, pp. 1-3). Plus précisément, elle découle directement de la combinaison de l’axiome (K), de l’axiome (T), du principe selon lequel toute proposition valide est nécessairement vraie, et de celui selon lequel toute proposition nécessairement fausse est impossible (Salerno 2009). Or aucun de ces principes ne semble forcer d’interprétation particulièrement exigeante de la nécessité ni de la connaissance.
Il existe cependant plusieurs façons d’échapper au paradoxe, que nous discutons brièvement car aucune ne ressortit crucialement aux propriétés particulières de la connaissance (notre exposé des solutions suit ici les grandes lignes de Brogaard & Salerno 2013). La première consiste à abandonner la logique propositionnelle classique et à y substituer la logique intuitionniste. En effet, cette dernière refuse le passage d’une formule ¬¬p à la formule p – elle traite différemment la vérité de p et la fausseté de sa négation. Or ce passage est nécessaire en un point de la dérivation logique du de la formule du paradoxe de la connaissabilité. Williamson (1982) a ainsi pu affirmer que le paradoxe n’exigeait pas l’abandon de l’anti-réalisme sémantique mais l’adoption d’une logique intuitionniste. La discussion est cependant loin d’être close. On a pu montrer que la logique intuitionniste permettrait tout de même d’aboutir à la proposition selon laquelle il n’existe pas de proposition non décidée – dont on ne connaisse ni la vérité ni la fausseté – conclusion également inacceptable. (D’autres échappatoires par changement de logique, que nous n’approfondirons pas ici, impliquent par exemple l’adoption d’une logique dite para-consistante).
Un deuxième ensemble de solutions est syntaxique. La prémisse du paradoxe de la connaissabilité stipule que toute proposition vraie est connaissable. On pourrait penser restreindre cette prémisse à certains types de propositions, possédant certaines caractéristiques précises. L’idée est donc d’identifier un type de propositions pour lequel il n’est pas problématique que leur connaissance découle de leur connaissabilité. Tennant (2002) discute deux options possibles pour caractériser un tel type. De telles solutions syntaxiques sont cependant critiquées pour être ad hoc, c’est-à-dire non indépendamment motivées ; ou bien surtout que (comme dans le cas intuitionniste) le paradoxe peut être rétabli même pour ces types de proposition (Williamson 2000). La discussion, toujours vivante aujourd’hui, est centrée sur la possibilité d’échapper au paradoxe sans succomber aussitôt à l’une de ses variantes. Enfin, il existe également un ensemble de solutions sémantiques au paradoxe, dont la discussion nous entrainerait cependant trop loin (Kvanvig 2006 est une référence utile sur le sujet).
d. La dimension sociale de la connaissance
Les sections précédentes concernent la définition et l’analyse formelles du concept de connaissance individuelle. Or un pan considérable de la logique épistémique contemporaine s’intéresse à la connaissance dans un contexte d’interaction – aux connaissances de nature collective. Contrairement à l’étude de la connaissance individuelle, celui de la connaissance collective s’est cependant développé relativement indépendamment de la littérature philosophique (bien qu’il y soit en partie né). Cela est dû à la nature de ses applications, qui appartiennent surtout à des domaines techniques tels que la théorie des jeux et les systèmes multi-agents en informatique. En effet, la théorie des jeux concerne précisément le comportement stratégique d’individus en situation d’interaction, pour la compréhension duquel l’analyse des connaissances qu’ils ont sur la situation ainsi que les uns sur les autres sont donc cruciales. Il en va de même pour l’étude et la conception des systèmes d’agents artificiels multiples, dont il faut pouvoir déterminer la façon dont ils peuvent acquérir des « connaissances », par exemple en vue de permettre leur coordination efficace. Ces applications naturelles ont un temps catalysé l’analyse formelle de la connaissance interactive, au détriment de son analyse philosophique. Cependant, cette tendance s’est désormais infléchie ; mais même si la connaissance en situation d’interaction a retrouvé une place dans la littérature philosophique, la prédominance de sa caractérisation formelle a comme nous le verrons brouillé sa compréhension.
e. Connaissance commune et enfants sales
Une première notion de connaissance en situation d’interaction est celle de connaissance partagée. Elle est extrêmement simple : une proposition est dite de connaissance partagée au sein d’un groupe lorsque tous les membres du groupe la connaissent. Elle n’est donc qu’une juxtaposition de connaissances individuelles. Une deuxième notion, un peu plus complexe, est celle de connaissance distribuée : il s’agit de toute connaissance qui pourrait être atteinte au sein d’un groupe si ses membres combinaient leurs connaissances individuelles. Toute connaissance étant vraie, cette combinaison ne pose aucun problème de cohérence (il en irait autrement pour le concept analogue de croyance distribuée ; certaines croyances étant vraies et d’autres fausses, se poserait alors la question de les combiner de façon à éviter incohérences ou contradictions).
La connaissance distribuée désigne donc une connaissance non pas effective mais potentielle, en quelque sorte une mesure de la richesse des informations contenues dans le groupe. Enfin, la principale, car la plus utilisée des notions de connaissance en situation d’interaction est celle de connaissance commune. Pour la comprendre, commençons par un exemple célèbre, celui des enfants sales.
Dix enfants surdoués vont jouer ensemble dehors. Tous se salissent si bien qu’ils ont de la boue sur le front (chacun voit donc le front sale des autres mais pas le sien). A leur retour, leur père (c’est une famille nombreuse) les accueille et déclare alors : « Au moins l’un d’entre vous a un front sale. » Il demande alors : « L’un d’entre vous sait-il s’il a le front sale ? » Personne ne répond. Le père demande une deuxième fois, sans réponse, puis, patiemment, une troisième fois… à la dixième question, tous les enfants répondent simultanément : « Mon front est sale ! ». Comment cela peut-il s’expliquer ?
Remarquons d’abord que s’il n’y avait qu’un enfant, il aurait pu répondre immédiatement à la première question (si un enfant est sale, c’est moi puisque je suis seul). Prenons maintenant le cas de deux enfants, Annie et Ben. A la première question, ni A ni B ne peut répondre. D’après leur père, au moins l’un d’entre eux est sale, ce qu’ils savaient déjà puisque chacun a pu observer le front sale de l’autre. Cela ne leur apprend rien sur leur propre front. Cependant, l’absence de réponse après la première question leur apporte une information. Annie peut raisonner de la sorte : si mon front était propre, alors Ben l’aurait vu et il aurait donc su, après la déclaration de notre père, que c’était son front à lui qui était sale. Ben aurait alors pu répondre à la première question. S’il ne l’a pas fait, c’est que mon front est sale comme le sien. Annie (comme Ben) peut alors répondre « Mon front est sale ! » à la deuxième question.
Les cas impliquant plus d’enfants se déduisent des précédents. Soient trois enfants, Annie, Ben et Claude. Claude peut se dire : si mon front était propre, Annie et Ben le sauraient et seraient donc dans la situation à deux enfants ; ils auraient donc dû comprendre que leur front était sale après la deuxième question. S’ils ne l’ont pas fait, c’est donc que mon front est sale. Tous raisonnant de la même façon, tous comprennent que leur front est sale et répondent à la troisième question. Et ainsi de suite… dix enfants sales répondront tous à la dixième question, après neuf tours de silence.
Que nous apprend cet exemple, en dehors du fait que ces enfants sont décidément précoces ? Qu’il peut être difficile de comprendre comment la déclaration initiale du père a pu mener aux réponses des enfants. Après tout, tous les enfants savaient déjà, avant que leur père ne leur dise, qu’au moins l’un d’entre eux était sale – il s’agissait d’une connaissance partagée. Comment une déclaration n’apportant aucune information nouvelle pourrait-elle initier un raisonnement nouveau ? Parce qu’elle apporte en fait bien de nouvelles informations. Certes, tous les enfants savaient que l’un d’entre eux était sale, mais ils ne savaient pas que les autres le savaient aussi. Dans le cas de deux enfants par exemple (Annie et Ben), Annie, ne pouvant observer son front, ne savait pas dès le départ que Ben savait que l’un d’eux avait le front sale. C’est la déclaration du père qui apporte cette connaissance. A trois enfants : après la déclaration Claude est en mesure de raisonner sur le cas à deux enfants, et en particulier sur le raisonnement d’Annie, parce qu’elle sait désormais qu’Annie sait que Ben sait que l’un d’entre eux a le front sale.
Tout cela devient compliqué, mais la conclusion est simple : la déclaration du père rend la proposition « au moins un enfant a le front sale » non pas de connaissance partagée entre les enfants (ce qu’elle était déjà), mais de connaissance commune. Il s’agit d’une déclaration publique, qui rend donc son contenu tout aussi public. En particulier, après la déclaration, tous savent que l’un d’entre eux est sale, tous savent que tous le savent, tous savent que tous savent que tous le savent… et ainsi de suite. La connaissance commune d’une proposition implique ainsi une infinité de connaissances mutuelles imbriquées, que nous appellerons itérations épistémiques. Notre exemple met en scène ce concept d’une façon surprenante, puisqu’il s’agit d’une situation dans lequel ce n’est pas le contenu d’une annonce mais les conditions dans lesquelles elle est faite qui apportent des connaissances à ceux qui l’entendent. Nous allons maintenant voir comment ce concept inhabituel de connaissance commune peut être défini.
3. Connaissance commune : l’approche formelle
a. Syntaxe
Définissons d’abord la connaissance partagée. Soient K1, K2, …, KN les opérateurs de connaissance pour des individus 1, 2, …, N. On définit l’opérateur de connaissance partagée K*, comme la conjonction de toutes les connaissances individuelles : pour toute proposition p, K*p K1p ∧ K2p ∧ … ∧ KNp. (Cette formule se lit : tous savent que p si et seulement si l’individu 1 sait que p, l’individu 2 sait que p, … et l’individu N sait que p.)
On peut alors définir syntaxiquement l’opérateur de connaissance commune C de plusieurs façons. Tout d’abord, après la section précédente, une définition possible vient naturellement à l’esprit : il s’agirait de dire que quelque chose est de connaissance commune si et seulement si tous le savent, tous savent qu’ils le savent, et ainsi de suite. Autrement dit, on aurait :
Pour toute proposition p, Cp K*p ∧ K*K*p ∧ K*K*K*p ∧…
Autrement dit, la connaissance commune ne serait rien d ‘autre que la conjonction infinie des itérations épistémiques apparue dans l’exemple de la section précédente. Du point de vue syntaxique, cette définition pose le problème évident qu’elle nécessite la possibilité d’accepter des conjonctions infinies dans le langage, ce qui n’est par exemple pas permis dans la logique classique, qui n’accepte que les conjonctions finies de formules.
Une seconde caractérisation possible est la suivante. Il ne s’agit plus de définir la connaissance commune sur la base de la connaissance individuelle, mais d’en dégager une caractéristique suffisamment puissante pour pouvoir en dériver des conséquences intéressantes. La formule souvent utilisée pour ce faire est la suivante, qu’on appelle axiome de point fixe:
Pour toute proposition p, Cp K*(p ∧ Cp)
Cette formule se lit comme suit : si une proposition est de connaissance commune, alors tous la connaissent et tous savent qu’elle est de connaissance commune. En mathématiques, le point fixe x0 d’une fonction f est tel que x0 = f(x0). Ici, Cp est un point fixe de la fonction f(x) = K*(p ∧ x) (voir Fagin et al., 1995, p.34).
L’intérêt de cette formule est qu’elle permet d’engendrer toutes les itérations épistémiques alors qu’elle est finie. Comment ? Si on a Cp, alors par la formule on a K*p. On a également K*(Cp), et donc K*K*p (puisque Cp implique K*p, et par application de l’axiome (K)). De la même façon, on peut engendrer toute formule du type K*…K*p. Cependant, un désavantage de cette formule est qu’elle ne suggère pas d’analyse de la connaissance commune en termes de concepts plus simples.
Du point de vue syntaxique, l’opérateur C de connaissance commune se rapproche de K, celui de connaissance individuelle. En effet, on peut montrer que si K respecte les axiomes (K), (T), (4) et (5) du système S5, alors il en va de même pour C ; on dispose du même résultat pour S4. Pour ces raisons, on peut estimer qu’il est légitime de parler de la connaissance commune comme d’une forme de connaissance, puisqu’elle en possède les propriétés.
Il n’en va pas nécessairement de même pour la croyance, qui est typiquement axiomatisée en remplaçant (T) par l’axiome (D) plus faible (cf. supra), et en supprimant l’axiome (5). Mais lorsque l’opérateur de croyance individuelle respecte les axiomes (K), (D) et (4), ce n’est pas nécessairement le cas de l’opérateur de croyance commune correspondant (Halpern & Moses 1992).
Notons par ailleurs que si la similitude formelle entre connaissances individuelle et commune peut justifier le statut de connaissance de cette dernière, il serait fallacieux d’en inférer qu’un groupe peut être considéré comme un individu à part entière voire qu’il existe une certaine entité collective.
Pour finir, évoquons rapidement la connaissance distribuée (dont les discussions et conséquences philosophiques sont moindres que celles des connaissances individuelle et commune). Notons DGp la proposition : p est de connaissance distribuée au sein du groupe G – c’est-à-dire, tous les membres de G connaîtraient p s’ils combinaient toutes leurs connaissances individuelles. L’opérateur possèdera toutes les propriétés de l’opérateur de connaissance K sous-jacent, ainsi que deux supplémentaires :
D{i}p Kip : il est équivalent de dire que l’individu i sait que p et que p est de connaissance distribuée au sein du groupe dont il est l’unique membre.
DGp → DG’p si G contient G’ : les connaissances distribuées d’un groupe G’ sont également des connaissances distribuées de tout groupe qui le contient.
b. Sémantique
Passons maintenant aux caractérisations sémantiques, c’est-à-dire en termes de mondes possibles, en commençant par un ajout. Lors de la présentation de cette sémantique, nous avons considéré un ensemble de propositions donné puis des ensembles de mondes possibles quelconques, tel que chaque proposition peut être vraie ou fausse dans chaque monde. Notons qu’on pourrait définir une proposition par son extension – l’ensemble des mondes possibles dans lesquels elle est vraie (les propositions vraies dans le même ensemble de monde seraient donc logiquement équivalentes) ; mais on désigne en général un ensemble de mondes possibles comme étant un événement plutôt qu’une proposition (l’ensemble des propositions étant exprimable dans un langage, il est dénombrable, tandis que celui des ensembles de mondes possibles ne l’est pas) ; nous ignorons ce raffinement dans ce qui suit, conservant le terme de « proposition ».
Désormais, partons d’un ensemble quelconque de monde possible et incluons dans le langage toutes les propositions correspondant à un certain ensemble de ces mondes. On peut alors définir la connaissance commune de deux façons, comme précédemment.
D’abord, on peut dire que Cp est vraie en un monde w si et seulement si pour tout entier M, K*…K*p est vraie (l’opérateur K* étant répété M fois). Il s’agit de nouveau d’une définition itérative de la connaissance commune, qui implique une infinité de clauses ; à ceci près que cette infinité n’est plus problématique, comme nous le verrons plus bas.
Une seconde définition repose encore sur l’idée de point fixe, à travers la notion de proposition évidente. On appelle proposition évidente toute proposition q telle que q K*q, c’est-à-dire toute proposition dont la vérité est équivalente au fait qu’elle soit connue de tous – en particulier, quelque chose qui ne peut se produire qu’en étant automatiquement su de tous. On peut également parler de proposition publique. On peut alors dire qu’une proposition p est de connaissance commune si et seulement s’il existe une proposition évidente q qui implique K*p. Une proposition évidente est-elle-même de connaissance commune, ainsi que toute proposition qu’elle implique – qui est vraie au moins dans tout monde possible où q est vraie.
Sémantiquement, la connaissance commune se comprend de façon similaire à la connaissance individuelle. On considère de nouveau un ensemble de mondes possibles, cette fois liés non pas par une seule relation de possibilité mais par un ensemble de telles relations – une pour chaque individu.
Pour rappel, on dit que Kip est vraie dans le monde w si et seulement si p est vraie dans tout monde lié à w pour la relation de possibilité relative à l’agent i. La formule K*p sera donc vraie si elle est vraie dans tous les mondes liés à w par la relation de possibilité de n’importe quel individu. De la même façon, K*K*p sera vraie en w si et seulement si p est vraie dans tout monde situé à deux mondes de distance de w (où la distance est mesurée par le nombre de liens séparant les mondes, quels que soient les individus dont ils représentent la relation de possibilité).
Définissons enfin une relation d’accessibilité : on dira qu’un monde w’ est accessible à partir d’un monde w lorsqu’il existe une suite de liens (de longueur finie) permettant de relier w à w’ – quels que soient les individus auxquels ces liens correspondent. Par exemple, si w’ était possible en w pour l’individu 1, w’’ possible en w’ pour l’individu 3 et w’’’ possible en w’’ pour l’individu 2, alors w’’’ sera accessible à partir de w. (Une proposition vraie en w’’’ sera telle que l’individu 1 estime possible que l’individu 3 estime possible que l’individu 2 estime possible que p soit vraie.) On peut alors dire que Cp est vraie en w si et seulement si p est vraie en tout monde accessible depuis w.
La représentation en partitions se révèle ici particulièrement utile. Considérons le cas de six mondes possibles et de deux individus dont les partitions sont :
Individu 1 : {{w1, w2},{w3},{w4,w5, w6}}
Individu 2 : {{w1},{w2, w3},{w4, w5,w6}}
On peut visualiser les mondes accessibles à partir d’un monde donné en regardant si on peut passer de l’un à l’autre en se déplaçant dans des éléments successifs des partitions. Par exemple, w3 est accessible à partir de w1 : en w1, w2 est possible pour l’individu 1 (ils appartiennent au même élément {w1, w2} de sa partition) ; et en w2, w3 est possible pour l’individu 2. Par contre, ni w4 ni w5 ni w6 ne sont accessibles à partir de w1 (on ne peut trouver aucun chemin du même genre entre w1 et ces derniers).
Une proposition p sera alors de connaissance commune lorsqu’elle est vraie dans un ensemble de mondes qui correspond à des séparations communes à toutes les partitions (des ensembles de mondes dont aucune relation de possibilité ne permet de sortir). Par exemple, une proposition vraie en {w1,w2, w3} sera de connaissance commune entre les individus 1 et 2 ; de même pour {w4, w5, w6}. Une fois qu’on dispose de représentations partitionnelles des connaissances individuelles, il suffit de rechercher les coupures communes pour visualiser ce qui est de connaissance commune.
Qu’en est-il de la connaissance distribuée ? On peut également en donner une caractérisation sémantique comme suit : DGp est vraie en un monde w si et seulement si p est vraie en tout monde lié à w par les relations de possibilité de tous les membres du groupe G à la fois. On peut bien entendu également prouver des résultats liant les caractérisations syntaxique et sémantique de la connaissance distribuée (Fagin et al. 1995, pp. 69-70).
4. Quelques problèmes
a. Le problème des généraux
Imaginons deux généraux A et B, postés sur deux collines éloignées qui encerclent un ennemi commun dans la vallée. Seul le général A peut observer l’ennemi et savoir quand il est vulnérable, auquel cas il peut être vaincu par une attaque simultanée de la part de A et B ; sinon, une défaite écrasante est assurée (en particulier, ni A ni B ne peut vaincre l’ennemi à lui seul). De plus, les généraux ne peuvent communiquer que par l’envoi de messagers qui doivent traverser la vallée et courent donc un risque d’interception. La situation semble simple ; il est cependant possible de montrer que les généraux ne seront jamais en mesure d’attaquer simultanément – d’où le « paradoxe » !
Comment les généraux devraient-ils procéder ? Idéalement, A doit observer l’ennemi et lorsqu’il est vulnérable envoyer un messager à B. Lorsque celui-ci le recevra, ils pourront attaquer. Mais le message peut être intercepté ; B devrait donc envoyer une confirmation de réception à A, sans quoi celui-ci ne saurait pas si son message est arrivé et ne se risquerait donc pas à déclencher son attaque avec le risque d’être seul, de voir son armée détruite et toute chance de victoire évaporée. Cependant, la confirmation doit être envoyée par messager, avec un nouveau risque d’interception. Si elle n’est pas reçue, B n’attaquera pas, puisqu’il ne sera pas certain que A a reçu la confirmation et décidé d’attaquer. Recevant la confirmation, A devrait donc à son tour envoyer une confirmation de bonne réception de la confirmation ! Et ainsi de suite : la nécessité de chaque général d’être certain de la décision d’attaquer de l’autre conduit à un échange sans fin de messages et à l’inaction : l’attaque n’a jamais lieu.
Que se passe-t-il ici ? Pour attaquer de façon simultanément, il doit être de connaissance commune entre les généraux que l’ennemi est vulnérable. Mais cette connaissance commune ne saurait être atteinte de façon itérative, c’est-à-dire par construction successive de connaissances individuelles (du type : A sait qu’il faut attaquer ; A sait que B le sait ; A sait que B sait que A le sait ; etc.), puisqu’il en faudrait une infinité ; or c’est précisément ce que les généraux cherchent à accomplir par l’échange de leurs messages.
Le point de vue des partitions se révèle une fois de plus utile. Appelons w0 le monde dans lequel aucun message n’est envoyé ; w1 le monde dans lequel le premier message est envoyé et non reçu ; w2 le monde dans lequel il est reçu, une confirmation est envoyée mais non reçue ; w3 le monde dans lequel la confirmation de la confirmation est envoyée mais non reçue ; et ainsi de suite. Les partitions épistémiques des généraux sont alors les suivantes :
Général A : {{w0},{w1, w2},{w3, w4},{w5,w6},…}
Général B : {{w0, w1},{w2,w3},{w4,w5},…}
Chaque général est incapable de faire la différence entre le monde où il a envoyé un message qui a été intercepté, et un monde où ce message a été reçu mais sa confirmation a été interceptée. De plus, il existe une infinité de mondes possibles. Pour qu’il soit de connaissance commune entre A et B qu’il est temps d’attaquer, il faudrait que leurs partitions aient des coupures communes qui excluent le monde w0 (le seul dans lequel aucun message n’est envoyé). Or les seules coupures qui coïncident dans ces partitions sont les extérieures. La seule connaissance commune entre les généraux est la proposition que l’un des mondes possibles est réel, ce qui est toujours vrai.
Pourquoi parler de paradoxe ? Parce qu’il semble évident que dans la vie réelle nous parvenons à nous coordonner en dépit de ce problème. Nous n’avons par exemple pas besoin d’échanger d’une infinité – ni même d’un grand nombre – d’emails et de confirmations d’emails pour organiser un rendez-vous à déjeuner (l’échange d’emails est une version moins dramatique du problème des généraux, étudiée par Rubinstein, 1989). Décrivons brièvement deux solutions possibles.
La première consiste à dire que le concept formel de connaissance commune est trop exigeant. En effet, aucun individu réel ne pourrait connaître une infinité de propositions. Dans des cas réels, la connaissance commune se ramènerait alors à un nombre fini d’itérations épistémiques. En d’autres termes, on aurait donc une définition itérative tronquée de la connaissance commune :
Pour toute proposition p, Cp K*…K*K*p (l’opérateur K* étant répété un nombre fini M de fois)
Cela permet d’expliquer pourquoi nous parvenons typiquement à nous coordonner efficacement après un nombre fini, et même faible, de messages échangés (M devrait donc être faible). Cependant, cela laisse ouvert le problème de déterminer la valeur de M – qui pourrait de plus varier selon les situations.
La deuxième solution prend en compte la dimension stratégique de la situation et notamment les gains et pertes possibles, ainsi que leurs probabilités. La description initiale du paradoxe supposait que tout risque de défaite devait être évité, aussi faible soit-il, ce qui revient à dire que la perte associée à la défaite était infinie. Cependant, on pourrait attribuer une valeur à la perte due aux défaites éventuelles (d’un général attaquant seul, et des deux généraux attaquant l’ennemi non vulnérable), ainsi qu’au gain entraîné par la victoire. Prenons maintenant en compte les probabilités de chaque possibilité : par exemple, la probabilité que seulement trois messages soient échangés est égale au produit de celle que l’ennemi soit vulnérable, celle que trois messages ne soient pas interceptés et celle que le quatrième message le soit. Il est alors possible de montrer qu’il serait rationnel pour les généraux d’attaquer après un nombre fini et éventuellement faible de messages : la chance que l’ennemi pourrait être vulnérable pourrait contrebalancer la perte due à une éventuelle défaite. (Morris & Shin 1997). Cette solution a l’inconvénient de sortir l’analyse d’un cadre limité à la pure connaissance, puisque les intérêts y entrent en jeu. Cependant, elle semble adaptée aux cas concrets de coordination et à leur inévitable dimension pragmatique. De plus, elle restaure la capacité d’action des généraux sans exiger la présence ici impossible d’une connaissance commune que le temps de l’attaque est venu. Elle ne résout donc pas le paradoxe pour ce qui concerne la connaissance commune mais en élimine les conséquences débilitantes.
b. Analyse philosophique
Le concept de connaissance commune a été largement diffusé dans ses versions formelles, et plus particulièrement sous sa définition itérative. On l’introduit donc fréquemment de la sorte : « quelque chose est de connaissance commune si tous le savent, tous savent que tous le savent, tous savent que tous savent que tous le savent, et ainsi de suite. » D’un autre côté, l’origine du concept se trouve en philosophie non formelle. Il a été introduit par Lewis (1969) dans son analyse des conventions, comme élément crucial de la coordination entre individus. On retrouve par ailleurs la connaissance commune dans diverses analyses de la communication : la communication ne peut avoir lieu que si l’intention de communiquer des locuteurs est de connaissance commune entre eux ; l’utilisation de démonstratifs (du type « ce livre ») présuppose que leur référence soit de connaissance commune ; une conversation se déroulé sur un fond de présupposés qui sont de connaissance commune ; etc.
Se pose alors un problème d’adéquation du formalisme. Si la connaissance commune fait référence à une propriété psychologique impliquée dans d’innombrables phénomènes courants tels que coordination et communication, alors ses définitions formelles semblent insuffisantes. La principale raison est qu’elles présupposent que l’on peut savoir ce qu’autrui sait ; or nos connaissances portant sur autrui sont fondamentalement faillibles – nous avons au mieux une croyance fortement justifiée qu’autrui sait quelque chose. Or si la connaissance de la connaissance d’autrui est impossible, toute définition formelle faisant entrer en jeu un double opérateur du type K1K2 est caduque. De plus, la connaissance commune elle-même semble faillible, au sens où nous pouvons fréquemment nous coordonner ou communiquer sans certitudes concernant autrui, voire même si nos croyances mutuelles se trouvent partiellement erronées.
Ces deux critiques peuvent cependant être dépassées en revenant à la définition originelle de la connaissance commune, donnée par Lewis (1969, p. 52) :
« Nous disons qu’il est de connaissance commune dans une population P que __ si et seulement s’il existe un état de chose A tel que :
(1) Chacun dans P a de bonnes raisons de croire que A est le cas.
(2) A indique à chacun dans P que chacun dans P a de bonnes raisons de penser que A est le cas.
(3) A indique à tous dans P que __. »
La connaissance commune ne serait ainsi pas fondée sur la connaissance individuelle, mais sur le fait d’avoir de bonnes raisons de croire quelque choses (ce qui est même plus faible que de demander une croyance explicite). Elle repose notamment sur l’existence d’une certaine situation dans laquelle chacun serait en mesure d’inférer des croyances possibles d’autrui ; cette situation est par ailleurs évidente, ou publique – qu’elle soit le cas indique (dans toutefois l’impliquer logiquement) qu’elle est bien le cas. On retrouve ici l’esprit d’une définition par point fixe, mais qui n’implique plus la connaissance individuelle ni même d’état mental explicite.
Plusieurs auteurs ont alors suggéré de repartir de cette analyse fondamentale pour formaliser la connaissance commune, à l’aide par exemple d’opérateurs modaux représentant non pas le savoir individuel mais le fait d’avoir une bonne raison de croire (Cubitt & Sugden 2003), d’être conscient (« aware » ; Sillari 2005), ou de croire à un certain degré et de façon implicite (Paternotte 2011). Il faut alors évidemment identifier les axiomes respectés par ces nouveaux opérateurs et redonner une définition formelle correcte. Se pose enfin, à ce stade, le dernier problème de résoudre les liens entre cette connaissance commune « réaliste » et sa version formelle plus classique – la seconde pourrait par exemple être considérée comme atteignable par des agents aux facultés logiques et cognitives idéales (Gilbert 1989, Cubitt & Sugden 2003). De même, la distinction entre connaissance et croyance commune devient alors subtile et difficile à formaliser (Paternotte 2017).
Arrêtons-nous ici. Cette discussion nous suggère cependant qu’il faut se méfier du raccourci selon lequel il faudrait opposer l’analyse philosophique d’un concept à une caractérisation formelle nécessairement simplificatrice et donc trompeuse. Le cas de la connaissance commune est particulièrement instructif à cet égard, puisque la perspective formelle en a longtemps infléchi sa compréhension. Cependant, il serait erroné d’y lire un vice de l’approche formelle, quand cela ne révèle que le danger de contagion de toute caractérisation simplifiée, plus aisément compréhensible et donc transmissible. Le retour à une caractérisation lewisienne plus élaborée de la connaissance commune n’élimine en effet aucunement la possibilité renouvelée d’une formalisation, d’où émergeront peut-être de nouveaux éclairages.
Conclusion
Cette entrée ne saurait se prétendre exhaustive. Nous avons passé en revue certains des principaux thèmes liés à l’approche formelle de la connaissance classique ; il en existe d’autres. Par exemple, nous n’avons pratiquement évoqué que des cas de connaissance statique, c’est-à-dire qui n’évolue pas dans le temps lorsque les individus reçoivent de nouvelles informations.
Or il existe une littérature formelle considérable consacrée à l’approche dynamique de la connaissance. Dans un cadre d’individus multiples, on peut par exemple citer la logique dite des annonces publiques. La logique épistémique dynamique est également applicable au cas individuel (voir par exemple Gerbrandy (2007) pour une application au paradoxe de l’examen surprise, autre cas célèbre dont nous n’avons pu parler).
Elle fournit des outils formels pour analyser la dynamique de la connaissance au sein d’un groupe lorsqu’y sont faites des annonces rendant automatiquement une proposition de connaissance commune au sein du groupe (van Ditmarsch et al. 2008). Ces travaux ne concernent cependant pas la nature de la connaissance commune, puisqu’ils en prennent l’existence et les conditions d’apparition comme données.
Même dans son état parcellaire, notre passage en revue nous a toutefois permis de mieux apprécier l’intérêt d’une approche formelle pour la compréhension de la connaissance (et en philosophie en général). Elle permet d’entre autres d’identifier d’éventuelles propriétés nécessaires et suffisantes et d’en évaluer les conséquences positives ou négatives de façon précise. Elle peut mener à des arguments surprenants qu’un discussion informelle aurait eu beaucoup moins de chances de mettre au jour ; et permet également d’éliminer comme caducs certains arguments informels, notamment lorsqu’ils sont insuffisamment rigoureux. Pour en rester au cas qui nous intéresse, il est incontestable que notre compréhension de la connaissance serait plus superficielle sans la stimulation régulièrement produite par l’aiguillon formel.
Il faut cependant avouer que l’approche formelle de la connaissance ne constitue de nos jours qu’une portion congrue de ce qu’on peut appeler les outils formels épistémiques. L’essentiel de ces techniques, qui ne se limitent pas à la logique épistémique mais incluent également les approches probabilistes bayésiennes, sont en effet mobilisées pour traiter non pas la connaissance mais la croyance, avec des applications tant à la philosophie des sciences qu’à l’épistémologie sociale. En effet, qu’il s’agisse de la connaissance individuelle ou commune, une grande partie des thèmes discutés précédemment touchent essentiellement à des aspects définitionnels et à l’identification de propriétés nécessaires et/ou suffisantes. De même, la logique épistémique dynamique, bien qu’applicable à la connaissance, est surtout utilisée dans le traitement des révisions de croyance. Les croyances semblent bien occuper la plus grande partie de notre vie épistémique. Cela n’enlève rien à l’intérêt de l’analyse de la connaissance, à la fois parce que son atteinte reste souvent le but recherché par de nombreux individus ou groupes, et en raison du rôle prépondérant qu’y jouent divers paradoxes théoriques. Nous espérons en tout cas que cette page aura su donner un avant-goût de la richesse des explorations formelles de la connaissance.
Bibliographie
Francesco Berto (2010). “Impossible Worlds and Propositions: Against the Parity Thesis”. The Philosophical Quarterly 40: 471-486.
Patrick Blackburn, Maarten de Rijke & Yde Venema (2001). Modal Logic. Cambridge University Press.
Berit Brogaard & Joe Salerno (2013). “Fitch’s Paradox of Knowability”. Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/entries/fitch-paradox/
Robert Bull & Krister Segerberg (1984). “Basic Modal Logic”, in Gabbay 1984, 1-88.
Robin Cubitt & Robert Sugden (2003). Common knowledge, salience and convention: A reconstruction of David Lewis’s game theory. Economics and Philosophy 19: 175–210.
Hans van Ditmarsch, Wiebe van der Hoek & Barteld Kooi (2008). Dynamic Epistemic Logic. Springer.
Fred Dretske (1981). Knowledge and the Flow of Information. Cambridge, MA: MIT Press.
Michael Dummett (2009). “Fitch’s paradox of Knowability”. In Salerno (ed.), 2009, pp. 51-52.
Paul Egré & Jérôme Dokic (2009). “Margin for error and the transparency of Knowledge”. Synthese 166: 1-20.
Ronald Fagin & Joseph Halpern (1988). “Belief, awareness, and limited reasoning”. Artificial Intelligence 34:39–76.
Ronald Fagin, Joseph Halpern, Yoram Moses & Moshe Vardi (1995). Reasoning about Knowledge. MIT Press.
Frederic Fitch (1963). “A Logical Analysis of Some Value Concepts”. The Journal of Symbolic Logic 28: 135–142.
Jelle Gerbrandy (2007). ‘The Surprise Examination in Dynamic Epistemic Logic’. Synthese 155: 21-33.
Daniel Greco (2014). “Could KK Be OK?” The Journal of Philosophy 111(4): 169-197.
Joseph Halpern & Yoram Moses (1992). “A guide to completeness and complexity for modal logics of knowledge and beliefs”. Artificial Intelligence 54: 319-379.
Joseph Halpern & Riccardo Pucella (2011). “Dealing with logical omniscience: Expressiveness and pragmatics”. Artificial Intelligence 175: 220-235.
Jaakko Hintikka (1962). Knowledge and Belief: An Introduction to the Logic of the Two Notions. Ithaca, NY: Cornell University Press.
Jaakko Hintikka (1975). “Impossible Possible Worlds Vindicated”. Journal of Philosophical Logic 4: 475–84.
Jonathan Kvanvig (2006). The Knowability Paradox. Oxford: Oxford University Press.
Mark Jago (2015). “Impossible Worlds”. Noûs 49:4: 713-728.
David Lewis (1969). Convention—A philosophical study. Cambridge: Harvard University Press.
David Lewis (1999). “Elusive Knowledge”. In Papers in Metaphysics and Epistemology, Cambridge University Press.
Ruth Millikan (1984). Language, Thought and Other Biological Categories. MIT Press.
Salvatore Modica & Aldo Rustichini (1994). “Awareness and partitional information structures”. Theory and Decision 37:107–124.
Stephen Morris & Hyun Song Shin (1997). “Approximate common knowledge and co-ordination: Recent lessons from game theory”. Journal of Language, Logic and Information 6: 171–190.
Cédric Paternotte (2011). “Being Realistic about Common Knowledge: A Lewisian Approach”. Synthese 183(2): 249-276.
Cédric Paternotte (2017). “The Fragility of Common Knowledge”. Erkenntnis 82(3): 451-472.
Graham Priest (2005). Towards Non-Being. The Logic and Metaphysics of Intentionality. Oxford: Oxford University Press.
V. Rantala (1975). “Urn Models: A New Kind of Non-Standard Model for First-Order Logic”. Journal of Symbolic Logic 4: 455-474.
V. Rantala (1982). “Impossible Worlds Semantics and Logical Omniscience”. Acta Philosophica Fennica 35: 106–15.
Ariel Rubinstein (1989). “The electronic mail game. Strategic behavior under ’Almost Common Knowledge’”. The American Economic Review 79: 385–391.
Joe Salerno (ed.) (2009). New Essays on the Knowability Paradox. Oxford, NY: Oxford University Press.
Giacomo SIllari (2005). “A logical framework for convention”. Synthese 147: 379–400.
Robert Stalnaker (1999). Context and Content. Oxford: Oxford University Press.
Robert Stalnaker (2006). “On Logics of Knowledge and Belief”. Philosophical Studies 128:169-199.
Neil Tennant (2002). “Victor Vanquished”. Analysis 62: 135–142.
Timothy Williamson (1982). “Intuitionism Disproved?”. Analysis 42: 203–207.
Timothy Williamson (1995). “Is Knowing a State of Mind?”.
Timothy Williamson (2000a). Knowledge and its Limits. Oxford: Oxford University Press.
Timothy Williamson (2000b). “Tennant on Knowable Truth”. Ratio 13: 99–114.
Cédric Paternotte
Université de Paris-Sorbonne
cedric.paternotte@paris-sorbonne.fr