La philosophie de A à Z

Le terme de « dépiction » pour nommer le mode iconique de référence n’est pas encore totalement acclimaté en français. Il ne sonne pas familier, il sent le néologisme récemment dérivé de l’anglais alors même qu’il désigne quelque chose de tout à fait ordinaire, puisque chacun en fait l’expérience devant n’importe quel dessin ou photographie, faisant contraste avec ce qui se passe quand on lit une phrase ou un texte. De manière intuitive, la dépiction donne à voir de façon immédiate et souvent transparente une portion de réalité alors que la description linguistique construit ou permet d’imaginer le contenu sémantique correspondant, sans rien présumer de sa présentation sensible. Cette caractéristique confère à l’image une puissance visuelle incomparable qui peut aller jusqu’à la fascination et encourage l’idée qu’elle se passe de toute médiation interprétative. Bien que centrale d’un point de vue conceptuel, la distinction est cependant peu marquée dans l’usage terminologique courant où il n’est pas rare d’intervertir les verbes décrire et dépeindre.

En première approximation, le terme de dépiction peut donc être pris pour un synonyme de représentation, à savoir la variété de représentation dont une image est le support. L’inconvénient d’une telle définition est qu’elle fait la part trop belle à l’identification de son sujet et pousse à négliger la distinction entre les propriétés objectives qui sont celles que possède le monde et celles qu’une image attribue au monde par le fait de le représenter, différence qui prend une importance considérable dans l’usage artistique des images. Et elle ne dit encore rien de ce qui fait la spécificité iconique de l’appréhension de la réalité.

L’intérêt philosophique pour l’image est certes loin d’être nouveau, il remonte de fait à l’Antiquité. Toutefois, ce qui a longtemps retenu l’attention relevait d’un questionnement ontologique, témoin la perplexité de Platon découvrant que « l’image n’est pas un pur rien sans être pour autant quelque chose » et qu’elle « entrelace le non-être et l’être » (Soph. 240b et c), ou de considérations de nature épistémologique (telle la schématisation efficace de la figure géométrique ou la capacité surprenante du dessin à suggérer une profondeur fictive). Ce n’est qu’assez récemment qu’on s’est intéressé à ses modalités propres, tant perceptives que symboliques, à ce qui fait son originalité dans l’ensemble des dispositifs de représentation et d’expression. En parallèle, le centre de gravité de l’esthétique n’a cessé de se déplacer des propriétés de l’image en qualité d’artefact à ce que la philosophie de l’esprit est en mesure d’analyser dans son fonctionnement.

Aussi cette entrée qui ne traite pas de l’image pour elle-même mais de la relation iconique dont elle est partie prenante est-elle limitée à des références postérieures aux années 1950 (et surtout 1980) et empruntées pour l’essentiel à des contributions en langue anglaise qui ont fait de cette thématique un site de conceptualisation d’une exceptionnelle fécondité. Trois questions au moins s’imposent avec insistance : les préalables méthodologiques à une réflexion sur la dépiction, les principales sortes de théories qui sont en concurrence pour rendre compte du phénomène, enfin la caractérisation de la dualité que l’image met en jeu, en tant que surface qui engendre un contenu qui la transcende, expérience qui forme un noyau actif des arts picturaux.


Table des matières

1. Devant l’image

a. Deux dimensions connexes de la spatialité

b. Le faux écueil de la diversité iconique

c. Raisonner en termes de contraintes

i. contrainte de la diversité
ii. contrainte d’indépendance
iii. contrainte de la double perception (ou twofoldness
iv. contrainte de la compétence

2. Quatre familles de théories

a. Le point de vue structural

b. Les approches phénoménologiques

i. le medium invisible
ii. du phénomène physique à l’impression picturale
iii.  un jeu de faire-semblant (make-believe)

c. Les approches récognitionnelles

d. Le recours à une base mimétique

3. Voir-dans (seeing-in)

a. Voir-comme
b. Comprendre la dualité
c. La vision infléchie


1. Devant l’image

Une fois admis, avec la grande majorité des auteurs écrivant sur le sujet, que la dépiction est une forme de représentation intrinsèquement visuelle, il est naturel de choisir comme point de départ la manière dont on réagit en présence d’une image. Pas plus que le langage n’est la mise en mots d’une pensée déjà faite, la perception n’est pas une simple interface sensible, elle permet d’interagir avec un contenu iconique qui offre des facilités d’interprétation ou suscite des obstacles. Envisagée à partir de la dépiction, l’image ne se réduit jamais à une structure formelle, elle est une situation originale d’action et de réception, ce pourquoi la regarder n’équivaut pas à regarder ce dont elle est image. Plusieurs conditions sont impliquées dans ce résultat.

a. Deux dimensions connexes de la spatialité

L’image occupe une position singulière dans sa relation à la spatialité, en ce qu’elle se place à l’articulation de deux sortes d’espaces, celui fictif qu’elle construit à l’intérieur d’elle-même et celui physique dans lequel elle se trouve elle-même logée. Aucun des deux ne suffit à rendre compte d’elle, car elle n’est pas un pur objet et la tentative de lui reconnaître des caractéristiques autonomes présuppose déjà qu’un regard se soit porté sur elle.

Le premier point est que l’organisation de l’image est de nature perspectivale c’est-à-dire qu’elle dépeint ses objets sous un point de vue donné (terme qu’il ne faut pas restreindre à un sens étroitement géométrique et qui peut ou non refléter l’expérience égocentrée du spectateur de l’image). Si elle montre un bâtiment de face, je ne sais rien de l’arrière ni des côtés et, à la différence de ce qui se passe dans le réel où je peux me déplacer dans l’espace pour compléter mes informations, cette ignorance est définitive puisque la fixité de l’image l’assujettit à cet angle de vision et qu’elle ne peut pas reproduire ce qui n’est pas visible pour lui, qu’il soit simplement dissimulé à la vue (situé par exemple derrière un objet opaque) ou non présent. Cette situation pourrait passer pour une faiblesse rédhibitoire ; en fait, si je n’appartiens pas au même espace que l’image, je suis en revanche en mesure de déterminer de l’extérieur le point à partir duquel elle est construite. C’est ce que Gombrich nomme « le principe du témoin oculaire » qui permet de déduire de l’analyse de l’image la position qui fut celle de l’observateur de la scène (IE 253). À ses yeux, il fournit dans le cas général une clé efficace pour faire comprendre la structure de ce qui est représenté. L’adoption de la perspective ne tiendrait par exemple pas uniquement à une fascination supposée pour la géométrie, elle garantirait de manière plus précise l’intelligibilité de l’action représentée. Dans le cas d’œuvres plus complexes, il se peut que la compréhension nécessite de recourir à un personnage servant pour ainsi dire de guide ; tel est l’admoniteur albertien dont le geste désigne au spectateur ce qui doit s’imposer en priorité à son attention. Wollheim fait un pas supplémentaire en envisageant un spectateur dans l’image que le spectateur réel ne voit pas mais dont il adopte le point de vue et sans la présence duquel l’attitude d’un personnage central resterait énigmatique – témoin l’air de perplexité ou de distraction qu’on lit sur le visage de nombreux portraits de Manet (La chanteuse de rue, La serre, etc.). Ce spectateur imaginaire et invisible est un moyen pour le spectateur réel de pénétrer fictivement dans l’espace virtuel du tableau et d’imaginer de l’intérieur ce qu’il découvre de l’extérieur [PA chap. III].

Quelle que soit l’étanchéité des deux espaces, il peut être tentant d’accentuer la continuité entre le contenu de l’image et l’environnement externe ; ainsi Aertsen n’hésite pas à englober dans le champ visuel de l’œuvre une partie de l’espace du spectateur. Une telle « image dédoublée » comme l’appelle Stoichita anticipe une foule d’autres dispositifs visuels, à base de miroirs, de reflets et d’immersion, qui élargissent le champ de perception et risquent de brouiller la frontière entre virtuel et réel. Il n’en reste pas moins que ce sont des artifices qui séduisent par leur habileté plus qu’ils ne modifient réellement la donne. Une raison de fond est que, quelle que soit la puissance d’une image de manifester son évidence, elle vient buter à son tour sur une situation d’incertitude qui met en doute la consistance de ce qu’on appréhende, chaque fois que le spectateur fait varier sa distance à la surface picturale. Car le tableau en apparence la plus stable ne cesse d’osciller entre la présence de son contenu et la menace de sa dissolution latente, à tel point qu’on y a vu l’expérience originaire de la peinture. Avançant et reculant devant un Chardin, Diderot avoue qu’« on n’entend rien à cette magie… Approchez-vous, tout se brouille, s’aplatit et disparaît. Éloignez-vous, tout se recrée et se reproduit » (Salon de 1763). Tantôt en effet la réalité des pigments s’efface devant l’objet dépeint, ce qui justifie le terme d’hallucination qui naît sous la plume de certains auteurs (dont Metz et Chateau) pour caractériser l’effet d’image, qui ne porte pas tant sur la duplication d’une réalité déjà donnée que sur la vraisemblance d’une réalité possible imaginée à partir de percepts (il faut d’ailleurs ne jamais perdre de vue que la majorité des tableaux d’apparence la plus réaliste sont dénués de référents). Tantôt au contraire la réussite picturale se décompose comme on le voit simultanément dans l’Autoportrait inachevé de Romney (vers 1784) qui fait coexister au sein de la même image un visage d’une remarquable vivacité d’expression et des tracés hésitants de pinceau dont on ne sait s’ils sont la première ébauche d’une figure en train de naître ou les indices fatals de sa disparition. Nombreux sont ceux qui ont vécu l’expérience rapportée par Soulages qu’une simple balafre de goudron sur un mur peut nous surprendre malgré sa densité de pur matériau en nous imposant d’un coup la présence irrésistible d’un objet sans rapport avec elle, avant que ne l’emporte l’inévitable désillusion.

Le fait que la puissance de la représentation soit toujours menacée de sombrer dans les accidents du subjectile n’est pas l’apanage de l’œuvre traditionnelle de peinture, elle a sa contrepartie pour toutes sortes d’images, en particulier dans la pixellisation qui affecte les images numériques grossies à l’excès, et elle se trouve même ébauchée dans certains phénomènes naturels. En revanche elle est absente des images informatives qui visualisent par des formes ou des couleurs arbitraires des données qui sont de n’importe quelle nature. Pas plus que les diagrammes ou les schémas (qui nécessitent une légende pour être interprétés correctement), celles-ci ne relèvent de la dépiction : bien que les domaines de l’image et de la dépiction aient une importante intersection commune, il s’en faut donc qu’on puisse les tenir pour coextensifs.

b. Le faux écueil de la diversité iconique

Lorsqu’on vise une approche aussi générale que possible de la dépiction, une objection qui s’impose immédiatement est qu’il n’existe pas de matrice uniforme des images mais qu’on est au contraire en présence d’une variété inépuisable de situations en constante évolution. Sans cesse de nouvelles catégories, de nouveaux media apparaissent, qui exercent un effet en retour sur ceux qui étaient familiers et l’on peut se demander si l’on n’est pas alors condamné à un apprentissage perpétuel qui aurait pour résultat de rendre désespéré tout processus d’interprétation iconique fiable. Or, tel n’est justement pas le cas et ceci constitue même une caractéristique remarquable de la dépiction.

Comme le remarque John Kulvicki, ce qui est en jeu ici est le contraste saisissant entre la pluralité indéfinie dans les façons de produire des images et la prudence ou la stabilité (certains diraient le conformisme) dans la manière de les interpréter (PPD chap. 1). Soient par exemple deux photographies du même citron, l’une prise avec un objectif standard et l’autre avec un grand angle. Rien ne semble interdire que le dernier cas puisse à volonté être interprété soit comme une image inhabituelle ou déformée d’un citron normal, soit comme une image normale d’un citron bizarre et monstrueux. Ce que montre l’observation de la pratique est que le contenu de l’image (le sujet auquel elle donne accès) prend le pas sur l’identification des formes ou sur le dispositif mis en œuvre, dont l’importance se trouve relativisée. Cela revient à dire que nous abordons les deux images en tant que membres d’un système représentationnel unique et implicite, celui qui maximise le type de corrélation coutumier, du moins tant que la disparité n’est pas trop forte. Autrement dit, à la différence du langage, le monde des images fonctionne selon un principe d’absence de rivalité entre schèmes interprétatifs. En effet, les images ne sont pas en situation de compétition syntaxique puisqu’une photo en noir et blanc n’est pas en contradiction avec la photo du même sujet en couleurs car l’une et l’autre se correspondent quant aux variations de lumière et d’obscurité. Elles ne sont pas davantage en situation de compétition sémantique, quand bien même il est aisé de concevoir de tels cas ; ainsi le type d’images envisagées par Wollheim, obtenues par inversion des couleurs ou redistribution aléatoire des parties pourraient bien représenter la même propriété par des traits syntaxiques différents et introduire une dissymétrie sémantique, mais il est justement significatif qu’on ne les utilise pas, et pour des raisons non contingentes qui ont sans aucun doute à voir avec notre histoire phylogénétique).

De manière plus générale, une multitude de phénomènes iconiques renvoient à des considérations apparentées. Ainsi la grande majorité des gens parviennent sans grande difficulté à interpréter la caricature ou le dessin d’enfant où ce qui est représenté subit des simplifications ou des distorsions parfois considérables. De même la découverte de styles non familiers, qu’il s’agisse de paysages expressionnistes, de nature mortes cubistes, peut-être le style dédoublé utilisé par les Haidas, ne constitue pas non plus un obstacle insurmontable. Toutes ces images font l’objet d’une compréhension qui reste naturelle en ce sens qu’elles mobilisent un usage élargi des ressources visuelles et psychologiques ordinaires sans qu’il soit besoin d’inférences ou de médiations culturelles spécifiques, comme en ont en revanche besoin les images iconographiques qui, surchargées d’intentions et de sous-entendus, restent hermétiques sans information extérieure adéquate. La dépiction fonctionne en prenant appui sur l’apparence visuelle, ce qui ne signifie pas qu’on soit prisonnier de la ressemblance littérale mais qu’on a la capacité de recruter suffisamment d’indices pour garantir l’effectivité du processus d’interprétation. Il importe d’ailleurs de remarquer que la vision sait faire preuve d’une capacité de flexibilité c’est-à-dire d’adaptation à des conditions non courantes tout à fait étonnante, laquelle contrebalance ce qu’il y a de nécessairement rigide dans les routines perceptives, comme l’ont montré nombre de psychologues, tels Gilman, Kosslyn et J. J. Gibson à travers la notion d’affordance. Sans ce type d’aptitude qui n’est pas d’ordre culturel bien qu’il soit à coup sûr entretenu et développé par l’entraînement, les opérations perceptives seraient condamnées à être soit triviales, soit miraculeuses.

À titre de corollaire, on comprend aussi qu’on ait si souvent établi un lien direct entre la dépiction et ce qu’on appelle le principe d’accointance. Selon la caractérisation donnée par ses défenseurs, il est indispensable d’avoir fait soi-même l’expérience d’un objet pour pouvoir se prononcer valablement sur ses qualités esthétiques et ce résultat n’est pas transmissible à d’autres. Le plus souvent, on met cela au compte d’un subjectivisme tenace (l’ascendant de Kant n’a rien perdu de son prestige) et certains auteurs en font même l’accompagnement obligé d’un engagement non réaliste. Quoi qu’il en soit des arrière-plans esthétiques, il semble qu’une bonne partie de ce qui est en jeu ici tient à la particularité unique de l’image que son contenu propre n’est pas séparable de son mode de manifestation. Regarder une image permet de découvrir la manière dont quelque chose se présente alors que lire dans un roman qu’un personnage regarde par la fenêtre et qu’il voit le reflet d’une montagne dans un lac ne le permet pas ; je peux sans doute former l’image mentale de quelque chose de conforme à cette description, parce que j’ai déjà vu ce genre de paysage et que je suis capable d’imaginer semblable scène, mais le contenu de ma représentation peut être très éloigné de ce que l’écrivain visait et je n’ai d’ailleurs aucun moyen de m’en assurer. Aussi Scruton voit dans cette attention aux apparences non une simple curiosité mais un intérêt commun à tous les êtres rationnels, et Sartwell explique l’attrait persistant du style réaliste en art par la facilité à reconnaître ce qui fait le sujet d’une image.

Plutôt que de mettre en avant la disparité entre l’expérience de quelqu’un et celle d’un autre, mieux vaudrait insister sur la dissymétrie entre une expérience bâtie autour de la perception et une autre où elle ne joue qu’un rôle accessoire. Pour autant que la dépiction est concernée, une image est remplaçable par une copie correcte de cette image mais non pas par un équivalent non iconique, et c’est une question supplémentaire de décider si une évaluation esthétique peut rester indifférente à ce changement. Bien qu’aucune théorie esthétique ne puisse faire l’impasse sur la spécificité de la dépiction (ce qui limite considérablement les prétentions du conventionnalisme), il n’en découle pas non plus qu’elle soit la clé unique de tous les phénomènes des arts visuels. En d’autres termes, le recouvrement entre dépiction et esthétique est tout aussi partiel qu’entre image et dépiction.

c. Raisonner en termes de contraintes

L’ambition d’une théorie de la représentation iconique est de montrer comment la dépiction rend compte du fonctionnement de base des images. Certaines théories semblent visiblement être mieux orientées que d’autres à cet égard et certaines s’en tiennent volontairement à un usage minimal qui les relègue au second plan sans les disqualifier. Avant d’aborder l’examen des principales théories qui sont le plus souvent défendues, il est donc utile de faire un point méthodologique sur la sorte d’exigences que devrait idéalement satisfaire une théorie pour mériter d’être retenue. Il ne s’agit pas de fournir une liste de stipulations obligatoires telle que l’absence d’un trait serait fatale et leur présence conjointe suffisante pour valider une théorie candidate. En fait, il s’agit plutôt d’une liste de contraintes de portée générale dont chacune représente moins un défi à relever qu’une prise de distance critique vis-à-vis de notre expérience iconique naïve. Si l’on ne peut rien en déduire directement, elles n’en exercent pas moins une fonction régulatrice sur ce qu’on est en droit d’attendre en ce domaine.

J’emprunte l’essentiel de l’analyse des contraintes à Dominic Lopes dont l’ouvrage, Understanding pictures (1996), est à coup sûr une des introductions les plus solides et les plus complètes à l’étude de l’univers iconique. Ce livre remplit opportunément une double fonction : il fournit d’utiles coordonnées de repérage et il défend par ailleurs sa propre approche (voir II, C) ; aucun de ces points de vue ne vient remplacer l’autre. Lopes met l’accent sur quatre contraintes principales qui aident à faire prendre conscience de ce qui se joue dans notre relation aux images, à commencer par les plus communes d’entre elles.

i. Contrainte de la diversité

Dans la mesure où le monde des images se compose d’une profusion inépuisable d’objets disparates et difficiles à comparer, une théorie se doit de rester neutre et de ne privilégier aucune catégorie d’images. « Elle devrait expliquer comment la Cathédrale de Salisbury de Constable, le portrait cubiste de Vollard, et une image en style dédoublé kwakiutl dépeignent toutes leurs sujets » (UP 32). Certaines images sont familières, d’autres n’appartiennent pas à nos coordonnées culturelles ou historiques, prennent le contrepied de la tradition établie ou simplement nous déroutent, mais seule une décision autoritaire ou arbitraire peut décider de les exclure du champ d’analyse.

Ce que vise la contrainte de la diversité est donc le privilège indu accordé à un type particulier d’images, privilège qui ne relève pas uniquement de penchants personnels ou idéologiques et qui s’impose parfois de façon subreptice à travers le dispositif conceptuel mis en œuvre. Tel est le cas chez Christopher Peacocke qui prend pour niveau d’examen non les propriétés objectives des images ou de leurs sujets mais les propriétés subjectives qui apparaissent dans le champ visuel lorsqu’on projette le monde visuel tridimensionnel sur un plan (incurvé), en faisant donc abstraction de la profondeur. C’est ce qu’il appelle les propriétés sensationnelles qui décrivent notre expérience, par contraste avec les propriétés représentationnelles qui sont relatives au contenu. La condition pour qu’une image donnée soit une image de x est qu’elle manifeste une relation de champ adéquate, c’est-à-dire telle que les formes et couleurs soient correctement reproduites. Or une telle approche repose sur un processus d’internalisation du contenu qui revient à transposer au sein même de l’expérience le mécanisme inauguré par Alberti (utilisation d’un voile intersecteur qui coupe la pyramide visuelle et mesure les proportions exactes des contours). Ce faisant, on commet une pétition de principe qui rend d’avance la théorie peu apte à rendre compte des images qui n’obéissent pas au schéma albertien. La conclusion n’est pas qu’une telle théorie est fausse mais partielle à l’excès, limitée à un sous-ensemble restreint d’images, quand bien même celles-ci ont exercé un rôle dominant de la Renaissance au XIXe siècle. En conséquence, une proposition de ce type ne fournit pas un bon candidat pour une théorie ouverte de la dépiction.

ii. Contrainte d’indépendance

La ressemblance a toujours posé un problème délicat pour la théorie de l’image car elle suggère une explication qui va tellement de soi qu’il semble déraisonnable de la rejeter, alors même qu’elle se révèle le plus souvent circulaire. En effet, « tandis que l’intuition nous dit que les tableaux ressemblent à leurs sujets, elle est incapable de distinguer entre les ressemblances qui dépendent de la représentation et celles qui n’en dépendent pas » (UP 17). Parler de ressemblance peut de fait renvoyer à deux cas bien différents, selon qu’on va de la ressemblance à la compréhension ou qu’on effectue le trajet inverse :

– dans le premier cas, on comprend des éléments d’une image à travers une similitude objective avec des référents extérieurs à l’image. Par exemple, c’est parce qu’on remarque qu’une certaine figure sur la gauche présente la gestalt de quatre faces triangulaires convergeant vers un sommet qu’on peut identifier une pyramide ; il s’en faut cependant que tout dans une image obéisse à ce schéma car de nombreuses lignes ou formes n’ont qu’une portée décorative ou expressive et non pas représentationnelle (qu’on pense aux hachures ou aux effets ornementaux) ;

– dans d’autres cas, on remarque que quelque chose ressemble à un objet parce que c’est la meilleure hypothèse interprétative qu’on est en mesure de formuler en contexte. Ainsi la petite tache rouge imprécise sur une veduta de Guardi est placée de telle façon qu’il est naturel d’y voir la veste d’un gondolier, même si ailleurs elle pourrait avoir une tout autre dénotation ; pour parler comme Gombrich, la ressemblance repose ici sur un mécanisme de nature fonctionnelle plutôt que formelle.

Une théorie consistante de la dépiction ne devrait faire intervenir que des ressemblances qui sont indépendantes de la représentation, ce qui conduit à se méfier de toute conception faisant un usage non réfléchi de la ressemblance. Pour autant la contrainte ne demande pas de n’accorder aucun intérêt aux autres formes de ressemblance ; celles-ci trouvent de fait leur place légitime au sein d’une théorie de l’interprétation et elles contribuent pour une part non négligeable aux ressources expressives et métaphoriques de l’image. Il faut d’ailleurs aussi reconnaître le rôle de certains éléments non mimétiques de l’image (cadre, orientation, disposition, asymétrie, taille, etc.) que Schapiro nomme les « qualités de la substance imageante » et dont il dit aussi qu’ils sont « la poésie de l’image, son aspect musical », quand par exemple lignes et taches trouvent une signification en amont même de la représentation, quelque part entre forme et signe.

iii. Contrainte de la double perception (ou twofoldness)

Un autre lieu commun bien ancré est qu’une image fait intervenir un phénomène dit de double perception, qui demande d’être attentif à la fois au sujet et aux particularités de la surface marquée, y compris celles relatives à la facture, au vieillissement, voire à certains effets de hasard (que Léonard ou Cozens exploitaient comme méthode de stimulation inventive à l’usage des artistes). Mais si tout le monde accorde que la double perception offre une description correcte pour un grand nombre d’images, c’est une tout autre question que de décider de sa portée pour une théorie de la dépiction.

Lopes adopte une position critique vis-à-vis de la thèse forte de Wollheim [voir partie III]. S’il s’accorde avec lui – contre Gombrich ou K. Clark – sur l’idée d’une perception simultanée de la surface et du sujet, il reste en revanche dubitatif sur le point de savoir si cela établit un paradigme définitionnel de la vision des images, qui serait valable uniformément pour n’importe laquelle d’entre elles. En fait, l’erreur consiste comme bien souvent à raisonner en termes de tout ou rien, quitte à déconnecter la phénoménologie de l’image des conditions d’exercice du regard ordinaire. Il est plus judicieux de penser que les images se distribuent le long d’un spectre continu dont un pôle incarne la dissociation entre surface et sujet et l’autre leur fusion.

Dans la majorité des cas, aucun des deux aspects n’est assez fortement affirmé pour que l’identité de l’image se trouve mise en question. Lorsque le sujet l’emporte au point que la surface devient invisible, on obtient le trompe-l’œil classique, des raisins de Zeuxis aux tableaux-pièges de Guysbrechts ou Peto. À l’autre extrême, on trouve les images peintes en style painterly dans lesquelles les caractéristiques du medium sont si fortement soulignées qu’il est impossible d’oublier la surface, même lorsqu’il s’agit d’images qui sont figuratives (qu’on pense aux lourds empâtements de Van Gogh ou N. de Staël et même aux Women de W. de Kooning). Entre les deux se déploie la situation instable et esthétiquement valorisée d’une alternance où l’on oscille sans cesse de la marque picturale affirmée au contenu iconique associé, chacun relançant indéfiniment une forme de va-et-vient. Le cas le plus problématique est celui où la tension devient si forte qu’aucun élément figuré ne parvient plus à émerger, témoin la « muraille de peinture » à quoi aboutit Frenhofer dans la nouvelle de Balzac ou une Matériologie de Dubuffet.

iv. Contrainte de la compétence

« La compétence en matière de dépiction consiste en une capacité à comprendre presque n’importe quelle image d’un objet familier en un seul coup d’œil : la dépiction est “générative” » (UP 70). Comme l’a montré Flint Schier, avoir su interpréter une image n’indique pas seulement une réussite propre à cet unique cas mais la maîtrise d’une aptitude qui est réutilisable dans un nombre indéfini d’autres, à la seule condition qu’on sache à quoi ressemble l’objet qui est chaque fois concerné [cette condition n’est d’ailleurs pas définitoire de l’image, elle s’applique dès la perception puisque je suis dans l’impossibilité de reconnaître dans la femme que je viens de croiser dans la rue ma nouvelle voisine si j’ignore tout de son apparence physique].

La thèse de la « générativité naturelle » exclut par principe toute forme radicale de conventionnalisme qui soutiendrait que n’importe quoi ressemble à n’importe quoi d’autre, pourvu qu’on sache concevoir des principes de corrélation ad hoc. Chez la plupart des auteurs (sans même exclure Goodman), une telle conséquence s’applique en réalité à l’intérieur de systèmes opératoires de représentation, la ligne de fracture passant entre ceux qui se contentent des ressources psychologiques communes et ceux qui font en outre appel à une convention de nature historique ou technique. Mais il importe de toujours garder à l’esprit que le choix d’une convention n’est jamais absolument gratuit et que les dispositifs activés par la perception ne sont pas non plus figés, car on ne cesse d’apprendre à les mobiliser au-delà de leur domaine d’exercice initial. C’est pourquoi prendre au sérieux la contrainte de compétence justifie non seulement que la maîtrise d’un système ouvre sur de nouveaux objets en permettant d’enrichir la connaissance de leurs sujets mais que toute compétence acquise dans un système de dépiction entraîne une compétence partielle dans d’autres. Ainsi celui qui est exercé dans l’interprétation d’images traditionnelles est mieux placé pour aborder des images modernistes, même si elles le déroutent, que quelqu’un qui n’a aucune familiarité avec le monde des images, et l’inverse n’est pas moins vrai, au moins dans certaines limites qui sont elles-mêmes variables.

En conclusion, il faut réaffirmer que focaliser l’attention sur les contraintes ne vise nullement à sélectionner une théorie parfaite de la dépiction mais vise à proposer un ensemble de tests permettant de repérer des candidats trop faibles (en se souvenant aussi que ne pas se qualifier sur un point met généralement dans une moins mauvaise position qu’adopter une attitude d’indifférence envers toute contrainte). Toutefois, l’analyse a indirectement et inévitablement pour résultat de dégager l’allure d’une théorie qui présente un minimum de désavantages.


2. Quatre familles de théories

Lorsqu’on pose « la question métaphysique de ce que c’est pour une chose d’en dépeindre une autre » (DDP 2), il n’y a pas consensus et l’on se trouve en face d’une multiplicité de réponses. Dans l’ouvrage qu’elles ont dirigé, C. Abell et K. Bantinaki proposent de classer les approches en quatre variétés de base qui sont assez nettement typées les unes par rapport aux autres bien que non totalement disjointes entre elles :

  • structurales : elles mettent en avant les relations entre éléments au sein d’un système (rien n’est par nature une image mais certaines caractéristiques rendent iconique un ensemble de marques) ;
  • phénoménologiques : il n’y a de sens à parler d’image qu’en référence à un type approprié d’expérience perceptive qui donne accès à ses contenus iconiques ;
  • récognitionnelles : les capacités perceptives ordinaires telles qu’elles sont mobilisées dans le réel fournissent une base suffisante, mais il reste nécessaire de spécifier les conditions dans lesquelles on les met à contribution ;
  • à base mimétique : on ne peut faire abstraction du type de ressemblance qui se présente entre les traits visuels expérimentés dans l’image et dans l’objet.

a. Le point de vue structural

Les partisans d’une conception structurale entendent s’appuyer sur des caractéristiques objectives qui découlent des propriétés physiques d’une image mais ils considèrent que ce n’est pas l’identification de traits intrinsèques qui est significative, comme dans la description iconographique ou formelle. Ils insistent au contraire sur les relations entre éléments au sein d’un contexte donné (c’est pourquoi, en utilisant une ancienne imprimante à aiguilles et une seule lettre, on peut réaliser une image de visage qui se présente comme un portrait stylisé facilement interprétable).

Le précurseur en la matière est Nelson Goodman qui s’appuie résolument sur une base sémiotique et sur les modes de fonctionnements symboliques qui peuvent s’y appliquer. Conformément aux principes logiques qui privilégient comme coordonnées la syntaxe et la sémantique, toute organisation de marques obéit à des critères structuraux portant sur la disjointure et la différentiation des caractères qui en résultent. Ce qui intéresse Goodman est donc une théorie de la notation (dont le noyau dur est la définition des trois systèmes symboliques de base : esquisse, script, partition correspondant grossièrement aux images non numériques, aux textes et à la musique notée) et non pas une théorie de la dépiction qui repose sur une détermination intrinsèque de l’image. Plusieurs sortes de considérations permettent toutefois d’atténuer la portée de cette conclusion, en particulier à partir de l’analyse fine des relations entre analogique et digital : de même qu’un cadran gradué donne lieu à des lectures non équivalentes, selon qu’on raisonne en termes de situation au sein d’un intervalle donné ou de position absolue de l’aiguille par rapport à un repère, le statut d’une chorégraphie ou d’une estampe n’a rien non plus invariable. D’autre part, le fait d’accepter des symptômes de l’esthétique qui mettent à profit la prévalence de certaines relations référentielles (surtout exemplification et expression) au détriment d’autres (dénotation) est également de nature à relativiser le poids des principes définitionnels.

Le principal défenseur de l’approche structurale est de nos jours John Kulvicki qui reconnaît d’entrée de jeu que personne n’a eu autant raison et autant tort en même temps que Goodman (I vii). Il a eu raison d’insister sur les coordonnées systémiques de l’image mais tort de croire que des critères sémiotiques généraux permettaient d’en rendre compte. Il propose de les remplacer par des critères plus spécifiques qu’il appelle des « propriétés syntaxiquement pertinentes » : la saturation relative (un maximum d’aspects syntaxiques pertinents), la sensitivité syntaxique (tolérance au changement), la richesse sémantique (nombre de dénotations permises) et surtout la transparence. Une image est transparente au sens structural si, en la prenant pour objet d’une nouvelle représentation, on engendre un résultat qui est syntaxiquement identique à la représentation originale (c’est le cas entre autres de la photographie argentique et des vues en perspective), alors que la réplication goodmanienne ne s’appliquerait qu’aux images numériques. D’autres images ont un degré d’iconicité moins fort, elles peuvent conserver un lien sémantique de correspondance avec ce qu’elles représentent (cartes de densité, images radar) mais sans plus de transparence que des systèmes non iconiques (un thermomètre obéit à la corrélation continue entre température mesurée et hauteur de la colonne de mercure bien qu’il ne transmette rien de l’apparence du phénomène).

L’aperçu le plus fécond de Kulvicki est relatif à l’appréhension du contenu iconique. Il emprunte à John Haugeland la notion de « bare bones content » qu’on peut rendre en français par le squelette iconique de l’image, c’est-à-dire le réseau de relations obligatoires entre ses éléments qui conditionne ce qui est commun à toutes les interprétations qu’on peut en faire (elle s’inscrit dans la descendance de l’analyse proposée par Wittgenstein de la « forme de reproduction », Tractatus 2.15 et suiv.). Toutefois, ce qui retient l’attention au niveau concret est le degré de son remplissement (fleshing-out) puisque certaines images restent à l’état schématique alors que d’autres ont une « chair » plus dense, plus conforme à ce qui est visuellement saillant. En pratique, on tend à qualifier de réaliste une dépiction quand elle mobilise suffisamment de propriétés conformes aux attentes perceptives que nous en avons et en l’absence d’indications contraires.

b. Les approches phénoménologiques

Comme l’indique leur dénomination, les approches phénoménologiques obéissent à l’engagement méthodologique de rester au plus près de la saisie des phénomènes, à partir de leur manifestation visuelle et la mise en jeu de nos facultés, mais sans faire pour autant l’hypothèse d’une évidence originaire sur le modèle husserlien. L’image est un artefact destiné à produire un « effet psychologique » convaincant (Gombrich), et par extension à simuler la présence d’une réalité capable le cas échéant de déborder le donné et de nous faire entrer dans une variété de jeux fictionnels.

i. le medium invisible

La forme la plus directe est la thèse illusionniste dont les racines sont fort anciennes et dont l’emblème est le miroir (lequel fut d’ailleurs une des descriptions insistantes appliquées aux premières photographies). L’argument sous-jacent est celui de la tromperie : la représentation parfaite me ferait la prendre pour l’objet dépeint ; mais ce résultat présuppose en réalité des conditions artificielles qu’il n’est guère facile de maintenir. Le seul théoricien moderne qui ait accordé à l’illusionnisme une attention véritable est Gombrich, en historien soucieux d’interpréter le développement historique en liaison avec la genèse psychologique. Dès son article séminal sur « les racines de la forme artistique » (1951) qui s’appuie sur le jeu animal et enfantin, il avait caractérisé l’art comme une création de substituts qui imitent moins la forme externe d’un objet qu’ils ne visent une sorte d’identité de fonction avec lui (cela va du sommaire « Steckenpferd » de son Autriche natale aux créations les plus sophistiquées). C’est la transformation en profondeur qui intervient dans la perception sociale de l’art qui conduit à reléguer de plus en plus au second plan la dimension mentale du schéma conceptuel au profit d’une meilleure incarnation des apparences, y compris en sollicitant la complicité active du spectateur à qui incombe la responsabilité de donner un sens visuel à tout élément visible sur la surface (qu’il s’agisse des yeux laissés à l’état d’ébauche par Rembrandt ou de telle tache ambiguë sur un tableau de Degas).

L’attitude en face d’une représentation résulte en fait d’un compromis entre ce que nous recevons et ce que nous attendons, si bien que la réussite comporte toujours une part de projection dirigée. Par exemple, nous avons tendance à poursuivre une série (cf. spirale de Fraser) ou à extrapoler à partir d’éléments déjà reconnus (c’est le principe dit du etc.). Selon Gombrich, il existe en fait un double mouvement : l’artiste cherche à s’identifier à un spectateur possible à qui il ouvre des possibilités d’interprétation, au point qu’il « tendra à voir ce qu’il peint plutôt qu’à peindre ce qu’il voit » (AI 86) comme en témoignent les anecdotes rapportées au sujet de Whistler et Courbet, et le spectateur cherche à son tour à s’identifier à la vision qu’il diagnostique chez l’artiste. La leçon théorique qu’il convient d’en tirer est que la véritable pierre de touche de l’image réside dans l’efficacité de la ressemblance dans un contexte donné, pour la raison toute simple qu’« il n’existe pas de corrélation établie entre le monde physique, le monde optique et l’apparence de ce monde dans notre expérience » (IE 178). En conséquence, « la question n’est pas de savoir si la nature “ressemble réellement” à ces procédés picturaux mais de savoir si les images qui présentent de tels traits suggèrent une interprétation en termes d’objets naturels » (AI 360). Le corollaire est que la thèse illusionniste est fondamentalement dissymétrique : nous pouvons parfois prendre l’image pour le réel mais jamais le réel pour une image (sinon de manière métaphorique, lorsqu’on est en présence d’un cliché).

ii. du phénomène physique à l’impression picturale

Remarquer une craquelure ou une trace de pinceau suffit souvent à détruire l’illusion picturale. Mais il s’en faut qu’une surface intacte fournisse la garantie qu’on interprète univoquement les données et il est clair à tout le moins que l’interprétation commence avant toute identification figurative. Que voit-on donc sur la surface de l’image qui conduit à explorer la situation plus avant et qui différencie cette perception de celle d’autres objets ?

Dans « Dessiner un objet » (1965), Wollheim pointe l’ambiguïté profonde d’une formule aussi simple que voir une tache sur un fond, en s’appuyant sur un exercice pictural que le peintre Hofmann aimait à proposer à ses élèves : « poser un coup de pinceau noir sur une toile blanche, reculer, puis observer comment le noir est sur le blanc » (DO § 24). De prime abord, rien ne paraît plus trivial ; Wollheim montre qu’en réalité elle renvoie à des interprétations divergentes et irréductibles. En effet, « mettre de la peinture sur la toile, c’est une condition nécessaire mais non suffisante pour que nous voyions une couleur sur une autre, même quand la première couleur est celle de la peinture et la seconde celle de la toile ». Que les pigments soient physiquement sur la toile est compatible avec plusieurs interprétations visuelles : « si de la peinture noire est appliquée sur une toile blanche, la peinture doit être sur la toile ; mais du noir nous devons seulement dire qu’il pourrait être sur le blanc, car il pourrait aussi être derrière le blanc et il pourrait probablement être aussi de même niveau que le blanc » (id.). Ce qui complique un peu plus les choses est que certains traits essentiels dans une image n’ont pas de sens référentiel (ainsi « les petites taches de couleur complémentaire, disons rouge dans un champ de vert, que Monet utilisait pour rehausser la vivacité ») et d’autres relèvent de plusieurs systèmes à la fois (Steinberg aimait à citer le cas d’une lettrine sur un manuscrit enluminé qui peut fonctionner comme première lettre d’un paragraphe, support de décoration florale et arcature qui ouvre sur une vue de paysage).

Bien que la perception nous incite parfois à penser que le contenu iconique et la réalité sont appréhendés comme homogènes, l’image reste un artefact singulier, dès le niveau le plus élémentaire. Cela ne cesse ensuite de rejaillir sur ses capacités plus hautes. Elle a en ce sens sa puissance propre, et elle contribue de façon originale au développement de l’expérience humaine (voir III, B et C).

iii.  un jeu de faire-semblant (make-believe)

Peut-on faire un pas de plus en faisant de l’image moins un résultat visuel toujours affecté de contingence qu’un dispositif de vision en prise étroite sur la réalité ? C’est la thèse défendue par Kendall Walton et reprise d’André Bazin à propos de la photographie. En raison de l’automaticité du processus de capture, il est plus juste de dire qu’on ne voit pas simplement une photographie, ni même dans une photographie mais à travers elle, exactement comme lorsqu’on utilise des lunettes, une loupe ou qu’on regarde un écran. Il semble néanmoins difficile de prendre une telle expression à la lettre car elle ne manquerait pas d’entraîner des inférences paradoxales puisque l’image me donnerait alors un accès direct à des lieux où je ne suis jamais allé ou à un passé qui précède ma naissance ; mais elle souligne plus intensément que d’autres approches la part du spectateur.

Dans Mimesis and Make-Believe (1990), Walton s’inspire comme Gombrich du jeu de l’enfant qui transfigure par l’imagination un élément banal de son environnement (par exemple une vieille souche en ours dressé ou un pain de boue en gâteau). Pour lui, la fonction des œuvres d’art, comme celui des jouets, est de servir de « prop », terme volontairement vague qui désigne toute espèce de support ou de substitut propre à enclencher le processus : de même qu’un jeune arbre a besoin d’un tuteur pour pousser droit, notre participation au jeu nécessite de prendre appui sur quelque chose pour prendre son essor. L’œuvre est un tremplin destiné à stimuler une situation de comportement sui generis, dans laquelle on produit des propositions qui ont pour particularité d’être « vraies dans un monde fictionnel », tout comme les propositions ordinaires (ou factuelles) le sont dans le monde réel. Mais si le jeu de faire-croire ou de faire-semblant est une activité imaginative ouverte à tous les possibles, il n’est pas pour autant le fruit d’une activité gratuite ou incontrôlée car elle impose ses règles et ses contraintes sous forme d’un jeu autorisé et souvent partageable ; à cet égard, le « monde de l’œuvre » est un sous-ensemble plus ou moins restreint du « monde du jeu ».

Walton reprend alors l’approche de Wollheim d’une fusion des deux données de la twofoldness, en la traduisant en termes d’action. Dans ce qu’il appelle « imaginer-voir », « l’acte de voir et l’acte d’imaginer sont inséparablement liés ensemble, intégrés dans un tout phénoménologique complexe et unique » (MMB 53). Il ne s’agit plus de deux aspects dans l’image, mais de deux composantes psychologiques dans « une expérience unique qui est à la fois perceptuelle et imaginative » et dont la seconde colore la première. Une simple addition des deux (regarder l’image + imaginer ce qui est en jeu) ne suffirait pas en effet pour voir quelque chose dans l’image, pour que le spectateur imagine à travers sa vision. Walton parle de façon équivalente de « voir fictionnellement », ce qui a l’avantage d’élargir le champ d’examen à l’ensemble des situations imaginatives, en particulier celles qui répondent à une structure narrative (images animées, romans, etc.). Le prix à payer est que, si on peut toujours distinguer sur un plan sémantique des textes qui sont fictionnels et d’autres non, le monde des images devient en revanche coextensif à celui des fictions (« les images sont des fictions par définition »), ce qui pose problème lorsqu’on doit distinguer entre une œuvre de création et un documentaire. N’est-ce pas là accorder une place excessive à l’imagination au détriment de la perception ? Pour Levinson, il semble en tout cas bizarre de mettre les deux facultés sur le même plan, car la perception semble toujours jouer un rôle plus irréductible.

Ce qui caractérise la dépiction n’est pas en définitive pour Walton l’existence d’une correspondance avec un réel externe, c’est la capacité du spectateur à savoir activer des jeux de faire-semblant qui sont riches et compatibles avec les données disponibles. Le cinéma en constitue probablement l’illustration la plus saisissante. Par contraste avec la conception de Bordwell ou Currie qui en appellent à une forme d’imagination qui reste fondamentalement impersonnelle, Walton revendique un acte d’imagination de se où le spectateur se trouve impliqué tout entier, avec ses réactions personnelles (par exemple, il est terrorisé devant une scène d’horreur) et normalement sans perdre pour autant de vue que la source de son état est en marge de la réalité. À ses yeux, il ne s’agit pas de simples réactions instinctives, à la manière des « gut reactions » de Jesse Prinz qui ne sont qu’une prise de conscience de modifications de notre état corporel, mais il nie en revanche que nous éprouvions de véritables émotions parce que celles-ci présupposeraient qu’on croie à l’existence de ce qui fait peur ; il est donc conduit à postuler l’existence de « quasi-émotions » qui miment notre comportement affectif ordinaire en l’absence de situation propre à le déclencher. On peut néanmoins se demander jusqu’où cette solution au paradoxe de la fiction s’accorde avec notre intuition ordinaire (voir EC troisième partie).

c. Les approches récognitionnelles

Alors que les approches phénoménologiques postulent une forme spécifique d’expérience propre aux images, les approches récognitionnelles prennent appui sur le processus ordinaire de reconnaissance qui intervient dans tout acte de perception. Il n’y a donc pas lieu de traiter les images comme fondamentalement différentes d’autres objets perceptifs, ce qui ne signifie pas non plus qu’elles soient des entités quelconques. Les deux variantes les plus significatives sont celles proposées par Schier et Lopes, assez différentes d’inspiration.

(a) Le pionnier d’une théorie conforme à cette orientation est Flint Schier (Deeper into Pictures, 1986) qui incarne un tournant important contre ce qu’il nomme « l’hérésie sémiologique » qui a dominé les années 70. L’idée de base est que la saisie du contenu iconique d’une image dépend seulement de nos capacités psychologiques, dont nous ne pouvons appréhender le résultat au niveau réfléchi que parce qu’il renvoie au niveau physiologique à des routines qui se déclenchent d’elles-mêmes et qui ne sont pas cognitivement pénétrables. La générativité naturelle offre une sorte de pendant de la situation d’interprétation radicale de Davidson ; elle vise moins les contenus particuliers d’une image donnée que l’analyse du « rôle fonctionnel d’une image » c’est-à-dire ce que c’est pour un contenu d’être iconique (de manière parallèle à la théorie de la vérité de Tarski qui n’entend pas expliquer ce qu’est la vérité au sens substantiel mais permettre de définir l’extension du prédicat « est vrai »). Une fois familiarisés avec les objets pouvant être présents en image, la compréhension d’une image ne nécessite plus d’apprentissage spécial et préalable – comme l’est par exemple l’acquisition d’un vocabulaire, d’une syntaxe et même d’un style – et elle n’est pas non plus une simple question de mémoire ou d’association d’idées. Toutefois, l’interprétation iconique a beau être acquise d’un seul coup, elle ne cesse d’être actualisée dans un ensemble mouvant de contextes qui en redéfinissent l’application lors de cas semblables (accéder à de nouvelles images d’objets familiers) ou différents (pouvoir identifier par transfert des traits relatifs à des objets non familiers).

Un corollaire remarquable est qu’une image comporte toujours une multiplicité intrinsèque d’images qui n’en sont pas des parties spatiales qu’on pourrait délimiter de manière physique par simple découpage, ni des parties sémantiques qui contribuent par combinaison à la signification du tout (sur le modèle de la loi de Frege pour une proposition). Une partie iconique est une propriété seconde qui a partie liée avec notre réponse visuelle. C’est pourquoi il est tout aussi légitime de dire que l’image-œil est une partie iconique de l’image-visage que de dire que l’image-visage est une partie iconique de l’image-œil puisque le visage fait autant comprendre l’œil (qu’on pense au style « tachiste » de Rembrandt ou Hals) que l’inverse. Ainsi, dans un dessin d’enfant, il n’y a rien d’absurde à prétendre qu’on « a réellement dépeint un visage-avec-des-yeux mais qu’il n’y a aucune région qui dépeint réellement les yeux et rien d’autre. Il se pourrait que la plus petite partie de l’image qui compte comme dépeignant les yeux soit l’image entière » (DP 73). En fait, il y a autant d’images distinctes dans une image donnée que de manières d’enclencher un processus de reconnaissance et donc d’interpréter. En d’autres termes, la théorie de Schier conduit à poser que les capacités récognitionnelles déclenchées par l’objet et l’image tendent à se superposer idéalement ; en réalité, le recouvrement n’est jamais que partiel : sans aucun recouvrement, il n’y aurait pas de compréhension de l’image, et s’il était total on confondrait l’image et la réalité. L’on peut bien sûr travailler à élargir ce recouvrement, ce que fait tout spécialiste qui s’initie au déchiffrement d’images spécialisées (radios, photos aériennes, etc.). C’est pourquoi aussi la ressemblance n’intervient pas à titre de condition nécessaire ou suffisante, elle est présente comme une sorte de test ultime de validation : ce qu’on appelle couramment « ressemblance » n’est rien d’autre que l’intersection des deux ensembles de capacités.

(b) Si Schier admet que la capacité récognitionnelle est relative à l’aspect, le mérite et l’originalité de Lopes est de proposer une stratégie aspectuelle plus fortement typée en couplant une théorie récognitionnelle et une théorie symbolique, ce qui revient à reprendre ce qu’il y a de plus convaincant dans les approches ennemies de Schier et de Goodman. Sa conviction est qu’« une théorie de la dépiction peut, sans être inconséquente, expliquer que les images sont à la fois symboliques et perceptuelles » (UP 57). Car le choix d’une théorie construite autour de l’informativité propre à la perception ne doit pas masquer le fait que les images constituent des artefacts conçus en vue de répondre à des usages sociaux déterminés encore que relativement souples dans leurs modalités pratiques. Ce sont des « prothèses visuelles » qui permettent d’élargir et d’affiner notre appréhension de la réalité, et le dessin est à comprendre en retour comme une forme de « récognition appliquée » (184).

Le point de départ de Lopes pour justifier la « reconnaissance d’aspect » est la dénonciation du « mythe de la spécificité » qui veut qu’une image soit donnée en bloc et qu’il soit impossible de rien omettre de ce qu’elle dépeint. Alors que, dans la description qu’on fait d’un personnage, on a toute liberté de détacher ce dont on souhaite parler, en passant le reste sous silence (la couleur des cheveux ou le port de la barbe), une image ne peut pas montrer un portrait en pied en laissant ces éléments indéterminés, comme il est impossible que la pellicule photographique ne reçoive pas l’empreinte de tout ce qui fait face à l’objectif. Il ne faudrait pas en conclure pour autant qu’un « aspect » est un élément anecdotique et a fortiori marginal, il est en réalité la marque qu’un mode de présentation a été choisi, de préférence à d’autres qui retiendraient d’autres propriétés et excluraient d’avance certains traits de la scène. « Un aspect iconique est un schéma de saillance visuelle, un schéma qui porte aussi bien sur ce qu’une image laisse hors de son champ que sur ce qu’elle inclut » (UP 119). Lopes emprunte son appareil descriptif au psychologue Ned Block, en termes d’engagements (commitments) : dire qu’une représentation est « engagée » relativement à une propriété F équivaut à dire que l’image doit manifester qu’on a soit F soit non-F (tout personnage est soit grand soit petit, soit nu soit vêtu, etc.). Lorsque l’image laisse quelque chose en suspens ou ne permet pas de conclure à son sujet, elle est non-engagée implicitement ; par exemple, un dessin réalisé au fusain est non engagé implicitement en ce qui touche la couleur (il ne livre aucune information décisive à son sujet), ou le croquis schématique d’un zèbre vis-à-vis du nombre exact de stries de son pelage. En revanche, une représentation est non-engagée explicitement envers F lorsqu’elle possède des propriétés qui lui interdisent de s’engager vis-à-vis de F ; ainsi un portrait de profil pour ce qui touche la partie non visible du visage (le spectateur est dans l’impossibilité de décider s’il porte une vilaine cicatrice de ce côté, comme dans le célèbre portrait que fit Piero della Francesca de Federigo de Montefeltro après son tournoi tragique) et une main placée derrière le dos dissimule par avance tout ce qu’elle est susceptible de contenir.

En dépit de réelles divergences, les propositions de Schier et Lopes s’inscrivent globalement dans une inspiration commune. Tous deux prennent au sérieux des contraintes épistémiques comme celle de généralité d’Evans en vertu de laquelle le sens des concepts mis en jeu reflète la structure de nos capacités cognitives (comprendre par exemple que « a est F » suppose de maîtriser aussi les pensées que « a est G » et que « b est F »). Tous deux rejettent le conventionnalisme qui repose sur une indifférence entre systèmes, mais non pas le pluralisme sans qui il serait impossible de donner sens à la majorité des systèmes en usage. Enfin ils sont tous deux convaincus que l’esthétique a désormais partie liée avec la philosophie de l’esprit et les sciences cognitives, ce qui n’oblige nullement à rompre tout lien avec l’histoire de l’art et les sciences humaines.

d. Le recours à une base mimétique

La dernière variété courante de théorie donne un rôle central à la notion de ressemblance tout en la détachant du modèle intenable d’une correspondance objective entre image et objet. Descartes avait le premier pressenti (Dioptrique, discours quatrième) que l’enjeu ne porte pas sur la ressemblance littérale telle qu’elle est enregistrée par la chambre noire (il n’y a d’ailleurs pas de sens à comparer les impressions rétiniennes et la réalité) mais sur un effet de ressemblance saisi à travers l’expérience visuelle d’une situation conçue pour engendrer une apparence crédible. Il remarque que « souvent, pour être plus parfaites en qualité d’images, et représenter mieux un objet, [certaines figures] doivent ne pas lui ressembler » (ainsi le cercle vu de biais est mieux rendu par une ellipse et le carré par un trapèze). En termes plus contemporains, on parlera de « ressemblance expérimentée à partir de la forme du contour » (avec l’acronyme EROS pour « experienced resemblance in outline shape »).

(a) L’idée qui guide l’analyse de John Hyman (voir EC) est qu’il est impossible de dissocier un élément appartenant au « sujet interne d’une image » (ce qu’on identifie en elle) de la forme effective qui le délimite sur la surface (ainsi l’on ne peut pas suivre du doigt l’une tout en faisant abstraction de l’autre). Ce qui l’amène à énoncer trois principes modestes qui fondent « un rapport strict et invariable entre les lignes, formes et couleurs présentes sur la surface d’une image et son sujet interne » et dont aucun n’est dépendant de considérations subjectives : le principe de la forme de recouvrement (qui est fonction de la forme délimitée sur un plan et de l’orientation par rapport à la ligne de vision), le principe de la taille de recouvrement relative (qui est fonction de la taille réelle et de la distance) et le principe de la couleur identifiée (qui est fonction de la couleur de surface et de l’éclairage, isolable au moyen d’un écran de réduction). Pour Hyman, ces principes ne servent pas à produire des inférences correctes – nous n’en faisons pas davantage dans la perception des images que dans la vision ordinaire – mais ils explicitent immédiatement ce qu’est la signification ou la portée d’une image, en tant que dispositif visant ce résultat. Son analyse correspond donc à un « compromis libérateur » qui ouvre une voie médiane entre le faux subjectivisme qui reste prisonnier de l’expérience psychologique de la perception et le faux objectivisme qui prétend faire abstraction de l’interface perceptive. Une leçon qui s’en dégage est qu’un compte-rendu convaincant de la dépiction n’est pas compromis par le défaut de pertinence des vocabulaires auxquels on a recours pour l’exprimer.

(b) Robert Hopkins propose une présentation différente mais convergente sur le fond, à partir de l’expérience inspirée de Gombrich de dessiner un objet par transparence sur une vitre embuée. Comprendre de manière dépictive, c’est savoir faire fonctionner une liste de traits fondamentaux relatifs à l’image. Au premier rang de ces explananda, on peut citer la présence d’un contenu iconique minimal (une image ne peut représenter un particulier sans lui attribuer certaines propriétés), la contrainte du point de vue, celle de la visualisation (on peut faire voir quelque chose d’absent de manière indirecte, par exemple un animal par une empreinte de pas ou un champ magnétique par l’orientation de la limaille de fer) et une tolérance (modérée) à l’inexactitude. Mais l’enjeu principal est d’ordre épistémologique : disposer d’une forme de compétence générale liant la covariance entre connaissance de l’apparence (qu’il s’agisse d’un particulier ou d’un objet plus générique) et capacité à comprendre est une condition à la fois nécessaire et suffisante pour expliquer le succès de la dépiction. Pour lui aussi « le rapport sous lequel les images ressemblent à ce qu’elles dépeignent » est bien la forme de contour qu’il caractérise comme la projection d’un angle solide associé en chaque point ; sa signification est tridimensionnelle et elle véhicule un contenu non conceptuel. La contribution la plus prometteuse de Hopkins est sans doute d’attirer l’attention sur la visualisation conçue comme exercice de l’imagination visuelle, arrière-plan commun à toute réflexion sur la vision ordinaire et voir-dans.

Chacun des modèles théoriques précédents apporte une contribution qui n’efface pas automatiquement l’intérêt des autres et l’on peut même se demander si certaines distinctions ne finissent pas par sombrer dans le verbal. Par ailleurs, c’est un fait que toute conception de l’image se heurte à des cas ambigus qui peuvent nécessiter des décisions pour une part au moins ad hoc. Aucune tentative de les conjoindre n’est non plus en mesure de fournir un cadre plus satisfaisant. Néanmoins la tendance dominante n’est pas douteuse, elle se détourne des propositions les plus conventionnalistes vers celles qui mobilisent de façon optimale nos capacités de réponse visuelle. Il est donc raisonnable de conclure qu’une théorie récognitionnelle d’orientation informationnelle et aspectuelle offre une base de recherche très attractive parce qu’elle est le mieux en mesure d’articuler l’exercice ordinaire de la perception à la sélection de traits qui engagent la construction de l’image.


3. Voir-dans (seeing-in)

Indépendamment du choix d’une théorie de référence, la dépiction ouvre de multiples questions sur notre relation concrète au monde des images. Une des plus insistantes porte à coup sûr sur le phénomène de voir-dans qui tient une place centrale encore que controversée. Il semble donc indispensable de s’y arrêter plus longuement, d’abord en éclairant la genèse conceptuelle qui a conduit à en faire une notion privilégiée puis, en considération de l’importance que prennent les arts dans le questionnement sur l’image, en l’envisageant pour lui-même et dans certains de ses prolongements.

Wittgenstein remarquait opportunément que « certaines choses dans le voir nous paraissent énigmatiques parce que le voir dans son ensemble ne nous paraît pas assez énigmatique » (RP II, xi, p. 299). Nul besoin ici d’aller chercher des situations rares ou compliquées, il convient plutôt de s’attacher à saisir la part d’étrangeté qu’il y a dans le plus familier et qui nous est proprement invisible par excès de banalité. Le point décisif pour lui est qu’on ne voit pas sans interpréter : ainsi on voit le cube bistable d’en haut lorsqu’une face aperçue d’abord est placée en avant ou d’en bas lorsque c’est l’autre face (Tractatus 5.5423). Les figures de cette sorte, à commencer par le célébrissime canard-lapin, présentent quelque chose de paradoxal en cela que « l’expression du changement d’aspect est l’expression d’une nouvelle perception, et en même temps celle d’une perception inchangée » (RP 278) puisque ce sont les mêmes données qui sont chaque fois concernées. C’est pourquoi Wittgenstein observe que ce phénomène « est à la fois comparable et non comparable à un voir », « à demi expérience visuelle et à demi pensée » (id. 279) ; il pose un problème conceptuel et non pas causal et réclame une analyse grammaticale qui ne peut recevoir de solution empirique puisqu’elle met en jeu une « différence de catégorie », alors même que le changement de signification intervient au sein même de la vision, non dans un surplomb herméneutique. Semblablement, l’expression ne vient pas se surajouter à un dessin, même et surtout s’il est simplement ébauché : « bien que l’expression selon laquelle voir un dessin comme un visage n’est pas voir seulement des traits, semble indiquer qu’il y a un certain type d’addition d’expériences, nous ne dirions certainement pas que, quand nous voyons le dessin comme un visage, nous avons l’expérience de le voir seulement comme des traits et une certaine expérience en plus » (Cahier brun, §16). Réciproquement, la cécité à l’aspect n’a rien à voir avec un déficit visuel, elle s’apparente au manque d’oreille musicale ou à la difficulté à saisir la physionomie d’un mot ou d’un geste.

a. Voir-comme

Wollheim a parfaitement conscience que le dessin occupe une position privilégiée pour Wittgenstein et pourtant qu’on peut difficilement le suivre jusqu’au bout dans l’analyse qu’il propose. Dans « Dessiner un objet » (1965), il part d’une remarque sybilline (ou « pensée errante ») de Wittgenstein : « Quel est le critère de l’expérience visuelle ? Qu’est-il censé être ? La représentation [Darstellung] de ‘ce qui est vu’ » (RP 280). Le présupposé sous-jacent est que « les techniques de représentation … nous procurent dans certains cas une révélation directe de ce que nous voyons, une révélation non médiatisée par aucun jugement perceptif » (DO §3).

Wollheim fait néanmoins valoir trois sortes d’arguments contre le caractère trop évident d’une telle suggestion :

– nous devons posséder un savoir antérieur de ce qui est vu pour pouvoir le représenter, ce qui rend l’argument circulaire et non concluant (en l’absence d’un moyen indépendant d’identifier ce que nous voyons).

– l’acceptation de principe de ce critère ne suffit pas à garantir la conclusion recherchée car un dessin n’est pas simplement « quelque chose qui est arrivé » et qui s’offre à une observation externe mais « quelque chose que nous avons fait » (§10), ce qui interdit d’éluder la question de l’intentionnalité de la représentation.

– enfin et surtout l’existence d’une disparité flagrante entre le dessin que je fais et l’expérience visuelle qu’il est censé exprimer. Elle tient dans ce constat banal : « n’importe quel dessin doit comporter des contours, alors qu’il n’y a pas de contours à trouver dans le champ visuel » (§20). Cela ne signifie évidemment pas que notre vision de la réalité soit dénuée de toute articulation ; elle comporte des arêtes (limites de surfaces et/ou de volumes, contrastes de couleur ou de luminosité, etc.) alors que ce n’est pas le cas du dessin (seuls les bords de la feuille de papier sont des arêtes). L’arête est une propriété relative à ce qu’on perçoit tandis que le contour est une propriété inséparable de la bi-dimensionalité et qui peut parfois apparaître spontanément (ainsi dans l’ombre projetée sur un mur d’un objet fortement éclairé) mais en dépit de cela, ils ne sont pas non plus sans rapport :

« Pourtant il ne peut être juste de considérer comme une simple coïncidence le fait que nous devions user du même mot pour renvoyer à la fois aux lignes dans un dessin et aux arêtes des objets perçus. ‘Contour’ n’est pas, dans ce contexte, un homonyme. Il y a une raison pour ce double usage, et la raison est certainement la suivante : quoique les contours dans un dessin ne soient pas eux-mêmes des arêtes, nous voyons les contours comme des arêtes lorsque nous regardons le dessin comme une représentation. (…) Ce que je suggère, c’est que dans la mesure où nous voyons un dessin comme une représentation, plutôt que comme une configuration de lignes et de traits, l’incongruité entre ce que nous dessinons et ce que nous voyons disparaît. Ou, pour exprimer les choses dans l’autre sens, c’est seulement quand nous pensons notre dessin comme une configuration plate que nous pouvons parler de la dissemblance ou de la dissimilitude de la chose que nous dessinons et de la chose que nous voyons » (256-257).

Plus en profondeur, à l’occasion de la seconde édition de L’art et ses objets (1980), Wollheim avance plusieurs raisons qui limitent la portée d’une analyse menée en termes de voir-comme [cf. AO, Essai supplémentaire V] :

– la première est de nature grammaticale ou logique : voir-comme ne peut s’appliquer qu’à des particuliers et non pas à des états de chose complexes. En termes simples, ce que j’ai à décrire peut prendre la forme d’un nom ou d’une description mais non celle d’une proposition. Or, dans tel tableau de Vermeer, je ne vois pas simplement une pluralité de motifs (une femme, une lettre, etc.) mais une unique action composée qui les relie de façon cohérente. Quand bien même « je peux voir x comme une femme, je ne peux pas voir x comme le fait qu’une femme est en train de lire un billet doux » (AO 191).

– « Le voir-comme doit satisfaire à l’exigence de localisation » c’est-à-dire que « si je vois x comme y, alors il existe toujours une partie … de x que je vois comme y » (192), ce qui est une condition très restrictive car, pour beaucoup de sujets, on n’est pas en mesure de décider à quel endroit on voit quelque chose. Où situer par exemple le fait qu’on voit la foule en colère, la mort imminente du cerf, la déchéance du jeune libertin, etc. ? Tout se passe comme si le plus important pour la signification échappait d’avance à notre prise.

C’est pourquoi Wollheim entreprend de réélaborer sa base théorique : il ne parle plus de voir x comme y, mais de voir y dans x. On pourrait craindre qu’il n’y ait en jeu qu’une variante de terminologie. Ce n’est pas du tout le cas, on assiste bien à une réévaluation profonde du modèle tel qu’il avait été utilisé jusque-là.

b. Comprendre la dualité

Le modèle hérité de Wittgenstein reposait en effet sur une logique disjonctive : on ne voit jamais en même temps le canard et le lapin, ou bien chez Gombrich le cheval de bataille dépeint et l’organisation des pigments sur la toile. La twofoldness impose au contraire une forme d’« attention simultanée à ce qui est vu et aux caractéristiques du medium », situation par principe impossible à réaliser dans le voir-comme. « Si je regarde une représentation en tant que représentation, je n’ai pas seulement le droit, mais le devoir d’être attentif simultanément à l’objet et au medium » (AO 194).

Wollheim met en avant plusieurs justifications qui plaident en faveur de l’importance que revêt la thèse de la double perception pour la compréhension des images :

– elle « fournit au moins une explication » de ce qui constitue la phénoménologie spécifique de la vision des images, à savoir que voir X n’équivaut pas à voir le portrait de X. Il en découle la conséquence contre-intuitive mais pas réellement gênante que « les peintures en trompe-l’œil ne sont pas des représentations mais que la majorité des peintures abstraites en sont » (EC 221). Hyman objecte toutefois que « c’est une chose de dire qu’un trompe-l’œil est conçu pour empêcher un spectateur, au moins pendant un moment, de voir que c’est une image, et c’en est une autre de nier qu’il est une image. » (EC 274). La thèse sur l’abstraction a en revanche une portée résolument anti-formaliste.

– elle apporte une solution simple à l’énigme de la constance perceptive ; en effet on constate que « l’image demeure remarquablement indemne de déformation [quand le spectateur se déplace] et cela à un degré qui ne serait pas vrai si le spectateur regardait l’objet réel face à face, ou si la représentation était photographiée depuis ces angles de vision » (AO 196) (on a souvent observé qu’une façade a tendance à basculer à mesure qu’on incline davantage l’appareil-photo par rapport à l’horizontale alors qu’on a inversement l’impression que les yeux d’un portrait accompagnent le déplacement du spectateur).

– elle valide une « contrainte normative » qui est celle de « la grande peinture figurative » : « chez Titien, chez Vermeer, chez Manet, nous ne cessons de nous émerveiller de la manière dont sont exploités la ligne, le coup de pinceau ou l’application de la couleur pour rendre des effets ou instaurer des analogies qui ne peuvent être identifiés que de manière figurative » (id.) [voir les études de PA]. Lopes objecte que ce genre d’argument a toutes chances d’être circulaire puisqu’il revient à généraliser à la totalité des images ce qui s’applique à une catégorie d’entre elles, quelque importance qu’on lui accorde culturellement. Wollheim sollicite aussi le parallèle avec la poésie (unité du son et du sens) mais il serait plus juste alors de reconnaître que certaines images s’apparentent à de la prose (UP 48).

Il est cependant significatif que Wollheim ait hésité sur l’interprétation qu’il convient de donner de cette simultanéité de la twofoldness : s’agit-il de deux expériences vécues en simultané, ou de préférence d’« une unique expérience comportant deux aspects que j’appelle configurationnel et récognitionnel » (EC 234), bien qu’on puisse toujours en donner une description séparée ? Ce qui importe vraiment, remarque Lopes, est qu’« il est impossible de voir une scène dans une image sans voir le design de l’image en tant que design » (SS 34) mais il faut néanmoins reconnaître avec Hyman que Wollheim en fournit une interprétation assez étroite en termes de profondeur fictive (quelque chose qui s’avance devant quelque chose ou s’enfonce derrière) et que cela convient inégalement à toute image. De plus, il ajoute que « la théorie nous dit quelque chose sur la nature générique de l’expérience de voir une certaine sorte d’objet dans quelque chose, mais rien sur sa nature spécifique » (EC 272).

Il est alors tentant de voir la position de Wollheim comme un point d’équilibre fragile tiraillé entre plusieurs forces antagonistes qui tendent à le rompre :

– Lorsque nous percevons le design en tant que tel sans pour autant céder à l’illusionnisme, nous sommes dans ce que Levinson appelle le « simple voir-dans » et Lopes « naturalisme » parce que nous sommes certains d’être affectés par la surface bien que nous n’en ayons pas conscience. Un exemple classique pour le montrer est l’image d’un dalmatien situé dans un paysage pointilliste difficile à identifier ; au premier regard, on ne voit qu’un éparpillement de taches peu distinctes, puis soudain la figure du chien surgit. À rebours de ce qui se passe d’ordinaire où ce sont les traits du design qui guident l’interprétation du sujet, c’est ici l’identification du chien qui fait prendre conscience de l’existence d’un contour fictif qui n’est pas matériellement présent (on a l’équivalent d’une figure de Kanizsa).

– Lorsque l’illusionnisme est assumé, il arrive néanmoins qu’il puisse redoubler le fait de voir le design. Wollheim prenait lui-même l’exemple des Cibles ou des Drapeaux de Jasper Johns qu’il interprétait comme un cas de superposition entre voir-comme et voir-dans. Lopes le réinterprète dans le sens de l’« actualisme » puisque l’image ne peut dépeindre une cible que si « les propriétés de la surface sont des propriétés de la cible [si bien que] nous ne pourrions pas voir les propriétés de l’une sans voir l’autre » (SS 42-43). En fait, en tenant les propriétés de l’image et de la cible pour interchangeables, ne fait-il pas un peu trop bon marché de la technique très particulière utilisée par Johns, à savoir de la peinture à la cire sur du papier journal qui transparaît dans certaines parties de l’image, et d’une façon qui n’a bien sûr rien d’accidentel ?

Quoi qu’il en soit de ce cas particulier, la leçon positive à tirer des exemples empruntés à la peinture est que les artistes n’ont cessé de tirer parti des ressources offertes par leur medium et la manière dont il permet d’agencer le dispositif de représentation. « Les images exploitent des tensions entre forme du design et forme dépeinte (ex. les nature mortes de Cézanne), entre couleur du design et couleur dépeinte (ex. les œuvres tardives du Titien) ou entre texture du design et texture représentée (ex. de nombreuses huiles de Van Gogh). Fait intégralement partie de l’appréciation de ces images le fait de remarquer ces tensions, d’essayer de les réconcilier et de chercher à donner sens à l’échec de les réconcilier. Les expériences de la scène dépeinte et du design pictural s’interpénètrent toujours l’une l’autre » (id. 34-35). Ainsi s’établit entre artiste et spectateur une forme de communication intégralement médiatisée par le processus créatif. Une complication supplémentaire se présente lorsqu’une image en inclut une autre, soit à titre de citation dépeinte (voit-on dans cette image aussi ?), soit à titre de procédé qui fait voler en éclats le sens de l’image originale comme Magritte l’a expérimenté dans la série La condition humaine.

c. La vision infléchie

Un prolongement original des analyses précédentes fait intervenir le phénomène dit de l’inflexion, situation surprenante mais exemplaire dans laquelle on ne se contente pas de voir la scène dans le design, mais où l’on voit aussi le design dans la scène. Il arrive en effet qu’on doive attacher une importance spéciale à des propriétés qu’il est impossible de caractériser sans faire référence à des traits de la surface. Michael Podro en a fait un des sujets centraux de sa réflexion, à partir de la conviction que les artistes majeurs ne se bornent pas à « montrer l’apparence du monde comme quelque chose d’antérieurement connu, mais plutôt à étendre le fil de la récognition par des structures nouvelles et complexes qui n’appartiennent qu’à eux » (D vii). Selon lui, « la dépiction a deux conditions principales : d’abord, notre capacité à reconnaître à travers la différence, et deuxièmement l’intention d’utiliser l’objet qui est matériellement présent – la peinture ou le dessin – pour imaginer ce que nous reconnaissons à l’intérieur de lui » (5). En d’autres termes, « le réel est sélectivement mis à contribution pour enrichir et soutenir la fiction » (17), ce qui situe la logique de la dépiction dans le sens opposé de celle de l’ornement où « le fictif transforme le réel ».

Dans le cas des natures mortes de Chardin, il n’y a pas seulement une « combinaison de substantialité et de fugacité » (152) dans le rendu des objets mais la création d’un véritable « espace transitionnel » entre présence littérale et identification picturale. C’est le cas du portrait qui est certainement le plus exemplaire puisqu’il fait intervenir une sorte de structure feuilletée où les rôles tendent à se chevaucher : « celui qui regarde la peinture, celui qui regarde la figure, le peintre de la figure, la figure peinte » (103) [pour Simmel, rappelle Podro, la relation entre le peintre et le modèle s’apparente à celle de l’acteur et de son personnage]. De même John Brown observe que « les spectateurs sensibilisés aux systèmes dépictifs possédant une gamme riche et subtile de contenu, accoutumés à une culture artistique qui retient la mémoire de nombreux modes de représentation, de nombreux styles, de nombreuses expressions de la personnalité artistique et de la conscience de soi artistique, et en particulier une culture qui encourage la diversité créative, cherchent à trouver davantage dans les peintures que ce qui est une partie autorisée du sujet, et ils le font de manière appropriée » (PPD 228), remarque qui vise sans doute Wollheim pour qui la seule lecture appropriée est celle qui se conforme à l’intention de l’artiste, avec pour conséquence de sous-estimer la fécondité de voir autre chose que ce qui appartient au sujet.

Dans une analyse critique très éclairante, Hopkins revient sur un des exemples de Podro, la gravure de Jan Cornelius Sylvius de Rembrandt ainsi que le dessin préparatoire réalisé à l’encre brune. Celui-ci mettait l’accent sur deux points :

– « L’ombre de sa main s’étend au-delà du cadre représenté et nous sommes conduits à nous demander jusqu’où la fiction s’empare de la surface et peut-être même où, au sein de notre expérience, l’ombre se transforme en simple encre. Mais réfléchir là-dessus n’affaiblit pas la force de sa présence imaginée. C’est comme si notre poursuite de la fiction tournait tout à son avantage » (D 16). En réalité, « nous sommes invités à être témoin de la distinction entre réel et fictif et à l’écarter en imagination, distinction qui est celle présupposée dans le fait de voir la peinture avant tout comme une représentation. Et contrairement à ce que nous aurions pu attendre, mettre en question la frontière entre réel et fictif peut faire ressortir la vivacité de la fiction plutôt que l’amoindrir » (id.). [Ce cas rejoint la remarque célèbre de Merleau-Ponty que « la main qui pointe vers nous dans La Ronde de nuit est vraiment là quand son ombre sur le corps du capitaine nous la présente simultanément de profil. (…) Pour la voir, elle, il ne fallait pas le voir, lui. » (L’Œil et l’esprit, cité D 7) ; l’effet de ces deux vues incompossibles est de « nous faire voir le visible ».]

– La technique utilisée par Rembrandt (dessin à la plume + encre sépia) fait que nous ne reconnaissons pas seulement une figure dans les lignes d’un dessin mais que nous sommes induits à imaginer l’impulsion de la ligne pour concrétiser notre sens du mouvement. « Dans de tels cas, la ligne se rapporte à la figure doublement, une fois par sa forme et une fois par son impulsion apparente. La ligne relie la forme et le mouvement comme seul le dessin permet de les connecter » (9). [Comme dit Klee, « l’œil suit les chemins qui lui ont été ménagés dans l’œuvre ». Autre exemple : dans telle étude de draperie de Léonard, « nous ne voyons pas simplement la draperie dépeinte dans la surface mais la texture de la surface qui polarise la dépiction » (13)].

Hopkins remarque que si dans l’esquisse « Rembrandt capture particulièrement bien le geste de main de Sylvius (c’est que) le mouvement vers le haut de sa main est clairement visible. Mais pour le voir, on doit voir les traits d’encre qui dépeignent la main comme s’orientant vers le haut. De fait, la main semble elle-même être à la fois une partie du corps et une éclaboussure d’encre qui se dresse [a rising splash of ink] » (161). En fait ni le mouvement de l’encre ni celui de la main ne peuvent être vus l’un sans l’autre, « ce qui est vu dans l’image est une main faite d’encre qui se dresse ». C’est à partir de remarques de ce genre que Bence Nanay peut suggérer une interprétation de base neurologique : dans le cas où voir-dans n’est pas infléchi, les traits liés au design (ou à la surface) sont seulement représentés par la perception dorsale, alors qu’on peut faire l’hypothèse qu’en situation d’inflexion certains de ces traits au moins sont représentés à la fois par les deux circuits de perception, ventrale et dorsale, ce qui revient à dire qu’ils renvoient alors à des propriétés où le design est en interaction avec la scène dépeinte (PPD 202).

Pour Hopkins (et de manière générale les partisans de la « ressemblance expérimentée »), l’inflexion est une curiosité locale dont il est vain de nier l’existence mais qui reste sans portée décisive. Au contraire Lopes tient qu’elle est partie prenante de « l’énigme de la dépiction », parce qu’elle aide à faire comprendre que voir-dans va au-delà de voir face à face et qu’elle confère à la notion un enjeu résolument cognitif. Pour réaliser pleinement ses objectifs, cela suppose non seulement de replacer l’évaluation d’une image en tant qu’image à l’articulation entre les expériences de l’image elle-même et de la scène qu’elle dépeint mais encore de la situer au sein d’un réseau plus vaste où l’évaluation esthétique ne cesse d’interagir avec des évaluations non esthétiques, notamment épistémiques, éthiques ou sociales, qui débordent son champ initial (sur toutes ces questions, voir SS).

La leçon à tirer de ce parcours à travers la dépiction est moins de donner l’avantage à une théorie que de convaincre d’abord qu’elle est un mode de référence à part entière et majeur, à mettre sur un pied d’égalité avec la description. L’humanité dispose des deux systèmes du langage et de l’image, à la fois concurrents et complémentaires. Elle s’est toujours ingéniée à élargir et explorer les ressources de chacun d’eux et elle en vient à réaliser qu’aucun des deux ne rend l’autre inutile ni ne peut revendiquer un monopole.


Bibliographie

ABELL C. et BANTINAKI K. (eds), Philosophical Perspectives on Depiction, Oxford UP, 2010 [PPD]

BLANC-BENON L., La question du réalisme en peinture, Vrin, Essais d’art et de philosophie, 2009.

BUDD M., Aesthetic Essays, Oxford UP, 2008 (not. chap. 10-12)

COMETTI J.-P., MORIZOT J. et POUIVET R. (eds), Esthétique contemporaine : Art, représentation et fiction, Vrin, 2005 [EC]

GOMBRICH E . H., Art and Illusion, Princeton, Bollingen Series, 1960, ed. fr. Gallimard, 1971, puis Phaidon. [AI]

GOMBRICH E . H., The Image and the Eye, Phaidon, 1982. [IE]

GOODMAN N., Languages of Art, Bobbs-Merrill, 1968, trad. fr. J. Morizot, Éd. J. Chambon

HOPKINS R., Picture, Image, and Experience, Cambridge UP, 1998.

KULVICKI J., On Images. Their Structure and Content, Clarendon Press Oxford, 2006 [I]

LOPES D., Understanding Pictures, Oxford UP, 1996, [UP] trad. fr. Laure Blanc-Benon, Comprendre les images, PUR, 2014

LOPES D., Sight and Sensibility : Evaluating Pictures, Clarendon press, Oxford, 2005 [SS]

MORIZOT J., Qu’est-ce qu’une image ?, Vrin, Chemins philosophiques, 2005 et 2008

PODRO M., Depiction, Yale UP, 1998 [D]

SCHIER F., Deeper into Pictures, Cambridge UP, [DP] trad. fr S. Réhault La naturalité des images, Questions théoriques, sous presse

WALTON K., Mimesis and Make-Believe, Harvard UP, 1990 [MMB]

WITTGENSTEIN L., The Blue and Brown Books, trad. fr. M. Goldberg et J. Sackur, Le Cahier bleu et le Cahier brun, Gallimard, 1996

WITTGENSTEIN L., Philosophical Investigations, trad. fr. E. Rigal, Recherches philosophiques, Gallimard, 2005 [RP]

WOLLHEIM R., « Dessiner un objet », trad. fr. D. Lories, in Philosophie analytique et esthétique, Klincksieck, 1988 et 2004 [DO]

WOLLHEIM R., Art and its Objects, 2e ed. with six Supplementary Essays, trad fr. R. Crevier, L’art et ses objets, Aubier, 1994 [AO]

WOLLHEIM R., Painting as an Art, Princeton UP (not. chap. 1 et 3) [PA]


Jacques Morizot
Aix-Marseille Université
j.morizot@orange.fr