Ethique artificielle (A)

Comment citer ?

Chauvier, Stéphane (2016), «Ethique artificielle (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/ethique-artificielle-a

Publié en juillet 2016

Résumé

On appelle intelligence artificielle [IA] la partie de l’informatique qui a pour objet de créer des programmes informatiques capables de conférer à la machine dans laquelle ils sont implantés un comportement intelligent. On peut appeler éthique artificielle [EA] (robots ethics ou machine ethics sont des expressions plus communément utilisées) cette sous-partie de l’intelligence artificielle qui a pour objet de créer des programmes informatiques capables de conférer à la machine dans laquelle ils sont implantés cette forme particulière de comportement intelligent qu’est un comportement moral, un comportement sensible à la polarité du bien et du mal.

L’éthique artificielle, au même titre que l’intelligence artificielle, soulève évidemment des problèmes purement scientifiques et techniques, qui concernent au premier chef les logiciens et les informaticiens. Mais, comme l’intelligence artificielle dont elle est une partie, elle soulève aussi et peut-être d’abord des problèmes philosophiques relatifs à la manière de catégoriser les entités dans lesquels ces programmes sont implantés. Depuis l’article pionnier de Turing en 1950 (Turing & Girard 1995), les philosophes s’interrogent pour savoir si l’on peut affirmer qu’une machine dotée d’une intelligence artificielle est réellement une créature intelligente ou est réellement capable de penser, de comprendre, de juger, etc, ou bien si elle n’est qu’un simulacre d’intelligence (Searle 1980). Un nouveau chapitre s’est désormais ouvert dans cette réflexion sur l’intelligence artificielle : on ne demande plus seulement si une machine peut penser, mais si une machine peut être moralement vertueuse, si elle peut être louée ou blâmée pour ce qu’elle fait, si elle peut être tenue pour un agent moral de plein droit ou bien si elle n’est qu’un simulacre de tout cela.

Après avoir reconstitué le contexte de développement de l’éthique artificielle, cette entrée se propose de présenter les deux principaux problèmes philosophiques qu’elle soulève, celui du contenu d’une éthique artificielle et celui du statut des entités porteuses d’une telle éthique, en se focalisant sur les problèmes réels soulevés par l’éthique artificielle des robots que nous savons et souhaitons construire, par contraste avec les problèmes beaucoup plus spéculatifs que soulèveraient les robots imaginés par les auteurs de science fiction, si nous savions et souhaitions en construire de tels.


Table des matières

1. Pourquoi avons-nous besoin d’une éthique artificielle ? 

2. Quelle éthique ?

a. Une éthique artificielle est une éthique d’extension restreinte

b. Une éthique artificielle est une éthique de surface

c. Une éthique artificielle est moins rationnelle que situationnelle

3. Quelle responsabilité ?

a. Responsabilité pratique et responsabilité morale

b. La responsabilité muette des robots

c. L’enfance des robots

Conclusion

Bibliographie


1. Pourquoi avons-nous besoin d’une éthique artificielle ?

Le 14 février 2016 à Mountain View, aux États-Unis, une Google-car a heurté un autobus roulant à faible allure, sans faire aucune victime.

Ce banal accident de la circulation, analogue à des milliers d’autres se produisant chaque jour dans le monde, aurait pu rester ignoré de tous, s’il avait été occasionné par un livreur maladroit ou inattentif de la célèbre firme américaine. Mais si la presse internationale s’en est très largement fait l’écho dans les jours qui ont suivi, c’est en raison du statut de l’entité qui fut à la source de cet accident : l’accident de Mountain View est en effet le premier accident de la circulation impliquant un véhicule autonome.

Or qu’est-ce qu’un véhicule autonome ? Ce n’est pas un simple véhicule sans pilote humain embarqué. Un drone est un véhicule sans pilote humain embarqué, mais un drone est piloté à distance et en direct par un opérateur humain, il est un télé-véhicule. Un véhicule autonome est en réalité un robot autonome, doté certes d’un corps d’automobile, mais aussi et surtout d’une « âme » artificielle, faite de dizaine de milliers de lignes de programme informatique, articulées à des capteurs et senseurs variés, lui permettant de faire ce qu’un chauffeur de taxi fait chaque jour : transporter à leur demande ses clients d’un point à un autre, dans des conditions normales de circulation et en fonction de paramètres variés fournis par les clients : temps du transport, agrément du circuit, etc. Un véhicule autonome, c’est tout simplement votre propre voiture qui deviendrait votre propre taxi. Vous lui diriez, en vous installant sur la banquette arrière : « Je vais gare de Lyon, je suis pressé » et elle vous y mènerait, tandis que vous liriez tranquillement le journal ou mangeriez votre sandwich en regardant défiler les rues.

Si l’on appelle action un mouvement intentionnel dont l’agent contrôle en permanence l’adéquation au but qu’il cherche à atteindre, alors un véhicule autonome est ce que nous pourrions appeler un agent pratique artificiel modulaire [APAM].

Agent pratique parce qu’il poursuit intelligemment des buts pratiques, en adaptant de lui-même son comportement à ses objectifs, en prenant de lui-même des décisions pratiques appropriées à ses fins.

— Artificiel, parce que l’intelligence pratique dont il fait montre est une intelligence artificielle (IA), faite de lignes de codes informatiques gouvernant des séries d’impulsions électroniques.

Enfin modulaire, parce que sa spécificité, par rapport à un agent humain, est de ne couvrir qu’un spectre constitutivement limité de buts pratiques.

Les véhicules autonomes, dont, outre Google, la plupart des grands constructeurs automobiles mondiaux cherchent aujourd’hui à développer des prototypes, ne sont qu’une variété d’APAM. Les systèmes d’armes létaux autonomes (lethal autonomous weapons systems, cf. Sparrow 2007 et Arkin 2009) en sont un autre exemple significatif : certains, par exemple, gardent la frontière de la Corée du Sud vis-à-vis de son rival du Nord. Un autre exemple typique d’APAM sont les robots aides-soignants, qui assurent les soins quotidiens de malades dépendants (Borenstein & Pearson, 2012). Mais la gamme des robots d’assistance dépasse le seul registre médical : mentionnons simplement les robots d’assistance sexuelle (Levy, 2007).

Les APAM, à la différence des Robots d’Isaac Asimov ou de HAL 9000 dans 2001-L’odyssée de l’espace de Stanley Kubrick (Carl dans la version française), n’appartiennent pas à la fiction. Même si la plupart sont encore en voie d’expérimentation et de perfectionnement, leur développement pourrait atteindre un stade industriel dans un futur proche. Mais les défis que soulèvent la création et le déploiement des APAM ne sont pas seulement d’ordre scientifique et technologique. Comme l’importance accordée à l’accident de la Google-car le suggère, un APAM a vocation à évoluer dans un environnement social ordinaire, impliquant des êtres humains : un APAM peut donc, en raison des complications de la vie sociale, se trouver à la source de dommages plus ou moins graves occasionnés à des humains. Or si rares sont les créations technologiques à ne pas envelopper certains risques de dommages pour les humains, il y a une différence cruciale entre les risques impliqués par la grande majorité des artefacts technologiques nouveaux et ceux dont les APAM sont porteurs. Mettre en circulation un mécanisme technologique nouveau expose au risque inhérent aux processus naturels dont ce mécanisme est le théâtre : c’est la physique ou la chimie inhérente au nouvel artefact qui, sous certaines conditions, peuvent générer des dommages pour les humains. Mais ce n’est évidemment pas, ou seulement très marginalement, la physique ou la chimie des APAM qui peuvent représenter un risque pour les humains qui les croiseront : ce sont les décisions qu’ils peuvent prendre. Car un APAM, insistons-y, n’est pas un automate pratique, du type d’un distributeur automatique de billets de banque, réglé pour réagir de manière déterminée à certains stimuli ou à un certaines commandes. Un APAM est un agent pratique, qui possède certes une sphère de compétence pratique limitée, mais qui, à l’intérieur de son espace pratique fonctionnel, dispose d’une importante marge d’initiative : c’est lui, et non quelque téléguideur humain, qui prend des décisions en fonction des buts pratiques qu’il a à atteindre. C’est le véhicule autonome qui doit décider de freiner si des enfants traversent la rue hors des passages cloutés, quitte à nous faire rater notre train gare de Lyon. C’est le robot tueur qui doit décider de ne pas tirer s’il y a un doute sur le statut de la cible, au risque de permettre à un sniper ennemi de s’enfuir

Mettre en circulation des APAM soulève donc, à un certain point de vue, un banal problème de risque technologique. Mais la nature des APAM donne à la maitrise des risques dont ils sont porteurs une forme profondément originale : mettre en circulation des APAM dont le potentiel de risque soit, sinon annulé, du moins minimisé, suppose d’agir sur les procédures décisionnelles qui sont le cœur de leur intelligence artificielle, afin de garantir leur innocuité ou de minimiser les dommages qu’elles peuvent engendrer.

Or, cette innocuité décisionnelle ne peut se réduire à garantir la simple légalité des décisions de l’APAM. Un véhicule autonome, pour rester sur cet exemple, doit évidemment respecter les lois et règlements en usage dans le domaine de la conduite automobile, autrement dit le code de la route. Mais un « bon » véhicule autonome doit également être en mesure de faire face aux situations critiques inopinées auxquelles tout usager humain de la route peut être confronté : on attendra d’un « bon » véhicule autonome qu’il puisse accepter de mettre son passager en retard pour laisser passer un piéton, même si ce dernier est en dehors des passages protégés, ou qu’il puisse préférer verser sur le bas côté de la route, plutôt que de heurter un cheval traversant la route ou, plus radicalement, qu’il sache prendre la bonne décision s’il n’a le choix qu’entre heurter un autre véhicule et renverser un cycliste.

Annuler ou minimiser le risque dont les APAM sont porteurs passe donc par la possibilité de compliquer suffisamment leur intelligence pratique artificielle pour y intégrer, au delà du respect de certaines normes juridiques, ce qu’il faut bien appeler une éthique artificielle, autrement dit des lignes de programme garantissant que le comportement de l’APAM soit sensible aux droits, aux intérêts voire aux besoins de tous ceux que ses décisions pratiques pourront affecter. Rendre socialement acceptables les APAM, c’est donc les transformer en AMAM, en agents moraux artificiels modulaires.

Ce problème, profondément original, de la construction d’APAM dont le comportement puisse être tenu pour éthiquement acceptable voire responsable, qu’il s’agisse de véhicules autonomes, de robots tueurs opérant sur des théâtres de guerre ou de robots de confort, ne met pas seulement au défi les spécialistes d’intelligence artificielle, requis de mettre la moralité humaine en algorithmes informatiques. Il interroge tout autant les métaphysiciens et les philosophes de la morale, que la perspective de devoir qualifier d’agent moral une voiture ou un aspirateur ne peut manquer d’ébranler, si l’on songe notamment à la célèbre déclaration kantienne selon laquelle « l’humanité, en tant qu’elle est capable de moralité, c’est ce qui seul possède de la dignité » (Kant, 1994, 116).

2. Quelle éthique ?

Cette interrogation sur le statut ontologique des APAM évoque par plus d’un trait celle dont Alan Turing se faisait l’écho dans son célèbre article de 1950, au point qu’à l’instar de Turing, certains auteurs ont imaginé un « Moral Turing Test » (Allen et al. 2000) pour décider si un robot pouvait être considéré comme un agent moral artificiel. Nous allons revenir un peu plus loin sur la pertinence de ce « test », mais il est au moins une différence sur laquelle nous pouvons d’ores et déjà mettre l’accent.

a. Une éthique artificielle est une éthique d’extension restreinte.

Dans son article antérieur de 1936-37 sur les « Nombres calculables » (Turing & Girard, 1995), beaucoup plus décisif d’un point de vue scientifique, Turing a conçu ce qu’on appelle depuis une machine de Turing : une machine universelle [i.e. un ordinateur] capable, en principe, de traiter ou « calculer » toute question relevant de tout domaine de connaissance, moyennant son approvisionnement en bases de connaissances et en algorithmes de calcul idoines. Une machine de Turing peut « décider » ou « calculer » des questions de poésie aussi bien que des questions de physique ou d’échecs. Turing pouvait donc raisonnablement s’interroger, quelques années plus tard, sur la question de savoir si une machine de ce genre, qu’on imaginerait suffisamment pourvue en bases de connaissances et en algorithmes de calcul, pourrait être considérée comme une créature pensante. Or la différence entre le problème posé par Turing (« les machines peuvent-elles penser ? ») et celui soulevé par les APAM (« les machines sont-elles capables de moralité ? ») est qu’il est certain que la moralité des APAM ne peut rivaliser en extension avec la moralité des humains. Un humain est en effet un agent pratique universel, capable de poursuivre toutes sortes de fins dans toutes sortes de contextes, tandis qu’un APAM est un agent pratique modulaire, spécialisé dans la poursuite d’une gamme limitée de fins et évoluant dans des contextes pratiques limités. On peut sans doute imaginer, dans un cadre fictionnel, des APAU, autrement dit des agents pratiques artificiels universels et poser à leur propos une question semblable à celle que soulevait Turing, autrement dit se demander quel statut auraient ces créatures si nous savions et souhaitions en construire. Mais ce qui est réel ou en passe de l’être et qui répond en outre à des besoins humains bien identifiés, ce sont des APAM, auxquels de larges pans de la moralité humaine sont inapplicables : il serait clairement dénué de sens d’exiger d’un véhicule autonome qu’il soit modeste ou d’un robot domestique qu’il soit respectueux du jus in bello.

Si l’on entend donc raisonner sans fantasme sur le statut moral des APAM, il faut donc poser en principe qu’une éthique artificielle, au moins dans le contexte présent de nos capacités scientifiques et technologiques, ne peut être elle-même qu’un module détaché de l’éthique universelle des humains ou, si l’on veut une éthique humaine restreinte ou diminuée.

Certains auteurs proposent de ce point de vue une gradation entre éthique implicite, éthique explicite et éthique complète (Moor 2006) ou entre moralité opérationnelle, moralité fonctionnelle et moralité complète (Allen & Wallach 2009). Une moralité implicite ou opérationnelle est un réglage qui contraint le comportement d’un automate (du type distributeur automatique de billets) de façon à ce qu’il respecte certaines normes (ne distribuer de l’argent qu’à celui qui connaît le code de la carte) qui lui sont imposées par son concepteur humain. Une moralité explicite ou fonctionnelle consiste également en un certain nombre de règles, limitées à un contexte déterminé d’action, mais qui sont optionnellement mises en œuvre par l’agent artificiel : ainsi un APAM distributeur de billets, s’il en existait, pourrait moduler son application de la règle précédente selon la tête du client, qu’il analyserait via des capteurs adaptés : les clients réguliers n’auraient, par exemple, pas besoin d’entrer leur code. Quant à une moralité complète, c’est la nôtre, éventuellement transposée dans un APAU, s’il en existait.

Cette gradation est dans son principe pertinente : un APAM est plus qu’un automate, mais moins qu’un agent pratique universel. Cependant, qualifier de « complète » la moralité d’un agent pratique universel masque quelque peu, par son anthropocentrisme implicite, la vraie nature du problème. Si une créature n’était capable que de parler intelligemment de poésie et de cuisine et jamais d’aucun autre sujet, il y aurait un sens à dire que son intelligence serait incomplète. Mais par ailleurs, dans le domaine limité qui serait le sien, cette créature pourrait avoir une intelligence pleinement développée et en tout point indiscernable de celle d’une créature à l’intelligence plus universelle. Affirmer que la moralité d’un APAM est une moralité incomplète est donc équivoque, parce qu’on peut entendre par là soit qu’elle est limitée en extension, c’est-à-dire qu’elle ne s’applique qu’à une gamme limitée d’« objets » moraux, soit qu’elle est limitée en intension, au sens où certaines caractéristiques qui seraient essentielles à la moralité, en quelque créature qu’elle se réaliserait, ne se rencontreraient pas dans la moralité d’un APAM.

Or c’est précisément là l’un des problèmes philosophiques les plus intéressants que soulève l’éthique artificielle. En fabriquant des agents moraux artificiels, nous laissons inévitablement de côté de large pans de notre moralité, de notre manière d’être moraux ou de nous conduire moralement. Mais rien ne permet a priori d’affirmer que les aspects ou composants de la moralité humaine qui ne trouvent pas place dans la moralité artificielle d’un APAM sont essentiels à la moralité ou sont constitutifs du caractère éthique d’un comportement. L’éthique artificielle nous permet donc d’interroger indirectement l’essence de la moralité en nous contraignant à nous demander si l’éthique restreinte ou diminuée d’un APAM contient suffisamment de caractéristiques pour être considérée, malgré tout, comme une moralité de plein droit.

Que sont donc ces parties ou aspects de notre moralité qui sont nécessairement absents d’un APAM ? Nous avons indiqué que l’éthique implémentée dans un APAM était au moins restreinte en extension : la morale d’un véhicule autonome est la morale d’un usager de la route ; la morale d’un robot de guerre est la morale d’un soldat, etc. Cependant, on peut noter que lorsqu’un agent humain remplit une fonction sociale déterminée, chauffeur de taxi, garde-frontières ou médecin par exemple, il restreint la gamme de ses buts pratiques à ceux qui sont constitutifs de la fonction qu’il remplit et il peut alors faire montre d’une moralité adaptée à la fonction qu’il remplit : la morale d’un chauffeur de taxi, d’un garde-frontière, d’un médecin. Un APAM ressemble donc, si l’on veut, à un agent pratique humain qui serait réduit aux buts constitutifs d’une fonction sociale déterminée.

Mais au delà de cette restriction extensionnelle, l’éthique implémentée dans un APAM comporte encore une double restriction ou diminution, si on la compare à notre moralité : elle est en premier lieu ce que nous pourrions appeler une éthique de surface, qui ne possède aucune profondeur subjective. Mais elle est aussi, et ce de manière peut-être plus surprenante, une éthique plus perceptuelle que rationnelle ou plus situationnelle que computationnelle.

b. Une éthique artificielle est une éthique de surface

C’est un débat au sein des théories philosophiques de la moralité humaine que de savoir si la moralité humaine requiert une base émotionnelle particulière ou bien si elle n’est qu’un développement de notre rationalité. Rousseau par exemple faisait dériver toute la moralité humaine d’un sentiment inné de pitié (Rousseau, 1964, 156), tandis que Kant enracinait la moralité humaine dans l’exigence purement rationnelle d’universalisabilité de nos maximes d’action (Kant, 1996, 97).

Ce débat n’a tout simplement pas lieu d’être s’agissant de la moralité d’un APAM et ce fait à lui seul fournit déjà une information instructive sur le type de moralité qui peut être à l’œuvre dans un APAM : il n’y a pas, pour les APAM, de problème de la motivation à agir moralement. Un APAM pourra peut-être prendre de mauvaises décisions, mais ses mauvaises décisions seront des erreurs et non des fautes, des bévues plus que des péchés.

Un APAM manque en effet de deux des composantes qui, dans l’homme, font qu’il y a un problème de motivation à agir moralement : la présence d’émotions et d’appétits ; la conscience de soi-même.

(A) Même s’il existe certaines controverses, parmi les philosophes de l’esprit, sur le point de savoir si nos sensations, sentiments et émotions, avec leur contenu qualitatif typique, sont des phénomènes réellement existants ou de simples illusions, il est au moins certain que ces états subjectifs, soit comme expériences réelles soit comme illusions résistantes, sont absents d’un APAM : un véhicule autonome, un robot de guerre, un aspirateur ne connaissent ni la joie, ni la tristesse, ni la peur ou la colère. Et pas non plus l’amour ou la haine et leurs dérivés : l’envie, la rancœur, la pitié, etc. Un APAM est une créature apathique. Quelques philosophes de l’esprit peuvent certes affirmer qu’un jour prochain, nous parviendrons à construire des machines sensibles, notamment tous ceux qui, qui, à l’instar de Daniel Dennett (cf. Dennett, 1998 à propos de Hal 9000 du film de Kubrick), nient la réalité d’états qualitatifs subjectifs, irréductibles aux propriétés fonctionnelles de nos états cérébraux et font par conséquent de la conscience un phénomène purement physique. Mais comme aucun d’entre eux n’est en mesure de fixer précisément cette date, force est, pour l’heure, de laisser de côté leurs espérances : pour nous, à la lumière de ce que nous savons et voulons faire, un APAM est sans passion, sans émotion, sans expérience subjective.

Or il suit de là, de manière immédiate, que si un APAM est doté d’une moralité, il ne connaîtra pas la tentation d’en dévier, ni ne souffrira de faiblesse de volonté (akrasia). Si un véhicule autonome a, par exemple, le « désir » de gagner la gare de Lyon le plus rapidement possible, ce désir ne possédera pas une force conative capable de faire contrepoids à l’obligation de s’arrêter pour laisser passer un groupe scolaire traversant la rue. Le « désir » d’arriver rapidement à la gare de Lyon et l’obligation de ne pas écraser des enfants ne s’opposeront pas comme des forces, dont l’une pourrait triompher de l’autre, car il n’y aura rien de tel que des forces conatives dans un APAM. En revanche, il y aura, dans l’algorithme décisionnel de l’APAM, une structure d’ordre qui déterminera quel motif doit prévaloir. Mais ce « doit » aura la force d’une règle inférentielle, et pas celle d’un mobile pulsionnel.

Comme le soutiennent certains auteurs, la « volonté » d’un APAM sera donc une volonté sainte qui ne connaîtra pas la tentation de dévier de ses fins morales (Gips, 1995). Un APAM pourra peut-être mal catégoriser un item présent dans son champ d’action, un robot de guerre pourra par exemple ne pas remarquer un civil situé dans le voisinage d’un combattant ennemi régulier, mais son acte, quoique moralement fautif, sera une erreur, pas une faute : il n’aura pas cédé à la tentation de tirer, mais aura simplement mal estimé la complexité de la situation.

(B) Les passions des hommes ont une connexion étroite avec leur conscience de soi. L’amour propre est, selon certains moralistes, le ressort de l’agir humain. Mais aussi bien ce que les philosophes classiques, par exemple Rousseau, appellent la conscience, au sens de la conscience morale qui permet à l’agent de scruter ses intentions et de connaître, tantôt la joie de bien faire, tantôt la honte ou le remords d’avoir mal fait, requiert également la conscience de soi.

Or il est très clair qu’il n’y a pas plus de conscience de soi que d’émotivité dans un APAM : un véhicule autonome, un i-aspirateur ne se regardent pas agir et ne catégorisent pas leurs actes. Ils n’ont ni réflexivité, ni pensées et désirs de second ordre. Ils ne maitrisent pas le pronom de la première personne. Ils sont, si l’on veut, des consciences qui ne sont pas conscientes de soi ou, pour parler comme Sartre (1965, 24), des consciences non positionnelles de soi.

La conséquence est qu’il n’y a donc évidemment pas d’amour propre dans un APAM, ni non plus de bonheur de bien agir ou de souffrance d’avoir mal agi. Mais il n’y a pas non plus, et ce point est décisif pour apprécier la responsabilité des robots, de capacité à donner la raison de ses actes, à les justifier ou à les excuser, car pour donner la raison d’un acte, il faut une méta-représentation de cet acte ou un redéploiement en mode réflexif de son accomplissement spontané ou immédiat.

Une autre conséquence notable de cette absence de conscience réfléchie chez les robots est que la distinction entre ce que Nozick (1981, 401) appelle le moral push [ = la perfection personnelle] et le moral pull [ = le respect passif ou actif des autres] n’a pas de sens pour un APAM. L’éthique d’un APAM ne peut relever que du moral pull. Un robot peut certes améliorer ses performances morales, s’il est doté d’un programme qui lui permet d’apprendre de ses échecs ou erreurs et d’enrichir ainsi peu à peu sa « sensibilité » morale. Mais ce processus s’accomplit sans que le robot l’apprécie réflexivement : il est un processus auto-cumulatif, et non pas un processus réflexif. Il est donc difficile d’envisager qu’un APAM puisse être vertueux, au sens strict de ce terme, et répondre ainsi à un moral push, car la vertu, au sens d’une qualité dispositionnelle de l’agent, est inséparable de la maitrise de soi et de l’effort sur soi, qui l’un et l’autre supposent la conscience de soi.

On peut donc résumer ces idées en disant que la « conscience » d’un APAM est sans épaisseur émotionnelle et sans réflexivité : elle est une conscience du monde, pas une conscience de soi, une conscience de re qui n’est jamais une conscience de se. Un APAM distributeur de billets nous voit, mais il ne se « voit » pas : comme le sujet selon Wittgenstein (1993, §5.632 sq.), il est hors du monde dans lequel il agit. Un APAM est donc un zombie ingénu, « zombie » parce qu’il n’a pas d’états qualitatifs subjectifs, « ingénu » parce qu’il est dénué de conscience de soi.

La conséquence est que la moralité de ces zombies ingénus ne pourra se loger que dans la manière dont ils traiteront (calculeront) les situations concrètes externes auxquelles ils seront confrontés. Si nous avons oublié le code de notre carte et comptons sur la bienveillance de notre APAM distributeur de billet habituel, nous ne pourrons exciter sa pitié, flatter son amour propre ou lui donner des raisons de faire une exception pour nous : nous devrons uniquement compter sur sa capacité à nous reconnaître et attendre, dans la crainte et le tremblement, la décision impassible qu’il prendra une fois qu’il nous aura reconnus.

c. Une éthique artificielle est moins rationnelle que situationnelle

Comment faire cependant pour que les froides décisions d’une créature de ce genre aient une orientation morale ? Si l’on écarte notre sensibilité et notre conscience réfléchie, reste, comme seule composante de notre moralité transposable dans un APAM, la part rationnelle ou computationnelle de notre propre moralité. Si l’on ne peut implémenter des émotions ou une conscience de soi dans un APAM, il semble plus à notre portée d’y transposer, via une programmation informatique appropriée, des schémas de raisonnements moraux.

C’est l’approche dominante parmi les philosophes et les informaticiens œuvrant dans le domaine de l’éthique artificielle. Cependant, force est de constater qu’en dépit du nombre croissant de travaux consacrés à cet objectif, qui fait désormais l’objet d’un champ de recherche spécifique de l’Institute of Electrical and Electronics Engineers (http://www.ieee-ras.org/robot-ethics), il n’existe guère pour l’heure de routine permettant d’implémenter, dans une classe donnée d’APAM, en fonction de leur espace d’actions et d’interactions, une ligne de conduite éthique adaptée.

Une partie de l’explication réside évidemment dans les difficultés techniques propres à l’IA. Mais un verrou important est d’ordre plus conceptuel ou philosophique que technique : il réside principalement dans l’absence de consensus sur le genre de capacités qu’il faut implémenter dans un APAM pour que ses processus décisionnels simulent les seuls modes de décisions éthiques ou éthiquement contraints que nous connaissions, ceux des êtres humains.

L’approche dominante dans la littérature s’efforce de résoudre ce problème de simulation de la manière la plus simple qui soit, au moins en principe : en cherchant à transposer dans un agent artificiel l’épure rationnelle ou computationnelle de nos propres manières de raisonner sur des matières de morale telles du moins que les caractérisent les deux principales classes de théories rationalistes de la moralité humaine, les théories déontologiques et les théories conséquentialistes. D’après les premières, un agent moral rationnel est une créature qui confronte systématiquement ce qu’elle projette de faire à certaines règles générales déterminant ce qui est moralement permis et ce qui est moralement prohibé. D’après les secondes, un agent moral rationnel est une créature qui estime systématiquement les conséquences de l’action qu’elle projette au regard de certaines valeurs comme le bien-être ou la non-souffrance des autres. Construire une éthique artificielle consistera donc, dans ce type d’approche, à implémenter dans un agent artificiel l’une ou l’autre de ces deux manières de raisonner. Une éthique artificielle prendra dès lors la forme d’une théorie morale formelle, déontologique ou conséquentialiste, couplée à une base de connaissances adaptée au champ d’action du robot et permettant au robot d’inférer ce qui est permis, interdit ou obligatoire dans son domaine d’action. Certains auteurs, comme Bringsjord et al 2006, vont même jusqu’à concevoir une éthique artificielle comme un système de logique déontique permettant au robot de prouver des théorèmes pratiques décrivant les actions qu’il doit accomplir ou peut accomplir.

Un premier problème posé par ces approches est que le choix d’une théorie de référence est assez arbitraire : pourquoi préférer un « robot kantien » (Powers, 2006) à un « robot utilitariste » (Grau, 2006), sans parler d’un robot raisonnant conformément à la théorie des devoirs prima facie de Ross (1930) (Anderson, Anderson & Armet 2006) ou se conformant à des commandements divins (Bringsjord & Taylor, 2012) ?

Mais le vrai problème posé par ces approches qui, à l’exception de Anderson et al 2006, ne connaissent aucun véritable commencement d’opérationnalisation, c’est qu’elles obligent à conditionner la construction d’une éthique artificielle à l’implémentation dans une machine de la riche palette de capacités mentales qui est caractéristique d’un être humain (Allen et al., 2000). Car il est manifeste que notre capacité à raisonner en mode déontologique ou en mode conséquentialiste exige bien d’autres capacités que de pures capacités inférentielles. Comment par exemple un robot pourrait-il appliquer, en mode déontologique, une règle aussi simple que la Règle d’or sans donner sens à une notion comme « ce qu’on ne voudrait pas qu’on nous fasse » ? Et comment pourrait-il le faire sans posséder une conscience de soi et une « théorie de l’esprit » ? Ou comment un robot pourrait-il, en mode conséquentialiste, estimer la quantité de souffrance associée chez les autres aux options qui se présentent à lui, sans disposer de capacités expérientielles, propres à donner, dans son « esprit », leur polarité caractéristique au plaisir et à la souffrance, et sans disposer de capacités empathiques lui faisant imaginer cette polarité chez les autres ? Il est manifeste que nos raisonnements moraux font largement appel à notre conscience de soi, à notre sensibilité, à notre capacité d’empathie, à notre capacité de nous mettre à la place des autres, sans parler de nos émotions : or il serait fâcheux que la condition de mise en circulation d’un APAM soit de les doter de cette vaste gamme de capacités, la probabilité d’y parvenir dans un temps raisonnable étant des plus faibles, pour ne pas dire nulle.

Il existe cependant une alternative à ces approches qu’on peut qualifier d’anthropo-mimétiques : elle consiste à substituer à une démarche de haut en bas (top-down), partant de théories générales pour arriver à un contexte pratique particulier, une démarche de bas en haut (bottom-up, cf. Allen, Smit & Wallach, 2005 pour cette opposition), plus attentive aux besoins somme toute limités d’une éthique artificielle. Un agent pratique artificiel, qu’il s’agisse d’un véhicule autonome, d’un robot de guerre ou d’un aide soignant artificiel ne sont pas, nous y avons insisté plusieurs fois, des agents pratiques universels, ayant vocation à avoir une vie morale riche et complexe à la mesure des contextes pratiques diversifiés dans lesquels ils auraient à agir. Les APAM sont des créatures dont le comportement est circonscrit à un espace pratique fonctionnel limité et dont on attend qu’elles soient capables de prendre de « bonnes » décisions dans certaines situations moralement critiques qui forment une sous-région de cet espace pratique fonctionnel. La moralité dont un APAM a besoin requiert donc moins des principes généraux applicables dans une grande variété de contextes pratiques diversifiés qu’une sensibilité [responsiveness] à un ensemble relativement limité de traits moralement saillants pouvant être incarnés par les situations particulières auxquelles il pourra être confronté.

Si l’on prend en compte cette restriction constitutive de l’espace pratique dans lequel un APAM a vocation à évoluer, on est donc conduit à substituer aux approches précédentes, basées sur des principes (principle-based), une approche qu’on peut dire « basée sur des cas » (case-based), une éthique artificielle n’ayant pas la forme d’une théorie déductive de type déontologique ou conséquentialiste, mais d’un algorithme inductif et comparatif, d’une casuistique artificielle (McLaren 2006), offrant au robot un moyen de réagir de manière uniforme à des cas semblables, mais aussi d’améliorer régulièrement ces réactions à mesure que son « expérience » du monde et de la diversité fine des situations qu’il offre s’approfondit.

Cette approche semble évidemment, sur le papier, la plus prometteuse qui associe, d’un point de vue technique, une architecture permettant l’apprentissage de règles par la machine à une « ontologie » adaptée au champ d’action du robot. Cependant, la littérature qui relève de cette approche est relativement limitée et n’a principalement généré jusqu’ici que des esquisses de résultats applicables non à d’authentiques agents pratiques, situés dans le monde et interagissant avec lui, mais à des programmes d’aide à la décision (McLaren 2006, Guarini 2006). Surtout, cette approche paraît se heurter à un obstacle conceptuel évident, qui est qu’il paraît difficile de dissocier les cas et les principes (Boarini 2013). Comment par exemple un véhicule autonome pourrait-il choisir entre heurter un cycliste et heurter un cheval, sans disposer d’un principe général stipulant que la vie ou l’intégrité d’un être humain sont plus importantes ou ont plus de valeur que la vie ou l’intégrité d’un cheval ?

Une réponse autant théorique qu’opérationnelle peut cependant être apportée à cette objection. C’est qu’il y a en effet une alternative à la conception de la morale comme règlement de la conduite et à la thèse métaphysique très générale sur laquelle elle repose, la dissociation des faits et des valeurs. Cette alternative consiste à loger dans la perception elle-même l’assise du comportement et du raisonnement moral. Sans remonter aux théories du sens moral de Shaftesbury, Blackburn 1993, McDowell 1998 ou Parfit 2011 offrent différentes approches tendant à enraciner la moralité humaine dans une certaine calibration du contenu de notre expérience perceptuelle du monde.

En matière de moralité humaine, ces théories du réalisme (Parfit) ou du quasi-réalisme (Blackburn) moral sont sujettes à controverse. Mais comme mode de construction d’une éthique artificielle pour une créature dont on attend qu’elle soit capable de faire des choix appropriés en fonction des situations auxquelles elle sera perceptuellement ou quasi-perceptuellement confrontée, elle représente une manière conceptuellement satisfaisante de développer une approche basée sur des cas qui ne soit pas une simple complication d’une approche basée sur des principes. Un APAM doté d’une moralité artificielle, c’est un robot équipé pour percevoir directement, à même son monde, les valeurs que celui-ci comporte et qui est doté de modules de traitement de ces valeurs garantissant que son comportement fonctionnel, orienté vers ses buts constitutifs, soit modulé ou contraint par ces valeurs. Un APAM est une créature « écologique » (Gibson, 1979) qui doit s’orienter dans l’espace du monde et réagir en temps réel aux situations imprévues qu’il peut offrir. Pour qu’un véhicule autonome puisse moduler moralement son comportement dans le trafic routier ou qu’un robot infirmier puisse s’adapter aux besoins de son patient, ils doivent à la fois (a) être capables de percevoir, via une signature phénoménale caractéristique, les aspects moralement pertinents ou saillants de leur monde et (b) être capables de prendre des décisions qui soient appropriées à la valence morale de ces items.

(a) En reprenant le vocabulaire de Von Uexküll 2010, on peut dire que si l’homme vit dans le monde (Welt), un APAM, à l’instar d’un animal, vit dans un monde ou un milieu (Umwelt), qui est une restriction du monde objectif aux entités pragmatiquement et moralement saillantes pour lui. Construire l’éthique artificielle d’un APAM implique donc de construire un système de représentation d’une gamme d’entités moralement pertinentes eu égard à son champ d’action caractéristique et un mode de catégorisation de ces entités qui soit lui-même moralement pertinent. Une partie de l’éthique embarquée dans un APAM est donc logée dans le système de ses catégories : i.e. ce qu’on le rend capable de discriminer détermine ce à quoi il peut être moralement « sensible ».

(b) Parce qu’un APAM se meut dans un espace réel et doit prendre des décisions rapides qui soient sensibles aux items qui se présentent dans son « champ perceptuel », les raisonnements décisionnels d’un APAM doivent être beaucoup plus proches de la perception des situations qui se présentent à lui que nos propres raisonnements, qui peuvent mobiliser notre réflexivité mais aussi les concepts généraux dont nous sommes équipés. Un véhicule autonome, pour prendre à nouveau cet exemple, n’a pas besoin de savoir ou de comprendre ce qu’est un enfant et ce qu’est un cheval, mais il doit pouvoir prendre des décisions qui tiennent compte de la valeur ou pondération de ces items, valeur ou pondération associées à une signature phénoménale caractéristique. Vu du dehors, nous pourrons dire que le véhicule autonome a par exemple fait preuve de civilité, en laissant traverser un piéton avançant hors des passages protégés. Mais il n’aura pas été nécessaire pour cela d’entrer dans le robot un schéma d’inférence complexe lui permettant de subsumer sous une règle de civilité le cas auquel il aura été confronté, a fortiori une capacité de comprendre ce qu’est la civilité. Le véhicule autonome aura en réalité été équipé de ce qu’il faut bien appeler une conscience morale perceptuelle du monde, de son monde, c’est-à-dire a) d’un mode de représentation de son environnement dans lequel la valence morale des différents items présents dans son monde était objectivée ou attachée aux items eux-mêmes et b) d’une règle de choix, basée sur un mode de traitement de ces valeurs et capable de simuler ce qu’aurait été un choix humain idéalement réfléchi dans ce contexte.

Ces perspectives théoriques restent, aujourd’hui encore, programmatiques. Cependant, elles permettent de donner une idée de ce qu’il peut suffire de programmer dans une machine pour que celle-ci ait, quand on l’observe du dehors, un comportement éthiquement approprié. Si un véhicule autonome se jette dans le fossé parce qu’il nous voit au milieu de la chaussée ou si un robot tueur nous épargne parce qu’il voit que nous sommes un civil très proche de sa cible, nous serons forcés de dire qu’à leur échelle, ces créatures agissent bien, qu’elles se comportent moralement, que leur conduite est contrainte par une règle de choix qui les porte à respecter passivement l’intérêt des autres, sinon à soutenir activement leurs intérêts. Or pour obtenir qu’une créature agisse ainsi, il n’est requis de la doter ni d’une conscience morale complexe, ni d’émotions empathiques, ni non plus d’une faculté complexe de raisonner. Il suffit d’inclure artificiellement dans sa conscience du monde certaines pondérations, comme si elle pouvait lire, à même le monde, les valeurs qu’il comporte et qui exercent sur elle une manière de moral pull. Il est certain qu’on ne peut obtenir d’aussi grandioses effets avec si peu de moyens cognitifs et computationnels que parce qu’un robot éthique est une créature assignée à un monde étroit. Mais le point philosophique capital est que le caractère éthique du comportement du robot ne tient ni à sa conscience morale, ni à ses émotions, ni à ses raisonnements, mais à la simple adaptation de sa conduite aux valeurs que comporte son monde.

Le paradoxe auquel l’éthique artificielle semble nous conduire est donc que la théorie morale la plus adaptée à la construction d’une telle éthique pourrait n’être ni bien sûr une théorie émotiviste, mais ni non plus une théorie rationaliste, mais une forme de réalisme moral. Contrairement à l’approche déontologique popularisée par Asimov (1967), une éthique artificielle ne parait pas avoir besoin d’être un système de règles, associé à des procédures d’inférences déductives. Elle peut prendre la forme d’un système de valences perceptuelles, associées à un algorithme de sommation et de comparaison. Dans l’esprit du concepteur du robot, ce sont bien des règles qu’il s’agit d’implémenter dans le comportement du robot. Le caractère éthique de son comportement tient à sa régularité. Mais les règles n’ont pas besoin d’être présentes dans le robot comme règles.

On n’en conclura pas cependant que l’éthique artificielle pourrait servir d’argument en faveur de la vérité du réalisme moral, mais plutôt que l’éthique artificielle milite en faveur d’une interprétation instrumentaliste des théories morales. Parfit (2011) a cherché à démontrer la convergence quant aux résultats du déontologisme, du conséquentialisme et du contractualisme en tant que théories rationalistes de la morale. Si l’on ajoute le réalisme moral à ce répertoire de théories, ce que suggère l’éthique artificielle, c’est qu’une théorie morale pourrait n’être qu’un instrument plus ou moins commode pour non seulement expliquer le comportement moral humain, mais aussi pour fabriquer des créatures ayant un comportement semblable au comportement moral humain.

3. Quelle responsabilité ?

Tout ceci nous place à bonne distance des Terminator, Robocop et autres C3-PO qui ont contribué à façonner un imaginaire un peu fantasmatique de robots humanoïdes bienveillants ou malveillants. Un robot éthique, dans les limites de nos possibilités technologiques présentes, est somme toute quelque chose d’assez simple. Ce n’est pas un potentiel ami avec lequel nous pourrons entreprendre toutes sortes d’activités plaisantes, ni un ennemi acharné ultra-intelligent qui exigera que nous nous transformions en super-héros pour le vaincre. Un robot éthique, c’est, plus prosaïquement, une voiture autonome, un i-aspirateur, un petit char à roulettes armé jusqu’aux dents, un aide-soignant à domicile. Cela peut certes paraître bien peu, car, à première vue, la différence entre une automobile de l’espèce habituelle et un véhicule autonome ou entre un canon monté sur roulettes et un robot-tueur semble ténue : les seconds sont les premiers auxquels on a ajouté une batterie de capteurs et un puissant ordinateur. Mais cet ajout, physiquement ténu, fait, nous l’avons vu, une différence ontologique majeure : d’une entité dépendant de l’agentivité humaine pour actualiser sa fonction, autrement dit d’un outil, on a fait un agent autonome poursuivant de lui-même et intelligemment ses fins fonctionnelles ou constitutives.

Or, en ajoutant à cet agent pratique artificiel une moralité elle-même artificielle n’accroit-on pas encore un peu plus sa complexité ontologique ? Un agent pratique artificiel, aussi limité soit-il dans son champ d’action, ne doit-il pas être tenu pour un agent moral artificiel, dès lors qu’il est doté d’une éthique artificielle ? En implémentant dans une machine un dispositif d’intelligence artificielle lui permettant de respecter passivement l’intérêt des humains, voire, comme dans le cas des robots d’assistance médicale, de soutenir activement leurs intérêts, n’a-t-on pas enrichi la « république des esprits » (Leibniz) ou le « règne des fins » (Kant) en y incluant une nouvelle espèce d’agent moral ?

La question peut sembler purement spéculative qui revient au fond à se demander, dans la ligne du débat entre IA faible et IA forte (Searle 1980), si un robot ne fait que simuler une conduite morale ou s’il est réellement un agent moral. Mais cette question est en réalité cruciale pour pouvoir passer du stade du développement expérimental de ce type de robots à leur diffusion à grande échelle dans le monde des humains.

Il est en effet manifeste que, aussi « sainte » que soit la volonté d’un robot, il est déraisonnable de penser qu’un véhicule autonome ne causera jamais de dommages à des personnes, qu’un robot de guerre ne violera jamais le droit de la guerre ou qu’un robot infirmier n’administrera jamais un mauvais traitement médical. Aucun artefact technologique, même le plus modeste toasteur, n’est sans risque pour les humains qui ont à croiser sa route. Mais si le toasteur qu’on vient d’acheter prend feu à son premier branchement, il n’y aura guère d’hésitation quant à savoir qui devra payer pour le dommage : le choix se fera entre le fabriquant, le vendeur ou l’utilisateur, en fonction du scénario causal qu’on pourra reconstituer. Il sera hors de question, et même parfaitement dénué de sens, que le toasteur lui-même puisse se voir assigner la responsabilité de l’incendie.

Mais imaginons qu’il finisse par exister une variété très spéciale de toasteurs, des toasteurs qui prendraient d’eux-mêmes l’initiative de griller vos toasts avant votre réveil, qui choisiraient le pain à griller en fonction de ce qu’ils ont observé de vos goûts (ils disposent d’un capteur auquel est associé un algorithme de déchiffrement de vos émotions, c’est-à-dire d’un module d’affective computing) et qui décideraient eux-mêmes de la température de chauffe. Il est très clair que si un tel APAM-toasteur, dans son zèle à vous assurer un réveil joyeux, mettait le feu à votre maison, c’est d’abord inévitablement lui que vous accuseriez d’imprudence, c’est lui que vous blâmeriez pour sa maladresse. Et puis sans doute, revenu de votre colère, vous vous demanderiez : mais qui va payer ?

Cette petite saynète, tout fictionnelle qu’elle soit, illustre le point central, qui est sous-jacent aux débats d’apparence hors sol qui entourent la question des « agents moraux artificiels » (Allen et al. 2000) : si un APAM cause un dommage à des intérêts humains, qui portera la responsabilité civile et pénale de ce dommage et, au delà, qui devra (éventuellement) être moralement blâmé pour la faute ou l’erreur commises ? Pour tous les artefacts dont le mode d’être est celui d’un outil inséré dans l’agentivité humaine, la responsabilité morale et juridique pour les dommages (voire pour les bienfaits) remonte inévitablement et nécessairement à un agent humain, concepteur, receleur ou utilisateur de l’outil. Mais l’agentivité propre des APAM perturbe ce schéma familier d’assignation de responsabilité. Parce que les robots, aussi prosaïques soient-ils, prennent des initiatives, parce qu’ils décident eux-mêmes de leurs actions, ils paraissent constituer un pôle de responsabilité qui empêche de faire automatiquement remonter l’assignation de responsabilité morale, civile ou pénale vers un agent humain.

C’est donc en ce sens que la diffusion à grande échelle de ce genre de créatures suppose qu’on ait au préalable déterminé, au moins à grands traits, comment on devra juridiquement et moralement répondre aux dommages que les APAM ne manqueront pas de causer. Est-il irrationnel de blâmer son APAM-toasteur ? Est-ce aussi absurde que de punir son tabouret parce qu’il nous est tombé sur le pied ? Si un véhicule autonome sans personne à bord nous rentre dedans, avec qui devrons-nous faire un constat amiable ?

a. Responsabilité pratique et responsabilité morale

De la même manière que nous ne connaissons d’autre morale que la nôtre, nous ne connaissons d’autre responsabilité morale que celle que nous assignons aux agents humains. Il y a sans doute un sens du mot « responsabilité » qui permet de dire, par exemple, que le vent est responsable de la chute d’un arbre, c’est-à-dire qu’il en est la cause efficiente première et principale, même s’il peut ne pas être le seul facteur explicatif (l’arbre était malade et faiblement enraciné). Mais quand on dit qu’une personne humaine est responsable d’un certain effet, qu’elle en porte la responsabilité, on ne veut pas seulement dire qu’elle est une cause efficiente première et principale. On dit aussi et même surtout qu’elle est l’auteur de cet effet, autrement dit que cet effet n’ait entré dans le monde que parce qu’elle a voulu qu’il y entre, parce qu’elle a choisi de le produire ou de le laisser se produire, de sorte que cet effet a été comme intentionnellement préparé dans son esprit avant d’être réalisé dans le monde.

A la responsabilité causale, qui est attribuable à toute entité qui joue un rôle causal critique dans la production de certains effets, se superpose donc une responsabilité que l’on peut qualifier de pratique ou intentionnelle, parce qu’elle caractérise un mode spécifique d’implication causale dans la production d’un effet, le mode propre aux entités qui produisent intentionnellement des effets dans le monde, autrement dit les entités qui sont des agents pratiques. Un agent pratique S est, en ce sens, responsable d’un effet F si l’effet F ne s’est produit que parce que l’agent S a décidé de Fiser (ou de ne pas empêcher que le monde Fise).

Ce concept très simple, très élémentaire de responsabilité pratique ou intentionnelle pose un problème métaphysique bien connu, celui de sa compatibilité ou incompatibilité avec le déterminisme (Michon 2011). Le fonctionnement d’un APAM étant, dès lors qu’il n’embarque pas un ordinateur quantique, très certainement déterministe, lui assigner une responsabilité pratique suppose de souscrire à une forme de compatibilisme. Mais le compatibilisme, même s’il est l’objet de nombreuses critiques, reste une position parfaitement défendable. En outre quiconque rejetterait le compatibilisme devrait vraisemblablement tenir pour métaphysiquement illusoire non seulement la responsabilité pratique des agents pratiques artificiels, mais également celle des agents humains, dès lors que le cerveau de ces derniers paraît lui aussi, au moins à une certaine échelle, avoir un fonctionnement déterministe.

Plus pertinents pour notre objet sont cependant les débats, suscités par Strawson (1962), qui entourent non pas l’ontologie de la responsabilité, mais la signification de la pratique sociale d’assignation de responsabilité. Il est très clair en effet que le concept précédent de responsabilité pratique peut s’appliquer à tous les effets, même les plus anodins, dont nous sommes les auteurs : si, pris d’une démangeaison au sommet du crâne, je me gratte la tête, on pourra, au sens précédent, dire que je suis responsable de ce que je me gratte la tête, que je porte la responsabilité pratique de me gratter la tête. Même si je n’ai pas eu besoin de délibérer pour me gratter la tête, c’est néanmoins quelque chose que j’ai fait de moi-même, volontairement et lucidement. Or ce que met en lumière cet exemple trivial, c’est que notre concept de responsabilité n’est pas ce concept de responsabilité pratique, pris du moins, dans toute sa généralité. Nous ne mobilisons le concept de responsabilité, dans un acte d’assignation de responsabilité, soit à propos des autres, soit à propos de nous-mêmes, que lorsque l’action accomplie met en jeu certaines normes à la lumière desquelles l’agent peut être loué ou blâmé et peut avoir à rendre des comptes pour ce qu’il a intentionnellement fait. On ne mobiliserait le concept de responsabilité en voyant quelqu’un se gratter la tête que si c’était une norme, morale ou juridique, qu’il ne faut jamais se gratter la tête, que c’est mal ou dégradant de le faire.

On appelle responsabilité morale cette sous-région de la responsabilité pratique qui consiste pour un agent à être comptable de ses engagements normatifs [accountability] et à devoir en répondre devant les autres [answerability]. La responsabilité morale présuppose la responsabilité pratique, c’est-dire l’attribution à l’agent, en tant que causateur intentionnel, d’un certain effet. Mais elle lui ajoute la capacité de l’agent à rendre compte de son action et à en répondre aux yeux des autres (Shoemaker, 2011). Et cette double dimension caractéristique de la responsabilité morale est évidemment inséparable d’une pratique collective ou d’une forme de vie qui consiste à placer les agents devant leurs engagements normatifs et à attendre d’eux qu’ils s’y conforment.

b. La responsabilité muette des robots

Où placer les APAM sur cette carte des degrés ou des formes de la responsabilité ? La moralité de leur comportement nous oblige-t-elle à les faire « bénéficier » du concept de responsabilité morale ?

La brève analyse qui précède suggère que notre concept de responsabilité morale possède deux faces, une face objective ou ontologique, qui consiste dans le fait, pour une entité, d’être l’auteur intentionnel d’un effet, et une face subjective ou sociale, qui consiste à exiger d’un agent pratique qu’il se conforme à ses engagements pratiques et à lui demander des comptes pour ce qu’il fait. Comme l’explique Strawson, cette face sociale de la responsabilité trouve ses racines dans certaines émotions pratiques caractéristiques, comme le ressentiment ou la gratitude à l’égard d’un agent ou la honte à l’égard de soi-même. Cette base émotionnelle sert de déclencheur d’assignation de responsabilité : c’est lorsque j’éprouve du ressentiment à l’égard de la conduite d’autrui que je suis porté à mettre en jeu sa responsabilité morale.

Cette face subjective ou sociale de la responsabilité explique en bonne partie que nous puissions être enclins à traiter un APAM doté d’une éthique artificielle comme un agent moral artificiel. Dans notre exemple précédent de l’APAM-toasteur, le ressentiment éprouvé à l’endroit de l’APAM-toasteur trop zélé fournit une base pour voir le robot comme un agent pratique qui n’a pas fait ce qu’il devait faire ou qui a mal fait ce qu’il avait à faire. Cette attitude à l’égard des robots ne doit pas être considérée comme inessentielle ou illusoire : la responsabilité morale comporte, nous venons de le souligner, une face subjective ou sociale qui en est un composant essentiel. Si nous ne pouvions voir un APAM-toasteur autrement que comme un vulgaire toasteur, il n’y aurait pas de place pour la responsabilité des robots. De façon générale, notre attitude à l’égard des robots fait partie intégrante du statut que nous leur attribuons, de la même manière que notre attitude à l’égard des autres êtres humains fait partie intégrante du statut que nous leur accordons, de la dignité que nous leur reconnaissons. Certains psychologues envisagent même que, pour faciliter l’acceptation de la compagnie des APAM, il soit requis de les doter d’une apparence humanoïde propre à susciter la sympathie des humains, voir qu’il soit également requis de leur donner à eux une capacité de repérer les émotions des humains avec lesquels ils interagissent afin qu’ils puissent s’y adapter (Tisseron 2015, Dumouchel & Damiano, 2016). Si notre APAM-toaster baissait ses capteurs et rougissait de honte quand nous entrons dans la cuisine et découvrons l’incendie, quel moyen aurions-nous de ne pas le traiter comme un agent moral de plein droit ?

Reste que si notre attitude à l’égard des robots est essentielle au statut que nous leur accordons, elle ne saurait suffire à décider de leur statut. Certains auteurs jugent certes que si nous pouvons, à un certain niveau d’abstraction, voir un robot comme un agent moral louable ou blâmable en raison de ce qu’il fait, alors cela suffit pour que nous devions traiter les robots comme des agents moraux artificiels (Floridi & Sanders 2004, Sullins 2006). Mais, à ce compte, les Anciens étaient fondés à remercier les astres, qu’ils voyaient comme des Intelligences.

En réalité, le concept de responsabilité morale possède aussi une face objective, ce que prouve le fait que notre assignation de responsabilité morale s’annihile lorsque nous découvrons qu’un agent a été contraint par un Tiers de faire ce que nous étions portés à le blâmer d’avoir fait. S’il est interdit de se gratter la tête, mais que la main de Pierre gratte le sommet de son crâne parce que Paul en a pris possession à distance, notre inclination à blâmer Pierre sera désarmée.

Si nous sommes donc prêts à blâmer notre APAM-toasteur, encore faut-il qu’il soit objectivement blâmable, que son mode de fonctionnement interne (Bechtel 1985) fasse a) qu’il soit pratiquement responsable de ses actes b) qu’il en soit moralement responsable, c’est-à-dire qu’il ait de quoi en rendre compte et en répondre. Sans cette base objective ou ontologique, notre attitude sera une pure et simple illusion, indiscernable d’une vulgaire superstition astrale.

Or, comme la section précédente l’a montré, la comparaison d’un APAM et d’un agent humain, au delà d’une différence d’extension pratique, fait apparaître un certain nombre de diminutions cruciales :

(A) Un APAM est un zombie, sans émotions ni passions.

Un APAM n’a donc guère de mérite à bien faire, car il ignore la tentation. Il n’a pas non plus de motivation spécifique à bien faire, ni de plaisir à bien faire. Un APAM est, dans son registre, un saint apathique.

Ce saint apathique est cependant cognitivement faillible : il est sujet à des erreurs de catégorisation qui peuvent avoir une incidence morale. Il est donc éventuellement blâmable, mais pour ses maladresses ou son inattention, plus que pour ses fautes ou ses vices.

(B) Un APAM est ingénu. Il est dénué de toute forme de réflexivité. Il ne juge pas ses actions, il ne les examine pas, ne les rumine pas.

Il ne peut donc justifier ses actes, en rendre compte ou se donner des excuses. Un APAM fait le bien ou le mal, mais sans savoir réflexivement qu’il le fait.

Ces deux traits, fondamentaux, paraissent suffire à établir qu’un APAM ne peut pas être moralement responsable et, partant ne peut pas être considéré comme un agent moral artificiel. Il ne peut ni donner des raisons de ses actes, ni en répondre aux yeux des autres, et pas seulement parce qu’il est muet ou qu’on ne lui a pas donné la parole, mais parce qu’il n’y a pas en lui l’espace logique et psychologique suffisant pour qu’il puisse accéder aux raisons de ses actes. Daniel Dennett, s’interrogeant sur Hal 9000 de Kubrick, a soutenu que si un robot devenait capable de réflexivité, il deviendrait moralement responsable (Dennett, 1998). La difficulté est en fait que la réflexivité pourrait ne pas suffire : il faudrait en effet donner encore au robot le sens du devoir ou de la normativité, de la différence entre le bien et le mal. Mais il n’est pas évident qu’un APAM, avec la restriction caractéristique de son monde et donc de ses concepts, puissent disposer d’une profondeur sémantique suffisante pour comprendre la différence entre is et ought, sans parler de l’arrière-plan émotionnel et passionnel qui nous permet de comprendre cette différence (la différence entre ce qu’on désire faire et ce qu’on ne doit pas faire). Tout ceci est en tout cas hors de portée des robots que nous savons et souhaitons construire.

Cette absence de sensibilité aux raisons, aux justifications et aux excuses permet également d’expliquer pourquoi il y a peu d’espoir de trancher la question de la responsabilité des robots au moyen d’une adaptation du test de Turing. Cette idée, avancée par Allen et al. (2000), suppose qu’on puisse mettre en concurrence, dans un jeu d’imitation, un robot et un humain, par exemple un aide soignant humain et un robot aide-soignant. En supposant qu’on ne puisse voir ni l’un, ni l’autre, mais qu’on ait seulement une description, par un tiers, du comportement de l’un et de l’autre, le « jeu » consisterait à dire, sur la base de cette description, qui est l’humain et qui est le robot. Et si l’on prenait un nombre suffisant de fois le robot pour l’humain, ce serait le signe que le robot aurait passé avec succès le « Moral Turing Test », que n’aurions pas de motif valable de ne pas traiter le robot comme l’humain, au moins dans le registre limité de cette action fonctionnelle.

La difficulté conceptuelle centrale avec ce test ne réside nullement dans ce qu’il postule, à savoir que l’on peut juger des compétences par les performances, de la puissance par l’acte. On peut certes, comme Searle (1980) à propos du test de Turing lui-même, contester ce postulat. Mais le problème du « Moral Turing Test » est plutôt que le jeu ne peut même pas avoir lieu : car même si l’on dotait le robot d’une capacité auxiliaire à verbaliser ses actes, à décrire lui-même ce qu’il fait, on ne pourrait, sauf à supposer un robot très différent de ceux que nous pouvons et souhaitons construire, lui donner la capacité de décrire la raison de ses actes. Tandis que l’infirmier humain qui aura donné le mauvais traitement ou n’aura pas répondu assez vite à une demande du patient pourra donner des raisons ou se trouver des excuses, le robot infirmier restera muet.

c. L’enfance des robots

Faut-il en conclure que l’attitude à l’égard du robot-toasteur qui nous a servi d’exemple ne serait qu’une vulgaire superstition astrale ?

Si l’on prend au sérieux le concept de responsabilité morale, notamment à la lumière de l’abondante littérature suscitée par l’article précité de P. F. Strawson, force est de reconnaître qu’il n’y a pas, dans un APAM, la base cognitive complexe qui permet à une créature d’être légitimement traitée comme moralement responsable et donc d’être traitée comme un agent moral, comme un agent ouvert à des raisons morales. Si un robot fait du bien ou fait du mal, il le fait de manière ingénue.

Pour autant, il serait tout aussi erroné de considérer un APAM comme un simple automate moral, possédant une éthique implicite. On affirme parfois qu’un robot n’est pour rien dans l’éthique qu’il suit, car c’est son concepteur qui l’a choisie. Cependant, on doit noter d’abord qu’un agent moral humain est lui aussi éduqué par des tiers à la moralité. Mais, surtout, on peut ajouter que si un agent humain peut infléchir ou transformer la moralité qu’il a reçue de son éducation, un APAM programmé pour apprendre peut lui aussi enrichir et, en un certain sens, inventer des règles morales qui transcendent les « semences » de moralité placées en lui par son concepteur. Un véhicule autonome ne choisit pas d’être d’un « automobiliste » prudent et bienveillant : il est conçu pour ça. Aussi n’y a-t-il pas non plus place, dans « l’esprit » d’un véhicule autonome, pour des justifications en termes de prudence ou de bienveillance ou pour des excuses à son manque de prudence ou de bienveillance. Pour parler comme Wittgenstein (1969, § 341), l’éthique artificielle du véhicule autonome, du moins l’orientation éthique de son comportement, ce sont les gonds qui permettent à son « esprit » pratique de tourner et donc nullement quelque chose que son « esprit » puisse thématiser, accepter ou refuser. Mais, en même temps, un véhicule autonome n’est pas explicitement programmé pour répondre à tous les cas de figure qu’il rencontrera. Il est bien plutôt programmé pour trouver lui-même, en fonction des cas nouveaux auquel il fera face, des analogies avec des cas antérieurs.

Songeons ici au programme d’échecs Deep Blue ou au programme de jeu de go Alpha go : les concepteurs de ces programmes ne peuvent pas connaître les décisions que prendront les machines dans le cours d’une partie : ils les ont programmées pour (tenter de) gagner, mais pas pour gagner en passant par telle ou telle étape (sinon les programmes ne seraient pas plus forts que leurs concepteurs, donc moins forts que des grands maîtres).

Ce phénomène d’imprévisibilité des dispositifs d’intelligence artificielle pose un problème général d’éthique technologique qui concerne la société dans son ensemble en tant qu’elle permet ou peut permettre l’introduction de ce type d’entités dans nos vies. Bostrom & Yudowsky (2016) prennent l’exemple tout à fait saisissant d’un programme d’aide à l’attribution de prêts bancaires qui finirait, à la longue, par discriminer les clients selon leur race, sans que, bien évidemment, les concepteurs n’aient introduit quoi que ce soit de ce genre dans le programme initial.

Mais, à l’échelle qui nous intéresse, celle des APAM, ce phénomène d’imprévisibilité correspond à la capacité d’initiative du robot dans des situations typiques de choix. Cette capacité, qui rend un APAM irréductible à un simple automate, nous oblige clairement à attribuer au robot, au moins d’un point de vue métaphysique, une responsabilité pratique propre, dès lors que c’est bien le robot, et non pas son concepteur, a fortiori son utilisateur, qui prend une décision et qui est donc cause, par sa décision, qu’il arrive que p plutôt que non-p.

Quelques robots peuvent certes n’être, en raison de leur mode de programmation, que des apparences d’APAM, de simples automates mobiles dont tous les actes peuvent être reconduits à des lignes de programme explicitement écrites par leur concepteur. Dans ce type de cas, il n’y a pas de différence d’essence entre un tel automate mobile et un télé-robot, actionné en direct et à distance par son utilisateur. Les dommages causés par un drone sont l’œuvre de celui qui le manipule à distance (son utilisateur), les dommages d’un automate programmé sont l’œuvre de son concepteur qui, si l’on peut dire, le manipule à distance temporelle. Mais il y a un saut ontologique incontestable lorsqu’on a affaire à un authentique agent pratique artificiel, qui doit, de lui-même, sur la base de son « expérience » antérieure, décider de la manière de se comporter dans une situation nouvelle. Son concepteur l’a certes équipé pour prendre des décisions bienveillantes, mais il n’a pas pris à l’avance ses décisions à sa place.

Il apparaît donc que les APAM nous oblige moins à renoncer à toute idée de responsabilité, qu’à amincir notre concept de responsabilité morale, à imaginer une pratique sociale ou une forme de vie plus adaptée à la nature diminuée des APAM :

— En premier lieu, il n’y a rien de tel, dans un APAM, qu’une bienveillance méritoire, source de gratitude de notre part : un APAM est créé pour nous faire du bien ou pour ne pas nous faire du mal, de sorte qu’il n’a aucun mérite à se conduire ainsi. Il n’y a donc aucun sens à valoriser le fait qu’il fasse ce qu’il doit. Et si l’on suit Kant, pour qui le respect dû aux êtres humains résulte de leur aptitude à la moralité, c’est-à-dire de leur capacité à choisir le bien contre le mal, les APAM ne sont pas, en ce sens, dignes de respect, quoiqu’ils puissent être objets d’amour.

— Cependant, en second lieu, si un APAM ne peut nous vouloir du mal, il peut être suffisamment maladroit pour nous en faire ou prendre simplement de mauvaises décisions. Or cette situation qui voit un agent pratique nous faire du mal par maladresse plus que par vice, nous est familière. C’est celle que nous adoptons notamment à l’égard d’un enfant qui « ne sait pas le mal qu’il fait ». Une telle situation appelle le plus souvent, non pas le blâme, mais l’indulgence.

Les difficultés qui entourent la détermination du statut des APAM s’expliquent donc par le fait que leur nature propre nous oblige autant à bouleverser nos catégories qu’à faire évoluer nos formes de vie morale. D’un coté, attribuer une responsabilité pratique sans reconnaître à l’agent concerné de responsabilité morale, c’est ce que nous faisons quand nous réagissons à la conduite dommageable ou intrinsèquement blâmable d’un jeune enfant. Mais, en même temps, nous reconnaissons aux enfants humains ce que Rousseau a appelé une « faculté de se perfectionner » (Rousseau, 1964, 142) et nous les préparons donc, lorsqu’ils exercent leur responsabilité pratique à mauvais escient, à la transformer en responsabilité morale. Nous assortissons notre indulgence d’un blâme modéré qui les met sur la voie de « se perfectionner ».

Le problème que nous pose les APAM, c’est qu’ils sont comme des enfants, mais dénués de toute faculté de se perfectionner : il n’y a aucune chance que notre robot-toasteur finisse par acquérir une responsabilité morale à force d’indulgence et de blâme mêlés. Un APAM est donc de ce point de vue une manière d’enfant éternel, un enfant que sa « nature » vouerait au bien, mais qui ne le ferait pas toujours. Sans doute peut-on imaginer que ces enfants éternels puissent intégrer nos réactions à leur propre apprentissage : si par exemple nous manifestons de la colère, le robot pourra être ainsi programmé qu’en la percevant, il baissera le score de sa dernière décision en vue de l’avenir. Mais s’il progressera ce faisant dans la mise en harmonie de ses actes et de sa volonté sainte, il ne gagnera pas en responsabilité morale : il sera, à la fin, aussi ingénu qu’au début. Il ne quittera jamais l’enfance morale.

Cette analogie, si on l’accepte, permet, pour finir, de dériver une solution simple au problème plus concret et plus pressant, économiquement parlant, soulevé par les APAM, celui de la responsabilité civile en cas de dommage. Beaucoup d’auteurs sont tentés d’aborder ce problème comme une variante du problème général posé par la responsabilité à l’égard des artefacts informatiques. Ainsi, d’après Deborah Johnson (2006), les APAM sont des entités morales, mais pas des agents moraux : l’agentivité et donc la responsabilité est assumée par le complexe des parties prenantes humaines, concepteurs, industriels, utilisateurs, qui font qu’il y a des APAM. Néanmoins cette approche ne fait pas droit à la différence qui sépare une machine dont les actes sont prévus par son concepteur (un automate) d’une machine possédant une marge d’initiative pratique, qui, sans doute, est prévue et donc assumée par son concepteur, mais dont l’actualisation est en bonne partie imprévisible, parce qu’elle fait appel à l’intelligence située du robot. Une solution alternative, suggérée par Snapper (1985) consiste dès lors à accepter qu’un robot de ce genre, dès lors qu’il sera, dans sa singularité pratique, l’auteur des dommages qu’il pourra occasionner, soit aussi celui qui en portera la responsabilité civile, étant entendu qu’il est dénué de sens d’envisager une responsabilité pénale. Comme l’écrit Snapper « il n’est pas plus problématique de tenir un ordinateur pour [civilement] responsable que de le faire pour une entreprise ». Reste qu’une entreprise a un patrimoine qu’on peut solliciter pour faire jouer sa responsabilité civile : mais où sera le patrimoine d’un robot ? La réponse est que le propriétaire du robot devra tout simplement contracter une police d’assurance. Les humains adultes contractent eux-mêmes une assurance civile. Mais ils en contractent une pour leurs enfants. Or qu’est-ce qu’un APAM, sinon un enfant éternel ?

Conclusion

L’éthique artificielle, dans les conditions du moins de nos capacités et de nos souhaits en matière de technologie d’intelligence artificielle et de robotique, nous ouvre donc des perspectives moins exaltantes que celles habituellement associées à l’imaginaire des robots. Vivre avec des APAM, c’est vivre entouré de petits agents pratiques bienveillants, mais parfois maladroits. Pour considérer sans superstition ces nouveaux habitants du monde, il nous faudra sans doute apprendre à ne pas leur prêter une dignité qu’ils n’ont pas, même s’ils sont dotés d’une apparence humaine : ils n’auront aucun mérite à nous faire du bien, nous n’aurons aucune gratitude ou reconnaissance à avoir envers eux : nous les aurons faits pour ça. Et nous ne pourrons jamais, nous-mêmes, leur faire du mal, parce qu’ils seront des zombies ingénus. En revanche, nous devrons être prêts à faire montre d’indulgence à l’égard de leurs bévues. Tandis que nous pouvons remiser sans vergogne un toasteur qui brûle systématiquement nos toasts, nous devrons faire montre d’un peu de patience à l’égard de nos APAM domestiques : ils devront apprendre à vivre parmi nous, apprendre à nous connaître, et ils pourront donc commettre toutes sortes d’erreurs avant de mettre leurs actes en harmonie avec leur volonté sainte. Par prudence cependant, il nous faudra contracter une assurance en leur nom, car les dommages qu’ils causeront devront être couverts. Mais le règne des fins leur restera pour longtemps fermé.

Bibliographie

Allen C., Varner G. & Zinser J., (2000), « Prolegomena to Any Future Artificial Moral Agent », Journal of Experimental & Theoretical Artificial Intelligence, 12, p. 251-261.

Allen, C., Smit, I., & Wallach, W. (2005). « Artificial morality : Top-down, Bottom-up, and Hybrid Approaches », Ethics and Information Technology, 7, p. 149–155.

Anderson M. & Anderson L.-A. (eds) (2011), Machine Ethics, Cambridge, Cambridge University Press.

Anderson, M., Anderson, S. L., & Armen, C. (2006), « An Approach to Computing Ethics », IEEE Intelligent Systems, p. 56–63.

Anderson, M., & Anderson, S. L. (2007), « The Status of Machine Ethics », Minds and Machines, 17, p. 1–10.

Arkin R. (2009), Governing Lethal Behavior in Autonomous Robots, New York, Chapman & Hall/ CRC Press. [Résumé à : http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf]

Asimov I. (1967), Les robots, trad. P. Billon, Paris, J’ai lu.

Bechtel W. (1985), « Attributing Responsibility to Computers Systems », Metaphilosophy, 16 (4), p. 296-305.

Blackburn S. (1993), Essays on Quasi-Realism, Oxford, Oxford University Press.

Boarini S., Qu’est-ce qu’un cas moral ?, Paris, Vrin, 2013.

Borenstein J. & Pearson Y. (2011), « Robot Caregivers : Ethical Issues across Human Lifespan », in Lin et al. (2012), p. 251-266.

Bostrom N. & Yudkowsky (2016), « The Ethics of Artificial Intelligence », in K. Frankish & W. Ramsey, Cambridge Handbook of Artificial Intelligence, New York, Cambridge University Press, forthcoming.

Bringsjord S (2005), « Ethical Robots : The Future Can Heed Us », American Association for Artificial Intelligence, disponible en ligne à : http://kryten.mm.rpi.edu/FS605BringsjordS.pdf

Bringsjord S., Arkoudas K. & Bello P. (2006), « Toward a General Logicist Methodology for Engeneering Ethically Correct Robots », IEEE Intelligent Systems, 21(4), p. 38-44.

Bringsjord S. & Taylor J. (2012), « The Divine-Command Approach to Robot Ethics », in Lin et al., 2012, p. 85-108.

Dennett D. (1998), « When Hal Kills, Who’s to Blame ? », in D. Storck, Hall’s Legacy : 2001’s Computer as Dream and Reality, Cambridge, MIT Press, p. 351-365.

Dumouchel P. & Damiano L. (2016), Vivre avec les robots. Essai sur l’empathie artificielle, Paris, Le Seuil.

Floridi L. & Sanders J. W. (2004), « On the Morality of Artificial Agents », Minds and Machines, 14 (3), p. 349-379.

Gibson, J. J. (1979). The Ecological Approach to Visual Perception, Mahwah, NJ, Erlbaum.

Gips, J. (1995), « Towards the Ethical Robot », in K. Ford, C. Glymour, & P. Hayes (eds.), Android epistemology, Cambridge, MIT Press, p. 243–252.

Grau, C. (2006) « There is no ‘I’ in ‘Robot’: Robots and Utilitarianism », IEEE Intelligent Systems, 21(4), p. 52–55.

Guarini, M. (2006), « Particularism and the Classification and Reclassification of Moral Cases », IEEE Intelligent Systems, 21(4), p. 22–28.

Johnson D. (2006), « Computer Systems : Moral Entities but not Moral Agents », Ethics and Information Technology, 8, p. 195-204.

Kant E. (1994), Métaphysique des mœurs I : fondation, introduction, trad. A. Renaut, Paris, GF-Flammarion.

Levy D. (2007), Love and Sex with Robots, New York, Harper Collins.

Lin P., Abney K. & Bekey G. (2012), Robot Ethics. The Ethical and Social Implications of Robotics, Cambridge (Mass.), The MIT Press.

McDowell J. (1998), Mind, Value and Reality, Cambridge (Mass.), Harvard University Press.

McLaren, B. (2006), « Computational Models of Ethical Reasoning : Challenges, Initial steps and Future directions », IEEE Intelligent Systems, 21(4), p. 29–37.

Michon C. (2011), Qu’est-ce que le libre arbitre ?, Paris, Vrin.

Moor, J. H. (2006), « The Nature, Importance, and Difficulty of Machine Ethics », IEEE Intelligent Systems, 21(4), p. 18–21.

Nozick R. (1981), Philosophical Explanations, Oxford, Clarendon Press.

Parfit D. (2012), On What Matters, Oxford, Oxford University Press.

Powers, T. (2006), « Prospects for a Kantian machine », IEEE Intelligent Systems, 21(4), p. 46–51.

Ross D, (1930), The Right and the Good, Oxford, Clarendon Press.

Rousseau J.-J. (1964), Discours sur l’origine de l’inégalité, dans B. Gagnebin (éd), Œuvres complètes, III, Paris, Gallimard, Bibliothèque de la Pléiade.

Sartre J. P. (1965), La transcendance de l’ego, Paris, Vrin.

Shoemaker D. (2011), « Attributability, Answerability and Accountability », Ethics, 121, p. 602-632.

Searle J. (1980) « Minds, Brains and Programs », Behavioral and Brain Sciences, vol. 3, n° 3, p. 417-424.

Snapper J.W. (1985), « Responsibility for Computer-Based Errors », Metaphilosophy 16(4), p. 289-295.

Sparrow, R. (2007), « Killer robots », Journal of Applied Philosophy, 24(1), p. 62–77.

Strawson P. F. (1962), « Freedom and Resentment », Proceedings of the British Academy, 48, p. 1-25.

Sullins J. (2005), « Ethics and Artificial Life : From Modeling to Moral Agents », Ethics and Information Technology, 7, p. 139-148.

Sullins J. (2006), When is a Robot a Moral Agent ? », International Review of Information Ethics, 6 (12), p. 23-30.

Tisserot S. (2015), Le jour où mon robot m’aimera. Vers l’empathie artificielle, Paris, Albin Michel.

Turing A. & Girard J.-Y. (1995), La machine de Turing, Paris, Le Seuil [contient la traduction française de « On Computable Numbers with an Application to the

Entscheidungsproblem » (1936-37) et de « Computing Machinery and Intelligence », 1950].

Von Uexküll J. (2010), Milieu animal et milieu humain [1934], Paris, Payot.

Wallach, W., and Allen, C. (2010), Moral Machines: Teaching Robots Right from Wrong Oxford, Oxford University Press.

Wittgenstein L. (1969), On Certainty, London, Blackwell.

Wittgenstein L. (1993), Tractatus Logico-Philosophicus, trad. G.-G. Granger, Paris, Gallimard.

Stéphane Chauvier

Université Paris-Sorbonne

stephane.chauvier@paris-sorbonne.fr