Ethique artificielle (GP)

Comment citer ?

Gibert, Martin (2019), «Ethique artificielle (GP)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/ethique-artificielle-gp

Publié en janvier 2019

L’éthique artificielle ou, plus largement, l’éthique appliquée à l’intelligence artificielle est le domaine de l’éthique qui se demande ce qui est bon, juste ou vertueux dans la mise en œuvre des systèmes d’intelligence artificielle. Comme c’est souvent le cas en éthique, les réponses sont complexes, diversifiées et elles dépendent beaucoup du contexte. C’est pourquoi, du point de vue méthodologique, il importe de se défier tout autant de la panique morale qui voit des robots tueurs et des pentes glissantes partout, que de la hype – pour reprendre le terme de Paula Boddington (2017) – c’est-à-dire du battage médiatique et de sa fascination pour la nouveauté au détriment de l’esprit critique.

Sans doute l’intelligence artificielle (IA) a-t-elle déjà une longue histoire : la fameuse conférence de Dartmouth souvent considérée comme son acte fondateur fut organisée par John McCarthy durant l’été 1956. Mais c’est avec l’émergence de l’apprentissage profond - deep learning en anglais - que plusieurs avancées spectaculaires, comme la reconnaissance d’image ou la traduction automatique, ont récemment eu lieu. Depuis quelques années, cette forme d’apprentissage automatique qui fonctionne au moyen de réseaux de neurones artificiels, plus ou moins inspirés des neurones biologiques, est devenue si efficace qu’elle soulève des questions éthiques avec une grande acuité – et parfois, peut-être, une certaine confusion. Il faut d’ailleurs noter que les systèmes d’IA sont de plus en plus présents dans la vie quotidienne des gens et qu’il y a de bonnes raisons de penser que ce n’est qu’un début.

L’éthique de l’IA est une discipline transversale. Elle est étroitement liée à la philosophie de la technique (Franssen et al. 2015), à l’éthique des robots (Lin et al. 2012), des données massives et de l’information (Floridi 2010). Elle peut également recouper l’éthique de la guerre : une machine autonome pourrait-elle prendre la décision de tuer? (Jeangène Vilmer 2016), l’éthique publique : qui devrait décider des normes liées aux IA?, la bioéthique : quelle place donner aux algorithmes d’aide à la décision médicale?, la philosophie sociale et politique : comment gérer les conséquences de l’automatisation sur l’emploi?, le droit : comment protéger les données personnelles?, ou l’éthique environnementale : comment atténuer l’empreinte écologique de l’IA?

C’est parce que tout ce qui est techniquement possible n’est pas moralement souhaitable que nous avons besoin d’une éthique de l’IA. Tout comme le droit et les sciences politiques (Calo 2017), cette branche de l’éthique appliquée analyse les enjeux normatifs d’un champ de l’activité humaine qui est à la fois récent, fortement diversifié et en évolution constante. S’il est probablement trop tôt pour discerner des paradigmes ou des théories dominantes, on peut déjà s’adonner à cette tâche philosophique importante qui consiste à identifier et regrouper les problèmes. Que nous apprend un rapide tour d’horizon ?

1. Types d’IA

Sans entrer dans la question délicate de définir l’intelligence artificielle (et même l’intelligence naturelle), on peut toutefois distinguer entre elles les IA ou ces suites d’opérations que sont les algorithmes selon leur fonction (Abiteboul et Dowek 2017) : calculer, classer, archiver, communiquer, diriger (voiture), fabriquer (robot), modéliser.

Par ailleurs, on trouve souvent dans la littérature, à la suite de John Searle (1980), une division – contestée – entre IA forte et faible : une IA forte serait « vraiment » intelligente et capable de comprendre les informations qu’elle traite, tandis qu’une IA faible peut simuler des comportements intelligents, mais n’a pas de croyances, de désirs ou d’autres états mentaux authentiques. Il n’existerait à l’heure actuelle que des IA faibles.

On peut toutefois préférer à cette distinction celle, plus descriptive, entre IA étroite et générale. Une IA étroite désigne un système dont les compétences sont spécifiques à un domaine, tandis qu’une IA générale serait capable, comme l’humain, de s’adapter à des domaines ou des environnements nouveaux. Une fois encore, on peut dire qu’il n’existe pour le moment que des IA étroites.

Enfin, une IA peut être plus ou moins avancée, notamment par comparaison avec l’intelligence humaine. Ainsi, le programme AlphaGo, qui est plus performant que les meilleurs joueurs de go, est une IA avancée, bien qu’étroite et faible. C’est aussi le cas des voitures autonomes – qui sont des robots de transport. Une hypothétique superintelligence, comme HAL9000 dans 2001 L’Odyssée de l’Espace, serait, quant à elle, une IA forte, générale et (super) avancée.

2. Types de problèmes

Ces différents types d’IA et les technologies qui les mettent en application soulèvent des problèmes variés qu’on peut, là aussi, chercher à classifier. Ainsi, certains enjeux sont d’abord de nature épistémique, c’est-à-dire liée à la connaissance : c’est notamment le cas avec la question de l’opacité des processus de décisions automatiques, parfois qualifiée comme « problème de la boite noire » (Knight 2017). En effet, la technique de l’apprentissage profond avec ses nombreuses couches de neurones artificielles donne des résultats impressionnants dans certaines tâches (comme la reconnaissance d’images), mais souvent au prix de la transparence du processus. Cette opacité, voire cette impénétrabilité de l’IA, est préoccupante lorsqu’il est requis d’expliquer et de justifier la décision prise par un algorithme.

De nombreux problèmes soulevés par l’IA sont de nature directement éthique, c’est-à-dire qu’ils concernent la manière dont un agent (une entité qui agit) devrait se comporter à l’égard d’un patient moral (une entité qui peut subir un tort). Par exemple, devant une collision inévitable, que devrait faire une voiture autonome? Comment devrait-on la programmer? Ces questions sont difficiles, mais elles peuvent au moins être anticipées (Bonnefon et al. 2016). Ce n’est pas le cas pour de nombreux problèmes qui tiennent aux conséquences involontaires du déploiement de l’IA.

Plus précisément, on peut envisager trois types de risque. L’IA peut être « trop stupide » : c’est ce qui arrive avec les bogues ou les accidents (de voitures autonomes, par exemple), et qui donne lieu à des recherches sur la sécurité et la robustesse. Il faut aussi s’inquiéter des usages malveillants d’une IA qui menacent la sécurité numérique, physique ou politique (Brundage et al. 2018) : cyberattaques renforcées par l’IA, détournement de voitures autonomes par des terroristes, manipulation de masse via les réseaux sociaux. Un troisième type de risque, plus spéculatif, pourrait venir de ce que l’IA est « trop intelligente ». Mark Tegmark (2018) imagine ainsi plusieurs scénarios où une superintelligence hostile parvient à tromper les humains qui veulent la maintenir sous contrôle.

Il est également possible de classer ces risques selon qu’ils sont à long, moyen ou court termes. S’il est peu probable qu’une superintelligence ne soit développée avant plusieurs dizaines d’années, l’impact de l’automatisation sur l’emploi ou des robots sur les relations humaines se profilent à un horizon de quelques années. De leur côté, l’opacité des algorithmes, la sécurité des systèmes informatiques ou le manque de diversité dans l’industrie et la recherche sont des enjeux tout à fait actuels.

Enfin, on remarquera que certains problèmes sont anciens – comme la propagande politique – mais qu’ils sont démultipliés ou exacerbés par les systèmes d’IA. On trouve aussi de nombreux problèmes d’actions collectives ou de coordination : la campagne internationale Stop Killer Robots insiste par exemple sur les risques d’une course vers le bas analogue à la course aux armes nucléaires, avec cette crainte supplémentaire que la technologie ne rende le coût humain et financier des attaques plus faibles – et donc leur probabilité plus élevée. L’éthique de l’IA est toutefois aussi confrontée à des problèmes inédits : par exemple, dans quelle mesure un système autonome est-il un agent responsable de ses actes ? Devrait-on bannir les robots sexuels pour ne pas perturber le respect du consentement entre humains?

Il est bien sûr possible d’envisager d’autres classifications – par exemple selon les valeurs morales en jeu. Dans la suite de cette entrée, ce sont les types de relations entre l’IA et l’humain qui serviront de fil conducteur.

3. Servir l’humain

Il ne fait guère de doute que le projet qui anime la recherche en IA et les politiques publiques qui l’accompagnent pourraient se résumer à une idée simple : l’IA doit être au service de l’humain, voire des êtres sensibles en général (comme le propose la Déclaration de Montréal pour un développement responsable de l’IA). À plusieurs égards, les choses semblent bien engagées et il est permis d’espérer de nombreux bénéfices dans toutes les régions du monde – y compris en Afrique qui est bien équipée en téléphones intelligents (Belot 2018).

Ces bénéfices sont très variés : un système peut aider des cultivateurs à économiser l’eau, la reconnaissance d’images médicale améliore la performance des radiologues tandis que les voitures autonomes promettent une baisse drastique du nombre d’accidents – lesquels sont principalement dus à des erreurs humaines, là où une IA ne boit pas, ne s’endort pas et respecte le Code de la route. Mais ces bénéfices n’en soulèvent pas moins des questions de juste répartition et d’accessibilité. On peut ainsi redouter des inégalités entre les pays qui dominent l’IA et les autres, tout comme, au sein de chaque société, une « fracture numérique » entre celles et ceux qui maitrisent ces nouveaux outils et les autres.

De façon générale, on peut dire que les bénéfices qu’on peut attendre du développement de l’IA – et de l’utilisation des données massives, et de la recherche opérationnelle, tant ces domaines sont aujourd’hui étroitement liés – ont souvent trait à l’optimisation : trouver les meilleurs moyens de parvenir à une fin, devenir plus efficace. À long terme, l’automatisation pourrait même avoir pour conséquence de libérer l’humain du travail ou, à tout le moins, de lui éviter les tâches les plus ingrates. Il faut enfin noter que l’information ayant cette particularité d’être reproductible à faible coût, les bénéfices de l’IA peuvent être facilement démultipliés. L’hypothèse de l’IA Amicale (Friendly AI) consiste précisément à imaginer une superintelligence bienveillante et les moyens d’y parvenir (Yudkowsky 2008). Cela soulève bien sûr de nouvelles questions. Quel serait le bon design initial et comment s’assurer qu’une telle IA reste fiable, c’est-à-dire qu’elle ne se reprogramme pas pour être hostile?

4. Asservir l’humain

Cette propension de l’IA à se dupliquer facilement a son revers. Les conséquences néfastes peuvent, elles aussi, se propager « à la vitesse de l’information ». Pour l’humain, le risque ultime est celui de son asservissement, voire de son anéantissement. C’est ce qu’on nomme un risque existentiel (Bostrom 2002). Or, si la collision de la terre avec un astéroïde ou une épidémie incontrôlable menace sans doute l’humanité, l’hypothèse d’une IA générale, avancée et hostile peut aussi être envisagée (Bostrom 2014). Ce type de scénario est souvent associé à la notion de singularité technologique, soit l’hypothèse - débattue (Ganascia 2017) - d’un seuil au-delà duquel une « explosion d’intelligence » (Good 1965) bouleverse les sociétés humaines de façon imprévisible. Autrement dit, la singularité désigne cet instant où l’humanité serait dépassée par sa création et perdrait sa position de surplomb.

Si elle n’implique pas nécessairement la singularité, l’expérience de pensée de l’usine à trombones (paperclip maximizer) illustre néanmoins un risque existentiel. Nick Bostrom (2003) nous demande d’imaginer une IA qu’on aurait programmée, sans malice aucune, pour produire des trombones de bureau. En l’absence d’autres consignes, cette IA développe des moyens toujours plus efficaces pour s’acquitter de sa tâche, ce qui pourrait ultimement aboutir à une catastrophe: en mobilisant par exemple toutes les ressources disponibles dans l’univers pour produire toujours plus de trombones. Dans le même ordre d’idée, Eliezer Yudkovski (2008) nous rappelle l’importance d’optimiser ce que nous valorisons vraiment: « la folie de programmer une IA pour implanter le communisme ou tout autre régime politique, c’est que vous programmez des moyens plutôt que des fins ». Mais si une IA devient autonome, comment faire pour qu’elle ne veuille pas faire de mal à l’humain?

C‘est déjà cette question qui motivait les lois de la robotique imaginées par Isaac Asimov en 1942 (Asimov 1962). La première loi stipulait par exemple qu’ « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger. » Mais comme en témoignent souvent les nouvelles d’Asimov, ces lois demeurent insuffisantes et n’endiguent pas les risques d’une superintelligence hostile. Pour beaucoup de chercheurs, le meilleur rempart contre de telles dérives serait de développer des IA dont les objectifs soient « alignés » avec les valeurs humaines.

5. Remplacer l’humain

Un risque moins spéculatif et à plus court terme consiste dans les pertes d’emplois, conséquence prévisible de l’automatisation. Ce sont les fonctions cognitives du système intuitif – le système 1 de Kahneman (2012) – qui semblent les plus aisément automatisables par les algorithmes d’apprentissage profond et donc remplaçables : conduire, trier, reconnaitre des visages. Plusieurs n’hésitent pas à parler d’une quatrième révolution industrielle dont les impacts se feront ressentir dans de nombreux secteurs (Ford 2015). Les estimations sont très variables : entre 47% (Frey & Osborne 2013) et 9% (OECD 2016) des emplois devraient être largement automatisés. À terme, tous les métiers seront touchés par l’IA, mais les conducteurs et les caissiers davantage que les archéologues.

Ce n’est pas forcément une mauvaise nouvelle. Car ce remplacement des humains par des machines signifie une croissance de la productivité et une création de richesse (à tout le moins, plus de biens et de services seront échangés). Dès lors, c’est la question de la juste répartition de ces nouvelles richesses qui doit être posée – et celle de la meilleure théorie de la justice distributive. C’est dans ce contexte que les promoteurs d’un revenu universel (Van Parijs 2004) trouvent des oreilles attentives aussi bien à gauche qu’à droite. En effet, un revenu de base pourrait protéger les humains des aléas de l’IA. Pourtant, dans le monde de l’économie numérique, la tendance actuelle est plutôt à une concentration toujours plus importante des richesses, en particulier autour des GAFA : Google, Amazon, Facebook et Apple. On peut légitimement craindre une croissance des inégalités économiques et sociales. Yuval Harari (2017) imagine pour sa part un futur où une oligarchie d’humains améliorés contrôlerait une masse de gens devenus inutiles et qui tueraient le temps en se plongeant dans les drogues ou des jeux en réalité virtuelle.

Mais le problème du remplacement est loin de ne concerner que l’économie. On peut s’inquiéter des pertes de compétences liées à l’autonomisation des tâches (comme conduire une voiture ou parler une langue étrangère). Et qu’est-ce que le développement des robots, des chatbots ou des algorithmes de recommandations va changer aux relations interhumaines (Tisseron 2015) ? Plusieurs redoutent même une transformation de la « nature humaine ». Certains voient dans le transhumanisme, ce mouvement qui prône – pour le dire vite – l’amélioration de la condition humaine par les technologies, un projet visant à remplacer homo sapiens. Dans le domaine de la prise de décision morale (tribunal de justice, systèmes d’armes létaux autonomes), l’humain doit sans doute se méfier de l’ « objectivité algorithmique » et ne pas s’exonérer de ses responsabilités. Enfin, se profile quelque chose comme une nouvelle question existentielle : qu’est-ce que l’humain et à quoi sert-il si une machine peut le remplacer ?

6. Surveiller et discriminer l’humain

Les données numériques sont de plus en en plus massives (big data) grâce à de nombreux capteurs : clics, textes, photos, vidéo, données de géolocalisation, biométriques, médicales… Si elles sont une manne pour la recherche en sciences sociales (Stephens-Davidowitz 2017), elles concentrent aussi une puissance inédite entre les mains d’une poignée d’entreprises (Galloway 2018). En effet, ces entreprises ont le monopole sur la plupart de nos données personnelles. Que faire ? Certains préconisent de les monétiser (Lanier 2013), d’autres d’en faire un bien commun (Mazzucato 2018).Mais que ces données soient possédées par l’État ou le secteur privé, la mise en place d’une nouvelle société de contrôle, voire d’une véritable dictature numérique, n’est pas à exclure.

Un autre problème surgit qui a trait au consentement : en effet, il paraît souvent abusif de considérer que les utilisateurs ont cédé leurs données de façon libre et éclairée. La vie privée semble aussi menacée par les traces laissées volontairement ou non sur le web, constituant ainsi une « ombre numérique » qui nous suivrait éternellement. Le « droit à l’oubli » ou à désindexer certaines informations préjudiciables dans les moteurs de recherche est une réponse possible.

Par ailleurs, comme l’a bien montré Cathy O’Neil (2016), les algorithmes nourris aux données massives peuvent créer ou renforcer des biais, (re)produisant ainsi des discriminations injustes. En effet, l’ensemble d’apprentissage d’un algorithme influence la qualité de ces résultats : « garbage in, garbage out » disent les programmeurs. Or, un ensemble de données peut être incomplet, opaque, non représentatif ou biaisé (Campolo et al. 2017). Par exemple, les catégories « réceptionnistes » et « femmes » sont fortement corrélées sur le web (et dans le monde réel) ; utiliser ces données brutes pour développer un algorithme d’embauche ou d’éducation ne fera qu’automatiser un statu quo contestable. Qui plus est, l’opacité des algorithmes signifie que ce n’est souvent qu’après coup que l’on découvre une discrimination – comme ce fut le cas aux États-Unis avec COMPAS, un système d’aide à la décision des juges défavorisant les Afro-américains (Angwin et al. 2016).

De même, on peut se demander s’il est opportun que des robots ou des chatbots s’inscrivent dans les stéréotypes de genre moralement problématique - avec une voie féminine, douce et serviable, par exemple. Enfin, comme avec toute technologie, l’IA reflète les valeurs de ses créateurs. On peut donc craindre avec Kate Crawford (2016) que la surreprésentation dans ce secteur d’une certaine catégorie (les hommes blancs riches) ne rende le développement de l’IA inadapté aux besoins et aux intérêts des êtres humains dans toute leur diversité. Ceci étant dit, il n’en demeure pas moins vrai que l’IA, utilisée de façon transparente et avec prudence, peut certainement réduire nos biais trop humains et améliorer de nombreuses prises de décision.

7. Manipuler l’humain

Une dernière source d’inquiétude réside dans la propension de l’IA et des données massives à renforcer la manipulation. Ainsi, les deepfakes, ces vidéos ou ces voix de synthèse produites grâce à l’apprentissage profond et qui semblent plus vraies que nature peuvent être utilisées pour leurrer des individus ou des groupes. À terme, la confiance envers les médias et entre les gens, ce ciment social, pourrait être profondément érodée. Est-ce vraiment ma banquière qui m’a laissé ce message vocal ou un faussaire malveillant ?

Mais la manipulation peut aussi être parfaitement légale puisqu’un bon nombre d’applications sont développées pour accaparer l’attention des utilisateurs à leur insu. Pour l’ex design ethicist de Google, Tristan Harris (2016), on peut voir les téléphones portables comme des équivalents de machines à sous qui, avec leurs notifications incessantes, leurs boutons « like » ou leur scrolling sans fin proposent au cerveau humain des gratifications immédiates auxquelles il est difficile de résister. Avec les réseaux sociaux, c’est notre besoin de comparaison et d’approbation sociale qui est fortement sollicité et pourrait même générer une véritable dépendance (Alter 2017). La peur de manquer quelque chose (FOMO ou fear of missing out en anglais) se développe telle une nouvelle anxiété sociale et augmente encore la consultation compulsive de certaines applications.

Ces phénomènes de capture et de manipulation de l’attention sont étroitement liés au modèle d’affaires qui prévaut dans l’économie numérique. Si bon nombre de services sont offerts gratuitement, c’est parce que ce sont les utilisateurs qui sont le véritable produit. En effet, des plateformes comme Google ou Facebook vendent à leurs clients la possibilité de micro-cibler des messages de façon si efficace et insidieuse que les médias traditionnels voient leurs revenus publicitaires chuter drastiquement. Il faut dire que ces sociétés possèdent des informations très précises et personnalisées – une étude devenue célèbre montre ainsi que l’analyse des likes d’un utilisateur de Facebook permet prédire avec une bonne fiabilité ses traits psychologiques et autres attributs personnels (Kosinski et al. 2013). Dans l’affaire Cambridge Analytica, c’est ce type de micro-ciblage qui a été utilisé pour influencer les élections américaines de 2016.

Il faut enfin noter que cette personnalisation du web produit des bulles de filtrage (filter bubble) : PageRank, par exemple, l’algorithme de Google, tient compte de vos recherches passées afin de vous présenter des résultats qui, en devançant vos attentes, induisent un risque d’isolement (une bulle). Plus largement, les systèmes de recommandations personnalisées pourraient faire perdre aux utilisateurs le sens d’un espace politique commun (Pariser 2011). Il s’ensuit des défis importants pour le bon fonctionnement démocratique.

Conclusion : l’IA comme sujet de l’éthique

On le voit, l’éthique appliquée à l’IA couvre un vaste domaine qui est encore largement en friche. Pour conclure, deux autres régions de ce domaine méritent d’être mentionnées, celle où l’IA n’est en quelque sorte plus l’objet de l’éthique (et un simple outil pour les humains), mais un véritable sujet de l’éthique. On peut d’abord se demander si les robots devraient avoir des droits (Gunkel 2014). Plus précisément, quels sont les critères qu’une IA devrait remplir pour être considérée comme un patient moral, c’est-à-dire une entité qui peut subir un tort moral ? On peut enfin réfléchir à la possibilité de développer une IA qui soit un agent moral, c’est-à-dire une entité qui possèderait une responsabilité morale. Ce dernier domaine, parfois nommé l’éthique des machines, envisage donc des robots capables de prendre des « décisions morales » - en un sens qui reste à préciser (Wallach & Allen 2009, Chauvier 2016). Est-ce possible ? Est-ce souhaitable ? Il est même permis d’imaginer qu’un jour une IA générale nous aidera à identifier ce qui est bon, juste ou vertueux - bref, à faire de l’éthique.

Bibliographie

Abiteboul et Dowek (2017), Le temps des algorithmes, Éditions Le Pommier.

Alter, Adam. (2017) Irresistible: the rise of addictive technology and the business of keeping us hooked. Penguin Press.

Angwin, Julia et al. (2016), « Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks, » ProPublica.

Asimov, Isaac. (1967), Les robots, trad. P. Billon, Paris, J’ai lu.

Belot, Laure. (2018), Dossier : La créativité africaine dopée par l’IA. Le Monde.

Boddington, Paula. (2017), Toward a code of ethics for Artificial Intelligence, Springer.

Bostrom, Nick. (2002), « Existential Risks: analyzing human extinction scenarios and related hazards », Journal of Evolution and Technology, vol.9.

Bostrom, Nick. (2003), « Ethical Issues in Advanced Artificial Intelligence » in Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics.

Bonnefon, J. F., Shariff, A., & Rahwan, I. (2016), The social dilemma of autonomous vehicles. Science, 352, 1573-1576.

Bostrom, Nick. (2014), Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

Brundage, Miles et al. (2018), The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. Future of Humanity Institute.

Calo, Ryan. (2017), « Artificial Intelligence Policy: A primer and a Roadmap. » 51 UC Davis L. Rev. 399-453.

Campolo, Alex et Madelyn Sanfilippo, Meredith Whittaker, Kate Crawford. (2017), Report 2017, AI Now.

Chauvier, Stéphane. (2016), « Éthique artificielle », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique.

Crawford, Kate. (2016), « Artificial Intelligence’s White Guy Problem » The New York Times, June 25, 2016.

Floridi, Luciano (ed). (2010), The Cambridge Handbook of Information and Computer Ethics, Cambridge University Press.

Ford, Martin. (2016), Rise if the Robots: Technology and the threat of jobless future. Basic Books.

Franssen, Maarten, Lokhorst, Gert-Jan et Poel, Ibo. (2015), « Philosophy of Technology » dans Edward N. Zalta (ed.), The Standford Encyclopedia of Philosophy.

Frey, Benedikt et Michael A. Osborne. (2013), « The Future of Employment: How susceptible are jobs to computerization? » Technological Forecasting and Social Change 114.

Galloway, Scott. (2018), Le règne des quatres : l’agenda secret d’Amazon, Apple, Facebook et Google. Édito.

Ganascia, Jean-Gabriel. (2017), Le mythe de la singularité, Éditions du Seuil.

Good, I. J. (1965), Franz L. Alt; Morris Rubinoff, eds., « Speculations Concerning the First Ultraintelligent Machine », Advances in Computers, Advances in Computers, Academic Press, 6: 31–88

Gunkel, David. (2014). « A vindication of the rights of machines. » Philosophy and Technology, 27, 113–132.

Harari, Yuval Noah. (2017), Homo Deus: une brève histoire de l’avenir, Albin Michel.

Harris, Tristan. (2016), « How Technology Hijacks People’s Minds – from a magician and Google design ethicist ». Observer.

Jeangène Vilmer, Jean-Baptiste. (2016) « Diplomatie des armes autonomes : les débats de Genève », Politique étrangère 3:2016.

Kahneman, Daniel. (2016) Système 1 système 2 : les deux vitesses de la pensée. Champs Flammarion.

Knight, Will. (2017), « The Dark Secret at the Heart of AI » MIT Technology Review.

Kosinski, Michal; David Stillwell et Thore Graepel. (2013) « Private traits and attributes are predictable from digital records of human behavior ». PNAS. 110 (15) 5802-5805.

Lanier, Jason. (2013), Who owns the future? Simon and Schuster.

Lin, Patrick; Abney, Keith et Bekey, Geogre (Eds.). (2012). Robot ethics: The ethical and social implications of robotics. Cambridge, MA: MIT Press.

Mazzucatol, Mariana. (2018), Let’s make private data into a public good. MIT Technology Review.

O’Neil, Cathy (2016), Weapons of Math Destruction: How Big Data Increase Inequality and Threatens Democracy. Crown.

OECD (2016), « Automation and Independent Work in a Digital Economy », Policy Brief on The Future of Work, OECD Publishing, Paris.

Pariser, Eli. (2011), The Filter Bubble: What the Internet Is Hiding from You, New York, Penguin Press.

Searle, John. (1980), « Minds, Brains and Programs », Behavioral and Brain Sciences, vol. 3, n° 3, p. 417-424.

Stephens-Davidowitz, Seth. (2017), Everybody Lies: big data, new data and what the Internet can tell us about who we really are. Dey Street Books.

Tegmark, Mark. (2018), La vie 3.0: Être humain à l’ère de l’intelligence artificielle, Dunod.

Tisseron, Serge. (2015), Le jour où mon robot m’aimera. Vers l’empathie artificielle, Paris, Albin Michel.

Van Parijs, Phillipe. (2004), « Basic Income: A Simple and Powerful Idea for the twenty-first century ». Politics and Society.

Wallach, Wendell et Colin Allen. (2009), Moral Machines: Teaching Robots Right from Wrong Oxford, Oxford University Press.

Yudkowski, Eliezer. (2008), « Artificial Intelligence as a positive and negative factor in Global Risk », In Global Catastrophic Risks, edited by Nick Bostrom and Milan M. Ćirković, 308–345.
New York: Oxford University Press.

Martin Gibert
Université de Montréal
martin.gibert@gmail.com