Singularité technologique (GP)

Comment citer ?

Boisseau, Eloïse (2022), «Singularité technologique (GP)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/

Publié en janvier 2023

L’expression « singularité technologique » ou « point de singularité technologique » désigne un événement spéculatif à venir, intimement lié au développement d’une authentique intelligence artificielle (désormais IA) et censé bouleverser l’ordre des choses.

On se souvient qu’Homère, au livre VIII de l'Iliade, mettait en scène le Dieu Héphaïstos concevant ce que l'on pourrait appeler (de manière sans doute anachronique) des « robots » humanoïdes conscients, des servantes artificielles faites pour assister leur maître et créateur. L’idée de parvenir à créer des machines réellement autonomes, pensantes, conscientes, capables de faire au moins autant de choses que les êtres humains, est donc loin d'être récente. Le sentiment qu’il y a urgence à ce sujet ou désastre imminent l'est en revanche beaucoup plus. Puisque la possibilité de créer et d'avoir l'usage de ces machines semble aujourd’hui à portée de main, et puisqu'une discipline bien établie – l’IA – semble œuvrer à cette fin, un certain nombre de questions (en particulier morales) se posent aujourd'hui à nous de manière pressante. La signature en 2015 d'une lettre ouverte alertant des dangers de l'IA par des grands noms de la discipline ou de la scène scientifique internationale (Stephen Hawking, Nick Bostrom, Stuart Russell, Max Tegmark, etc.) en témoigne. La dernière partie de cette lettre, consacrée aux « priorités de recherches à long terme », soulève justement la question de notre impréparation face à « la possibilité de machines superintelligentes ».

Une machine – ou plus généralement une entité – est dite « superintelligente » (Bostrom, 1998 ; 2014) lorsqu’elle est dotée d’une intelligence qui dépasse très largement le niveau de l’intelligence des êtres humains. Il y a ici un certain flottement dans la littérature consacrée : selon certaines interprétations, l’existence de machines « superintelligentes » est une condition à la fois nécessaire et suffisante pour la singularité technologique. Selon d’autres interprétations, cette condition est nécessaire mais non suffisante dans la mesure où des machines superintelligentes pourraient ne pas donner lieu à la singularité. Enfin, selon une troisième famille d’interprétations (c’est en particulier la position de Kurzweil, 2015), il s’agit d’une condition qui n’est ni nécessaire ni suffisante puisque la singularité pourrait advenir sans superintelligence.

Qu’est-ce que la singularité technologique ?

Fondements épistémologiques

L'usage de la notion de « singularité » dans les discussions qui nous occupent est tiré de son usage dans le contexte des sciences naturelles et formelles, et tout particulièrement de l'astrophysique et de la cosmologie (Eden, Steinhart, Pearce & Moor, 2012). Dans ces contextes on parle de « singularité gravitationnelle (spatio-temporelle) » ou de « point de singularité gravitationnel » pour désigner une zone (ou un point) de l'espace-temps (comme par exemple le centre d'un trou noir ou lors des tout premiers instants de l'univers) pour laquelle les solutions aux équations gouvernant les phénomènes naturels – et notamment la gravité – s'emballent et donnent des résultats en apparence incompréhensibles (par exemple : la densité devient à cet endroit infinie).

De manière analogue, le concept de « singularité technologique » contient lui aussi dans son cœur cette idée de point limite et de perte de repères. La singularité technologique serait donc une sorte de point de rupture au-delà duquel nos outils de compréhension du monde cesseraient supposément d'être opérants. Le futurologue Ray Kurzweil (2001) définit ainsi la singularité technologique comme « un changement technologique si rapide et profond qu’il représente une rupture dans la fabrique de l’histoire humaine », un point dans le futur qui…

« (...) transformera les concepts sur lesquels nous nous appuyons pour donner un sens à nos vies, depuis nos modèles économiques jusqu'au cycle de la vie humaine, y compris la mort elle-même. » (Kurzweil, 2005).

Si l'on parle toutefois sans contradiction d'une ou plusieurs singularités gravitationnelles, d'une ou plusieurs singularités mathématiques, on ne parle en revanche guère de singularités technologiques au pluriel mais bien de la singularité technologique – il est en effet entendu qu'il n'y en aura qu'une seule, qu'il s'agira par conséquent d'un événement unique (et il est alors fréquent de parler de la Singularité avec un « S » majuscule).

Alors, comment caractériser plus précisément la singularité technologique ? Deux grandes interprétations se distinguent quant à la portée de cette expression.

On peut associer la première interprétation de la Singularité à l’auteur de science-fiction américain Vernor Vinge, qui a popularisé le terme en 1993. Dans son article précisément intitulé « Technological Singularity », Vinge explique qu'il entend par là un changement social sans précédent dû au développement technologique d'une intelligence artificielle d'un niveau dépassant très largement celui de l'intelligence humaine. L'idée centrale est alors que le développement actuel de l’IA semble laisser entrevoir l'avènement de machines (logicielles ou matérielles) dotées d'une intelligence surhumaine – ce qui correspond alors à la notion de « superintelligence » évoquée précédemment.

La seconde interprétation de la Singularité peut quant à elle être associée à Ray Kurzweil et prend pour sa part des allures transhumanistes (sur le transhumanisme voir Goffi, 2017). Selon cette perspective, la Singularité est perçue comme le point d’émergence d’une nouvelle sorte d’êtres humains – les « transhumains » ou « posthumains » (Bostrom, 2005), ou encore les « humains à base logicielle » (Kurzweil, 2001). Améliorés grâce à la technologie, ceux-ci seront supposément dotés de capacités physiques et cognitives qui dépasseront très largement celles dont nous disposons actuellement.

Que la Singularité soit ainsi comprise comme l’avènement de machines superintelligentes ou comme celui d’une nouvelle sorte d’êtres humains augmentés, les « singularistes » (Kurzweil, 2005) – suivant le nom que l'on donne à celles et ceux pour qui la Singularité est proche – s'appuient généralement pour faire ce genre de prédictions sur deux piliers. Premier pilier, les progrès techniques de développement des machines (logicielles), notamment au sein de ce que l'on appelle « l'apprentissage neuronal » ou « connexionnisme » et aujourd'hui le deep learning. Second pilier, la convergence qui existe entre différents champs d'étude que l'on regroupe parfois sous la bannière commune des « sciences cognitives ». Ce serait l'alliance de disciplines comme la neurobiologie, la psychologie cognitive, ou encore la linguistique qui rendrait possibles les avancées envisagées par les singularistes.

L’ « explosion de l'intelligence »

L'avènement des machines dites « superintelligentes » est généralement anticipé (Yudkowsky, 2008 ; Bostrom, 2014 ; Shanahan, 2015) suivant deux moments clés.

Le premier moment est celui où les machines parviennent à atteindre un niveau d'intelligence équivalent à celui de l'être humain. On nous dit volontiers que c'est l'étape qui risque d'être la plus longue et laborieuse. Les programmeurs doivent en effet faire passer les machines d'un modèle dit de « systèmes experts » qui ne s'occupent que d'une seule tâche (ou d'un seul type de tâche, par exemple conduire une voiture, reconnaître des caractères typographiques ou encore jouer au jeu de go) pour parvenir en fin de compte à des machines qui soient authentiquement multitâches. On parle alors à cet endroit d’IA « générales », par opposition aux IA dites « étroites » ou « spécialisées » (Gubrud, 1997). Les machines de ce type devraient ainsi être compétentes dans un très grand nombre de domaines et pouvoir de surcroît s'adapter aux nouvelles situations dans lesquelles elles se trouvent, de même que développer de nouvelles compétences (qui n'auraient été ni pensées ni prévues par leurs constructeurs).

Une fois ce premier stade de l'intelligence générale atteint, le deuxième moment serait alors forcément très bref, pour la raison suivante : les machines, dotées d'une intelligence de niveau humain, égaleront en premier lieu les divers ingénieurs impliqués dans la programmation d'intelligences artificielles. Elles pourront par conséquent créer à leur tour des machines dotées d'une intelligence de niveau humain. Rapidement, elles parviendront à en créer certaines dont le niveau d'intelligence sera légèrement supérieur à celui de l'être humain. Ces dernières pourront elles-mêmes créer (sans doute de plus en plus rapidement) des machines d'un niveau d'intelligence encore un peu plus élevé, et ainsi de suite. Selon ce raisonnement, les machines, qui seront progressivement de plus en plus intelligentes, seront ainsi toutes capables de se modifier elles-mêmes ou de créer d'autres machines (de nouvelles versions d'elles-mêmes) qui soient à chaque fois plus performantes et puissantes, et ce, selon un rythme exponentiel. On parle alors, pour caractériser ce phénomène, d'une « explosion d'intelligence ». L'expression nous vient du statisticien Irvin Good qui, en 1965, entrevoyait déjà cette possibilité lorsqu'il théorisait l'existence de ce qu'il appelait une machine « ultraintelligente » :

Définissons une machine ultraintelligente comme une machine pouvant largement dépasser toutes les activités intellectuelles de n'importe quel être humain, aussi intelligent soit-il. Puisque la conception de machines est l'une de ces activités intellectuelles, une machine ultraintelligente pourra concevoir des machines encore meilleures [even better machines] ; il y aurait alors incontestablement une « explosion d'intelligence », et l'intelligence de l'homme serait largement distancée. Ainsi la première machine ultraintelligente est la dernière invention que l’homme aura jamais besoin de faire, sous réserve que la machine soit suffisamment docile pour nous informer de la façon par laquelle on peut la garder sous contrôle.

Une fois le niveau de l'intelligence humaine atteint par les machines, elles parviendraient alors très rapidement à un niveau d'intelligence largement supérieur, c'est-à-dire qu'elles développeraient une forme d'intelligence qui dépasse en réalité tout ce que nous connaissons et peut-être même tout ce que nous pouvons imaginer.

La Singularité est-elle souhaitable ou redoutable ? 

Ces deux étapes étant posées, rien n'est toutefois dit quant à la question de savoir si un tel événement est au fond une bonne ou une mauvaise chose. L’examen des diverses interprétations des conséquences possibles de la Singularité révèle en réalité deux évaluations opposées. La première est optimiste, la seconde est pessimiste. La Singularité est ainsi perçue comme un événement pouvant mener ou bien à la destruction complète de l'humanité, ou bien à son épanouissement le plus parfait.  On utilise alors dans la littérature un couple de concepts pour caractériser cette ambivalence : celui de « risque existentiel » d'une part, et d’ « opportunité existentielle » de l'autre (Bostrom, 2015). 

Face à cette ambivalence, le mot d'ordre dans la communauté singulariste est d'alarmer ou de prévenir, de sorte à faire prendre conscience au monde des risques associés à l'avènement de machines « superintelligentes ». Ce mot d'ordre théorique (didactique ou pédagogique) s'accompagne d'un programme politique, puisqu'il s'agit ensuite d'organiser et de réguler les développements technologiques pour que les conséquences à venir de ce bouleversement se situent plutôt sur le versant positif que sur le versant négatif (Muelhauser & Salamon, 2012).

La Singularité comme opportunité existentielle

Sur le versant optimiste, les thèses ou prospectives singularistes vont souvent de pair – voire se confondent – avec celles de la mouvance dite « transhumaniste ». Le transhumanisme, comme le singularisme (en particulier sous sa seconde interprétation) se rejoignent en effet sur des idées et projets d’ « augmentation » de l'être humain et de ses capacités cognitives, d'allongement de sa durée de vie, d'amélioration de sa qualité de vie, etc.

L'opportunité existentielle la plus évidente prend la forme d'une promesse de libération face à tout type de travail et à tout type de peine (Bostrom, 2003 ; Danaher, 2019). Les machines intelligentes seraient à la fois les employées rêvées, les gouvernantes idéales et les garantes de notre salut.

D'un autre côté, l’avènement de la singularité technologique met en avant la possibilité de dépasser les limites biologiques (parmi lesquelles on compte les maladies, les blessures, le vieillissement et évidemment la mort) par des avancées scientifiques et technologiques dans le domaine de la santé – avancées qui pourraient justement être obtenues grâce à l’IA. Les transhumanistes et singularistes envisagent ainsi comme une possibilité à la fois conceptuelle et empirique que l'on puisse reconstruire entièrement le cerveau humain à partir de zéro – et ce à partir d'un substrat qui ne serait pas forcément biologique – abolissant de la sorte les limites actuelles de la conscience (Kurzweil, 2005 ; Chalmers, 2010 ; Sandberg, 2013). Ce processus, dit d’ « émulation intégrale du cerveau » aurait pour objectif de préserver la conscience en dépit des dégâts que peut subir le corps. Certains auteurs parlent même à ce stade d'immortalité numérique par téléchargement de la conscience (Rothblatt, 2014 ; Savin-Baden & Burden, 2019).

On observe ainsi sur le versant optimiste de la singularité technologique ce mariage naturel entre le singularisme et le transhumanisme, qui se caractérise finalement – comme l'écrit Murray Shanahan (2015) – par une approche consistant dans le fait de ne pas simplement « utiliser la technologie mais de fusionner avec elle ».

La Singularité comme risque existentiel

Outre les diverses inquiétudes formulées par des personnes influentes, le penseur ou le théoricien qui a le plus participé à la diffusion de l’idée de risque existentiel associé à la Singularité est sans conteste Nick Bostrom (2002). À propos du défi que représente la création d'une superintelligence, il écrit en 2014 la chose suivante :

Il s'agit très possiblement du défi le plus important et le plus intimidant auquel l’humanité n’ait jamais eu à faire face. Et – que l'on réussisse ou que l'on échoue – il s'agit probablement du dernier défi auquel nous aurons jamais à faire face.

Bostrom est également l'auteur d'un petit apologue très souvent repris dans la littérature, illustrant le risque inhérent à l'imprévisibilité de l’IA. Ce risque concerne pour l'essentiel les conséquences désastreuses inattendues et non souhaitées d'une IA. Le scénario prend l'allure suivante : une usine de production de trombones de bureau met au point une IA pour optimiser sa production. Ce que l'entreprise ne prévoit pas, c'est que l’IA en question, extraordinairement puissante, met absolument tout en œuvre pour répondre aux objectifs qui lui ont été attribués, à tel point qu'elle finit par transformer toutes les ressources de la planète... en trombones ! L’IA n'est ainsi pas guidée ou gouvernée par une volonté de nuire ou une sorte de haine de l'espèce humaine, mais elle s'engage dans sa destruction par un simple effet de l'objectif donné en premier lieu.

Dates prévues et déceptions vécues

Dans un article de 2012, Stuart Armstrong et Kaj Sotala dressent une base de données de 257 prédictions concernant l’avènement de machines réellement intelligentes – que l’on appelle parfois, en  suivant la typologie de John Searle (1980), « IA forte » – tirées de la littérature scientifique depuis le début des années 1950.

Ils montrent notamment que, sur ces questions, les experts et futurologues ont tendance à placer la fenêtre temporelle pour l'émergence d'une intelligence artificielle générale dans les « 15 à 25 années dans le futur ». Bien entendu si ces types de prédictions existent depuis les années 1950, cela veut dire que certaines se sont révélées fausses (puisqu'il n'y a pas aujourd'hui d’IA forte ou générale).

Il y a donc une grande histoire des prédictions déçues ou des prévisions ratées quant aux développements de l'intelligence artificielle. En 1950, Alan Turing annonçait ainsi notoirement que d'ici l'an 2000 les machines seraient prises au moins 7 fois sur 10 pour un être humain lors d'échanges écrits au sein de son fameux « jeu de l'imitation ». Or on le sait, à l'heure actuelle aucune machine n'est capable d'un tel score (Epstein, 2008 ; Floridi, 2009 ; Warwick & Shah, 2016). Marvin Minsky, grand théoricien de l'intelligence artificielle, prédisait pour sa part en 1970 (Darrach, 1970) que « d'ici un à huit ans, nous aur[i]ons une machine dotée de l'intelligence générale d'un être humain moyen ». Il disait par ailleurs quelques années auparavant (1967) que « D'ici une génération [...] le problème de la création de l'"intelligence artificielle" sera[it] substantiellement résolu ». Tout le monde s'accorde – deux générations plus tard – à dire que nous en sommes encore loin. Ces considérations joueraient en faveur de ce que l'on peut appeler une « induction pessimiste » concernant la superintelligence : une induction est un type de raisonnement qui se base sur la répétition des événements passés pour en conclure quelque chose sur le présent ou sur le futur. Dans notre cas, elle est pessimiste puisque c'est la répétition des échecs dans les prédictions passées qui pourrait – peut-être – nous permettre de conclure à l'échec des prédictions actuelles ou futures.

Objections notoires

Objections d'ingénierie informatique

Pour soutenir leurs prévisions, les théoriciens invoquent parfois certaines régularités ou certaines considérations théoriques ou technologiques – qui sont présentées comme des lois. C'est à cet endroit que des objections d'ingénierie peuvent alors survenir. Kurzweil prévoit ainsi dans son livre de 2005, que d'ici l'année 2045 la plupart de l'intelligence sur Terre sera artificielle (non-biologique). Il s’appuie notamment pour étayer sa conjecture sur la « loi de Moore » (Moore, 1965). Cette « loi » empirique stipule que la densité des circuits intégrés semi-conducteurs que l'on peut fabriquer au plus faible coût double environ tous les deux ans.

Ce qu'il faut toutefois savoir au sujet de cette fameuse « loi » de Moore, c'est qu'elle n'est en aucun cas absolue ou inviolable. Si elle est certes validée par l'expérience, c'est – pour reprendre le diagnostic de John Gustafson (2011) – qu'elle est en réalité une sorte de « prophétie auto-réalisatrice ». Elle joue ainsi le rôle de ligne de conduite pour l'industrie et doit davantage – soutient Gustafson – être vue comme « une directive économique que comme une directive technique ».

Comme ne manquent pas de le noter certains chercheurs (Allen & Greaves, 2011 ; Mack, 2011 ; Floridi, 2015 ; Walsh, 2017) en tant que lois du marché, « ces "lois" fonctionneront jusqu'à ce qu'elles ne fonctionnent plus » (Allen & Greaves, 2011). On nous rappelle en outre, dans le cas de la loi de Moore, par exemple, que celle-ci est en réalité dépendante de notre capacité à produire des composants toujours plus petits à un moindre coût – or, on le sait, il y aura tôt ou tard des limites physiques liées à la miniaturisation des composants (Modis, 2003 ; Floridi, 2015 ; Ganascia, 2017).

Certains rejettent finalement les prédictions singularistes du fait qu'elles relèveraient de la « para-science [...] quant à leur méthodologie et leur rigueur » (Modis, 2006). Theodore Modis établit justement dans un article de 2006 une liste des « fautes scientifiques » relevées chez Kurzweil (2005). 

Objections neuroscientifiques

Pour ce qui concerne le côté logiciel cette fois (le software), un grand nombre de projets de recherche repose sur le présupposé suivant : c'est en modélisant le comportement du cerveau que nous serons capables, si nous pouvons le recréer artificiellement, d'atteindre la Singularité. Or la création d'un logiciel qui puisse doter une machine d'une intelligence d'un niveau humain ou surhumain est en effet souvent présentée comme reposant sur une base de connaissances physiologiques (neurophysiologiques) du cerveau, connaissances qui sont bien supérieures à celles dont nous disposons actuellement (Allen & Greaves, 2011). Si l'on faisait ainsi déjà face à des difficultés techniques ou technologiques côté hardware, le problème se retrouve également côté logiciel.

Objections conceptuelles

Au sujet des prétentions singularistes concernant les projets d'émulation intégrale du cerveau, de téléchargement de conscience, d'immortalité numérique, etc., des critiques n'ont pas manqué de relever des difficultés conceptuelles inhérentes au projet. 

L’une d’elles concerne l’enjeu métaphysique de la persistance de l'identité d'une personne à travers le temps sans qu'il n'y ait pour autant de continuité corporelle (Proudfoot, 2002 ; Copeland & Proudfoot, 2012). La possibilité supposée de simuler la conscience d'un individu sur un substrat numérique laisse en effet la porte ouverte au problème dit « de la duplication ». Le problème réside dans le fait que l'existence simultanée de deux itérations ou plus d'une même personne implique qu'un seul et même individu puisse alors être plusieurs personnes en même temps (cf. Parfit, 1984).  

Au sujet des prétentions singularistes concernant cette fois la superintelligence, l'idée est parfois présentée comme « incohérente » (Searle, 2014). Searle, notamment, soutient qu'aucune machine ne pourra jamais être intelligente ou avoir une véritable psychologie. Tout au plus pourront-elles seulement être construites pour donner l'impression d'avoir ces caractéristiques. Tant que les machines n'entreront pas pleinement dans la sphère biologique, nous dit Searle, leur intelligence restera ainsi « dépendante des observateurs » (contrairement à l'intelligence animale, qui est « indépendante des observateurs »). 

Les auteurs critiques de la Singularité dressent parfois également une distinction conceptuelle lorsqu'ils mettent en garde contre la tentation de prendre la simulation ou l'émulation d'une chose (un cerveau, une conscience, une personne) pour la chose véritable (Proudfoot, 2002 ; Searle, 2014 ; pour un avis contraire voir Chalmers, 2022).

Certains critiques suggèrent enfin que la croyance dans les thèses singularistes relève bien plus d'une affaire de foi que de raison (Proudfoot, 2012 ; Zorpette, 2008). Diane Proudfoot souligne à ce titre que les singularistes ont une conception métaphysique de la personne similaire à celle gouvernant certaines doctrines religieuses. Cette conception métaphysique de la personne – qui repose en particulier sur une division stricte du corps et de l’esprit ou du corps et de l’âme – ouvre notamment la possibilité qu’un individu humain puisse exister hors de son animalité. 

Conclusion

La notion de singularité technologique est ainsi utilisée pour évoquer un événement inouï, un bouleversement du monde lié à l’avènement de machines superintelligentes ou à l’augmentation technologique prodigieuse des êtres humains. Un large pan des chercheurs qui s’intéressent à cette spéculation ne manque pas de relever son caractère dual : la Singularité pourrait tout aussi bien représenter une opportunité existentielle extraordinaire pour l’humanité, qu’un risque existentiel sans précédent. Les enjeux semblent donc gigantesques. Par contraste, d’autres voix relèvent pour leur part un certain nombre de problèmes ou de difficultés associés tant à la possibilité empirique d’un tel événement qu’à sa possibilité conceptuelle : si l’idée même de Singularité se révèle incohérente, il n’y a dès lors pas plus de raison de s’en inquiéter que de l’espérer. La Singularité relève-t-elle donc de la science-fiction ou bien de la pure fantaisie ? Pose-t-elle en définitive un réel enjeu de société ou ne s’agit-il, comme l’affirment certains (Floridi, 2015 ; Jean, 2019 ; Wooldridge, 2019), que d’une distraction farfelue ? Face aux multiples problèmes politiques et moraux que pose dès aujourd’hui l’IA, comme ceux portant sur la prise de décision automatisée, les biais algorithmiques, ou encore la question de la responsabilité morale (voir Chauvier, 2016 et Gibert, 2019 ; 2021), l’angoisse singulariste ne semble-t-elle pas en définitive déplacée ? 

 

Bibliographie

Allen, P. G., & Greaves, M., (2011), « The Singularity Isn’t Near », MIT Technology Review, 12 octobre 2011.

Armstrong, S., & Sotala, K., (2012), « How We’re Predicting AI–or Failing To », in Romportl, J., Ircing, P., Zackova, E., Polak, M., & Schuster, R., (éds.), Beyond AI: Artificial Dreams, Proceedings of the International Conference Beyond AI 2012, University of West Bohemia.

Bostrom, N., (1998), « How Long Before Superintelligence? », International Journal of Futures Studies, Vol. 2.

Bostrom, N., (2002), « Existential Risks », Journal of Evolution and Technology, Vol. 9(1).

Bostrom, N., (2003), « Ethical Issues in Advanced Artificial Intelligence », in Smit, I., & Lasker, G. E., (éds.), Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, International Institute of Advanced Studies in Systems Research and Cybernetics, vol. 2, pp. 12-17.

Bostrom, N., (2014), Superintelligence: Paths, Dangers, Strategies, Oxford University Press.

Burden, D., & Savin-Baden, M., (2019), « Digital Immortality and Virtual Humans », Postdigital Science and Education, 1(3), pp. 87-103.

Chauvier, S., (2016), « Éthique artificielle (A) », in Kristanek, M. (dir.), l’Encyclopédie philosophique.

Danaher, J., (2019), Automation and Utopia, Harvard University Press.

Darrach, B., (1970), « Meet Shaky, the Fist Electronic Person: The Fascinating and Fearsome Reality of a Machine with a Mind of Its Own », Life, 20 novembre, p. 58.

Eden, A. H., Steinhart, E., Pearce, D., & Moor, J., (2012), « Singularity Hypotheses: A Scientific and Philosophical Assessment », in Eden, A. H., Moor, J. H., Søraker, J. H., & Steinhart, E., (éds.), Singularity Hypotheses, Springer, pp. 1-12.

Epstein, R., (2008), « The Quest for the Thinking Computer », in Epstein, R., Roberts, G., & Beber, G., (éds.), Parsing the Turing Test, Springer, pp. xi-13.

Floridi, L., (2009), « Turing’s Imitation Game: Still an Impossible Challenge for All Machines and Some Judges–An Evaluation of the 2008 Loebner Contest », Minds and Machines, 19, pp. 145-150.

Floridi, L., (2015), « Singularitarians, AItheists, and Why the Problem with Artificial Intelligence is H.A.L. (Humanity At Large), not HAL », APA Newsletter, 14(2), pp. 8-11.

Ganascia, J-G., (2017), Le Mythe de la Singularité, Éditions du Seuil.

Gibert, M., (2019), « Éthique artificielle (GP) », in Kristanek, M. (dir.), l’Encyclopédie philosophique.

Gibert, M., (2021), Faire la morale aux robots, Climats.

Goffi, J-Y., (2017), « Transhumanisme (A) », in Kristanek, M., (dir.), l'Encyclopédie philosophique.

Good, I. J., (1965), « Speculations Concerning the First Ultraintelligent Machine », in Alt, F. L., & Rubinoff, M., Advances in Computers, vol. 6, Academic Press, pp. 31-88.

Gubrud, M. A., (1997), « Nanotechnology and International Security », Fifth Foresight Conference on Molecular Nanotechnology.

Gustafson, J. L., (2011), « Moore’s Law » in Pradua, D., (éd.), Encyclopedia of Parallel Computing, Springer, pp. 1177-1184.

Homère, Iliade, trad. Backès, J.-L, (2006), Folio classique.

Jean, A., (2019), De l’autre côté de la machine : voyage au pays des algorithmes, Éditions de l’Observatoire.

Kurzweil, R., (2001), « The Law of Accelerating Returns », KurzweilAI.net., 7 mars 2001.

Kurzweil, R., (2005), The Singularity is Near, Viking.

Mack, C. A., (2011), « Fifty Years of Moore’s Law », IEE Transactions on Semiconductor Manufacturing, vol.24(2), pp. 202-207.

Minsky, M. L., (1967), Computation: Finite and Infinite Machines, Prentice-Hall, Inc.

Modis, T. (2006), « The Singularity Myth », Technological Forecasting & Social Change, 73(2), pp. 104-112.

Moore, G. E., (1965). « Cramming More Components onto Integrated Circuits », Electronics, 38(8), pp. 114-117.

Muelhauser, L., & Salamon, A., (2012), « Intelligence Explosion: Evidence and Import », in Eden, A. H., Moor, J. H., Søraker, J. H., & Steinhart, E., (éds.), Singularity Hypotheses, Springer, pp. 15-40.

Parfit, D., (1984), Reasons and Persons, Oxford University Press.

Proudfoot, D., (2012), « Software Immortals: Science or Faith? », in Eden, A. H., Moor, J. H., Søraker, J. H., & Steinhart, E., (éds.), Singularity Hypotheses, Springer, pp. 367-391.

Rothblatt, M., (2020), Virtually Human: The Promise—and the Peril—of Digital Immortality, St. Martin’s Press.

Russel, S., Dewey, D., & Tegmark, M., (2015), « Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter», AI Magazine, 36(4), p. 3.

Searle, J. R., (1980), « Minds, Brains and Programs », The Behavioral and Brain Sciences, 3, pp. 417-457.

Searle, J., R., (2014), « What Your Computer Can't Know », The New York Review of Books.

Shanahan, M., (2015), The Technological Singularity, The MIT Press.

Turing, A. M., (1950), « Computing Machinery and Intelligence », Mind, 59, pp. 433-460.

Vinge, V., (1993), « The Coming Technological Singularity », Whole Earth Review, 81, pp. 88-95.

Walsh, T., (2017), « The Singularity May Never Be Near », AI Magazine, 38(3), pp. 58-62.

Warwick, K., & Shah, H., (2016), Turing’s Imitation Game: Conversations with the Unknown, Cambridge University Press.

Wooldridge, M., (2021), A Brief History of Artificial Intelligence, Flatiron Books.

Yudkowsky, E., (2008), « Artificial Intelligence as a Positive and Negative Factor in Global Risk », in Bostrom, N., & Ćirković, M. M., (éds.), Global Catastrophic Risks, Oxford University Press, pp. 308-345.

Zorpette, G., (2008), « Waiting for the Rapture », IEEE Spectrum, juin 2008, pp. 32-35.

 

Eloïse Boisseau
Aix-Marseille Université