La singularité technologique expliquée
Le progrès technique s’accélère et va atteindre un point de rupture...
Au sortir de la seconde guerre mondiale, le petit monde de ce qui n’est pas encore l’informatique est en effervescence. La cryptographie, c’est-à-dire l’art de « cracker » les messages codés du camp ennemi, a connu un essor important et la mise au point de la bombe atomique a initié la recherche en simulation numérique. On se demande alors jusqu’où pourrait aller le « calcul » si l’on disposait de machines plus performantes. Alan Turing, chercheur britannique, publie en 1950 dans la revue Mind un article qui fera date : Computing Machinery and Intelligence. Il y pose explicitement le problème de l’intelligence des machines et propose un moyen d’en rendre compte. L’article résonne immédiatement comme un programme de recherches dans le champ de l’intelligence artificielle et annonce l’avènement d’une nouvelle discipline fondamentale : l’informatique, dont les progrès spectaculaires, aujourd’hui en prise avec les nanotechnologies, ne semblent pas connaître de fin.
Ce brusque accroissement du savoir technique s’apparenterait à un "point" dans l’histoire, à un "pli", ou plutôt à une "singularité". Le terme fut utilisé pour décrire ce phénomène par Vernor Vinge, chercheur américain et auteur de science-fiction, dans son essai The Coming Technological Singularity (1993). Il est emprunté à la physique où la notion de singularité gravitationnelle renvoie à des régions de l’espace-temps où les quantités dont on est capable de rendre compte habituellement deviennent subitement infinies, et par là-même échappent à nos appareils de mesure. Par analogie, on imagine qu’une fois cette singularité technologique atteinte, notre société connaîtrait des bouleversements démesurés. Pour certains, les transhumanistes par exemple, la singularité signe la fin de l’humanité et la nécessité de nous robotiser, pour d’autres, inspirés par la "noosphère" de Teilhard de Chardin, elle équivaut à l’entrée dans un Âge d’Or où l’information et la communication se font sans entraves. D’après les plus alarmistes, les machines super intelligentes nous réduiront à néant sans attendre. On retrouve là toute l’ambiguïté des récits apocalyptiques dans lesquels on tente de faire coïncider en un même événement destruction et révélation, mort et naissance, fin et début (une "destruction créatrice" comme diraient Nietzsche ou Schumpeter).
Tout ceci peut paraître très excitant ou très angoissant, au choix. Seulement voilà, l’histoire a la fâcheuse tendance de ne peut pas suivre des lois mathématiques abstraites. Tout d’abord, les investissement financiers et humains dans la recherche reposent sur la motivation des hommes. Ensuite, et surtout, la Nature résiste. Ainsi, de l’aveu même de Gordon Moore, co-fondateur d’Intel et auteur de la loi susnommée, le progrès technologique en matière de computation va se heurter à un mur dans sa quête de miniaturisation : l’échelle atomique. À partir d’un certain stade, en effet, et selon les prévisions, c’est à l’échelle de l’atome que nous devrions prochainement confectionner nos processeurs.
Dès lors, les spéculations vont bon train et les plus audacieux évoquent la possibilité de "reprogrammer" la matière, transformant ainsi le monde réel en un monde virtuel, malléable, modifiable selon nos souhaits. Une telle image est vertigineuse. Elle l’est tant que seuls 29,5 % des américains jugent "moralement acceptable" l’idée d’une manipulation de la matière atome par atome (enquête présentée en 2008 par Dietram Scheufele). Ray Kurzweil lui-même, lors de la présentation d’un rapport sur les nanotechnologies au Congrès Américain, a jugé bon de souligner les dangers potentiels, tout en prévenant que la tentation d’y parvenir était si grande que personne ne pourrait entraver cette recherche. Ces dangers sont peu ou prou semblables aux critiques régulièrement prononcées à l’égard de l’intelligence artificielle (on aura compris en quoi ces deux champs ont partie liée) : perte de contrôle de l’homme sur sa création, confusion totale quant à ce qui est réel et ce qui ne l’est pas, impossibilité de prévoir le comportement d’une machine rendue autonome (et invisible à l’œil nu).
Car c’est à un niveau fondamental que se situe le cœur du débat portant sur la nature de la technique, de l’esprit et de l’intelligence. S’il est encore de bon ton, notamment dans la tradition "continentale" de la philosophie, de tourner en ridicule la recherche en intelligence artificielle en s’appuyant sur les a priori fondant notre conception de l’humanisme, il semble important de s’intéresser aux évolutions récentes et de s’investir dans le débat. La virulence des confrontations secrète en effet des arguments de plus en plus riches. À titre d’exemple, Anthony Berglas, dans Artifical Intelligence will Kill our Grandchildren (2008), défend l’idée selon laquelle une machine, n’étant ni mortelle ni incarnée, n’aurait nul besoin de développer un sentiment tel que l’amour, qui, sur un plan évolutionniste, assure la reproduction d’une espèce. Or de telles conceptions sont porteuses de réflexions étonnamment denses quant à notre condition mortelle et notre rapport au temps. Comment pourrait-on seulement concevoir l’équivalent d’une conscience qui n’aurait pas un rapport au temps de mortel ? Une conscience qui se déploierait dans une pure atemporalité, hors du temps ?
Mais soyons patients, car la réponse est proche si l’on en croit Vernor Vinge : "Je serai surpris si cet événement arrive avant 2005 ou après 2030" (1993).
ARTICLES CITÉS :
Alan Turing, Computing Machinery and Intelligence, in Mind, 59, 433-460, 1950.
Irving J. Good, Speculations Concerning the First Ultraintelligent Machine, in Advances in computers, 39, 1965.
Vernor Vinge, The Coming of Technological Singularity, présenté au Vision-21 symposium du NASA Lewis Research Centre et de l’Ohio Arospace Institute, 1993.
Pierre Teilhard de Chardin, La place de l’homme dans la Nature, Seuil, Paris, 1963.
Ray Kurzweil, The Singularity is Near, Viking Adult, 2005.
Richard Feynman, There’s Plenty of Room at the Bottom, conférence donnée à l’American Physical Society, 1959.
Anthony Berglas, Artificial Intelligence will Kill our Grandchildren, 2008.
38 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON