Vous avez surement déjà entendu par-ci par-là le terme “Singularité”. C’est un de ces mots tendance dans les discussions futuristes. Et comme souvent avec ce genre de terme, chacun y apporte sa petite touche et déforme son origine et sa définition. Un peu comme transhumanisme ou même humanisme, libéralisme, ou zlatanisme …

Le pire c’est quand certains concluent que la singularité est une sorte d’événement transcendant prophétisé par des technophiles souhaitant fusionner avec les machines, ce qui en fait ni plus ni moins qu’une sorte de religion technologique pour les geeks.

Okay, dur de faire plus caricatural.

En faite, ce concept est le résultat de 3 écoles de pensées qui se sont retrouvées malencontreusement mixées ensemble sous un seul terme “Singularité technologique” ce qui enlève leurs distinctions et spécificité. Et c’est en voyant une conférence d’Eliezer Yudkowsky, chercheur en IA et penseur transhumaniste, que j’ai pris conscience de ces distinctions et je me suis dit que ça pourrait vous intéresser sachant qu’on explore régulièrement des sujets similaires. Et que selon bibiblue2, nous sommes les porte-paroles du transhumanisme et de la tyrannie qui vient.

Alors avant d’explorer ces 3 écoles de pensées, je rappelle que le mot singularité est issu de la physique et qui décrit une région dans l’espace-temps où les forces gravitationnelles tendent vers l’infinie. Notamment au centre d’un trou noir. On trouve également le concept de singularité mathématique et singularité géométrique. Mais ce qui nous intéresse ici c’est la singularité technologique.

École de pensée 01 : L’horizon des événements

C’est Vernor Vinge, mathématicien et auteur de science-fiction, qui a introduit pour la 1ere fois le terme “Singularité” dans sa thèse sur l’horizon des événements dans les années 70. Le coeur de son argument c’est que cela fait environ 100 000 ans qu’Homo sapiens sapiens est l’entité la plus intelligente sur la planète. Bientôt, la technologie va progresser au point d’améliorer l’intelligence humaine, que ce soit via des interfaces cerveau-machine, des augmentations neurobiologiques ou en créant des intelligences artificielles générales.

Alors qu’il essayait d’écrire des histoires, se déroulant dans un futur où la technologie créer des esprits plus intelligents que les humains. Il tenta de développer des personnages infiniment plus intelligents que lui même en faite, ce qui le conduisait toujours à une impasse. Il a donc utilisé l’analogie de l’horizon des événements d’un trou noir, où passé un certain point sur la surface d’un trou noir, les théories de la physique s’effondrent et plus rien ne fait sens. En tous cas selon les théoriques de son époque. Ainsi, l’avenir après la création d’esprits plus intelligents que les humains est absolument imprévisible. Car pour savoir ce que ferait une intelligence surhumaine, vous devez être au moins aussi intelligent. Pour savoir quel sera le prochain coup d’alpha Go dans une partie du jeu de Go, vous devez être capable jouer au niveau d’alpha Go. Un futur peuplé de post humain implique des trucs bien plus fous que des voitures volantes, des gadgets futuristes qui clignotent ou tout ce que nos intelligences inférieures peuvent imaginer. Tout comme l’esprit d’un homme de Cro-Magnon ne peut pas saisir le wifi ou une vidéo YouTube.

Par ailleurs, Vernor Vinge considère que la singularité technologique est l’événement non catastrophique le plus probable sur le futur à court terme.

École de pensée 02 : Accélération du changement:

Cette thèse est probablement celle que vous avez le plus entendu parler. C’est elle qui prédit la singularité en 2045 ! Popularisé par l’ingénieur américain Ray Kurzweil dans son livre “la singularité est proche” en 2005.

Le concept d’accélération du changement repose essentiellement sur le fait que nos intuitions sur le changement sont linéaires. On suppose qu’il y aura à peu près autant de changements que ceux qui se sont produits par le passé au cours de nos vies. Mais le progrès technologique et scientifique se nourrit de lui-même. Chaque nouvelle percée entraîne d’autres découvertes, ce qui entraîne une accélération. L’informatique est un bon exemple. À chaque fois qu’on augmente la capacité de calcul, machine, plusieurs disciplines en bénéficient. Aujourd’hui, le changement est plus rapide qu’il y a 500 ans, qui est à son tour plus rapide qu’il y a 5000 ans. Notre passé récent n’est pas un indicateur fiable de l’ampleur des changements auxquels nous devrions nous attendre à l’avenir. Ce qui implique que le futur va contenir plus de changement technologique que ce que l’on imagine. Et donc ça devient vite compliqué à anticiper.

Cependant, Ray Kurzweil extrapole sur cette thèse en affirmant que le changement technologique suit des courbes, généralement exponentielles. Par conséquent, il pense que nous pouvons prédire avec une assez grande précision quand de nouvelles technologies arriveront. C’est comme ça que Ray Kurzweil a gagné sa réputation de Nostradamus de l’ère numérique avec tout un tas de dates prédites par le monsieur. Dont la fameuse singularité technologique qui arrivera le 20 juillet 2045 entre 7 et 8h du matin. Sur ses 147 prédictions depuis les années 1990, Kurzweil revendique un taux de précision de 86%. Bien qu’il a reçu de nombreuses critiques. Cette idée de prédiction technologique en suivant des courbes est une variation évidente de la loi de Moore qui est l’observation que le nombre de transistors dans un circuit intégré double environ tous les deux ans pour coût égal. Qui veut dire grosso modo que les ordinateurs deviennent 2 fois plus rapides tous les 2 ans.

Donc pour résumer, le coeur de l’argument accélérationniste c’est que de très gros changements sont en route, bien plus large que ce qu’on imagine avec une pensée linéaire. Et pour les plus audacieux qui adhèrent à cette prémisse, ils ajoutent qu’il est possible de temporaliser l’arrivée de certaines technologies.

Ecole de pensée 03 : Explosion d’intelligence :

L’intelligence est la source de la technologie. Si nous pouvons utiliser la technologie pour améliorer l’intelligence, cela ferme la boucle et crée potentiellement un cycle d’autoamélioration récursive. Car que feraient des humains dotés d’interfaces cerveau-machine avec leur intelligence augmentée ? Un bon pari est qu’ils concevraient la prochaine génération d’interfaces cerveau-machine. L’amélioration de l’intelligence est donc un point de bascule. Plus vous êtes intelligent, plus vous pouvez utiliser de l’intelligence pour vous rendre encore plus intelligent.

Ce cycle de rétroaction positive peut s’emballer comme lors d’une fission nucléaire devenue critique, ce qui entraîne une explosion. D’où le terme : “Explosion d’intelligence” proposée par le mathématicien Irving J.Good qui faisait référence plutôt à l’intelligence artificielle.

Mais quelle est la rapidité de cette explosion. Est-ce qu’elle se déroule en quelques siècles, ou en quelques années. Tout dépend du type de technologie qui sert à augmenter l’intelligence. Si l’augmentation de l’intelligence se fait par génie génétique, il faut, disons 18 ans pour que les enfants grandissent avant qu’il puisse aider à développer la prochaine génération de cette technologie. Si on le fait avec des interfaces cerveaux-machine, il faut peut être 18 mois pour que les ingénieurs développement de meilleure génération de cette technologie. Si on parle d’intelligence artificielle capable de modifier son propre code, on se situe dans l’échelle de temps caractéristique des transistors plutôt que des neurones humains. Ça peut prendre 18 secondes entre chaque évolution. L’ascension augmente ensuite rapidement et crée une superintelligence avant d’atteindre potentiellement les limites physiques. Le cerveau humain n’est surement pas la limite. Tout comme il est possible de fabriquer des bâtiments qui sont plusieurs ordres de grandeur plus haut que des humaines, ou des engins qui sont plusieurs ordres de grandeur plus rapide que des humaines, il est sans doute possible de créer des esprits qui sont plusieurs ordres de grandeur plus intelligents que des humaines.

La pensée de ces trois écoles de la singularité sont distincte est bien que les trois revendications fondamentales se soutiennent mutuellement, certains détails ont tendance à se contredire. Par exemple, lorsqu’un accélérationniste extrapole la loi de Moore au-delà du stade de la super IA pour faire des prédictions en 2099, alors il contredit la version de l’horizon des événements qui dit qu’on ne peut pas faire de prédictions, car cela revient à deviner ce que c’est que d’être un esprit surhumain. Ainsi que la version forte de l’explosion d’Intelligence, car les progrès iront plus vite une fois que des esprits surhumains seront la source des innovations technologiques.

Donc voilà un peu plus de nuance sur le terme singularité technologique. La prochaine fois que vous rencontrez quelqu’un qui se proclame “Singularitarien”, posez-lui la question de quelle école il se revendique. Et vous alors, quelle est la thèse qui semble être la plus forte ? Ou sont-elles toutes farfelues et irréalistes, car on manque de ressource et qu’on va dégringoler bien avant ces scénarios ? 

Reference :
http://yudkowsky.net/singularity/schools/

https://www.youtube.com/watch?v=mEt1Wfl1jvo