Le futur doit être désirable, qu’il soit technophobe ou technophile

Tout public
FULL HD
Vlog / Podcast • 13 minutes
Essayez The Flares en illimité : 0€
Le futur doit être désirable, qu'il soit technophobe ou technophile
Téléchargez au format PDF

Eliezer Yudkowsky est une personne qui me fascine beaucoup par l’exigence qu’il adopte pour utiliser la rationalité dans ses processus de réflexion. Et c’est en fouillant le web à la recherche de ses écrits et interviews que je suis tombé sur une de ses interventions dans une conférence lors du Singularity Summit en 2010 à San Francisco. Un petit plaisir intellectuel.

Il y parle éthique transhumaniste, mais également d’un concept qu’il nomme “positive futurism”, qui veut littéralement dire futurisme positif, mais en Français je dirais plutôt “Futurologie positive” ou simplement “Futur positif”. Et je me suis dit “Ça, c’est quelque chose qu’il faut que je partage à la communauté The Flares. Donc une grande partie de cet épisode provient de cette conférence, que je vous mets dans la description pour les anglophones, et aussi de certains de ces écrits sur le blog Less wrong.

Alors déjà pour se faire une idée de qui est Eliezer Yudkowsky, il s’agit d’un chercheur en intelligence artificielle qui se revendique humaniste, rationaliste et transhumaniste. Tout comme moi, enfin mise à part la recherche en IA.

Augmenter la vie et la santé est une bonne chose

Donc, commençons par une question éthique.

Si un enfant de 6 ans tombe sur la voie ferrée, est-il bon de le sauver ? Et si un homme de 45 ans souffre d’une maladie débilitante, est-il bon de le guérir ? Je vous laisse quelques secondes pour y réfléchir. Oh et au passage, ce n’est pas une question piège.

Okay donc pour moi, je les sauverais tous les deux si j’avais le pouvoir de le faire – à la fois le garçon de six ans sur la voie ferrée et le malade de 45 ans. Une réponse évidente n’est pas toujours le meilleur choix, mais parfois ça l’est.

Si vous avez un esprit logique, vous pouvez vous demander s’il s’agit d’un principe éthique général qui stipule que : “La vie est bonne, la mort est mauvaise – la santé est bonne, la maladie est mauvaise.” Si c’est le cas – et nous entrons ici en territoire controversé – nous pouvons suivre ce principe général jusqu’à de nouvelles conclusions: si un homme de 95 ans est menacé de mort par la vieillesse, il serait bon de le sauver de cette “voie ferrée”. Et si un enfant de 120 ans commence à perdre la tête, il serait bon de lui redonner toute sa vigueur. Avec la technologie actuelle, ce n’est pas possible. Mais si dans le futur on a la possibilité de sauver ces deux vies, est-ce vous pensez qu’on devrait le faire ?

Encore une fois, quelques secondes pour y réfléchir, et ce n’est toujours pas une question piège.

Généralement des gens qui sont payés pour expliquer des jugements éthiques impliquant le génie génétique nous balancent des trucs du genre : soigner les maladies c’est bien sauf si on doit bidouiller les gènes. Ah non ça interdit! Ou la vie et la santé c’est bien jusqu’à ce qu’on atteigne 80 ans.

Si vous croyez ces bioéthiciens sur parole, alors la règle “La vie est mieux que la mort – la santé est mieux que la maladie” n’est valable que jusqu’à un âge critique, puis on inverse sa polarité. Pourquoi ne pas simplement continuer avec la vie est bonne? Il semblerait qu’il soit bon de sauver un enfant de six ans, mais mauvais de prolonger la vie et la santé d’une personne de 110 ans. À quel âge la vie et la santé passent-elles du positif au négatif ? Pourquoi ?

Pour un transhumaniste, si vous voyez quelqu’un en danger de mort, vous devez le sauver, si vous pouvez améliorer la santé de quelqu’un, vous devriez le faire. Voilà, terminé. Pas de cas particulier. Vous n’avez pas à demander :”bonjour, j’ai constaté que vous êtes en train de mourir, puis je vous demander votre âge? – 110 ans, hum okay j’ai bien peur que ce ne soit pas moral de vous aider. Et vous ? Oh 6 ans ! Vite de l’aide ! De l’aide !

Il est également inutile de se demander si le remède n’implique que des technologies “primitives” (comme une civière pour sortir l’enfant de six ans des voies ferrées) ou des technologies inventées il y a moins de cent ans (comme la pénicilline) qui semblent ordinaires parce qu’elles existent depuis que vous êtes né ou des technologies qui semblent effrayantes (comme la thérapie génique) parce qu’elles ont été inventées après votre majorité ou des technologies qui semblent absurdes et invraisemblables (comme les nanotechnologies) parce qu’elles n’ont pas encore été inventées. Votre dilemme éthique n’a pas de case où vous notez l’année d’invention de la technologie qui va permettre de sauver une vie.

Augmenter l’intelligence est une bonne chose

Le transhumanisme affirme également que l’humanité pourrait augmenter ses capacités cognitives. Voyons donc si c’est une bonne ou une mauvaise chose avec un autre dilemme éthique : Même si j’aime pas trop le QI comme métrique de l’intelligence, on va jouer le jeu par simplicité. Supposons qu’un garçon de 9 ans, qui a été testé 120 au test de QI soit menacé par une maladie du cerveau qui, s’elle n’est pas contrôlée, réduira progressivement son QI à 110. Je dirais qu’il s’agit d’une bonne chose de le sauver de cette menace. Si vous avez un esprit logique, vous pouvez vous demander s’il s’agit d’un principe éthique général disant que l’intelligence est précieuse. Maintenant, la sœur du garçon a actuellement un QI de 110. Si la technologie était disponible pour augmenter progressivement son QI à 120, sans effets secondaires négatifs, est-ce une bonne chose de le faire?

Oui bien sûr. Pourquoi pas? Ce n’est pas une question piège. Soit il vaut mieux avoir un QI de 110 plutôt que de 120, auquel cas nous devrions laisser le garçon passer de 120 à 110. Ou il vaut mieux avoir un QI de 120 que 110, auquel cas nous devrions augmenter le QI de la sœur si possible. Je dirais que la réponse évidente est la bonne.

Mais où est-ce que ça se termine ? C’est bien beau de parler d’allonger la vie et la santé à 150 ans – mais qu’en est-il de 200 ans, ou 300 ans, ou 500 ans, ou plus ? Qu’en est-il si l’augmentation des capacités cognitives débouche sur 140 de QI, ou 180, ou au-delà de ce qui est considéré comme la condition humaine ?

Où est-ce que ça se termine ? Nulle part. Pourquoi est-ce que ça devrait finir quelque part ? La vie est bonne, la santé est bonne, l’intelligence et le bien-être. Toutes ces choses ne cessent pas d’être bonnes lorsqu’on en a trop. Et qui peut définir la quantité qui, une fois atteinte, les rendra mauvaises ? Ce serait un peu arbitraire non ! Les limites physiques de l’univers peuvent ou non permettre une durée de vie d’au moins X années. Et les limitations physiques sont des questions factuelles et objectives, à résoudre par la méthode scientifique. Le transhumanisme, pris en tant que philosophie morale, ne traite que de la question de savoir si une durée de vie saine de longueur X est souhaitable si elle est physiquement possible. Le transhumanisme répond oui parce que ce n’est pas une question piège. Une réponse évidente n’est pas toujours le meilleur choix, mais parfois ça l’est. La vie est mieux que la mort, pas seulement quand vous avez la trentaine, mais tout le temps. La bonne santé est mieux que la mauvaise santé, que vous ayez 10 ans ou 100 ans. Le bien-être est mieux que la souffrance, pas seulement pour vous et vos proches, mais pour toutes formes de vie capable d’expérimenter ces deux états subjectifs conscients.

Peut-être que vous êtes d’accord et acceptez ces propositions générales éthiques. Mais vous n’aimez pas le mot transhumanisme en raison de certaines connotations que vous avez entendues à droite à gauche. Okay pas de souci, ne vous déclarer pas transhumaniste. Après tout des grands mots compliqués comme transhumanisme ne sont que des étiquettes et catégories. Ce qui compte ce sont les idées et les questions posées. En l’occurrence, en ce qui concerne l’avenir de l’humanité.

La nécessité de futurs positifs

Ce qui nous amène au futur positif. David Brin, scientifique américain et auteur de science-fiction, a déclaré : la plupart des cultures à travers le monde croient en un âge d’or perdu où les humains avaient plus de connaissance, faisaient preuve de plus de sagesse et étaient plus proches des Dieux. Mais elles sont tombées en disgrâce. Seules quelques sociétés ont osé contredire ce dogme nostalgique. L’occident avec sa méthode scientifique et ses philosophes des lumières a utilisé la notion de progrès pour transférer cet âge d’or du passé vers le futur.

Le concept de futur positif d’Eliezer Yudkowsky s’inscrit dans cette même idée. Cependant ce n’est pas une prédiction que l’âge d’or de l’humanité est devant nous, mais plutôt que c’est une possibilité. Et surtout un objectif à revendiquer. Mais ce qui permet d’affirmer ça ne doit pas être motivé par un optimisme naïf. Ce serait juste un biais cognitif. Il faut utiliser la rationalité pour imposer des contraintes à l’action de penser le futur :

  1. Ce qu’on souhaite n’a aucune influence sur le fonctionnement de la réalité. Le progrès ne définit pas les lois de la physique. Par exemple, même si ce serait cool de coloniser la galaxie en moins de 100 000 ans, il n’existe peut-être pas de moyens de voyager plus vite que la lumière.
  2. Nous ne sommes pas aidés par le destin. Autrement dit, l’humanité ne se dirige pas inévitablement vers un futur positif. L’univers ne se dit pas : hum, est-ce que cet événement sur Terre est en train de violer la loi que l’humanité se dirige vers un futur positif. Non, l’univers est gouverné par les lois de la physique, pas par des lois morales de bien ou de mal. Et si un futur positif était inévitable, on pourrait juste se la couler douce en attendant que ça se passe.
  3. La magie ne marche pas pour résoudre des problèmes, mais certains problèmes peuvent être considérés comme magiques. La magie c’est un point de vue sur l’univers où certaines choses sont perçues comme intrinsèquement mystérieuses au lieu d’être simplement un état de confusion de l’observateur. Dire “Je veux voler” était considéré il y a 1000 ans comme un souhait divin ne pouvant être accomplis que par la magie. Il y en a certain qui ont surement essayé de voler en buvant une potion d’envol, mais avant l’invention des montgolfières puis des avions, les humains ne pouvaient pas voler point final. Être un futurologue rationnel signifie se contraindre aux lois de la physique.
  4. On ne peut pas juste inventer des trucs à la volé. Ajouter plein de détails peut rendre une histoire plus plausible même si la prédiction devient moins probable. Un exemple intéressant provient d’une étude en 1982 qui a demandé à un groupe de futurologue quelle est la probabilité qu’un tremblement de terre arrive en Californie causant un tsunami tuant aux moins 1000 personnes durant l’année 1983. Et à un deuxième groupe : la probabilité d’un tsunami tuant aux moins 1000 personnes durant l’année 1983. Le 1er groupe a donné une plus grande probabilité à l’événement en question que le deuxième. Pourquoi? Car le fait d’ajouter Californie et tremblement de terre rend l’histoire plus plausible. Mais si on regarde bien, elle est moins probable que la deuxième, car elle est plus complexe et spécifique. Paradoxale et pourtant, un phénomène bien connu de la psychologie cognitive. Un futurologue rationnel reconnaît que chaque élément de détail que l’on ajoute à une prédiction est une charge supplémentaire qui doit être séparément expliquée.

Toute transformation d’un système physique qui n’est pas interdit par les lois de l’univers est réalisable sous condition d’avoir les connaissances requises. Si quelque chose est autorisé par les lois de la physique, alors la seule chose qui peut l’empêcher d’être technologiquement possible c’est de ne pas savoir comment. Ce qui signifie que tous nos problèmes sont causés par un manque de connaissance fondamentale.

Les positions vis-à-vis de la technologie

On peut distinguer 4 attitudes vis-à-vis de la technologie.

  1. Technophile : La technologie est bonne, le futur sera radieux. Le plus vite on y sera, le mieux c’est. Continuons le progrès.
  2. Technophobe : La technologie est mauvaise. Le futur sera pire que le présent. C’était mieux avant. N’aime pas le progrès. Essaye principalement d’empêcher les choses d’empirer.
  3. Techno-normal : Tous ses trucs à propos d’un futur positif ou des catastrophes existentielles sont puérils. Le train-train quotidien continuera comme il l’a toujours fait.
  4. Techno-volatile : Le futur sera extrêmement positif ou extrêmement négatif, mais c’est peu probable que ce soit quelque part entre les deux.

Celle qui saute aux yeux comme étant extrêmement irrationnel c’est la techno-normalité. Nous voyons arriver d’énormes forces sur l’échiquier qui vont façonner l’orientation que prendra le futur. Se dire que toutes ses forces n’auront aucun impact ou vont s’annuler mutuellement, ayant pour résultat la normalité … okay. Si je vous dis que dans 100 ans, nous serons revenu aux chevaux à la place des voitures, à la royauté à la place de la démocratie, et à un bout de bois dans la bouche à serrer aux lieux de l’anesthésie, et bien, vous me répondrez que ce serait une catastrophe. Pourtant c’est à ça que ressemblait la vie dans le passé. Le train-train quotidien n’a pas continué comme il l’a toujours fait. Notre réalité est normale … pour nous. Si vous étiez transporté 200 ans en arrière, rien ne serait normal. Et le futur dans 200 ans sera au moins aussi étrange. Probablement bien plus.

La technophobie me semble également irrationnelle. Dans le sens où se méfier des innovations technologiques au point de vouloir ralentir voir arrêter le progrès me semble être une recette pour l’extinction. L’écrasante majorité des civilisations ont été détruites au cours de l’histoire, certaines intentionnellement, d’autres à la suite de la peste ou d’une catastrophe naturelle. Pratiquement toutes auraient pu éviter les catastrophes qui les ont détruites si seulement elles avaient possédé un peu plus de connaissances, telles que de meilleures technologies agricoles ou militaires, une meilleure hygiène ou de meilleures institutions politiques ou économiques. Très peu, voire aucune, auraient pu être sauvés par une plus grande prudence à l’égard de l’innovation.

Personnellement j’ai des tendances technophiles, mais je suis fondamentalement techno-volatile et c’est la position générale à The Flares.

Prenez un moment pour vous demander quelle est votre position et partagez-la dans les commentaires avec, si possible, un petit argumentaire. Et dites-nous ce que vous pensez de la notion de futur positif.

Rate this post
[contenus_similaires]

Rate this post