Influencer le futur lointain : est-ce possible ?

Partie 3/3 de la série Longtermisme
Tout public
FULL HD
Vlog / Podcast • 10 minutes
Essayez The Flares en illimité : 0€
Longtermisme
  • Partie 01
  • Partie 02
  • Partie 03
Influencer le futur lointain : est-ce possible ?
Téléchargez au format PDF

Insert : L’impossibilité de connaître l’avenir ne nous donne pas d’excuses pour l’ignorer.

Une fois que nous considérons combien de générations pourraient suivre la nôtre dans le futur lointain, les implications semblent frappantes : nous vivons une période singulière de notre histoire, qui suggère peut-être une fenêtre de tir où nos décisions seront capitales pour les milliards d’années à venir.

Voici nos descendants, des milliards d’années dans le futur, en train de méditer sur l’étendue de ce qu’ils ont accompli [1]Exemple repris et modifié de l’article On future people, looking back at 21st century longtermism (Carlsmith, 2021). Ils évoquent tout ce qu’ils chérissent, les connaissances acquises sur l’univers, tout ce que leurs ancêtres ont ressenti et contemplé. Ils réalisent que l’immensité de la civilisation autour d’eux, les événements historiques, la diversité de la vie et de la conscience, tout cela peut se rembobiner à travers des milliards d’années, rétrécissant à travers des étendues époustouflantes d’espace et de temps, jusqu’à un point presque infinitésimal. Une seule planète, là où tout a commencé, tel un big bang civilisationnel.

Un endroit contenant un petit groupe de moins de dix milliards d’humains, complètement inconscients de tenir l’ensemble de ce potentiel futur entre leurs mains.

Serait-il possible que nos décisions affectent ce vaste potentiel ?

Changement de trajectoire vers le futur lointain

Imaginez l’humanité comme un navire géant naviguant en eaux profondes, avec un horizon embrumé à perte de vue [2]Exemple repris et modifié de l’article Rowing, Steering, Anchoring, Equity, Mutiny (Karnofsky, 2021). Chaque direction est ouverte et possible.

En raison de sa taille, la force d’inertie maintient le navire sur sa trajectoire sur de longues périodes, et changer de cap doit prendre en compte cet effet. Certains changements de trajectoire pourraient influencer les aspects qualitatifs du futur, comme trouver le chemin vers une île remplie d’abondance. D’autres pourraient augmenter la longévité de la civilisation, comme éviter des icebergs ou lancer des expéditions, l’équivalent de devenir une espèce multiplanétaire.

Les changements de trajectoire sont donc des actions ayant des effets persistants, sur de longues durées et qui augmentent ou réduisent l’éventail des futurs possibles.

Atteindre la sécurité existentielle

La façon la plus directe d’affecter le long terme est aussi la plus évidente. Si le bateau coule, aucune destination ne sera atteinte. Empêcher notre extinction est donc potentiellement la manière la plus pertinente de façonner l’avenir lointain.

Les risques d’extinction sont généralement classés en deux catégories : La première concerne les catastrophes naturelles, incluant les géocroiseurs, les supervolcans et les explosions stellaires. Notre pouvoir grandissant sur la nature nous permet d’envisager certaines solutions. Les tentatives d’atténuer les risques causés par les astéroïdes est un exemple d’une telle intervention. Grâce à plusieurs programmes spatiaux, plus de 98% des astéroïdes supérieurs à 10 km de diamètre ont été détectés sur 99% du ciel [3]The Precipice (Ord, 2020) – The Spaceguard Survey – Protecting the earth from cosmic impacts (Morrison, 1992) – The population of near-earth asteroids revisited and updated (Harris, … Continue reading. Développer les techniques pour les dévier, et préparer des abris et des stocks pour survivre en cas d’impact réduiraient la menace des géocroiseurs.

Les catastrophes anthropogéniques, c’est-à-dire résultant de nos propres technologies, sont une autre catégorie de risque d’extinction ayant potentiellement une plus grande probabilité. Ils sont apparus le 16 juillet 1945 lors du test Trinité et se sont multipliés au fil du développement technoscientifique. L’humanité est désormais entrée dans une nouvelle ère où notre extinction dépend davantage de nos décisions que des événements naturels.

Une escalade nucléaire demeure significative, étant donné le nombre de missiles toujours maintenus en état d’alerte et les aléas des tensions géopolitiques. En outre, les progrès en biotechnologie et leur démocratisation augmentent la perspective de concevoir des virus hautement virulents. Et la transition vers un monde où les humains sont dépassés par l’intelligence artificielle pourrait être le plus grand danger que connaîtra notre espèce.

Mais l’extinction n’est pas la seule façon de détruire notre potentiel.

Considérons le scénario où une catastrophe a tellement endommagé l’environnement qu’il devient impossible pour les survivants de rétablir la civilisation [4]Existential Risks (Bostrom, 2002). L’humanité serait alors contrainte dans un état pré-agricole. Même si une telle catastrophe ne causait pas directement notre extinction, elle aurait un effet similaire sur notre potentiel.

Ou prenons le cas d’un monde géré par un gouvernement totalitaire oppressif, déterminé à se perpétuer. Grâce à un endoctrinement et une surveillance sans précédent rendus possibles par la technologie, il serait alors devenu impossible d’organiser un soulèvement. Si un tel régime pouvait se maintenir indéfiniment, alors ce scénario détruirait également notre potentiel.

Pour résumer, dans toute catastrophe existentielle, les vastes futurs qui nous sont actuellement ouverts s’effondreraient en une gamme étroite d’options peu désirables.

Le premier objectif de l’humanité est donc d’atteindre une sécurité existentielle où les risques existentiels demeurent faibles. On parle également d’état permanent où la civilisation, une fois entrée, aura tendance à y rester pour une longue période. L’extinction est l’exemple typique puisque, une fois qu’une espèce a disparu, c’est définitif. Un autre exemple serait d’atteindre un seuil hypothétique de maturité technologique rendant la civilisation quasi permanente.

Mais réduire les risques existentiels n’est pas la seule intervention possible pour provoquer un changement de trajectoire.

Certaines technologies pourraient avoir des effets importants et persistants, entrainants ainsi des répercussions marquées sur le lointain futur. L’ingénierie génétique nous donne les outils pour altérer la condition même de nos descendants. Quant à l’intelligence artificielle générale, elle a le pouvoir de façonner le futur comme aucune autre technologie auparavant. Leur point commun est qu’une fois que ces technologies sont implémentées, elles deviennent difficilement réversibles.

Identifier des changements de trajectoire positifs et éviter ceux qui sont négatifs est par conséquent un moyen efficace d’influencer le futur lointain. Cela pourrait se faire en essayant de façonner positivement les technologies émergentes. De rendre la société plus apte et résiliente, ou encore en brisant des cycles de rétroaction vicieux ou générer des cycles vertueux.

Un autre type de changement de trajectoire pourrait concerner la vitesse du navire.

Accélérer le développement de la civilisation

Stimuler le développement de la civilisation semble être un moyen efficace pour influencer l’avenir, grâce à un effet d’accélération, faisant en sorte que tous les avantages futurs se produisent plus tôt qu’ils ne l’auraient fait autrement. Par exemple, des millions de vies pourraient être sauvées si une maladie est éradiquée plus vite que prévu.

On peut aussi considérer la possibilité que plus le monde est prospère, plus les chances de parcourir des trajectoires positives s’accentuent. Vu sous cet angle, nous devrions accélérer le progrès au sens large.

D’un autre côté, l’histoire récente nous montre que les technologies ont tendance à poser de nouveaux risques existentiels, ce qui devrait nous inciter à faire preuve de prudence sur l’accélération technologique. Cela ne veut pas dire jeter l’ancre. Une stagnation technologique pourrait signifier l’allongement d’une période de périls pendant laquelle les risques d’extinction sont élevés [5]What We Owe the Future (Macaskill, 2022).

Finalement, le problème n’est pas tant un excès de technologie qu’un manque de sagesse. Plutôt qu’une accélération générale dans tous les domaines, le principe de développement technologique différentiel [6]The Vulnerable World Hypothesis (Bostrom, 2019) suggère que nous devrions retarder le développement de technologies pouvant poser des risques existentiels et accélérer celles qui les réduisent.

Verrouillage normatif

Le verrouillage est un autre type de changement de trajectoire. Il s’agit du maintien d’un système de valeurs, institutions ou traditions pendant de longues périodes de temps. Une façon de verrouiller le gouvernail.

Considérez le grand nombre de végétariens en Inde qui repose sur des traditions remontant à au moins 2500 ans [7]Vegetarianism and religion – article Wikipedia ou encore la dynastie Han, qui a verrouillé le confucianisme durant plus de mille ans dans la culture chinoise [8]Han dynasty – Article Wikipedia. Plus récemment, le communisme[9]Proletarian internationalism – Article Wikipedia et le Nazisme[10]Nazism – Article Wikipedia avaient des intentions explicites d’imposer leurs visions du monde pendant des siècles.

Presque toutes les générations passées avaient des normes que nous considérons aujourd’hui comme abominables. Que ce soit sur les combats de gladiateurs, l’inquisition ou l’esclavage. Sommes-nous les premiers à avoir établi le meilleur système de valeur ? C’est peu probable.

Ce souffleur de verre peut façonner un vase en de nombreuses formes, tant que la matière est fondue et malléable [11]Exemple repris de What We Owe the Future (Macaskill, 2022). Une fois refroidie et rigide, changer son apparence devient impossible sans le faire fondre à nouveau. Ainsi, il pourrait être beaucoup plus facile d’influencer la nature des normes et des technologies lors de leur implémentation, que plus tard, lorsque les choses se sont stabilisées.

L’inquiétude est que nous arrivons peut-être à l’aube d’une gamme de technologies qui permettra aux générations présentes, de maintenir indéfiniment leurs valeurs. Tout comme l’écriture a donné aux idées le pouvoir d’influencer la société pendant des milliers d’années, l’intelligence artificielle pourrait leur donner une influence qui perdurera durant des millions. Ce serait comme un pilote automatique sur le navire. Il vaut mieux s’assurer de la direction programmée, avant de lui confier le gouvernail.

Le verrouillage normatif n’est pas nécessairement négatif. Ce serait certainement bénéfique pour l’humanité si la réduction des risques d’extinction devenait une tradition culturelle persistante. Mais une grande prudence est requise sur le choix des normes et des traditions culturelles que l’on souhaite cristalliser.

Si nous vivons une période de plasticité, nous avons la responsabilité de laisser le plus d’options possible pour nos descendants. On peut le faire en stimulant la diversité culturelle et intellectuelle et éviter qu’un seul système de valeurs en vienne à dominer prématurément.

Nous sommes peut-être arrivés à un moment charnière dans l’histoire. Certaines trajectoires de l’humanité pourraient être en partie déterminées par les décennies à venir. Il reste de nombreuses incertitudes normatives et empiriques quant aux meilleurs moyens de sauvegarder notre potentiel. Mais il semble extrêmement présomptueux de conclure que nous sommes impuissants. Au lieu de propulser aveuglément le navire vers l’avant, le longtermisme suggère de réfléchir à la destination, à l’importance morale en cas d’échec et au fait de prendre des mesures pour maximiser le succès !

L’une des meilleures façons de contribuer au lointain futur passe par votre carrière. Vous pouvez directement réduire les risques existentiels ou, si vous êtes étudiant, vous orienter vers une discipline ayant un fort impact. Il y a bien sûr la possibilité de contribuer par des dons financiers, à différents instituts de recherche et institutions centrés sur les considérations longtermistes. Ou simplement en discutant autour de vous afin de sensibiliser le plus de monde possible, ce qui finira par atteindre un seuil critique dans l’opinion publique. Pour aller plus loin, vous trouverez une liste d’actions possibles sur ce lien.

Rate this post

References

References
1Exemple repris et modifié de l’article On future people, looking back at 21st century longtermism (Carlsmith, 2021)
2Exemple repris et modifié de l’article Rowing, Steering, Anchoring, Equity, Mutiny (Karnofsky, 2021)
3The Precipice (Ord, 2020) – The Spaceguard Survey – Protecting the earth from cosmic impacts (Morrison, 1992) – The population of near-earth asteroids revisited and updated (Harris, Chodas, 2021)
4Existential Risks (Bostrom, 2002)
5What We Owe the Future (Macaskill, 2022)
6The Vulnerable World Hypothesis (Bostrom, 2019)
7Vegetarianism and religion – article Wikipedia
8Han dynasty – Article Wikipedia
9Proletarian internationalism – Article Wikipedia
10Nazism – Article Wikipedia
11Exemple repris de What We Owe the Future (Macaskill, 2022)
[contenus_similaires]

Rate this post