Quels seront les risques existentiels de demain ?

Le professeur et philosophe Nick Bostrom de l’université d’Oxford s’intéresse à plusieurs sujets et ils se focalisent tous sur la vision globale de l’avenir de l’Humanité. En particulier, à ce qu’il appelle « les risques existentiels ». Il s’agit de risques qui menacent l’existence même de notre espèce, comme la racine du mot l’indique. Ce monsieur travaille avec un groupe de scientifique/philosophe au « Future of Humanity Institute ». Il s’agit sans doute de la première fois, dans notre l’histoire, qu’un groupe de personne se réunie pour s’intéresser sérieusement à ce genre de question en se focalisant sur des aspects scientifiques afin d’aller plus loin que juste de la spéculation.

Nous avons tendance à nous focaliser sur des « petits risques ». Pour la bonne raison qu’ils se produisent assez souvent. Accident de voiture, incendie, jambe cassée, etc. Mais selon lui, l’ « importance » d’un risque est le résultat de (sa probabilité à se produire) multiplié par (la magnitude de ses conséquences) :

risques existentiels

Et un risque existentiel possède une magnitude tellement grande que même multipliée par une petite probabilité, le résultat reste largement élevé. En d’autres termes, même s’il y a une probabilité de 1% que l’Humanité disparaisse d’ici la fin du siècle, la magnitude des conséquences est si grande que l' »importance » de ce risque est clairement à prendre en considération. Comparé à, disons, le vol de votre voiture qui a une probabilité bien plus grande, mais peu de conséquences si ce n’est de vous énerver. Du coup, Nick Bostrom pense que les tentatives de réduire ses risques existentiels sont des tâches très importantes, car même si la réduction est de 0.1%, cela pourrait causer une nette différence étant donné que ce petit nombre se multiplie avec une très grande valeur. Le résultat est donc une réduction significative du risque ! C’est une tâche bien plus importante que tenter de guérir le cancer ou stopper la faim dans le monde. Après tout, c’est logique. À quoi bon guérir le cancer demain si l’Humanité cesse d’exister dans 50 ans. D’où l’importance de focaliser les ressources et recherches dans la réduction de ces risques.

Cela semble raisonnable de dire que d’ici les deux ou trois prochaines années, l’Humanité ne va pas disparaître. Mais d’ici la fin du siècle, Nick Bostrom pense qu’il y a de grandes chances pour que l’on développe des technologies capables de profondément changer la face du monde. Cela inclue les nanotechnologies, une Intelligence Artificielle dépassant l’intelligence humaine, la biologie synthétique avancée, l’ingénierie génétique et d’autres technologies dont nous n’avons encore même pas idée. Une autre catégorie de risque qui rentre dans la catégorie « existentielle » englobe ceux qui, non pas causent notre extinction, mais empêchent de façon permanente l’apparition d’un futur viable. Par exemple un scénario où l’on serait bloqué mondialement par une sorte de société totalitaire durable, possédant des technologies avancées de surveillance, contrôle de l’esprit, etc. bridant la Science, les Arts et la liberté de l’Humanité. Ces possibilités sont donc des risques existentiels majeurs pour notre espèce. Il est désormais temps de s’y intéresser au lieu de se focaliser sur les « petits ».

Mais l’étude des risques existentiels n’en est qu’à ses débuts, ce qui implique qu’il y a encore beaucoup d’incertitude quand aux meilleurs moyens de les réduire. Par contre, il y a des actions spécifiques qui peuvent être prises pour en réduire quelques-uns. Par exemple les Astéroïdes. Une action possible est de tenter de cartographier le système solaire à la recherche de géocroiseur pouvant potentiellement entrer en collision avec la Terre dans les prochaines décennies. Et si on en trouve un, on pourrait construire une sorte d’engin pour le dévier. Mais ça reste un risque existentiel mineur est bien connu pour être justement très faible. Un Astéroïde apocalyptique tous les 100 millions à 1 milliard d’années. Par contre, Nick Bostrom pense que les risques existentiels majeurs c’est-à-dire ceux qui ont une probabilité plus grande de se produire (ou pire, ceux dont on ignore la probabilité) viendront de l’Homme et plus particulièrement des futures technologies. Et c’est là où ça devient difficile de savoir quelles actions tangibles adopter dès maintenant. L’exemple qu’il utilise souvent est celui d’une Super Intelligence Artificielle. Quels seront nos moyens de contrôle pour s’assurer que cette entité des millions de fois plus intelligente que toute l’Humanité réunie n’emprunte pas des chemins pouvant mener à notre extinction. C’est aujourd’hui que nous devons y réfléchir pour que lorsque nos descendants auront acquis la technologie permettant de créer ce genre d’IA, le problème du contrôle n’en sera plus un. Et étonnamment, il n’y a, aujourd’hui, que très peu de personnes qui travaillent sur ce sujet alors que de nombreux autres scientifiques s’acharnent ardemment sur le développement des IA. C’est un peu comme si une usine de voiture se focalisait sur tous les aspects, sauf le freinage …

Les risques existentiels ne menacent pas seulement le 21e siècle et les 6-7 générations qui sont à venir, mais bien le futur tout entier, qui est bien plus important que le présent + le passé combiné en terme de nombre de vie. Si nous atteignons la maturité technologique, nous pourrions coloniser la Galaxie et l’Univers. Des trillions de fois plus de vie que tous les Humains réunis depuis nos origines. Donc à partir de ce point de vue cosmique, notre époque est extrêmement précieuse. C’est comparable à une graine et nous devrions porter toute notre attention pour s’assurer que cette graine arrive à germination. Et il faut bien l’avouer, le commun des mortels ne pense pas trop aux risques existentiels, ni même les médias ou les gouvernements. Alors si, bien sûr il y a le changement climatique, les pandémies ou encore les astéroïdes comme mentionnés précédemment. Ces risques sont certes, existentiels, mais ils ne font pas partie des plus « importants » pourtant ils sont quand même mis en avant la plupart du temps. Pourquoi ? Tout simplement, car ils nous touchent directement. Les effets du changement climatique peuvent vous faire perdre votre maison suite à un ouragan et un astéroïde pourrait très bien s’écraser sur votre voiture. Ce sont des risques que nous expérimentons déjà alors que les majeures ne sont, par définition, jamais arrivées (sinon on ne serait pas là pour en parler). Du coup, nous n’avons aucun moyen de les appréhender faute d’expériences passées.

Ces risques existentiels sont des donc des problèmes très compliqués à solutionner et le pire, c’est que nous ne savons même pas combien de temps il nous reste pour en trouver les solutions. Un risque existentiel pourrait se produire dans 20, 50 ou 85 ans, cette date butoir en constant changement complique encore plus le problème. La question est, arrivera-t-on à réduire le risque avant ?

Surtout sachant que nous avons tendance à agir et ensuite réfléchir. Prenons par exemple la recherche de la vie extra-terrestre. Une des choses que nous avons faites c’est envoyer des messages dans le cosmos « Hey on est là, venez nous parler » en assumant que ceux qui détecteraient ces messages seraient des civilisations amicales et non une civilisation qui y verrait un : « Hello on est là, venez nous détruire avant qu’on ne devienne un compétiteur ou une menace ». Rien ne nous renseigne dans un sens où dans l’autre, mais le problème c’est que personne ne semble s’y être intéressé à l’époque. Et maintenant que les messages sont partis, il est impossible de les faire revenir … C’est comme si je me réveillais au milieu d’une jungle inconnue et la première chose que j’y ferais serait de crier pour signaler ma position en espérant trouver de l’aide et non un animal carnivore. Extrêmement naïf.

Donc voilà le niveau de sagesse de l’Humanité aujourd’hui face aux risques existentiels. Espérons juste que nous n’aborderons pas les autres risques avec le même niveau de réflexion ou l’on pourrait le payer très cher !

 

Pour aller plus loin...

.

Cet article a été écrit par :

Gaëtan

Lorsqu’à 10 ans, j’ai vu le film « Matrix » : BOOOM ! Science-fiction + cinéma, voilà le combo qui m’a motivé à faire du storytelling, une part centrale de ma vie. Depuis, je n’ai cessé d’écrire et réaliser des courts métrages en explorant plusieurs formats, genres et approches. Je réalise aujourd’hui que le questionnement sur la nature de la réalité se retrouve dans presque tous mes projets, mais j’ai également la volonté de donner ouvertement à penser. Les questions sont souvent plus importantes que les réponses et je compte bien continuer à en poser plein … surtout concernant l’avenir !!!

0 Commentaires

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

CONTACTEZ NOUS

En cours d’envoi

© 2017 The Flares - Tous les articles et histoires sont sous la licence Creative Commons - Toutes adaptations ou usages commerciaux quelconques sont interdits.

Pourquoi soutenir le collectif The Flares ?

  • Permettre l’essor de nouvelles idées concernant l'avenir.
  • Offrir plus de visibilité à des auteurs et cinéastes de science-fiction.
  • Favoriser une prise de conscience générale sur le monde.
  • Faire partie d'un mouvement engagé.

Souhaitez-vous faire un don au collectif The Flares ?

À quoi servira votre don ?

Votre don servira exclusivement à assurer les coûts nécessaires au fonctionnement de la plateforme.

Remplissez le formulaire ci-dessous pour recevoir le livre gratuitement.

Informations envoyées avec succès :o)

 

Vérifiez votre boîte mail pour récupérer le livre.

Dernière étape : complétez ce formulaire pour rejoindre la communauté.

Consulter la charte d'utilisation des données privées.

Pourquoi soutenir le collectif The Flares ?

  • Permettre l’essor de nouvelles idées concernant l'avenir.
  • Offrir plus de visibilité à des auteurs et cinéastes de science-fiction.
  • Favoriser une prise de conscience générale sur le monde.
  • Faire partie d'un mouvement engagé.

Souhaitez-vous faire un don au collectif The Flares ?

À quoi servira votre don ?

Votre don servira exclusivement à assurer les coûts nécessaires au fonctionnement de la plateforme.

Remplissez le formulaire ci-dessous pour recevoir le livre gratuitement.

Informations envoyées avec succès :o)

 

Vérifiez votre boîte mail pour récupérer le livre.

Dernière étape : complétez ce formulaire pour rejoindre la communauté.

Consulter la charte d'utilisation des données privées.

Pourquoi soutenir le collectif The Flares ?

  • Permettre l’essor de nouvelles idées concernant l'avenir.
  • Offrir plus de visibilité à des auteurs et cinéastes de science-fiction.
  • Favoriser une prise de conscience générale sur le monde.
  • Faire partie d'un mouvement engagé.

Souhaitez-vous faire un don au collectif The Flares ?

À quoi servira votre don ?

Votre don servira exclusivement à assurer les coûts nécessaires au fonctionnement de la plateforme.

Remplissez le formulaire ci-dessous pour recevoir le livre gratuitement.

Informations envoyées avec succès :o)

 

Vérifiez votre boîte mail pour récupérer le livre.

Dernière étape : complétez ce formulaire pour rejoindre la communauté.

Consulter la charte d'utilisation des données privées.

Pourquoi soutenir le collectif The Flares ?

  • Permettre l’essor de nouvelles idées concernant l'avenir.
  • Offrir plus de visibilité à des auteurs et cinéastes de science-fiction.
  • Favoriser une prise de conscience générale sur le monde.
  • Faire partie d'un mouvement engagé.

Souhaitez-vous faire un don au collectif The Flares ?

À quoi servira votre don ?

Votre don servira exclusivement à assurer les coûts nécessaires au fonctionnement de la plateforme.

Remplissez le formulaire ci-dessous pour recevoir le livre gratuitement.

Informations envoyées avec succès :o)

 

Vérifiez votre boîte mail pour récupérer le livre.

Vous connecter avec vos identifiants

Vous avez oublié vos informations ?