L’IA va tous nous tuer ! – avec Liron Shapira

épisode 57/57 de la série La prospective
Tout public
AUDIO
Interview / Débat • 90 minutes
Essayez The Flares en illimité : 0€
La prospective
  • épisode 01
  • épisode 02
  • épisode 03
  • épisode 04
  • épisode 05
  • épisode 06
  • épisode 07
  • épisode 08
  • épisode 09
  • épisode 10
  • épisode 11
  • épisode 12
  • épisode 13
  • épisode 14
  • épisode 15
  • épisode 16
  • épisode 17
  • épisode 18
  • épisode 19
  • épisode 20
  • épisode 21
  • épisode 22
  • épisode 23
  • épisode 24
  • épisode 25
  • épisode 26
  • épisode 27
  • épisode 28
  • épisode 29
  • épisode 30
  • épisode 31
  • épisode 32
  • épisode 33
  • épisode 34
  • épisode 35
  • épisode 36
  • épisode 37
  • épisode 38
  • épisode 39
  • épisode 40
  • épisode 41
  • épisode 42
  • épisode 43
  • épisode 44
  • épisode 45
  • épisode 46
  • épisode 47
  • épisode 48
  • épisode 49
  • épisode 50
  • épisode 51
  • épisode 52
  • épisode 53
  • épisode 54
  • épisode 55
  • épisode 56
  • épisode 57

Dans cet épisode captivant, nous recevons Liron Shapira, entrepreneur américain basé en Californie et fervent adepte du mouvement rationaliste. Lecteur assidu de LessWrong et des écrits d’Eliezer Yudkowsky, Liron est également le créateur du podcast Doom Debates, où il explore, commente et débat des risques existentiels posés par l’avènement d’une superintelligence artificielle. Sa perspective, ancrée dans le raisonnement bayésien, attribue une probabilité de 50 % à ce que l’IA provoque l’extinction de l’humanité d’ici 2040.

L’épisode est en anglais sous titré français.

On vous rappelle que pour un meilleur confort, vous pouvez choisir d’écouter le podcast en tâche de fond si vous êtes sur votre ordinateur ou tablette, ou alors de le télécharger directement sur votre téléphone pour pouvoir l’écouter n’importe où. Il suffit de chercher « The Flares » sur votre appli de podcast préférée. Profitez-en pour vous abonner afin de ne pas manquer les prochains podcasts.

Sommaire :
0:00:02 Introduction de l’invité
0:01:41 Altruisme Efficace et Transhumanisme
0:05:38 Epistemologie Baysienne et probabilité d’extinction
0:09:26 Définition d’intelligence et ses dangers
0:12:33 L’argument principal de l’apocalypse de l’IA
0:18:51 Alignement interne de l’IA
0:24:56 Quel sera réellement l’objectif de l’IA ?
0:26:50 Le train de l’apocalypse
0:31:05 Parmi les intellectuelles, qui rejette les arguments de l’apocalypse de l’IA ?
0:38:32 Le meme du Shoggoth
0:41:26 Scénarios possibles menant à l’extinction
0:50:01 La seule solution : Une pause dans la recherche en IA ?
0:59:15 Le risque de violence par des fondamentalistes des risques de l’IA
1:01:18 A quoi ressemblera une IA Générale ?
1:05:43 Les oeuvres de science fiction sur l’IA
1:09:21 Le rationel de la cryonie
1:12:55 A quoi ressemble un avenir positif ?
1:15:52 Vivons-nous dans une simulation ?
1:18:11 Monde multiple dans l’interprétation de la mécanique quantique
1:20:25 Futur invité idéal du podcast Doom Debates

 

Nous enregistrons nos podcasts avec Riverside: Cliquer sur ce lien pour commencer une période d’essai.

Si vous avez des remarques ou des interrogations à propos de cet épisode, vous êtes bien entendu libres de les poster en commentaires juste en dessous.

On vous souhaite une bonne écoute.

Qui est derrière ce contenu ?
  • Production
  • Realisation
  • Animateurs