Super intelligence artificielle : quel monde après la singularité ? – avec Stuart Armstrong

épisode 28/52 de la série La prospective
Tout public
AUDIO
Interview / Débat • 90 minutes
Essayez The Flares en illimité : 0€
La prospective
  • épisode 01
  • épisode 02
  • épisode 03
  • épisode 04
  • épisode 05
  • épisode 06
  • épisode 07
  • épisode 08
  • épisode 09
  • épisode 10
  • épisode 11
  • épisode 12
  • épisode 13
  • épisode 14
  • épisode 15
  • épisode 16
  • épisode 17
  • épisode 18
  • épisode 19
  • épisode 20
  • épisode 21
  • épisode 22
  • épisode 23
  • épisode 24
  • épisode 25
  • épisode 26
  • épisode 27
  • épisode 28
  • épisode 29
  • épisode 30
  • épisode 31
  • épisode 32
  • épisode 33
  • épisode 34
  • épisode 35
  • épisode 36
  • épisode 37
  • épisode 38
  • épisode 39
  • épisode 40
  • épisode 41
  • épisode 42
  • épisode 43
  • épisode 44
  • épisode 45
  • épisode 46
  • épisode 47
  • épisode 48
  • épisode 49
  • épisode 50
  • épisode 51
  • épisode 52

Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Stuart Armstrong, chercheur au Future of Humanity Institute de l’université d’Oxford. Nous allons parler du futur de l’intelligence artificielle, ses potentiels et dangers, les risques existentiels, le paradoxe de Fermi et comment réfléchir au lointain futur de l’humanité.

Les recherches de Stuart Armstrong au Future of Humanity Institute se concentrent sur la sécurité et les possibilités de l’intelligence artificielle (IA) et le potentiel à long terme pour une vie intelligente à travers l’univers accessible. Mais aussi les risques existentiels en général, y compris leur probabilité et leurs interactions, la probabilité anthropique, les théories de décision.

Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture.

Sommaire :

0:01:15 Présentation de Stuart Armstrong
0:01:51 Quelques mots sur le Future of Humanity Institute
0:03:49 Qu’est ce que AGI (IAG) et super IA ?
0:06:31 Quel impact pour le monde si nous réussissons à développer une IA générale ?
0:09:47 Quelle approche semble etre la plus prometteuse pour développer une IAG ?
0:12:58 Une fois que nous avons conçu une IAG, il peut y avoir un décollage lent ou rapide vers une IA bien supérieure à l’humanité. Qu’est ce qui est le plus probable ?
0:18:21 Qu’est ce qu’une super IA pourrait faire concrètement ? Notamment dans le monde physique et pourquoi ça représente un risque existentiel ?
0:22:10 Quelles sont les pistes pour résoudre le problème du contrôle et l’alignement des valeurs ?
0:32:07 Est ce que les politiciens prennent au sérieux les enjeux de l’IA ?
0:34:02 Quels sont les points positifs d’une super IA alignée ?
0:38:56 Est ce qu’une IA pourrait devenir consciente ?
0:44:16 Comment envisager la transition de la civilisation vers un monde viable en termes de notre rapport avec l’environnement ?
0:47:01 Quels sont les risques existentiels les plus sérieux ?
0:52:30 La situation actuelle concernant les armes nucléaires est-elle intenable sur le long terme ?
0:56:15 Sommes nous dans le siècle le plus important de l’histoire humaine ?
1:00:47 Les reflexions sur le paradoxe de Fermi
1:09:58 Quelle méthodologie peut-on appliquer pour réfléchir au lointain futur de l’humanité sans être complètement dépassé par l’incertitude ?
1:15:01 Est-il vraiment pertinent de remplir l’univers avec des milliards de milliards d’êtres conscients “heureux mais sans plus” ?
1:17:55 La philosophie transhumaniste est-elle désirable pour le futur de notre espèce ?
1:20:34 Sommes- nous destiné à devenir des êtres post-biologiques ?
1:24:16 Est ce que vous croyez en une certaine forme de déterminisme technologique ?
1:26:28 Quelle probabilité accorder au fait que nous sommes dans une simulation ?

On vous rappelle que pour un meilleur confort, vous pouvez choisir d’écouter le podcast en tâche de fond si vous êtes sur votre ordinateur ou tablette, ou alors de le télécharger directement sur votre téléphone pour pouvoir l’écouter n’importe où. Il suffit de chercher « The Flares » sur iTunes ou Podcast addict (ou autre appli de podcast). Profitez-en pour vous abonnez afin de ne pas manquerez les prochains podcasts. Vous trouverez également l’autre série de podcast que nous avons lancé en collaboration avec l’association technoprog intitutée : “Humain, Demain”.

Si vous avez des suggestions, des remarques ou des interrogations à propos de cet épisode, vous êtes bien entendu libres de les poster en commentaires juste en dessous. On vous souhaite une bonne écoute.

Rate this post
[contenus_similaires]

Qui est derrière ce contenu ?
  • Production
  • Realisation
  • Animateurs
Rate this post