Les dangers de l’IA avancée : un risque existentiel ? – avec Joe Carlsmith

épisode 46/52 de la série La prospective
Tout public
AUDIO
Interview / Débat • 70 minutes
Essayez The Flares en illimité : 0€
La prospective
  • épisode 01
  • épisode 02
  • épisode 03
  • épisode 04
  • épisode 05
  • épisode 06
  • épisode 07
  • épisode 08
  • épisode 09
  • épisode 10
  • épisode 11
  • épisode 12
  • épisode 13
  • épisode 14
  • épisode 15
  • épisode 16
  • épisode 17
  • épisode 18
  • épisode 19
  • épisode 20
  • épisode 21
  • épisode 22
  • épisode 23
  • épisode 24
  • épisode 25
  • épisode 26
  • épisode 27
  • épisode 28
  • épisode 29
  • épisode 30
  • épisode 31
  • épisode 32
  • épisode 33
  • épisode 34
  • épisode 35
  • épisode 36
  • épisode 37
  • épisode 38
  • épisode 39
  • épisode 40
  • épisode 41
  • épisode 42
  • épisode 43
  • épisode 44
  • épisode 45
  • épisode 46
  • épisode 47
  • épisode 48
  • épisode 49
  • épisode 50
  • épisode 51
  • épisode 52

Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Joe Carlsmith, philosophe, chercheur et écrivain. Il travaille en tant qu’analyste de recherche à Open Philanthropy où il se concentre sur le risque existentiel de l’intelligence artificielle avancée, le sujet de cet épisode.

Ce podcast est habituellement en français, mais il nous arrive d’inviter des personnes anglophones. C’est le cas pour cet épisode. Il est sous-titré entièrement sur la version vidéo YouTube.

Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture.

Sommaire :

0:00:00 Introduction

0:00:36 Sponsor Farnell
0:00:59 Présentation de l’invité
0:01:36 Réalisme ou anti-réalisme morale
0:06:07 Qu’est-ce qui constitue un système d’IA puissant et agentique ?
0:11:24 Existe-t-il déjà des IA agentiques ?
0:13:20 Pourquoi l’intelligence est-elle si importante pour le futur ?
0:16:48 Pourquoi l’humanité cherche-t-elle à construire des IAG ?
0:19:25 Comment définir une IA mal alignée ?
0:27:50 La recherche de pouvoir des IA est-elle inévitable ?
0:29:37 Pourquoi l’humanité risque-t-elle de perdre le contrôle sur le monde ?
0:36:13 Quelles ont été les critiques du rapport de Joe Carlsmith ?
0:41:03 Est-ce que la situation actuelle ne présage rien de bon ?
0:43:30 Avons-nous besoin d’une catastrophe à petite échelle causée par l’IA ?
0:47:42 Vivons-nous dans le siècle le plus important ?
0:50:01 Qu’est-ce que le longtermisme ?
0:50:55 Pourquoi est-ce si difficile de concevoir une utopie ?
0:56:39 Vivons-nous dans une simulation ?
1:07:11 Quels sont les meilleurs moyens de contribuer à la sureté de l’IA ?

On vous rappelle que pour un meilleur confort, vous pouvez choisir d’écouter le podcast en tâche de fond si vous êtes sur votre ordinateur ou tablette, ou alors de le télécharger directement sur votre téléphone pour pouvoir l’écouter n’importe où. Il suffit de chercher « The Flares » sur iTunes ou Podcast addict (ou autre appli de podcast). Profitez-en pour vous abonner afin de ne pas manquer les prochains podcasts. Vous trouverez également l’autre série de podcast que nous avons lancé en collaboration avec l’association technoprog intitutée : “Humain, Demain”.

Nous enregistrons nos podcasts avec Riverside: Cliquer sur ce lien pour commencer une période d’essai.

Si vous avez des suggestions, des remarques ou des interrogations à propos de cet épisode, vous êtes bien entendu libres de les poster en commentaires juste en dessous. On vous souhaite une bonne écoute.

Rate this post
[contenus_similaires]

Qui est derrière ce contenu ?
  • Production
  • Realisation
  • Animateurs
Rate this post