Sûreté de l’IA, e/acc, Super IA et Transhumanisme avec Jéremy Perret
Partie 2/3 de la série alignement- Partie 01
- Partie 02
- Partie 03
Dans cet épisode de Humain, Demain, nous accueillons Jérémy Perret qui travaille dans la sûreté et gouvernance de l’intelligence artificielle. On explore l’intersection critique entre le transhumanisme et l’intelligence artificielle (IA), en se concentrant sur les enjeux de sûreté, de gouvernance et d’alignement. Comment l’IA peut servir les aspirations transhumanistes d’amélioration humaine, tout en soulignant les risques existentiels potentiels. La discussion aborde les défis liés à l’alignement des objectifs de l’IA avec les valeurs humaines, et les mesures nécessaires pour assurer une utilisation responsable et sûre de cette technologie transformatrice, ainsi que l’histoire du Transhumanisme et des réflexions sur la super intelligence de Nick Bostrom, Eliezer Yudkowsky en passant par les extropiens et e/acc.
Shaïman Thürler (le Futurologue), membre de l’AFT, va m’accompagner en tant que co-animateur.
La série de podcast “Humain, Demain” est en collaboration avec l’AFT, l’association française transhumaniste. Notre but est d’explorer l’avenir technologique de l’humain. Pour chaque épisode, je vais recevoir des chercheurs, scientifiques, philosophes, politiciens ou encore artistes, ainsi qu’un membre de l’AFT ou un de leurs collaborateurs en tant que co-animateur.
On vous rappelle que pour un meilleur confort, vous pouvez choisir d’écouter le podcast en tâche de fond si vous êtes sur votre ordinateur ou tablette, ou alors de le télécharger directement sur votre téléphone pour pouvoir l’écouter n’importe où. Il suffit de chercher « The Flares » sur votre appli de podcast préférée. Profitez-en pour vous abonner afin de ne pas manquer les prochains podcasts.
Sommaire :
0:00:00 Retour sur le sommet sur l’IA à Paris
0:05:16 Le lien entre transhumanisme et IA
0:10:20 Sécurité de l’IA et transhumanisme
0:15:56 Les transhumanistes face au ralentissement et à la régulation de l’IA
0:22:21 Les Super IA comme espèce successeur : Une bonne chose ?
0:29:22 Les fondateurs de la sécurité de l’IA
0:35:47 Les transhumanistes sont-ils à l’origine de la recherche en risques existentiels ?
0:37:44 Y a-t-il des transhumanistes à la tête de l’industrie de l’IA ?
0:42:10 Le mouvement e/acc
0:55:46 Y a-t-il un schisme dans le mouvement transhumaniste ?
0:59:58 Qu’est-ce que « TESCREAL » ?
1:09:58 La position d’Eliezer Yudkowsky est-elle défaitiste ?
1:21:09 Augmentation de l’intelligence humaine face à l’IA
1:36:10 Parallèle historique avec le début du 20e siècle
Nous enregistrons nos podcasts avec Riverside: Cliquer sur ce lien pour commencer une période d’essai.
Si vous avez des remarques ou des interrogations à propos de cet épisode, vous êtes bien entendu libres de les poster en commentaires juste en dessous.
On vous souhaite une bonne écoute.