Les dangers de l’IA – avec Siméon Campos (SaferAI)
Partie 1/3 de la série alignement ia- Partie 01
- Partie 02
- Partie 03
Bienvenue dans ce nouvel épisode du podcast « la prospective » de The Flares, ici Gaëtan. Dans cet épisode, je reçois Siméon Campos qui a fondé SaferAI, une organisation d’audit d’IA focalisé sur les General Purpose AI Systems, c’est-à-dire les modèles les plus compétents et généraux. Cette organisation souhaite ainsi s’assurer que l’effet transformatif des IAs dans les années à venir sera bénéfique. Dans le passé, Siméon a suivi un curriculum généraliste (Prépa B/L, avec des maths et des SHS) puis a étudié l’économie à l’ENS Lyon. Il a appliqué ses connaissances à des questions comme le changement climatique et les pandémies en recherche avant de devenir convaincu que l’IA était un problème encore plus important et urgent que ceux-ci, et par conséquent d’y dédier une fraction conséquente de son temps.
En dehors de l’IA, il aime écouter, écrire et jouer de la musique, aime beaucoup réfléchir aux politiques publiques et comment mieux designer des systèmes politiques.
Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture.
Sommaire :
0:00:00 Introduction
0:01:42 Présentation de Simeon Campos
0:02:33 Différence entre I.A. Générale, I.A. transformative et power seeking I.A.
0:05:48 Comment définir l’intelligence ?
0:07:38 Chemins qui mènent aux I.A. générale ?
0:15:44 Une I.A. pourra-t-elle être capable d’intuition scientifique comme Einstein découvrant la relativité ?
0:20:24 Les prochaines étapes superhumaines que les I.A. pourraient franchir
0:24:40 Conversation avec une I.A. indiscernable qu’avec un humain
0:25:50 L’arrivée de GPT-4
0:30:25 Quand peut-on s’attendre à voir des I.A. générale ou power seeking ?
0:35:23 Qu’est-ce qui pourrait ralentir ou arrêter le développement des I.A. ?
0:41:39 Le concept de singularité est-il utile ?
0:46:57 Le point d’inflexion de l’apprentissage
0:49:31 En quoi les power seeking A.I. sont-elles dangereuses pour l’humanité ?
0:58:03 Pourquoi les I.A. seront mal-alignées par défaut ?
1:05:18 Conseils pour les personnes souhaitant contribuer au domaine
1:07:22 L’impact de la croyance aux risques de l’I.A. dans la vie de tous les jours
On vous rappelle que pour un meilleur confort, vous pouvez choisir d’écouter le podcast en tâche de fond si vous êtes sur votre ordinateur ou tablette, ou alors de le télécharger directement sur votre téléphone pour pouvoir l’écouter n’importe où. Il suffit de chercher « The Flares » sur iTunes ou Podcast addict (ou autre appli de podcast). Profitez-en pour vous abonner afin de ne pas manquer les prochains podcasts. Vous trouverez également l’autre série de podcast que nous avons lancé en collaboration avec l’association technoprog intitutée : « Humain, Demain ».
Nous enregistrons nos podcasts avec Riverside: Cliquer sur ce lien pour commencer une période d’essai.
Si vous avez des suggestions, des remarques ou des interrogations à propos de cet épisode, vous êtes bien entendu libres de les poster en commentaires juste en dessous. On vous souhaite une bonne écoute.