Artwork

Контент предоставлен The Flares - Podcasts and The Flares. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией The Flares - Podcasts and The Flares или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

#39 - Alignement et risques catastrophiques liés à l’I.A. – avec Jérémy Perret | The Flares

2:12:20
 
Поделиться
 

Manage episode 346846812 series 2785757
Контент предоставлен The Flares - Podcasts and The Flares. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией The Flares - Podcasts and The Flares или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
  continue reading

98 эпизодов

Artwork
iconПоделиться
 
Manage episode 346846812 series 2785757
Контент предоставлен The Flares - Podcasts and The Flares. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией The Flares - Podcasts and The Flares или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
  continue reading

98 эпизодов

ทุกตอน

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство