Artwork

Контент предоставлен Gus Docker and Future of Life Institute. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Gus Docker and Future of Life Institute или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

David Dalrymple on Safeguarded, Transformative AI

1:40:06
 
Поделиться
 

Manage episode 460215694 series 1334308
Контент предоставлен Gus Docker and Future of Life Institute. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Gus Docker and Future of Life Institute или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

David "davidad" Dalrymple joins the podcast to explore Safeguarded AI — an approach to ensuring the safety of highly advanced AI systems. We discuss the structure and layers of Safeguarded AI, how to formalize more aspects of the world, and how to build safety into computer hardware.

You can learn more about David's work at ARIA here:

https://www.aria.org.uk/opportunity-spaces/mathematics-for-safe-ai/safeguarded-ai/

Timestamps:

00:00 What is Safeguarded AI?

16:28 Implementing Safeguarded AI

22:58 Can we trust Safeguarded AIs?

31:00 Formalizing more of the world

37:34 The performance cost of verified AI

47:58 Changing attitudes towards AI

52:39 Flexible Hardware-Enabled Guarantees

01:24:15 Mind uploading

01:36:14 Lessons from David's early life

  continue reading

222 эпизодов

Artwork
iconПоделиться
 
Manage episode 460215694 series 1334308
Контент предоставлен Gus Docker and Future of Life Institute. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Gus Docker and Future of Life Institute или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

David "davidad" Dalrymple joins the podcast to explore Safeguarded AI — an approach to ensuring the safety of highly advanced AI systems. We discuss the structure and layers of Safeguarded AI, how to formalize more aspects of the world, and how to build safety into computer hardware.

You can learn more about David's work at ARIA here:

https://www.aria.org.uk/opportunity-spaces/mathematics-for-safe-ai/safeguarded-ai/

Timestamps:

00:00 What is Safeguarded AI?

16:28 Implementing Safeguarded AI

22:58 Can we trust Safeguarded AIs?

31:00 Formalizing more of the world

37:34 The performance cost of verified AI

47:58 Changing attitudes towards AI

52:39 Flexible Hardware-Enabled Guarantees

01:24:15 Mind uploading

01:36:14 Lessons from David's early life

  continue reading

222 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство

Слушайте это шоу, пока исследуете
Прослушать