Artwork

Контент предоставлен Current Affairs. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Current Affairs или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

What Harms Will AI Cause and What Can We Do About Them? (w/ Garrison Lovely)

41:14
 
Поделиться
 

Manage episode 462524305 series 2306864
Контент предоставлен Current Affairs. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Current Affairs или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

This episode originally aired on November 18, 2024. Get new episodes early at patreon.com/CurrentAffairs!

Garrison Lovely wrote the cover story for Jacobin magazine's special issue on AI, which explained how leftists should think about the risks posed by the new technologies. He also recently wrote for the New York Times about AI safety, and has written for Current Affairs about psychedelic drugs and McKinsey. Garrison joins today to discuss what the real harms that AI could do are, why Big Tech can't be trusted to self-regulate, and how we can avoid a nightmarish future.

Listeners might also be interested in Nathan's recent article on the California legislation.

The United States’ current arrangement of managing A.I. risks through voluntary commitments places enormous trust in the companies developing this potentially dangerous technology. Unfortunately, the industryingeneral — and OpenAI in particular — has shown itself to be unworthy of that trust, time and again. — Garrison Lovely, The New York Times

  continue reading

546 эпизодов

Artwork
iconПоделиться
 
Manage episode 462524305 series 2306864
Контент предоставлен Current Affairs. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Current Affairs или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

This episode originally aired on November 18, 2024. Get new episodes early at patreon.com/CurrentAffairs!

Garrison Lovely wrote the cover story for Jacobin magazine's special issue on AI, which explained how leftists should think about the risks posed by the new technologies. He also recently wrote for the New York Times about AI safety, and has written for Current Affairs about psychedelic drugs and McKinsey. Garrison joins today to discuss what the real harms that AI could do are, why Big Tech can't be trusted to self-regulate, and how we can avoid a nightmarish future.

Listeners might also be interested in Nathan's recent article on the California legislation.

The United States’ current arrangement of managing A.I. risks through voluntary commitments places enormous trust in the companies developing this potentially dangerous technology. Unfortunately, the industryingeneral — and OpenAI in particular — has shown itself to be unworthy of that trust, time and again. — Garrison Lovely, The New York Times

  continue reading

546 эпизодов

All episodes

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство

Слушайте это шоу, пока исследуете
Прослушать