Artwork

Контент предоставлен Mark Latimer. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Mark Latimer или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

AI Chronicles: Learning from Mistakes, Advancing Responsibly

11:25
 
Поделиться
 

Manage episode 389234156 series 3537258
Контент предоставлен Mark Latimer. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Mark Latimer или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

00:01: Intro

01:21: Microsoft's Tay: Mimicking negativity

03:02: Uber's fatality: Safety concerns

05:00: Amazon's bias: Gender discrimination

06:24: Google misclassifies: Algorithmic bias

08:28: IBM Watson criticized: Contradicting guidelines

09:55: Facial recognition misidentifies: Bias concerns

11:23: Tesla's Autopilot incidents: Safety questions

12:53: OpenAI's GPT-3 and Tay: Ethical challenges

14:20: Lessons learned: Transparency, accountability, improvement

15:32: Open dialogue: AI failures, ethical practices

16:29: Closing gratitude

  continue reading

22 эпизодов

Artwork
iconПоделиться
 
Manage episode 389234156 series 3537258
Контент предоставлен Mark Latimer. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Mark Latimer или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

00:01: Intro

01:21: Microsoft's Tay: Mimicking negativity

03:02: Uber's fatality: Safety concerns

05:00: Amazon's bias: Gender discrimination

06:24: Google misclassifies: Algorithmic bias

08:28: IBM Watson criticized: Contradicting guidelines

09:55: Facial recognition misidentifies: Bias concerns

11:23: Tesla's Autopilot incidents: Safety questions

12:53: OpenAI's GPT-3 and Tay: Ethical challenges

14:20: Lessons learned: Transparency, accountability, improvement

15:32: Open dialogue: AI failures, ethical practices

16:29: Closing gratitude

  continue reading

22 эпизодов

Alle afleveringen

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство