Artwork

Контент предоставлен Crooked Media. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Crooked Media или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

Do You See What I See? Building AI for All of Us

46:28
 
Поделиться
 

Manage episode 457539215 series 3589614
Контент предоставлен Crooked Media. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Crooked Media или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

In the face of unbridled AI development and incoming President Trump’s close advisors who happen to be big investors in AI, it’s more important than ever to raise the alarm about areas of concern. Stacey Abrams speaks to Joy Buolamwini, the AI researcher and artist who brought to national attention the way bias is coded into artificial intelligence, particularly in facial recognition technology – what Buolamwini coined the “coded gaze.” They discuss what we should know about the pitfalls and potentials of AI today, and Buolamwini invites listeners to join the ongoing mission of the Algorithmic Justice League to raise awareness about the impact of AI and how we can all contribute to a more equitable use of the technology.

For a closed-captioned version of this episode, click here. For a transcript of this episode, please email transcripts@crooked.com and include the name of the podcast.

We want to hear your questions. Send us an email at assemblyrequired@crooked.com or leave us a voicemail at 213-293-9509. You and your question might be featured on the show.

Learn & Do More:

  continue reading

22 эпизодов

Artwork
iconПоделиться
 
Manage episode 457539215 series 3589614
Контент предоставлен Crooked Media. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Crooked Media или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

In the face of unbridled AI development and incoming President Trump’s close advisors who happen to be big investors in AI, it’s more important than ever to raise the alarm about areas of concern. Stacey Abrams speaks to Joy Buolamwini, the AI researcher and artist who brought to national attention the way bias is coded into artificial intelligence, particularly in facial recognition technology – what Buolamwini coined the “coded gaze.” They discuss what we should know about the pitfalls and potentials of AI today, and Buolamwini invites listeners to join the ongoing mission of the Algorithmic Justice League to raise awareness about the impact of AI and how we can all contribute to a more equitable use of the technology.

For a closed-captioned version of this episode, click here. For a transcript of this episode, please email transcripts@crooked.com and include the name of the podcast.

We want to hear your questions. Send us an email at assemblyrequired@crooked.com or leave us a voicemail at 213-293-9509. You and your question might be featured on the show.

Learn & Do More:

  continue reading

22 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство

Слушайте это шоу, пока исследуете
Прослушать