Artwork

Контент предоставлен LSE Film and Audio Team, London School of Economics, and Political Science. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией LSE Film and Audio Team, London School of Economics, and Political Science или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

Artificial Intelligence and Democracy

1:20:14
 
Поделиться
 

Manage episode 337452127 series 3381298
Контент предоставлен LSE Film and Audio Team, London School of Economics, and Political Science. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией LSE Film and Audio Team, London School of Economics, and Political Science или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Contributor(s): Dr Annette Zimmermann, Dr Zeynep Pamuk, Professor Jocelyn Maclure, Dr Etienne Brown | Public administrations increasingly use AI to automatise the allocation of public services. Judges use risk-assessment algorithms to determine a person’s eligibility for bail or parole. Social media platforms use AI to optimise content moderation, while political actors can use these platforms to engage in microtargeting and misinformation. And law enforcement agencies can use facial recognition systems and predictive analytics to strengthen surveillance. This new reality requires careful examination: Who should be responsible for selecting principles of AI governance? How can we align the decisions of AI systems with democratic values? Are “black box” algorithms undermining transparency and our capacity to exercise scrutiny over public decisions? Panellists reflect on these and related questions and engage with the audience.
  continue reading

187 эпизодов

Artwork
iconПоделиться
 
Manage episode 337452127 series 3381298
Контент предоставлен LSE Film and Audio Team, London School of Economics, and Political Science. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией LSE Film and Audio Team, London School of Economics, and Political Science или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Contributor(s): Dr Annette Zimmermann, Dr Zeynep Pamuk, Professor Jocelyn Maclure, Dr Etienne Brown | Public administrations increasingly use AI to automatise the allocation of public services. Judges use risk-assessment algorithms to determine a person’s eligibility for bail or parole. Social media platforms use AI to optimise content moderation, while political actors can use these platforms to engage in microtargeting and misinformation. And law enforcement agencies can use facial recognition systems and predictive analytics to strengthen surveillance. This new reality requires careful examination: Who should be responsible for selecting principles of AI governance? How can we align the decisions of AI systems with democratic values? Are “black box” algorithms undermining transparency and our capacity to exercise scrutiny over public decisions? Panellists reflect on these and related questions and engage with the audience.
  continue reading

187 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство