Artwork

Контент предоставлен TED. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией TED или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

Wie man menschliche Vorurteile von der künstlichen Intelligenz fernhält | Kriti Sharma

12:10
 
Поделиться
 

Manage episode 273186068 series 125927
Контент предоставлен TED. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией TED или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Algorithmen der künstlichen Intelligenz treffen ständig wichtige Entscheidungen über Sie -- zum Beispiel wie viel Sie für eine Autoversicherung zahlen sollten oder ob Sie wohl zu dem Job-Interview eingeladen werden. Aber was passiert, wenn diese Maschinen menschliche Vorurteile in ihrem System kodiert haben? Die Technologin Kriti Sharma untersucht, wie das Fehlen von Diversität in der Technologie sich in unsere künstliche Intelligenz schleicht und gibt drei Vorschläge, wie wir anfangen können ethische Algorithmen zu entwerfen.
  continue reading

67 эпизодов

Artwork
iconПоделиться
 
Manage episode 273186068 series 125927
Контент предоставлен TED. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией TED или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Algorithmen der künstlichen Intelligenz treffen ständig wichtige Entscheidungen über Sie -- zum Beispiel wie viel Sie für eine Autoversicherung zahlen sollten oder ob Sie wohl zu dem Job-Interview eingeladen werden. Aber was passiert, wenn diese Maschinen menschliche Vorurteile in ihrem System kodiert haben? Die Technologin Kriti Sharma untersucht, wie das Fehlen von Diversität in der Technologie sich in unsere künstliche Intelligenz schleicht und gibt drei Vorschläge, wie wir anfangen können ethische Algorithmen zu entwerfen.
  continue reading

67 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство