Artwork

Контент предоставлен AI Denmark. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией AI Denmark или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

XRAI – hjælp til planlægning og evaluering af AI-systemer

39:18
 
Поделиться
 

Manage episode 408052209 series 3366058
Контент предоставлен AI Denmark. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией AI Denmark или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

Der er næppe tvivl om at brugen af kunstig intelligens bringer mange problemer med sig. Det som virker smart på whiteboardet kan hurtigt blive ramt af både tekniske, juridiske og etiske bomber under systemet.

Der bliver talt meget om hvordan vi skal gøre AI mere gennemskueligt, og hvordan vi skal sikre os at de svar algoritmerne giver er korrekte. Og det er ambitioner som det er svært at være uenige med.

Men hvordan kan man vurdere AI-løsningerne, og forsøge at sikre sig, at de så godt som muligt overholder både etiske principper og gældende lovgivning?

Det er spørgsmålet som Per Rådberg Nagbøl fra ITU har forsøgt at besvare med værktøjet XRAI, som er udviklet i samarbejde med Erhvervsstyrelsen

XRAI opdeler udvikling, evaluering og tilpasning af AI-systemer i fire faser, med masser af tjeklister og kontrolpunkter – i håbet om at kunne hjælpe både offentlige institutioner og private virksomheder, der arbejder med AI.

Derudover er der også AI Siden Sidst – med historier om både industrispionage, AI Act og nye Nvidia-chips.

Lyt med 🤖

LINKS

NYHEDER

EMNE

  continue reading

60 эпизодов

Artwork
iconПоделиться
 
Manage episode 408052209 series 3366058
Контент предоставлен AI Denmark. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией AI Denmark или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

Der er næppe tvivl om at brugen af kunstig intelligens bringer mange problemer med sig. Det som virker smart på whiteboardet kan hurtigt blive ramt af både tekniske, juridiske og etiske bomber under systemet.

Der bliver talt meget om hvordan vi skal gøre AI mere gennemskueligt, og hvordan vi skal sikre os at de svar algoritmerne giver er korrekte. Og det er ambitioner som det er svært at være uenige med.

Men hvordan kan man vurdere AI-løsningerne, og forsøge at sikre sig, at de så godt som muligt overholder både etiske principper og gældende lovgivning?

Det er spørgsmålet som Per Rådberg Nagbøl fra ITU har forsøgt at besvare med værktøjet XRAI, som er udviklet i samarbejde med Erhvervsstyrelsen

XRAI opdeler udvikling, evaluering og tilpasning af AI-systemer i fire faser, med masser af tjeklister og kontrolpunkter – i håbet om at kunne hjælpe både offentlige institutioner og private virksomheder, der arbejder med AI.

Derudover er der også AI Siden Sidst – med historier om både industrispionage, AI Act og nye Nvidia-chips.

Lyt med 🤖

LINKS

NYHEDER

EMNE

  continue reading

60 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство