Artwork

Контент предоставлен Safe Mode Podcast. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Safe Mode Podcast или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

Josh Harguess on AI red-teaming; an Israeli info op targets the U.S.

36:46
 
Поделиться
 

Manage episode 422285627 series 3499462
Контент предоставлен Safe Mode Podcast. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Safe Mode Podcast или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
To address AI risks, policymakers and technologists around the world have embraced the concept of AI red-teaming — the adversarial testing of AI models. But AI red-teaming is such a new concept that few people know how to conduct such tests. The discipline of AI red-teaming very much remains under development, but as AI systems are rolled out far and wide, this discipline is only going to become more important to make sure that AI tools work as intended. On this episode of Safe Mode, host Elias Groll sits down with Josh Harguess, the AI security chief at Cranium AI who is one of the few bona fide experts in the field, to dive deep on how to carry out AI red-teaming. CyberScoop reporter Derek Johnson also joins the show to discuss an Israeli information operation targeting audiences in the United States and Canada.
  continue reading

69 эпизодов

Artwork
iconПоделиться
 
Manage episode 422285627 series 3499462
Контент предоставлен Safe Mode Podcast. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Safe Mode Podcast или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
To address AI risks, policymakers and technologists around the world have embraced the concept of AI red-teaming — the adversarial testing of AI models. But AI red-teaming is such a new concept that few people know how to conduct such tests. The discipline of AI red-teaming very much remains under development, but as AI systems are rolled out far and wide, this discipline is only going to become more important to make sure that AI tools work as intended. On this episode of Safe Mode, host Elias Groll sits down with Josh Harguess, the AI security chief at Cranium AI who is one of the few bona fide experts in the field, to dive deep on how to carry out AI red-teaming. CyberScoop reporter Derek Johnson also joins the show to discuss an Israeli information operation targeting audiences in the United States and Canada.
  continue reading

69 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство

Слушайте это шоу, пока исследуете
Прослушать