Artwork

Контент предоставлен Scott Logic. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Scott Logic или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

Will we ever be able to secure GenAI?

35:21
 
Поделиться
 

Manage episode 427835266 series 3322243
Контент предоставлен Scott Logic. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Scott Logic или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

In this episode, Oliver Cronk, Doro Hinrichs and Kira Clark from Scott Logic are joined by Peter Gostev, Head of AI at Moonpig. Together, they explore whether we can ever really trust and secure Generative AI (GenAI), while sharing stories from the front line about getting to grips with this rapidly evolving technology.

With its human-like, non-deterministic nature, GenAI frustrates traditional pass/fail approaches to software testing. The panellists explore ways to tackle this, and discuss Scott Logic’s Spy Logic project which helps development teams investigate defensive measures against prompt injection attacks on a Large Language Model.

Looking to the future, they ask whether risk mitigation measures will ever be effective – and what impact this will have on product and service design – before offering pragmatic advice on what organisations can do to navigate this terrain.

Links from this episode

  continue reading

22 эпизодов

Artwork

Will we ever be able to secure GenAI?

Beyond the Hype

11 subscribers

published

iconПоделиться
 
Manage episode 427835266 series 3322243
Контент предоставлен Scott Logic. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией Scott Logic или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

In this episode, Oliver Cronk, Doro Hinrichs and Kira Clark from Scott Logic are joined by Peter Gostev, Head of AI at Moonpig. Together, they explore whether we can ever really trust and secure Generative AI (GenAI), while sharing stories from the front line about getting to grips with this rapidly evolving technology.

With its human-like, non-deterministic nature, GenAI frustrates traditional pass/fail approaches to software testing. The panellists explore ways to tackle this, and discuss Scott Logic’s Spy Logic project which helps development teams investigate defensive measures against prompt injection attacks on a Large Language Model.

Looking to the future, they ask whether risk mitigation measures will ever be effective – and what impact this will have on product and service design – before offering pragmatic advice on what organisations can do to navigate this terrain.

Links from this episode

  continue reading

22 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство