Artwork

Контент предоставлен Redaktion "Datenschutz PRAXIS". Весь контент подкастов, включая выпуски, графику и описания подкастов, загружается и предоставляется непосредственно Redaktion "Datenschutz PRAXIS" или его партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

Datenrisiken bei KI | Podcast Folge 47

33:18
 
Поделиться
 

Manage episode 390278562 series 2535380
Контент предоставлен Redaktion "Datenschutz PRAXIS". Весь контент подкастов, включая выпуски, графику и описания подкастов, загружается и предоставляется непосредственно Redaktion "Datenschutz PRAXIS" или его партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Im Gespräch mit Prof. Kelber

KI und Datenschutz

Die Datenschutzkonferenz (DSK) hat schon mehrfach auf die besonderen Risiken durch den KI-Einsatz hingewiesen, zum Beispiel in der Hambacher Erklärung und dem zugehörigen Positionspapier.

Dort sagen die Aufsichtsbehörden beispielsweise: Damit die Risiken für die Rechte und Freiheiten der von KI-Verfahren betroffenen natürlichen Personen identifiziert werden können, ist es erforderlich zu unterscheiden, welche Art von Unterstützung die KI-Systeme liefern sollen. Dies erfordert eine spezielle Art der Risikodefinitionen von KI-Systemen. So sind die Risiken von KI-Systemen, die bspw. lediglich Kaufempfehlungen zu einzelnen Produkten liefern sollen, anders zu bewerten als die Risiken von KI-Systemen, die etwa Entscheidungen im Bereich des autonomen Fahrens treffen.

Diese Fragen haben wir Prof. Kelber gestellt:

• Sie hatten das Gesetz zum Einsatz automatisierter Systeme bei der FIU 

(Zentralstelle für Finanztransaktionsuntersuchungen) kritisiert. Wir würden dies gerne als Beispiel nehmen, um über Risiken für den Datenschutz durch KI zu sprechen. Kommen wir zuerst zu dem konkreten Fall: Was war hier Ihre Kritik?

• Wie spielen hier die DSGVO und der AI Act der EU zusammen? • Gibt es andere Planungen für den Einsatz selbstlernender Systeme / von 

KI, die Sie geprüft haben oder prüfen?

• Wie geht man bei einer solchen Prüfung vor? Viele sorgen sich ja, dass 

sich KI wie eine Blackbox nicht so ohne weiteres prüfen lässt. Welche Empfehlungen haben Sie für eine DSFA?

• Sie erklärten: "Der Einsatz selbstlernender Systeme erhöht die 

Eingriffsintensität zusätzlich und sollte nur unter besonderen Schutzvorkehrungen in Betracht kommen". Welche Schutzvorkehrungen könnten dies sein?

• Sie hoben hervor: "Nicht tragbar ist das Veröffentlichungsverbot zu 

den Einzelheiten des Risikobewertungssystems". Wie kann bei KI für mehr Transparenz gesorgt werden? Müssen dabei "Betriebsgeheimnisse" aus den Algorithmen "verraten" werden?

• Sehen Sie KI als ein Schwerpunktthema der Zukunft für die 

Datenschutzaufsichtsbehörden und auch für die betrieblichen / behördlichen DSBs?

• Was sollten DSBs tun, wenn sie selbst zu Planungen für den Einsatz 

selbstlernender Systeme Stellungnahmen abgeben sollen?

• Werden KI-Zertifikate es den Datenschützern bald leichter machen, 

einen geplanten KI-Einsatz zu bewerten?

  continue reading

48 эпизодов

Artwork
iconПоделиться
 
Manage episode 390278562 series 2535380
Контент предоставлен Redaktion "Datenschutz PRAXIS". Весь контент подкастов, включая выпуски, графику и описания подкастов, загружается и предоставляется непосредственно Redaktion "Datenschutz PRAXIS" или его партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Im Gespräch mit Prof. Kelber

KI und Datenschutz

Die Datenschutzkonferenz (DSK) hat schon mehrfach auf die besonderen Risiken durch den KI-Einsatz hingewiesen, zum Beispiel in der Hambacher Erklärung und dem zugehörigen Positionspapier.

Dort sagen die Aufsichtsbehörden beispielsweise: Damit die Risiken für die Rechte und Freiheiten der von KI-Verfahren betroffenen natürlichen Personen identifiziert werden können, ist es erforderlich zu unterscheiden, welche Art von Unterstützung die KI-Systeme liefern sollen. Dies erfordert eine spezielle Art der Risikodefinitionen von KI-Systemen. So sind die Risiken von KI-Systemen, die bspw. lediglich Kaufempfehlungen zu einzelnen Produkten liefern sollen, anders zu bewerten als die Risiken von KI-Systemen, die etwa Entscheidungen im Bereich des autonomen Fahrens treffen.

Diese Fragen haben wir Prof. Kelber gestellt:

• Sie hatten das Gesetz zum Einsatz automatisierter Systeme bei der FIU 

(Zentralstelle für Finanztransaktionsuntersuchungen) kritisiert. Wir würden dies gerne als Beispiel nehmen, um über Risiken für den Datenschutz durch KI zu sprechen. Kommen wir zuerst zu dem konkreten Fall: Was war hier Ihre Kritik?

• Wie spielen hier die DSGVO und der AI Act der EU zusammen? • Gibt es andere Planungen für den Einsatz selbstlernender Systeme / von 

KI, die Sie geprüft haben oder prüfen?

• Wie geht man bei einer solchen Prüfung vor? Viele sorgen sich ja, dass 

sich KI wie eine Blackbox nicht so ohne weiteres prüfen lässt. Welche Empfehlungen haben Sie für eine DSFA?

• Sie erklärten: "Der Einsatz selbstlernender Systeme erhöht die 

Eingriffsintensität zusätzlich und sollte nur unter besonderen Schutzvorkehrungen in Betracht kommen". Welche Schutzvorkehrungen könnten dies sein?

• Sie hoben hervor: "Nicht tragbar ist das Veröffentlichungsverbot zu 

den Einzelheiten des Risikobewertungssystems". Wie kann bei KI für mehr Transparenz gesorgt werden? Müssen dabei "Betriebsgeheimnisse" aus den Algorithmen "verraten" werden?

• Sehen Sie KI als ein Schwerpunktthema der Zukunft für die 

Datenschutzaufsichtsbehörden und auch für die betrieblichen / behördlichen DSBs?

• Was sollten DSBs tun, wenn sie selbst zu Planungen für den Einsatz 

selbstlernender Systeme Stellungnahmen abgeben sollen?

• Werden KI-Zertifikate es den Datenschützern bald leichter machen, 

einen geplanten KI-Einsatz zu bewerten?

  continue reading

48 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство