Gefängnisausbruch: Wie schützen wir KI vor Jailbreaking? | AI EXPLAINED
20 Minuten
Podcast
Podcaster
Beschreibung
vor 4 Monaten
Bei der Telekom schreiben wir Verantwortung in Sachen KI groß:
Stichwort #humancenteredtechnology. Bereits 2018 haben wir
KI-Leitlinien aufgestellt, die für unseren internen und externen
Umgang mit KI richtungsweisend sind. Bestimmte Eingaben führen
jedoch dazu, dass Chatbots Sicherheitsfilter umgehen - das
sogenannte Jailbreaking. Die „Befreiung“ der KI aus dem „Gefängnis“
ihrer eigenen Regeln (englisch: Jail). Und es stellt eine
Herausforderung für den verantwortungsvollen Umgang mit KI dar. Wie
kann man sicherstellen, dass KI sicher ist, vor Einflüssen von
außen? Welche Trainings schließen Sicherheitslücken? Und welche
Rolle spielt dabei die Wissenschaft? Darüber spricht Leonard Dahmen
mit Sarah Ball, Doktorandin an der LMU im Bereich KI-Sicherheit.
Stichwort #humancenteredtechnology. Bereits 2018 haben wir
KI-Leitlinien aufgestellt, die für unseren internen und externen
Umgang mit KI richtungsweisend sind. Bestimmte Eingaben führen
jedoch dazu, dass Chatbots Sicherheitsfilter umgehen - das
sogenannte Jailbreaking. Die „Befreiung“ der KI aus dem „Gefängnis“
ihrer eigenen Regeln (englisch: Jail). Und es stellt eine
Herausforderung für den verantwortungsvollen Umgang mit KI dar. Wie
kann man sicherstellen, dass KI sicher ist, vor Einflüssen von
außen? Welche Trainings schließen Sicherheitslücken? Und welche
Rolle spielt dabei die Wissenschaft? Darüber spricht Leonard Dahmen
mit Sarah Ball, Doktorandin an der LMU im Bereich KI-Sicherheit.
Weitere Episoden
30 Minuten
vor 3 Tagen
27 Minuten
vor 2 Wochen
38 Minuten
vor 2 Wochen
25 Minuten
vor 1 Monat
23 Minuten
vor 1 Monat
In Podcasts werben
Kommentare (0)