Gefängnisausbruch: Wie schützen wir KI vor Jailbreaking? | AI EXPLAINED
20 Minuten
Podcast
Podcaster
Beschreibung
vor 3 Monaten
Bei der Telekom schreiben wir Verantwortung in Sachen KI groß:
Stichwort #humancenteredtechnology. Bereits 2018 haben wir
KI-Leitlinien aufgestellt, die für unseren internen und externen
Umgang mit KI richtungsweisend sind. Bestimmte Eingaben führen
jedoch dazu, dass Chatbots Sicherheitsfilter umgehen - das
sogenannte Jailbreaking. Die „Befreiung“ der KI aus dem „Gefängnis“
ihrer eigenen Regeln (englisch: Jail). Und es stellt eine
Herausforderung für den verantwortungsvollen Umgang mit KI dar. Wie
kann man sicherstellen, dass KI sicher ist, vor Einflüssen von
außen? Welche Trainings schließen Sicherheitslücken? Und welche
Rolle spielt dabei die Wissenschaft? Darüber spricht Leonard Dahmen
mit Sarah Ball, Doktorandin an der LMU im Bereich KI-Sicherheit.
Stichwort #humancenteredtechnology. Bereits 2018 haben wir
KI-Leitlinien aufgestellt, die für unseren internen und externen
Umgang mit KI richtungsweisend sind. Bestimmte Eingaben führen
jedoch dazu, dass Chatbots Sicherheitsfilter umgehen - das
sogenannte Jailbreaking. Die „Befreiung“ der KI aus dem „Gefängnis“
ihrer eigenen Regeln (englisch: Jail). Und es stellt eine
Herausforderung für den verantwortungsvollen Umgang mit KI dar. Wie
kann man sicherstellen, dass KI sicher ist, vor Einflüssen von
außen? Welche Trainings schließen Sicherheitslücken? Und welche
Rolle spielt dabei die Wissenschaft? Darüber spricht Leonard Dahmen
mit Sarah Ball, Doktorandin an der LMU im Bereich KI-Sicherheit.
Weitere Episoden
23 Minuten
vor 2 Wochen
27 Minuten
vor 4 Wochen
21 Minuten
vor 1 Monat
18 Minuten
vor 1 Monat
29 Minuten
vor 2 Monaten
In Podcasts werben
Kommentare (0)