#22 Sicherheit von Large-Language-Modellen mit Dr. Lea Schönherr –WomenInCybersecurity

#22 Sicherheit von Large-Language-Modellen mit Dr. Lea Schönherr –WomenInCybersecurity

39 Minuten

Beschreibung

vor 1 Jahr
Large-Language-Modelle (LLM) wie Chat GPT sind große generative
Sprachmodelle, die mittels künstlicher Intelligenz in der Lage
sind, Eingaben in natürlicher Sprache zu verstehen und zu
verarbeiten. Sie kommen häufig auch mit komplexen Fragen und
Anweisungen zurecht und produzieren Texte in bisher nie dagewesener
Qualität. Die den Modellen zugrundeliegenden neuronale Netzwerke
und Deep-Learning-Algorithmen können aber noch für sehr viel mehr
eingesetzt werden als nur zum Chatten. So gibt es codegenerative
Modelle, die – wie die Bezeichnung schon verrät – Code und damit
ganze Computerprogramme generieren können. Doch egal ob
natürlichsprachliches oder codegeneratives Modell ¬– sie alle haben
Schwachstellen. Dr. Lea Schönherr erzählt uns in dieser Folge, wie
sie Schwächen und Sicherheitslücken in den Modellen aufspürt, wo
sie Gefahren bei der Nutzung von LLM sieht und wie wir als Nutzende
damit umgehen können. Außerdem erzählt uns Lea, wie es sich als
Elektro- und Informationstechnologin unter Informatiker:innen
forscht. Spoiler: Ziemlich entspannt. Das Gespräch wurde in
deutscher Sprache geführt. Viel Spaß beim Hören.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: