Large Language Models
47 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
Elvira „Ellie“ Siegel hat Machine Learning an der LMU in München
studiert und ist Teil des SHERLOQ-Teams, das ein Produkt zur
KI-gestützten Dokumentenverarbeitung entwickelt. In dieser Folge
ordnet sie den Bereich der großen Sprachmodelle (Large Language
Models, LLM) in die Welt der künstlichen Intelligenz ein. Sie
fasst außerdem kompakt zusammen, wie solche Modelle trainiert
werden, und nennt typische Fehlerquellen. Auch gibt sie eine
Einschätzung, ob Open-Source-Modelle eine Chance in der stark von
ChatGPT geprägten LLM-Landschaft haben.
Moderation: Marco Paga
Kapitel:
(00:00:00) Intro & Vorstellung Elvira
(00:00:48) Begriffsklärung: „künstliche Intelligenz“,
„maschinelles Lernen“ und „Deep Learning“
(00:04:48) Einführung in Large Language Models und
Transformer-Modell
(00:08:20) Ein Katzen-Beispiel (Cat Content!)
(00:11:28) Weitere Beispiele zu LLMs und Vektorenberechnung
(00:15:39) ChatGPT: Wie ist es überhaupt möglich?
(00:20:28) ChatGPT-Versionen und Unterschiede
(00:23:00) Trainingsphasen von ChatGPT
(00:29:00) Open Source in der LLM-Welt
(00:36:48) Beliebte Fehler von LLMs
(00:41:44) Prompt Injections
Weitere Episoden
37 Minuten
vor 1 Woche
31 Minuten
vor 3 Wochen
36 Minuten
vor 1 Monat
33 Minuten
vor 1 Monat
41 Minuten
vor 2 Monaten
In Podcasts werben
Kommentare (0)