Beschreibung

vor 1 Jahr

Elvira „Ellie“ Siegel hat Machine Learning an der LMU in München
studiert und ist Teil des SHERLOQ-Teams, das ein Produkt zur
KI-gestützten Dokumentenverarbeitung entwickelt. In dieser Folge
ordnet sie den Bereich der großen Sprachmodelle (Large Language
Models, LLM) in die Welt der künstlichen Intelligenz ein. Sie
fasst außerdem kompakt zusammen, wie solche Modelle trainiert
werden, und nennt typische Fehlerquellen. Auch gibt sie eine
Einschätzung, ob Open-Source-Modelle eine Chance in der stark von
ChatGPT geprägten LLM-Landschaft haben.


Moderation: Marco Paga


Kapitel:


(00:00:00) Intro & Vorstellung Elvira


(00:00:48) Begriffsklärung: „künstliche Intelligenz“,
„maschinelles Lernen“ und „Deep Learning“


(00:04:48) Einführung in Large Language Models und
Transformer-Modell


(00:08:20) Ein Katzen-Beispiel (Cat Content!)


(00:11:28) Weitere Beispiele zu LLMs und Vektorenberechnung


(00:15:39) ChatGPT: Wie ist es überhaupt möglich?


(00:20:28) ChatGPT-Versionen und Unterschiede


(00:23:00) Trainingsphasen von ChatGPT


(00:29:00) Open Source in der LLM-Welt


(00:36:48) Beliebte Fehler von LLMs


(00:41:44) Prompt Injections

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: