Wie funktioniert KI eigentlich?
33 Minuten
Podcast
Podcaster
Beschreibung
vor 5 Monaten
Im Grunde vervollständigen Sprachmodelle wie ChatGPT, Gemini oder
Claude immer nur das nächste Wort in einem Satz, basierend auf
einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie
entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein
Verständnis von der Welt zu haben scheinen, das dem unseren oft
erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere
der "Generative Pretrained Transformer" Modelle und erklären, wie
genau KI eigentlich funktioniert. Über die Hosts: Gregor
Schmalzried ist freier Tech-Journalist und Berater, er arbeitet
u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub
ist freier Journalist und Moderator beim Bayerischen Rundfunk und
1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Intro 04:01 G
wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen
08:37 P wie Pre-Trained: Wie läuft das Training ab? 19:14 T wie
Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus?
25:47 Was haben wir diese Woche mit KI gemacht? Redaktion und
Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz
Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian
Schiffer, Gregor Schmalzried Links und Quellen: The Surprising
Power of Next Word Prediction: Large Language Models Explained
https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/
Erklärung von Transformer Modellen in der Financial Times:
https://ig.ft.com/generative-ai/ Visualisierung von Transformern:
https://jalammar.github.io/illustrated-gpt2/ Aleph Alpha und
Erklärbarkeit:
https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552
Electify - KI-Sprachmodelle beantwortet Fragen zu den
EU-Wahlprogrammen: https://electify.eu/ Kontakt: Wir freuen uns
über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn
euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf
eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der
ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine
Episode zu verpassen. Und empfehlt uns gerne weiter!
Claude immer nur das nächste Wort in einem Satz, basierend auf
einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie
entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein
Verständnis von der Welt zu haben scheinen, das dem unseren oft
erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere
der "Generative Pretrained Transformer" Modelle und erklären, wie
genau KI eigentlich funktioniert. Über die Hosts: Gregor
Schmalzried ist freier Tech-Journalist und Berater, er arbeitet
u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub
ist freier Journalist und Moderator beim Bayerischen Rundfunk und
1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Intro 04:01 G
wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen
08:37 P wie Pre-Trained: Wie läuft das Training ab? 19:14 T wie
Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus?
25:47 Was haben wir diese Woche mit KI gemacht? Redaktion und
Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz
Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian
Schiffer, Gregor Schmalzried Links und Quellen: The Surprising
Power of Next Word Prediction: Large Language Models Explained
https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/
Erklärung von Transformer Modellen in der Financial Times:
https://ig.ft.com/generative-ai/ Visualisierung von Transformern:
https://jalammar.github.io/illustrated-gpt2/ Aleph Alpha und
Erklärbarkeit:
https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552
Electify - KI-Sprachmodelle beantwortet Fragen zu den
EU-Wahlprogrammen: https://electify.eu/ Kontakt: Wir freuen uns
über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn
euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf
eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der
ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine
Episode zu verpassen. Und empfehlt uns gerne weiter!
Weitere Episoden
32 Minuten
vor 3 Tagen
37 Minuten
vor 1 Woche
45 Minuten
vor 2 Wochen
41 Minuten
vor 3 Wochen
40 Minuten
vor 1 Monat
In Podcasts werben
Abonnenten
Wurmlingen
Dortmund
Laußnitz
Duisburg
Hamburg
Ingolstadt
Hannover
Rom
Bremen
Helsa
Köln
Kommentare (0)