RAG

RAG

Abfragen und Bergen von Wissen
1 Stunde 3 Minuten
Podcast
Podcaster
INNOQ Podcast
In dieser Serie diskutieren wir interessante Themen aus Software-Entwicklung und -Architektur – immer mit dem Fokus auf Praxistauglichkeit.

Beschreibung

vor 10 Monaten
Alle Large Language Models (LLMs) haben ein Cut-off-Datum, an dem
ihr Weltwissen endet. Und über Unternehmensinterna wissen sie
nichts. Hier setzt RAG (Retrieval-augmented Generation) an. Was
dahinter steckt, klären Ole und Robert anhand verschiedener
Anwendungsmöglichkeiten in dieser Folge. Sie diskutieren auch, wie
RAG Large Language Models durch kontextuelle Wissensanreicherung
verbessert, wann RAG sinnvoller und kostengünstiger ist als
Finetuning und welche Engineering-Skills von
Softwareentwicklerinnen und Architektinnen gefragt sind, wenn es
darum geht, LLM-Modelle zu implementieren.

Weitere Episoden

MCP – Model Context Protocol
1 Stunde 5 Minuten
vor 1 Woche
Women in Tech – Sonja
59 Minuten
vor 1 Monat
KI Agenten
1 Stunde 34 Minuten
vor 1 Monat
DeepSeek R1
1 Stunde 24 Minuten
vor 2 Monaten

Kommentare (0)

Abonnenten

Logo
"RAG"
"INNOQ Podcast"
15
15
00:00
00:00
"RAG"
"INNOQ Podcast"