Episode 172 - Miniserie Interpretierbarkeit - Mechanistic Interpretation: Die neuronale Blackbox verstehen
36 Minuten
Podcast
Podcaster
Beschreibung
vor 5 Monaten
Send us a text
In dieser Episode unserer Miniserie "Interpretability" tauchen
wir tief in die Welt der mechanistischen Interpretierung
neuronaler Netze ein.
Sigurd Schacht und Carsten Lanquillon beleuchten die
spannenden Forschungsansätze, die darauf abzielen, die Blackbox
neuronaler Netze zu durchdringen und deren interne Funktionsweise
zu verstehen.
Dabei erörtern sie, wie Mechanistic Interpretation als
Bottom-Up-Ansatz helfen kann, neuronale Netze nachvollziehbar zu
machen und welche Rolle diverse Konzepte wie der Residual Stream,
Multi-Layer Perceptrons (MLPs) und Attention Heads dabei spielen.
Diese Episode richtet sich an alle, die wissen wollen, wie KI
transparent und verlässlich gemacht wird.
Support the show
Weitere Episoden
28 Minuten
vor 3 Tagen
39 Minuten
vor 1 Woche
29 Minuten
vor 3 Wochen
28 Minuten
vor 1 Monat
In Podcasts werben
Kommentare (0)