Episode 172 - Miniserie Interpretierbarkeit - Mechanistic Interpretation: Die neuronale Blackbox verstehen

Episode 172 - Miniserie Interpretierbarkeit - Mechanistic Interpretation: Die neuronale Blackbox verstehen

36 Minuten

Beschreibung

vor 5 Monaten

Send us a text


In dieser Episode unserer Miniserie "Interpretability" tauchen
wir tief in die Welt der mechanistischen Interpretierung
neuronaler Netze ein.

 Sigurd Schacht und Carsten Lanquillon beleuchten die
spannenden Forschungsansätze, die darauf abzielen, die Blackbox
neuronaler Netze zu durchdringen und deren interne Funktionsweise
zu verstehen. 

Dabei erörtern sie, wie Mechanistic Interpretation als
Bottom-Up-Ansatz helfen kann, neuronale Netze nachvollziehbar zu
machen und welche Rolle diverse Konzepte wie der Residual Stream,
Multi-Layer Perceptrons (MLPs) und Attention Heads dabei spielen.
Diese Episode richtet sich an alle, die wissen wollen, wie KI
transparent und verlässlich gemacht wird.


Support the show

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: