Podcast
Podcaster
Beschreibung
vor 2 Jahren
KI-basierte Entscheidungsprozesse können von Anwender:innen oft
nicht nachvollzogen werden. Es bleibt im Dunkeln, welche Faktoren
bei Vorschlägen, Vorhersagen und Entscheidungen einen Ausschlag
geben. Gleichzeitig machen KI-Systeme bereits heute in vielen
Fällen weniger Fehler als der Mensch. Sollten diese Systeme auch
für den Menschen nicht-nachvollziehbare Entscheidungen treffen
dürfen oder sollte Erklärbarkeit eine Voraussetzung für den Einsatz
in medizinischen Bereichen sein? Diesen und weiteren Fragen widmen
sich Kerstin Ritter und Dr. Marina Höhne, Leiterin der
Nachwuchsforscher:innengruppe “Understandable Machine Learning” an
der TU Berlin, in der aktuellen Episode von Dr. Med. KI.
nicht nachvollzogen werden. Es bleibt im Dunkeln, welche Faktoren
bei Vorschlägen, Vorhersagen und Entscheidungen einen Ausschlag
geben. Gleichzeitig machen KI-Systeme bereits heute in vielen
Fällen weniger Fehler als der Mensch. Sollten diese Systeme auch
für den Menschen nicht-nachvollziehbare Entscheidungen treffen
dürfen oder sollte Erklärbarkeit eine Voraussetzung für den Einsatz
in medizinischen Bereichen sein? Diesen und weiteren Fragen widmen
sich Kerstin Ritter und Dr. Marina Höhne, Leiterin der
Nachwuchsforscher:innengruppe “Understandable Machine Learning” an
der TU Berlin, in der aktuellen Episode von Dr. Med. KI.
Weitere Episoden
14 Minuten
vor 6 Monaten
20 Minuten
vor 6 Monaten
16 Minuten
vor 7 Monaten
18 Minuten
vor 8 Monaten
23 Minuten
vor 11 Monaten
In Podcasts werben
Kommentare (0)