Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.

Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.

mit Katharina Rohlfing und Tim Schrills
1 Stunde 8 Minuten
Podcast
Podcaster

Beschreibung

vor 2 Monaten

Bitte schenkt uns 10 Minuten eurer Zeit, um an der
Evaluation unseres Podcasts teilzunehmen!
Danke!Zur Umfrage geht es hier.

+++

Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden
Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen
über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden
kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen
können die Nachvollziehbarkeit eines Systems erhöhen, sie können
aber auch nur das Gefühl erwecken, das System verstanden zu
haben. Oder sie können Antworten auf Fragen geben, die die
Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie
sich die Forschung zu XAI in den letzten Jahren gewandelt hat,
das erfahrt ihr bei uns!

+++



Katharina Rohlfing ist Professorin für
Psycholinguistik an der Universität Paderborn und Sprecherin des
Sonderforschungsbereich/Transregio 318 "Constructing
Explainability", in dem Forscher*innen Wege erforschen, die
Nutzer*innen in den Erklärprozess einzubinden und damit
ko-konstruktive Erklärungen zu schaffen. Darüber sind ihre
Forschungsschwerpunkte u.a. Multimodale Interaktion,
frühkindlicher Spracherwerb und Gedächtnisprozesse und
Kind-Roboter Interaktion.

Tim Schrills ist Wissenschaftlicher Mitarbeiter
an der Professur für Ingenieurpsychologie und Kognitive Ergonomie
am Institut für Multimediale und Interaktive Systeme der
Universität zu Lübeck. In seiner Forschung beschäftigt er sich
u.a. mit der Unterstützung menschlicher Informationsverarbeitung
durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in
der Medizin.



+++



Linkliste


Madsen & Gregor (2000), Measuring Human-Computer
Trust. 

Jian et al. (2010), Foundations for an Empirically Determined
Scale of Trust in Automated Systems. International Journal of
Cognitive Ergonomics.

Bartlett & McCarley (2017), Benchmarking Aided Decision
Making in a Signal Detection Task. Human Factors.

Schrills (2023), Erklärbare KI. In: Künstliche Intelligenz in
öffentlichen Verwaltungen.

Chromik et al. (2021), I Think I Get Your Point, AI! The
Illusion of Explanatory Depth in Explainable AI. Proceedings of
the 26th International Conference on Intelligent User Interfaces.

Schrills & Franke (2023), How Do Users Experience
Traceability of AI Systems? Examining Subjective Information
Processing Awareness in Automated Insulin Delivery (AID) Systems.
ACM Transactions on Interactive Intelligent Systems.

Yacobi et al. (2022), “If it didn’t happen, why would I
change my decision?”: How Judges Respond to Counterfactual
Explanations for the Public Safety Assessment. Proceedings of the
Tenth AAAI Conference on Human Computation and Crowdsourcing.

Rohlfing et al. (2020), Explanation as a Social Practice:
Toward a Conceptual Framework for the Social Design of AI
Systems. IEEE Transactions on Cognitive and Developmental
Systems.

Buschmeier et al. (2023), Forms of Understanding of
XAI-Explanations. arXiv.

EU AI Act: Einheitliche Regeln für Künstliche Intelligenz in
der EU

Häntschel & Schrills (2024), Der EU AI Act und seine
Auswirkungen auf Human-Computer Interaction. (YouTube-Video)

Deck et al. (2024), A Critical Survey on Fairness Benefits of
Explainable AI. Proceedings of the 2024 ACM Conference on
Fairness, Accountability, and Transparency.



+++

Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt
euch ein, wir freuen uns!


Unsere E-Mail-Adresse:
autonomie-algorithmen@lists.techfak.uni-bielefeld.de

Unser Bluesky-Profil:
https://bsky.app/profile/auto-algo.bsky.social

Unser Kontaktformular:
https://autonomie-algorithmen.letscast.fm/feedback



+++



"Autonomie und Algorithmen: Freiheit im Zeitalter von KI"
ist eine Gemeinschaftsproduktion.Konzeption und
Produktion: Christiane Attig und Benjamin Paaßen.


Redaktionelle Unterstützung: Johanna Dobroschke.


Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.


Musik: Almut Schwacke.


Grafikdesign: Sven Sedivy.



Dieser Podcast wird gefördert vom Bundesministerium für Bildung
und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: