Carina Zehetmaier: Wie vertrauenswürdig ist KI? Wie gerecht ist KI? Wie ungerecht ist KI?

Carina Zehetmaier: Wie vertrauenswürdig ist KI? Wie gerecht ist KI? Wie ungerecht ist KI?

38 Minuten

Beschreibung

vor 9 Monaten

Folge 2





Wir sprechen mit Carina
Zehetmaier, KI-Expertin und Unternehmerin über
den Bias der KI und die möglichen Folgen. Wie vertrauenswürdig
ist die KI wirklich? Wie schleicht sich Diskriminierung in die
Technologie? Wie bringen wir Gerechtigkeit in ein System von dem
wir nicht wissen wie es arbeitet? Was bedeutet der Bias der KI im
Kontext der Strafverfolgung? Wie könnte der Weg zu einer
gerechten KI aussehen? Welche Regulierung erfährt KI durch den
AI-act der EU?


 


Über die Expertin: 


Carina Zehetmaier ist KI-Expertin,
Unternehmerin und Botschafterin für Women in AI
Austria. Als Unternehmerin mit einer Leidenschaft für KI
und soziales Unternehmertum genießt sie es Geschäftsmöglichkeiten
zu erforschen, die die Kraft neuer Technologien zum Nutzen der
Menschen und unseres Planeten einsetzen. Als ausgebildete
Menschenrechtsjuristin verfügt sie über mehrere Jahre Erfahrung
in Nichtregierungs-, Regierungs- und internationalen
Organisationen und hat ein tiefergehendes Verständnis von
Diplomatie, Weltpolitik und internationalen Beziehungen. 


 


Über den Host 


Gabriele Schelle (Moderation) ist
Theaterregisseurin und Autorin. Ein Podcast
von FACTORY Theater Produktionen


 


In dieser Folge:


0:00  Intro


0:56  Wie vertrauenswürdig ist die KI
wirklich? 


1:29  Problem des
Halluzinierens    


4:10 Kontext der Strafverfolgung


5:36 Black-Box Problem. Recherchegebiet:
“Explainable AI” 


6:16 Regulierung der KI


6:36 Bias: Fehlentscheidungen durch
Diskriminierung


7:26 Rechenschaftspflicht der
KI  


9:14 Wie misst man eigentlich, ob das
System performt oder nicht?


11:15 AI-act der EU / Risikopyramide


13:04 Deep fakes 


14:24 Impact Assessment (Folgenabschätzung)


14:58 KI kann nicht objektiv und neutral
sein 


15:48 Diversität


17:25 Automation Bias


17:43 „Coded Bias“
Dokumentarfilm von Joy Buolamwini


17:54 „Ein Algorithmus bezieht sich auf
historische Informationen und macht eine Vorhersage über die
Zukunft. Big Data ist also eine Reflektion unserer Geschichte. Es
ist so als würde unsere Vergangenheit in den Algorithmen
verweilen.“ Joy Buolamwini


21:34 Chat-GPT wird am englisch-sprachigen
Web trainiert


24:59 Environmental Impact der KI


34:12 Ängste vor KI 


35:51 Wir müssen sicherstellen, dass wir
alle Menschen mitnehmen. 


36:20 Fake und Wirklichkeit 


 





Links und Quellen:


Women in AI


https://www.womeninai.co


 


Guidinglight – Unternehmen von Carina Zehtmaier


https://www.guidinglight.eu/de/carina-zehetmaier


 


„Gender Shades“ (2018) Studie von Joy Buolamwini, Massachusetts
Institute of Technology


https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212


 


 „Coded Bias“ ein Film von Shalini Kantayya


https://www.codedbias.com


 


Redaktion und Mitarbeit: 


Gabriele Schelle (Moderation, Kuration). Christian Nisslmüller
(Produktionsleitung), Martin Lohr (Aufnahmeleitung Studio), Alisa
Karabut (Grafik). 


 


Kontakt: 
Wir freuen uns über Fragen und Kommentare
an info@theater-factory.de


 


Unterstützt uns:


Wenn euch dieser Podcast gefällt, freuen wir uns über eine
Bewertung auf der Podcast-Plattform. Abonniert den Podcast auf
welcher Plattform auch immer ihr ihn hört. Und empfehlt uns gerne
weiter! 


 


Wir danken der Schleswig-Holsteinischen Landesbibliothek für die
Unterstützung des Podcasts. 

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: