Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity
Warum eine empathische Arbeitswelt wichtig ist und wie sie KIs
beeinflusst
32 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
EXPERTENGESPRÄCH | Eine künstliche Intelligenz kann nur so sensibel
sein, wie der Mensch, der sie programmiert hat. Dadurch dass es
auch beim Menschen immer noch viele Blindspots beim Thema Diversity
gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im
Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia
diesmal, wie man diese Algorithmic Biases erkennt und korrigieren
kann und wie man sowohl Mensch, als letztlich auch künstliche
Intelligenz für Diversity besser sensibilisieren kann. Du
erfährst... …warum Algorithmic Biases entstehen …welche Algorithmic
Biases in KI derzeit ein Problem sind …ob man diese Biases einfach
„reparieren“ kann …wie die Methode des Reinforced Learnings mit dem
Thema Diskriminierung umgeht …ob zuviel Nachbearbeitung von
KI-Ergebnissen auch eine Gefahr darstellen können …mit welchen
Methoden man Diskriminierung entlernen kann …welche Empathie in die
Führung spielt …wie man Hierarchie-Barrieren innerhalb einer Firma
abbauen kann ️ Du konntest dir keine Notizen machen? Unser [digital
kompakt+ Newsletter](newsletter.digitalkompakt.de) fasst dir für
jede Folge die wichtigsten Punkte zusammen Diese Episode dreht sich
schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen
und tolerant denken! Nachdem wir anfangs die
Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam
Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu
sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia
Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei
geht es den beiden explizit nicht um Mann oder Frau, sondern um die
Schaffung von Empathie füreinander sowie ein ganzheitliches Bild
und Verständnis für verschiedene Rollen und Perspektiven.
__________________________ ||||| PERSONEN ||||| Joel Kaczmarek,
Geschäftsführer digital kompakt Lunia Hara, LinkedIn Changemaker
Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH
bei IBM __________________________ ||||| SPONSOREN |||||
[Übersicht](https://www.digitalkompakt.de/sponsoren/) aller
Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00)
Vorstellung und Einführung ins Thema (00:04:38) Was ist
Algorithmic Bias? (00:08:00) Kann man Algorithmic Bias
reparieren? (00:13:05) Reinforcement Learning
(00:17:18) Wie kann man Diversity lehren? (00:20:45)
Empathie in der Führung __________________________ ||||| WIR |||||
[Mehr](https://lnk.to/dkompakt) tolle Sachen von uns Wir von
digital kompakt streben die Verwendung einer geschlechtsneutralen
Sprache an. In Fällen, in denen dies nicht gelingt, gelten
sämtliche Personenbezeichnungen für alle Geschlechter.
sein, wie der Mensch, der sie programmiert hat. Dadurch dass es
auch beim Menschen immer noch viele Blindspots beim Thema Diversity
gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im
Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia
diesmal, wie man diese Algorithmic Biases erkennt und korrigieren
kann und wie man sowohl Mensch, als letztlich auch künstliche
Intelligenz für Diversity besser sensibilisieren kann. Du
erfährst... …warum Algorithmic Biases entstehen …welche Algorithmic
Biases in KI derzeit ein Problem sind …ob man diese Biases einfach
„reparieren“ kann …wie die Methode des Reinforced Learnings mit dem
Thema Diskriminierung umgeht …ob zuviel Nachbearbeitung von
KI-Ergebnissen auch eine Gefahr darstellen können …mit welchen
Methoden man Diskriminierung entlernen kann …welche Empathie in die
Führung spielt …wie man Hierarchie-Barrieren innerhalb einer Firma
abbauen kann ️ Du konntest dir keine Notizen machen? Unser [digital
kompakt+ Newsletter](newsletter.digitalkompakt.de) fasst dir für
jede Folge die wichtigsten Punkte zusammen Diese Episode dreht sich
schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen
und tolerant denken! Nachdem wir anfangs die
Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam
Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu
sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia
Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei
geht es den beiden explizit nicht um Mann oder Frau, sondern um die
Schaffung von Empathie füreinander sowie ein ganzheitliches Bild
und Verständnis für verschiedene Rollen und Perspektiven.
__________________________ ||||| PERSONEN ||||| Joel Kaczmarek,
Geschäftsführer digital kompakt Lunia Hara, LinkedIn Changemaker
Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH
bei IBM __________________________ ||||| SPONSOREN |||||
[Übersicht](https://www.digitalkompakt.de/sponsoren/) aller
Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00)
Vorstellung und Einführung ins Thema (00:04:38) Was ist
Algorithmic Bias? (00:08:00) Kann man Algorithmic Bias
reparieren? (00:13:05) Reinforcement Learning
(00:17:18) Wie kann man Diversity lehren? (00:20:45)
Empathie in der Führung __________________________ ||||| WIR |||||
[Mehr](https://lnk.to/dkompakt) tolle Sachen von uns Wir von
digital kompakt streben die Verwendung einer geschlechtsneutralen
Sprache an. In Fällen, in denen dies nicht gelingt, gelten
sämtliche Personenbezeichnungen für alle Geschlechter.
Weitere Episoden
39 Minuten
vor 4 Tagen
42 Minuten
vor 1 Woche
1 Stunde 13 Minuten
vor 1 Woche
39 Minuten
vor 2 Wochen
In Podcasts werben
Kommentare (0)