Podcast
Podcaster
Beschreibung
vor 4 Jahren
Gesichtserkennungssoftware weist eine hohe Fehlerquote bei People
of Color auf, und Sprachprogramme erkennen britisches oder
amerikanisches Englisch besser als Englisch mit Akzent. Nach
welchen Kriterien werden Kredite vergeben? Und wie entstehen
algorithmische Vorurteile? Und wie können bestehende
Machtstrukturen gebrochen werden, um sie nicht ins Digitale zu
reproduzieren? Google hat sich zum Ziel gesetzt, rassistische
Begriffe aus der Computersprache zu verbannen. Sie ersetzen
“Blacklist” und “Whitelist” durch “Blocklist” und “Allowlist”.
Welche Rolle spielt das Umfeld in dem wir leben und die Art wie wir
miteinander sprechen und chatten? Ist uns bewusst, dass wir so
bereits die Daten für die Programmierung der Algorithmen und
Künstlichen Intelligenzen formen? Die Moderatorin Katja Weber
(radioeins, Deutschlandfunk Nova) diskutiert zum Thema
Diskriminierung in digitalen Technologien und Netzwerken mit: -
Shirin Riazy, wissenschaftliche Mitarbeiterin an der HTW Berlin im
Projekt “LADI – Learning Analytics und Diskriminierung”, das sich
damit beschäftigt, wie Diskriminierung durch den Einsatz von
algorithmischen Auswertungen begünstigt oder verhindert werden
kann. - Christina Dinar, stellvertretende Direktorin des Centre for
Human Internet and Human Rights, setzt sich in der politischen
Bildungsarbeit gegen die Verbreitung von Hate Speech im Netz ein. -
Francesca Schmidt, Referentin für Feministische Netzpolitik im
Gunda-Werner-Institut für Feminismus und Geschlechterdemokratie.
Sie beschäftigt sich mit Fragen digitaler Gewalt, Überwachung und
Kontrolle, Algorithmen, Künstliche Intelligenzen und deren
sozionormativen Implikationen.
of Color auf, und Sprachprogramme erkennen britisches oder
amerikanisches Englisch besser als Englisch mit Akzent. Nach
welchen Kriterien werden Kredite vergeben? Und wie entstehen
algorithmische Vorurteile? Und wie können bestehende
Machtstrukturen gebrochen werden, um sie nicht ins Digitale zu
reproduzieren? Google hat sich zum Ziel gesetzt, rassistische
Begriffe aus der Computersprache zu verbannen. Sie ersetzen
“Blacklist” und “Whitelist” durch “Blocklist” und “Allowlist”.
Welche Rolle spielt das Umfeld in dem wir leben und die Art wie wir
miteinander sprechen und chatten? Ist uns bewusst, dass wir so
bereits die Daten für die Programmierung der Algorithmen und
Künstlichen Intelligenzen formen? Die Moderatorin Katja Weber
(radioeins, Deutschlandfunk Nova) diskutiert zum Thema
Diskriminierung in digitalen Technologien und Netzwerken mit: -
Shirin Riazy, wissenschaftliche Mitarbeiterin an der HTW Berlin im
Projekt “LADI – Learning Analytics und Diskriminierung”, das sich
damit beschäftigt, wie Diskriminierung durch den Einsatz von
algorithmischen Auswertungen begünstigt oder verhindert werden
kann. - Christina Dinar, stellvertretende Direktorin des Centre for
Human Internet and Human Rights, setzt sich in der politischen
Bildungsarbeit gegen die Verbreitung von Hate Speech im Netz ein. -
Francesca Schmidt, Referentin für Feministische Netzpolitik im
Gunda-Werner-Institut für Feminismus und Geschlechterdemokratie.
Sie beschäftigt sich mit Fragen digitaler Gewalt, Überwachung und
Kontrolle, Algorithmen, Künstliche Intelligenzen und deren
sozionormativen Implikationen.
Weitere Episoden
1 Stunde 4 Minuten
vor 5 Monaten
1 Stunde 3 Minuten
vor 5 Monaten
1 Stunde 5 Minuten
vor 5 Monaten
59 Minuten
vor 9 Monaten
vor 9 Monaten
In Podcasts werben
Kommentare (0)