KI: Wenn der Algorithmus Vorurteile hat

KI: Wenn der Algorithmus Vorurteile hat

Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird das zum …
17 Minuten

Beschreibung

vor 2 Jahren
Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die
Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch
oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird
das zum Problem.

[00:00] Intro und Begrüßung
[04:07] Wo emotionale KI schon eingesetzt wird
[06:44] KI ist nicht neutral
[10:53] Zukünftige Einsatzgebiete und Probleme
[14:08] Wie kann man KI besser machen?
[16:01] Verabschiedung
>> Artikel zum Nachlesen:
https://detektor.fm/wissen/spektrum-podcast-ki-rassismus-vorurteile

Kommentare (0)

Lade Inhalte...

Abonnenten

Viivii
Hamburg
15
15
:
: