Dataset Bias: “Welche Vorurteile stecken in unseren KI-Bildern?”| AI EXPLAINED
20 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
Schon länger ist bekannt, dass im Kontext von KI-Diensten in den
zugrundeliegenden und ergo dann auch den ausgegebenen Daten viele
menschliche Vorurteile stecken. Mit ChatGPT oder Midjourney kann
nun jede*r von uns selbst sehen, wie sehr die Ergebnisse von den
problematischen Seiten unserer menschlichen Sicht auf die Welt
geprägt sein können. Was lassen sich für Muster erkennen? Wie
verhalten sich Systeme in unterschiedlichen Kontexten? Was sollten
wir für Schlüsse daraus ziehen? Darüber sprechen wir mit Lais
Al-Khalaf, der in seinem „The Critical (Art)book“ die
bildgenerierende KI „Midjourney“ in diesem Kontext genau unter die
Lupe genommen hat.
zugrundeliegenden und ergo dann auch den ausgegebenen Daten viele
menschliche Vorurteile stecken. Mit ChatGPT oder Midjourney kann
nun jede*r von uns selbst sehen, wie sehr die Ergebnisse von den
problematischen Seiten unserer menschlichen Sicht auf die Welt
geprägt sein können. Was lassen sich für Muster erkennen? Wie
verhalten sich Systeme in unterschiedlichen Kontexten? Was sollten
wir für Schlüsse daraus ziehen? Darüber sprechen wir mit Lais
Al-Khalaf, der in seinem „The Critical (Art)book“ die
bildgenerierende KI „Midjourney“ in diesem Kontext genau unter die
Lupe genommen hat.
Weitere Episoden
25 Minuten
vor 14 Stunden
23 Minuten
vor 2 Wochen
27 Minuten
vor 4 Wochen
21 Minuten
vor 1 Monat
18 Minuten
vor 1 Monat
In Podcasts werben
Kommentare (0)