Algorithmen mit Vorurteilen – wie fehlerhaft ist die Technik? | #heiseshow
Podcast
Podcaster
Beschreibung
vor 3 Jahren
Während Künstliche Intelligenz inzwischen auch praxisrelevante
Erfolge feiert und Algorithmen immer öfter Entscheidungen fällen,
werden Probleme der Technik sichtbarer. Denn während Googles
Deepmind offenbar das Problem der Proteinstrukturvorhersage gelöst
hat, finden Forscher bei anderen bekannten KI-Vertretern immer
wieder ganz grundlegende Schwierigkeiten. Das viel gelobte
KI-Sprachmodell GPT-3 etwa hegt tief verankerte Vorurteile gegen
Muslime, Algorithmen zur Bildgenerierung erwarten bei Männern
Anzüge und bei Frauen Bikinis. Die Ursachen sind teilweise schnell
erklärt, aber offenbar nicht so einfach zu beheben. Grund genug,
darüber zu sprechen. Welche Entwicklungen gibt es aktuell in der
KI-Forschung? Woran liegt es, dass auch die scheinbar neutralen
Algorithmen nicht ohne menschlichen Vorurteile arbeiten? Was lässt
sich dagegen machen und wie intensiv wird daran gearbeitet? Welche
Ansätze werden aktuell bevorzugt, um KI zu trainieren? Welche gibt
es noch und welche Vor- beziehungsweise Nachteile haben die? Wie
relevant ist KI inzwischen, welche Beispiele für ihren Einsatz gibt
es? Sind sich die Verantwortlichen der Einschränkungen bewusst? Wie
sieht die Gesellschaft Künstliche Intelligenz und was kann an
diesem Bild noch verbessert? Diese und viele weitere Fragen – auch
der Zuschauer – besprechen Kristina Beer (@bee_k_bee) und Martin
Holland (@fingolas) mit c't-Redakteurin Pina Merkert in einer neuen
Folge der #heiseshow, live ab 12 Uhr. === Anzeige /
Sponsorenhinweis === Sichern Sie sich das Ticket für nur 249 € und
erleben Sie geballtes Wissen und die ein oder andere Überraschung
auf der secIT! Mehr Infos finden Sie unter sec-it.heise.de ===
Anzeige / Sponsorenhinweis Ende ===
Erfolge feiert und Algorithmen immer öfter Entscheidungen fällen,
werden Probleme der Technik sichtbarer. Denn während Googles
Deepmind offenbar das Problem der Proteinstrukturvorhersage gelöst
hat, finden Forscher bei anderen bekannten KI-Vertretern immer
wieder ganz grundlegende Schwierigkeiten. Das viel gelobte
KI-Sprachmodell GPT-3 etwa hegt tief verankerte Vorurteile gegen
Muslime, Algorithmen zur Bildgenerierung erwarten bei Männern
Anzüge und bei Frauen Bikinis. Die Ursachen sind teilweise schnell
erklärt, aber offenbar nicht so einfach zu beheben. Grund genug,
darüber zu sprechen. Welche Entwicklungen gibt es aktuell in der
KI-Forschung? Woran liegt es, dass auch die scheinbar neutralen
Algorithmen nicht ohne menschlichen Vorurteile arbeiten? Was lässt
sich dagegen machen und wie intensiv wird daran gearbeitet? Welche
Ansätze werden aktuell bevorzugt, um KI zu trainieren? Welche gibt
es noch und welche Vor- beziehungsweise Nachteile haben die? Wie
relevant ist KI inzwischen, welche Beispiele für ihren Einsatz gibt
es? Sind sich die Verantwortlichen der Einschränkungen bewusst? Wie
sieht die Gesellschaft Künstliche Intelligenz und was kann an
diesem Bild noch verbessert? Diese und viele weitere Fragen – auch
der Zuschauer – besprechen Kristina Beer (@bee_k_bee) und Martin
Holland (@fingolas) mit c't-Redakteurin Pina Merkert in einer neuen
Folge der #heiseshow, live ab 12 Uhr. === Anzeige /
Sponsorenhinweis === Sichern Sie sich das Ticket für nur 249 € und
erleben Sie geballtes Wissen und die ein oder andere Überraschung
auf der secIT! Mehr Infos finden Sie unter sec-it.heise.de ===
Anzeige / Sponsorenhinweis Ende ===
Weitere Episoden
In Podcasts werben
Kommentare (0)