„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

Maschinen entscheiden längst über Menschen. Wie verhindern wir, dass sie ungerecht urteilen? Regulierung allein helfe kaum, sagt Matthias Spielkamp von Algorithmwatch. Zahlreiche Entscheidungen und Einschätzungen werden in unserem Alltag heute bereits von
1 Stunde 17 Minuten

Beschreibung

vor 5 Jahren
Maschinen entscheiden längst über Menschen. Wie verhindern wir,
dass sie ungerecht urteilen? Regulierung allein helfe kaum, sagt
Matthias Spielkamp von Algorithmwatch. Zahlreiche Entscheidungen
und Einschätzungen werden in unserem Alltag heute bereits von
Algorithmen und künstlicher Intelligenz mitgetroffen: Sie sind es,
die den Newsfeed auf Facebook sortieren, sie sind es aber auch, die
die Plausibilität von Steuererklärungen in Deutschland prüfen oder
Jobbewerber vorsortieren. Das klingt zunächst einmal effizient,
modern und neutral – bis sich zeigt, dass auch Maschinen Menschen
diskriminieren können. Oder eben Entscheidungen treffen sollen, die
auch uns Menschen schwerfallen – etwa beim autonomen Fahren. Wie
aber weist man Diskriminierung nach? Warum treffen Algorithmen so
oft Entscheidungen, die gar nicht so neutral sind, wie viele es von
Computersystemen erwarten würden? Wie kann man diese Maschinen
besser kontrollieren, ihre Entscheidungen im Notfall auch
revidieren – und wie treibt man ihnen die Vorurteile wieder aus?
Staaten, aber auch Firmen arbeiten längst an Antworten auf diese
Fragen. Pauschale Lösungen gebe es nicht, sagt Matthias Spielkamp
von der Nichtregierungsorganisation "Algorithmwatch". Was daran
liege, dass die Computersysteme an so unterschiedlichen Stellen
eingesetzt würden und ganz unterschiedlich funktionierten. Seine
Organisation klärt darüber auf, welche Wirkung Algorithmen haben
und wo sie zum Einsatz kommen. Spielkamp versuchte, mit seinen
Kolleginnen und Kollegen besser zu erforschen, wie die Schufa
arbeitet. Und sie berichteten, wie eine Software in den
Niederlanden Sozialbetrüger aufspüren sollte. Es gehe darum,
Softwaresysteme so einzusetzen, dass das Gemeinwohl gefördert,
nicht geschwächt werde, sagt Spielkamp. Doch das sei schwer
umzusetzen – unter anderem, weil eben sektorspezifisch auf die
Algorithmen geschaut werden müsse, statt vermeintlich einfache
Lösungen wie einen Algorithmen-TÜV oder politische Regulierungen zu
fordern. [ANZEIGE] Mehr über die Angebote unserer Werbepartnerinnen
und -partner finden Sie HIER [ANZEIGE] Falls Sie uns nicht nur
hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen
kostenlos Die ZEIT. Hier geht's zum Angebot.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: