Warum Killerroboter verboten werden sollten, ehe sie eingesetzt werden
Marit Seyer, Obfrau der Kampagne für ein Stopp von autonomen
Waffensystemen und Thomas Hajnoczi, Ex-Botschafter für
Abrüstungsfragen, erklären warum das so dringend ist
35 Minuten
Podcast
Podcaster
Beschreibung
vor 3 Jahren
Es gibt eine Gruppe von Menschen, die versucht uns vor
Killerrobotern zu schützen. Ihr Problem? Fehlende Aufmerksamkeit
und oftmals ein fehlendes Bewusstsein für die Tragweite des
Problems. Menschen lassen sich tendenziell nämlich leichter für
eine Sache gewinnen, die aktuell schon ein greifbares Problem
darstellt, als für solche, die sich noch zu veritablen Problemen
entwickeln werden. Deshalb wurde es zu lange verabsäumt der
Klimakrise entschieden entgegenzutreten oder Soziale Medien
rechtzeitig zu regulieren. Freilich ist es aber auch schwieriger
Dinge einmal zu reglementieren, wenn diese schon im Einsatz sind.
Ein gutes Beispiel sind Atomwaffen. Spätestens seit der
Bombardierung von Hiroshima und Nagasaki weiß die Menschheit um
ihre extreme Gefahr. Einmal im Einsatz lassen sie sich Staaten aber
auch nur mehr sehr schwer wegnehmen, wie die in vielen Punkten
vergleichbare Kampagne für ein Verbot von Atomwaffen immer wieder
schmerzhaft lernen muss. Ein möglicher Ausweg aus diesem
scheinbaren Dilemma ist die Ächtung. Die Ächtung einer ganzen
Waffengattung nämlich. Und im Grunde ist es das, was die Kampagne
für ein Verbot von Killerrobotern erreichen möchte. Die autonom
agierenden Waffensysteme – die mit dem vereinfachenden Terminus
Killerroboter beschrieben werden – seien nämlich gar kein Problem
künftiger Generationen mehr, sondern ein reales und riesiges
Problem der Gegenwart. Davor warnt Marit Seyer, die Obfrau der
Österreichischen Kampagne für ein Killerroboter-Verbot, im
Edition-Zukunft-Podcast. Wir müssen sie verbieten, bevor sie
vielfach Unschuldige töten, so der Auftrag. Und sie müssten sozial
geächtet werden. Am Weg zur vollen Autonomie Sieht man sich die
zahlreichen internationalen Beispiele bestehender und bereits in
Einsatz befindlicher halbautonomer Waffensysteme an, so lässt sich
dieser Eindruck tatsächlich bestätigen. Die Technik wäre wohl
bereits ausgereift, um Drohnen oder andere Waffen ganz autonom
handeln und töten zu lassen. Vermutlich ist die Präzision aber noch
nicht ausgereift genug, sodass man einen enormen Backlash im Falle
eines Unfalls zu befürchten hätte. Noch zieren sich die Staaten
also, Killerroboter einzusetzen, was noch ein kurzes Zeitfenster
für eine etwaige Regulierung oder ein Verbot eröffnet. Dieses zu
nützen, dazu will die globale Kampagne aus fast 200 Organisationen
ihre jeweiligen Regierungschefs drängen. Seyer fasst die
Kernbotschaft der Kampagne so zusammen: "Es geht darum, wer die
Entscheidung trifft, ob ein Leben genommen wird. Das ist entweder
der Mensch, der Mitgefühl hat und versteht welchen Wert
menschliches Leben hat, oder es ist die Maschine, die von einem
Algorithmus programmiert wurde und davon überhaupt keine Ahnung
hat." Es ist der immer wieder angesprochene "human in the loop",
der nach Ansicht der Aktivistinnen und Aktivisten eben keinesfalls
aus der Tötungsschleife genommen werden dürfe. Ohne das dem
Menschen inhärente schlechte Gewissen beim Töten, würde die Zahl
solcher Angriffe drastisch steigen, glaubt auch Thomas Hajnoczi,
ehemals Österreichs Botschafter bei der Uno in Genf und später
Leiter des Referats für Abrüstungsfragen im Österreichischen
Außenministerium. Dass gewisse Grade an Autonomie und KI bei Waffen
heutzutage nun einmal dazugehören, wollen weder Seyer noch Hajnoczi
bestreiten, es gehe aber um die berühmte rote Linie. Der Mensch
bilde diese. Und das Argument von Befürwortern autonomer Waffen,
wonach sie keine Fehler machen würden, wie das bei Menschen immer
wieder der Fall ist, und dass dadurch menschliches Leid verhindert
werden könnte, will Seyer nicht gelten lassen. Das genaue Gegenteil
sei der Fall, die Fehleranfälligkeit zu hoch, die Gefahr dass
Kinder mit Spritzpistolen oder jeder mit einem Turban angegriffen
werde, oder auch dass es zu schlichten Verwechslungen sich ähnlich
sehender Menschen komme, schlicht und ergreifend zu hoch, so die
Obfrau.
Killerrobotern zu schützen. Ihr Problem? Fehlende Aufmerksamkeit
und oftmals ein fehlendes Bewusstsein für die Tragweite des
Problems. Menschen lassen sich tendenziell nämlich leichter für
eine Sache gewinnen, die aktuell schon ein greifbares Problem
darstellt, als für solche, die sich noch zu veritablen Problemen
entwickeln werden. Deshalb wurde es zu lange verabsäumt der
Klimakrise entschieden entgegenzutreten oder Soziale Medien
rechtzeitig zu regulieren. Freilich ist es aber auch schwieriger
Dinge einmal zu reglementieren, wenn diese schon im Einsatz sind.
Ein gutes Beispiel sind Atomwaffen. Spätestens seit der
Bombardierung von Hiroshima und Nagasaki weiß die Menschheit um
ihre extreme Gefahr. Einmal im Einsatz lassen sie sich Staaten aber
auch nur mehr sehr schwer wegnehmen, wie die in vielen Punkten
vergleichbare Kampagne für ein Verbot von Atomwaffen immer wieder
schmerzhaft lernen muss. Ein möglicher Ausweg aus diesem
scheinbaren Dilemma ist die Ächtung. Die Ächtung einer ganzen
Waffengattung nämlich. Und im Grunde ist es das, was die Kampagne
für ein Verbot von Killerrobotern erreichen möchte. Die autonom
agierenden Waffensysteme – die mit dem vereinfachenden Terminus
Killerroboter beschrieben werden – seien nämlich gar kein Problem
künftiger Generationen mehr, sondern ein reales und riesiges
Problem der Gegenwart. Davor warnt Marit Seyer, die Obfrau der
Österreichischen Kampagne für ein Killerroboter-Verbot, im
Edition-Zukunft-Podcast. Wir müssen sie verbieten, bevor sie
vielfach Unschuldige töten, so der Auftrag. Und sie müssten sozial
geächtet werden. Am Weg zur vollen Autonomie Sieht man sich die
zahlreichen internationalen Beispiele bestehender und bereits in
Einsatz befindlicher halbautonomer Waffensysteme an, so lässt sich
dieser Eindruck tatsächlich bestätigen. Die Technik wäre wohl
bereits ausgereift, um Drohnen oder andere Waffen ganz autonom
handeln und töten zu lassen. Vermutlich ist die Präzision aber noch
nicht ausgereift genug, sodass man einen enormen Backlash im Falle
eines Unfalls zu befürchten hätte. Noch zieren sich die Staaten
also, Killerroboter einzusetzen, was noch ein kurzes Zeitfenster
für eine etwaige Regulierung oder ein Verbot eröffnet. Dieses zu
nützen, dazu will die globale Kampagne aus fast 200 Organisationen
ihre jeweiligen Regierungschefs drängen. Seyer fasst die
Kernbotschaft der Kampagne so zusammen: "Es geht darum, wer die
Entscheidung trifft, ob ein Leben genommen wird. Das ist entweder
der Mensch, der Mitgefühl hat und versteht welchen Wert
menschliches Leben hat, oder es ist die Maschine, die von einem
Algorithmus programmiert wurde und davon überhaupt keine Ahnung
hat." Es ist der immer wieder angesprochene "human in the loop",
der nach Ansicht der Aktivistinnen und Aktivisten eben keinesfalls
aus der Tötungsschleife genommen werden dürfe. Ohne das dem
Menschen inhärente schlechte Gewissen beim Töten, würde die Zahl
solcher Angriffe drastisch steigen, glaubt auch Thomas Hajnoczi,
ehemals Österreichs Botschafter bei der Uno in Genf und später
Leiter des Referats für Abrüstungsfragen im Österreichischen
Außenministerium. Dass gewisse Grade an Autonomie und KI bei Waffen
heutzutage nun einmal dazugehören, wollen weder Seyer noch Hajnoczi
bestreiten, es gehe aber um die berühmte rote Linie. Der Mensch
bilde diese. Und das Argument von Befürwortern autonomer Waffen,
wonach sie keine Fehler machen würden, wie das bei Menschen immer
wieder der Fall ist, und dass dadurch menschliches Leid verhindert
werden könnte, will Seyer nicht gelten lassen. Das genaue Gegenteil
sei der Fall, die Fehleranfälligkeit zu hoch, die Gefahr dass
Kinder mit Spritzpistolen oder jeder mit einem Turban angegriffen
werde, oder auch dass es zu schlichten Verwechslungen sich ähnlich
sehender Menschen komme, schlicht und ergreifend zu hoch, so die
Obfrau.
Weitere Episoden
11 Minuten
vor 3 Tagen
44 Minuten
vor 1 Woche
35 Minuten
vor 2 Wochen
31 Minuten
vor 3 Wochen
23 Minuten
vor 1 Monat
In Podcasts werben
Kommentare (0)