Künstliche Intelligenz und das verzerrte Abbild der Realität

Künstliche Intelligenz und das verzerrte Abbild der Realität

Im Gespräch mit Philipp Koch
35 Minuten

Beschreibung

vor 3 Jahren
In der dritten Folge des #DMW Podcasts spricht Ariana Sliwa von den
#DMW mit Philipp Koch. Philipp ist Machine Learning Engineer, Data
Scientist, Consultant und Hochschuldozent. Im Jahr 2016 hat er
Limebit gegründet, ein Software-Unternehmen für Machine
Intelligence, zuvor hat er einige Jahre bei IBM gearbeitet. Alexa,
Siri und der Terminator – die Assoziationen beim Begriff Künstliche
Intelligenz (KI) sind vielfältig, aber nicht immer positiv. Häufig
wecken sie sogar die Angst, dass Maschinen bald unser Leben und
Denken übernehmen, dass Software die Menschen in der Arbeitswelt
ersetzen könnte. Aber davon sind wir weit entfernt, beruhigt
Philipp Koch. Und weil KI mit so vielen Vorstellungen und Ängsten
behaftet ist, bevorzugt er den Begriff Machine Learning. Dieser
drücke besser aus, dass es mehr um eine etwas klügere
Automatisierung geht als um wirklich intelligentes Verhalten. Und
diese Automatisierung bringt viele Vorteile, beispielsweise wenn es
um die Verarbeitung und Interpretation großer Datenmengen oder um
repetitive Prozesse geht. Und genau deshalb sind Daten kein „Müll“,
der lästigerweise gespeichert werden muss, sondern ein Rohstoff,
der nützliche Informationen bietet. Doch wie gut die Maschinen am
Ende zu einem zufriedenstellenden Ergebnis kommen, hängt vor allem
vom „Training“ ab. Eine Aufgabe der Software-Entwickler:innen ist
es deshalb, dafür zu sorgen, dass die Daten, die der Algorithmus
verwendet, möglichst diskriminierungsfrei sind. Und vielleicht, so
Philipp, verbiete es sich dann eigentlich, mit historischen Daten
zu arbeiten, in denen sich soviel Bias (Verzerrung) und
Diskriminierung angesammelt hat. Mehr über Philipp Koch findet Ihr
auf seinem LinkedIn-Profil
https://www.linkedin.com/in/Philipp-koch-berlin und auf der der
Website seines Unternehmens www.limebit.de Hier geht es zu
https://opendiscourse.de/. Die Datenbank hinter Open Discourse ist
die erste granulare, umfassende und maschinenlesbare Aufbereitung
jedes jemals gesprochenen Wortes in den Parlamentssitzungen des
deutschen Bundestages. Sie ermöglicht erstmalig gefilterte
Recherchen in den Reden und Zwischenrufen der Politker:innen und
Fraktionen. Wer Interesse an Arianas Bachelorarbeit mit dem Titel
“The Relevance of Ethics in the Development of Machine Learning
Systems” hat, folge diesem Link:
https://drive.google.com/file/d/1Y9iWyq0_GB6-8-atuKv3ItH3FYXxQQka/view?usp=sharing
Quellen zu den genannten Beispielen, bei denen das
Machine-Learning-Modell mit unzureichenden Daten trainiert wurde:
J. Vincent (2018, Jan. 12), “Google ‘fixed’ its racist algorithm by
removing gorillas from its image-labeling tech," The Verge.
https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai
P. Dave (2018, Nov. 27), “Fearful of bias, Google blocks
genderbased pronouns from new AI tool," Reuters.
https://www.reuters.com/article/us-alphabet-google-ai-gender-idUSKCN1NW0EF
J. Dastin (2018, Oct. 10), “Amazon scraps secret AI recruiting tool
that showed bias against women," Reuters.
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
#DMW – der Podcast der Digital Media Women beschäftigt sich damit,
wie stark Digitalisierung und Gleichberechtigung zusammenhängen.
Wir sprechen mit Expert:innen, berichten aus der Praxis, teilen
besondere Geschichten, möchten Tipps an die Hand geben und zum
Mitmachen motivieren. Die #DMW arbeiten für mehr Sichtbarkeit von
Frauen auf allen Bühnen – ob Konferenzen, Fachmedien oder
Management Board. Wir unterstützen und vernetzen Frauen, die den
digitalen Wandel vorantreiben. Webseite: www.digitalmediawomen.de
Facebook: https://www.facebook.com/DigitalMediaWomen Twitter:
https://twitter.com/digiwomende Kontakt: info@digitalmediawomen.de

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: