Beschreibung

vor 6 Monaten

KI und Voreingenommenheiten: Ein kritischer Blick auf
Biases in der Technologie | Mind | Machine





In dieser Episode von Mind | Machine tauchen Eliot Mannoia,
Experte für emotionale und Verhaltenspsychologie, und Manuela
Machner, KI-Coach für Tourismusunternehmen, tief in das Thema der
Voreingenommenheiten in künstlichen Intelligenzen ein.


Sie erörtern, wie Gender- und Rassen-Biases sowie andere
gesellschaftliche Vorurteile in KI-Modellen manifestiert werden
und welche Auswirkungen dies auf unsere Gesellschaft hat.


Entdeckt, wie KI oft nur die vorhandenen gesellschaftlichen
Biases widerspiegelt, da sie mit bereits voreingenommenen Daten
trainiert wird.


Erfahre auch, wie KI in der Praxis unerwünschte Ergebnisse
liefern kann, und höre Beispiele aus dem Alltag, die zeigen, wie
tiefgreifend und subtil diese Biases sein können.


Diskutiert mit uns die Möglichkeiten, wie Technologie genutzt
werden kann, um wissenschaftliche Herausforderungen zu meistern,
und wie sie hilft, Medikamentenwirkungen präziser zu verstehen,
indem geschlechtsspezifische Reaktionen berücksichtigt werden.
Erkundet mit uns innovative Ansätze zur Minimierung von Biases
und die Bedeutung eines kritischen Umgangs mit den Daten, die in
unsere Technologien einfließen.


Begleite Eliot und Manuela auf dieser aufschlussreichen Reise,
die zeigt, wie wichtig es ist, sowohl die Technologie als auch
unsere eigenen Wahrnehmungen stetig zu hinterfragen und zu
verbessern.


Die Podcast Partner:


Manuela Machner, KiNET.ai - www.kinet.ai

Eliot Mannoia, BrandKarma - www.brandkarma.at



Podcast-Tipp:


https://harpa.ai



Verpasse keine Folge und folge uns auf deinem
Lieblings-Podcast-Kanal für mehr inspirierende Dialoge zwischen
Mensch und Technologie.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: