CSI:KI – Wie KI-Forensiker manipulierte Bilder erkennen

CSI:KI – Wie KI-Forensiker manipulierte Bilder erkennen

1 Stunde 2 Minuten

Beschreibung

vor 1 Jahr

Send us a text


Wie schütze ich mich vor Deepfakes? In der heutigen Folge schauen
wir einem IT-Forensiker über die Schulter.

Stellt euch vor, ihr scrollt durch eure sozialen Medien und seht
Fotos und Videos, von denen ihr nicht sicher seid, ob ihr ihnen
noch vertrauen könnt. Laut einer aktuellen Umfrage der Bitkom
sind ganze 70 Prozent der Befragten der Meinung, dass wir heute
nicht mehr bedenkenlos glauben können, was  wir auf Fotos
und in Videos sehen. Aber das ist noch nicht alles – ganze 63
Prozent geben an, dass ihnen Deepfakes Angst machen.

In der Vergangenheit schien es fast unmöglich zu sein,
hochwertiges Video- oder Audiomaterial glaubwürdig zu
manipulieren. Die Herausforderung bestand darin, mindestens
16.000 Datenpunkte pro Sekunde konsistent zu verfälschen. Doch
heute, in Zeiten von künstlicher Intelligenz, ist das kein
Problem mehr. Die Frage, die sich uns stellt, ist: Wie können wir
erkennen, wenn uns Deepfakes täuschen? Denn die Wahrheit zu
erkennen, wird immer schwieriger.

Hilfreiche Tipps und spannende Einsichten hat unser heutiger
Gast, Prof. Dr. Martin Steinebach - Multimedia Security
and IT Forensics Researcher (Fraunhofer SIT),
mitgebracht.

Fundstücke der Woche:


Wie Kriminelle KI-Tools für Verbrechen nutzen

Deepfakes - Gefahren und Gegenmaßnahmen

Missbrauch mit KI: So gefährlich sind Deepfakes

OPITZ CONSULTING
Digitale Service Manufaktur

Disclaimer: This post contains affiliate links. If you make a
purchase, I may receive a commission at no extra cost to you.


Nina & Frank laden sich Gäste ein und sprechen mit ihnen über
aktuelle Entwicklungen im Umfeld der Künstlichen Intelligenz.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: