Kindesmissbrauch-Scanning auf iPhones – warum das so gefährlich ist | #heiseshow

Kindesmissbrauch-Scanning auf iPhones – warum das so gefährlich ist | #heiseshow

Podcast
Podcaster
Jede Woche Donnerstag live (SD-Video)

Beschreibung

vor 3 Jahren
Apple hat angekündigt, direkt auf iPhones und iPads nach
Darstellungen von Kindesmissbrauch ("Child Sexual Abuse Material",
kurz CSAM) suchen und Funde an Behörden melden zu wollen. Die
Kritik an den Plänen, die anfangs nur in den USA umgesetzt werden
sollen, ist laut und ziemlich einhellig, bislang weicht der
US-Konzern aber nicht zurück. Versuchte Apple bisher, sich als
Verteidiger der Privatsphäre und des Datenschutzes zu präsentieren,
geht es hier "um nichts weniger als im System verankerte Wanzen",
lautet die Kritik. Zwar geht es hier um Darstellungen von
Kindesmissbrauch, aber weitere Sachverhalte könnten hinzukommen,
wird befürchtet. Worum es technisch geht und was hier auf dem Spiel
steht, besprechen wir. Was genau hat Apple vor, wie soll das
Scanning funktionieren? Wie begründet Apple die Pläne? Wie lassen
sich die Reaktionen zusammenfassen und gibt es abseits der vielen
Kritik auch Lob? Was genau wird kritisiert? Welche Gefahren sind
mit dem Scanning verbunden? Wie hat Apple auf den Widerspruch
reagiert? Apple geht es um die Foto-Bibliothek, was ist mit Apps?
Losgehen wird es in den USA, sollen andere Staaten folgen? Was
bedeutet der Schritt direkt für Nutzer und Nutzerinnen? Welche
weitere Entwicklung scheint absehbar? Darüber und über viele
weitere Fragen auch aus dem Publikum sprechen Jürgen Kuri (@jkuri)
und Martin Holland (@fingolas) mit heises Senior Fellow Security
Jürgen Schmidt (@ju916) und Leonhard Becker von Mac&i
(@fscklog) in einer neuen Folge der #heiseshow.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: