Apple plant Scanning von Geräten auf Kinderpornographie

Apple plant offenbar, in Zukunft flächendecken Geräte auf illegale Inhalte, insbesondere Kinderpornographie, durchsuchen zu wollen. So sollen mittels eines Scanning-Verfahrens Dateien auf allen Geräten untersucht werden können. Dabei setzt Apple darauf, mittels Hashwerten, die bei jeder Datei einzigartig sind, die verbotenen Inhalte aufzuspüren. Die entsprechenden Hashwerte sollen dabei aus einer Datenbank stammen, die kinderpornographische Inhalte sammelt. Sobald ein bestimmter Hashwert entdeckt ist bzw. sobald eine bestimmte technische „Schwelle“ überschritten wird, sollen demnach weitere Schritte eingeleitet werden. 

Mit dieser Technik wird letztlich also die Möglichkeit eröffnet, Inhalte eines Endgerätes (zB iPhone) gegen Hashwerte bestimmter Dateien abzugleichen, um so bestimme Inhalte auffinden zu können.

Kritik erhielt das Vorhaben von mehreren Seiten.

Matthew Green, ein Kryptografie-Professor von der Johns Hopkins University in Baltimore, befürchtet etwa, dass Apples Infrastruktur später missbraucht werden könne, beispielsweise zum Scanning von aktuell Ende-zu-Ende-verschlüsselten Inhalten. „Apple würde etwas so komplexes und kompliziertes nicht bauen, wenn sie keine anderen Verwendungszwecke dafür hätten“, so Green.

Aber auch andere Stimmen kritisierten Apples Vorhaben. Insbesondere US-Bürgerrechtsorganisationen warnen, das Scanning werde letztlich die sichere Nachrichtenübermittlung über Messaging-Dienste „auf der ganzen Welt gefährden“. So sieht der Co-Direktor des Center for Democracy & Technology (CDT) in der Technologie „eine Infrastruktur für Überwachung und Zensur, die nicht nur in den USA, sondern auf der ganzen Welt missbrauchsanfällig ist“.

Auch die Electronic Frontier Foundation (EFF)  betrachtet die Initiative als „vollständig ausgebautes System, das nur darauf wartet, dass der Druck von außen die geringste Änderung“ hinsichtlich der Inhalte nach denen gescannt wird, bewirkt. So wirft beispielsweise der Chef von Whatsapp, Will Cathcart,  die Frage auf, ob Apple auch auf iPhones in China verwendet und dort danach sucht, was die chinesische Regierung als illegal einstuft. Neben der Gefahr staatlichen Missbrauchs schaffe das Verfahren außerdem Schwachstellen, „die Kriminelle ausnutzen können“, so etwa die Internet Society (ISOC).

Quellen:

Update:

Als Reaktion auf die Kritik an der geplanten Suche nach Fotos mit Kindesmissbrauch erläutert Apple Details zu der Überwachungsfunktion. Hashwerte der Nutzerfotos sollen künftig nicht nur mit einer, sondern mit zwei oder mehr Datenbanken, die unabhängig von zwei oder mehr Kinderschutzorganisationen eingereicht werden sollen, die in unabhängigen Gebietskörperschaften tätig sind, also nicht unter der Kontrolle derselben Regierung stehen, verglichen werden.

Außerdem nennt Apple 30 positive Übereinstimmungen als Schwelle, ab der weitere Schritte unternommen werden. Wenn diese Trefferschwelle überschritten wird, soll ein weiterer Datenbankabgleich mögliche Fehltreffer auf den Geräten ausschließen. Erst danach sollen Apple-Mitarbeiter überprüfen, ob die beanstandeten Fotos tatsächlich Missbrauchsmaterial enthalten.

In dem Fall, dass ein Fehlalarm so ausgeschlossen wurde, deaktivieren die Prüfer das betreffende Konto und melden den Benutzer der Kindersicherheitsorganisation, die mit den Strafverfolgungsbehörden zusammenarbeitet, um den Fall weiter zu bearbeiten.
Apple verspricht darüber hinaus  alle Forderungen zurückweisen, wonach die Prüfer auch andere Fotos als Missbrauchsdarstellungen an die Behörden weiterleiten sollen.

Auch ein Nackt-Scanner für iMessage, der Kinder vor sexuellen Inhalten bzw. Nacktbildern schützen soll, soll anderen Programmen mit Upload-Funktion zur Verfügung gestellt werden.

Quellen:

Update:

In einer Mitteilung hat Apple kürzlich bekannt gegeben, die umstrittene Scanning-Technologie zunächst zu verschieben: https://www.heise.de/news/Umstrittene-Kinderschutzfunktionen-in-iOS-15-Apple-schiebt-Einfuehrung-auf-6181788.html

Update: 

Möglicherweise soll in Zukunft die o.g. Technologie auch Verwendung in Apples iMessage-Dienst finden, um auch hier ein sog. Grooming zu verhindern bzw. zu bekämpfen. 

Quelle: https://www.heise.de/news/Apple-Manager-iCloud-beste-Plattform-zur-Kinderporno-Verbreitung-6172543.html