Bekämpfung von Kindesmissbrauch: Apple prüft und scannt iCloud Inhalte, Fotos & Videos

❯ Media Markt: 19% MwSt geschenkt
auch auf iPhone, iPad & Macs!

Gegen die „sexuelle Ausbeutung von Kindern“ richtet sich eine neue Klausel in der Datenschutzerklärung von Apple, die im Mai 2019 hinzugefügt wurde. Apple behält sich das Recht vor, hochgeladene Inhalte auf „potentiell illegales Material“ zu überprüfen. Die Bekämpfung von Kindesmissbrauch seitens Apple können wir nur begrüßen, allerdings wirft der neue Passus auch einige Fragen auf.

Apple scannt und prüft hochgeladene Fotos auf Kindesmissbrauch – aber wie?

Im Gegensatz zu vielen anderen Anbietern hält Apple den Datenschutz seiner Nutzer sehr hoch. Dennoch scheint Apple auf Inhalte zugreifen zu können, die eigentlich (bei eingeschalteter 2-Faktor-Authentifizierung) sowohl bei der Übertragung als auch auf dem iCloud Drive verschlüsselt sein müssten. Und womit scannt und prüft Apple die Inhalte?

In der aktualisierten Apple Datenschutzerklärung ist unter „Wie wir personenbezogene Daten nutzen“ zu lesen:

Wir können Ihre personenbezogenen Daten auch für Zwecke der Account- und Netzwerksicherheit verwenden, in dem wir, zum Wohle all unserer Nutzer, unsere Dienstleistungen durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern, schützen.Apple Datenschutzerklärung

Laut Andrew Orr ist es sehr wahrscheinlich, dass Apple für die Überprüfung von Fotos zum Schutz von Kindern vor Kindesmissbrauch vermutlich PhotoDNA verwendet, das von Microsoft entwickelt wurde und Fotos sowie Videos speziell auf kinderpornografische Inhalte untersucht. Dabei werden für Videos und Fotos per speziellem Verfahren einen unique Hash errechnet und gegen eine Datenbank abgeglichen. Dennoch bleibt die Frage: zu welchem Zeitpunkt kann Apple die Inhalte überprüfen, wenn die Übertragung und Speicherung in der iCloud verschlüsselt erfolgt? Als einzige Erklärung bleibt eigentlich nur die Überprüfung vor dem Upload auf die Apple Server lokal auf dem Gerät.

iCloud: nur angemessene Inhalte erlaubt

Ein weiterer Punkt ist folgender Abschnitt, der aufzeigt, dass Apple „irgendwie prüfen“ kann, ob Inhalte, die in iCloud abgelegt wurden, entsprechend der Vereinbarung angemessen sind. Auch hier bleiben Fragen offen: einerseits lässt uns die fehlende Definition von „angemessen“ die Augenbrauen rümpfen, andererseits bleibt ungewiss, wie Apple die Inhalte in der iCloud darauf überprüfen will.

Bei Apple iCloud stimmt der Nutzer folgendem Passus zu (zu finden in Abschnitt C. Entfernung von Inhalten):

Apple behält sich jedoch das Recht vor, jederzeit zu prüfen, ob Inhalte angemessen sind und mit dieser Vereinbarung übereinstimmen, und Apple ist berechtigt, Inhalte jederzeit ohne vorherige Ankündigung nach eigenem Ermessen herauszufiltern, zu verschieben, abzulehnen, zu modifizieren und/oder zu entfernen, wenn diese Inhalte diese Vereinbarung verletzen oder in sonstiger Weise anstößig sind. iCloud Vereinbarung

Wir finden die Bekämpfung von Kindesmissbrauch ein unglaublich wichtiges Thema, allerdings lässt sich die Überprüfung und Scannen der eigenen Inhalte durch Apple nicht wirklich in das Bild einordnen, dass Apple keinerlei Zugriff auf die Inhalte seiner Nutzer habe.

Reader Interactions

Was meinst Du dazu