Privatsphäre und Datenschutz:Apple will iPhones durchsuchen

Lesezeit: 2 min

Apple in der Kritik (Foto: BRENDAN MCDERMID/REUTERS)

Apple will auf iPhones nach Bildern von sexualisierter Gewalt an Kindern suchen. Sicherheitsexperten und Journalistenverbände sind entsetzt.

Von Helmut Martin-Jung

Es gibt kaum etwas, über das sich Gesellschaften weltweit so einig sind wie darüber: Sexualisierte Gewalt an Kindern lehnen Kommunisten und Kapitalisten genauso ab wie religiöse Fundamentalisten und Atheisten. Was also, dachte man sich ganz offenbar beim iPhone-Hersteller Apple, könnte schon dagegen sprechen, ein wenig mitzuhelfen dabei, die zu enttarnen, die solches Material über Apples Cloud-Speicherdienst teilen?

Eine ganze Menge, wie sich herausstellt, seit Apples Plan bekannt wurde. Viele Sicherheitsexperten und Journalistenverbände zeigen sich entsetzt, dass direkt auf den Geräten ein Mechanismus installiert werden soll, der nach inkriminierten Bildern sucht, sobald sie in die Cloud hochgeladen werden. "Werden dann irgendwann per Algorithmus Bilder oder Videos von Regimegegnern überprüft oder Nutzerdaten?", fragt Frank Überall, Bundesvorsitzender des Deutschen Journalisten-Verbandes.

Und wenn eine Regierung verlangt, in ihrem Land nach Bildern zu suchen, die das Regime nicht verbreitet sehen will?

Oder könnte die Regierung von Viktor Orbán in Ungarn "auf diese Weise Bilder der LGBT-Gemeinschaft kontrollieren lassen", wundert sich Dieter Bornemann, Sprecher des ORF-Redakteursrats. Und Priscilla Imboden von der Schweizer Mediengewerkschaft SSM, früher USA-Korrespondentin, schäumt: "Es kann nicht sein, dass hier ein amerikanisches Privatunternehmen über die Zulässigkeit von Inhalten urteilen und diese auch noch einsehen und weiterleiten will." Dass Apple gleich eine ganze Reihe von Sicherheitsstufen eingebaut hat, dass konkurrierende Unternehmen ihre Clouds längst mit weniger Datenschutz nach solchen Bildern scannen, geht in der emotional geführten Debatte unter.

Ein kritischer Punkt allerdings bleibt. Um inkriminierte Bilder zu suchen, wird eine Datei mit einer Art von digitalen Fingerabdrücken, sogenannten Hashes, auf die iPhones gespielt. Was wäre, wenn eine Regierung von Apple verlangen würde, in ihrem Land eine Datei mit Hashes von Bildern einzuspielen, die das Regime nicht verbreitet sehen will? Apple argumentiert, das werde man nicht zulassen. Die Dateien würden mit den weltweit gleich zusammengesetzten Updates für das Betriebssystem ausgespielt.

Grundlage für die Datei mit den Fingerabdrücken der inkriminierten Bilder sei der Input zweier voneinander unabhängiger Kinderschutzorganisationen aus unterschiedlichen Ländern, eine Regierung könne da nichts hineinschmuggeln. In einem 14-seitigen Papier erklärt Apple seine Sichermaßnahmen en detail. Unklar bleibt aber auch dann, was passiert, wenn eine Regierung, etwa die chinesische, fordert, Apple müsse in ihrem Land eine chinesische Version der Hash-Datei einspielen.

Gegen Peking dürfte es Apple schwerfallen, standhaft zu bleiben - der Konzern kann auf China als Absatzmarkt und als Produktionsstandort nicht verzichten. Mag die Absicht auch gut gewesen sein, warum muss ein kommerzielles Unternehmen Aufgaben erfüllen, die eigentlich Staaten erledigen sollten? Was immer das Motiv war, die Technologie ist nun in der Welt.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusMeinungTech-Industrie
:Apple geht ein hohes Risiko ein

Der Konzern will iPhones nach Bildern von Kindesmissbrauch scannen - gibt sich aber auch als Retter der Privatsphäre.

Kommentar von Helmut Martin-Jung

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: