Skip to content

Rückropple

Dann war da noch die Geschichte, wo Apple mehrere neue Systeme angekündigt hat, die verkauft wurden als 'Schutz von Kindern': Eins, was bei iMessages mit Bildern mit zu viel nackter Haut anspringen soll, und vor deren öffnen warnen (und bei unter 13-jährigen auch die Eltern), und eins, was auf dem iPhone in Fotos nach solchen suchen soll, die einer Liste ähneln, die eine Organisation als Missbrauchsdokumentation gemeldet hat. Da hat Apple als erstes den Fehler begangen, beide gleichzeitig anzukündigen (weil, hat ja beides mit Kindern zu tun?) und dann fiel vor allem auf, dass damit Apple die Geräte seiner Kunden nutzt, um in deren Daten nach etwas zu suchen, was irgendwie Bäh wäre. Da kam ziemlich schnell ziemlich viel Gegenwind aus der Sicherheits-Experten-Ecke, worauf Apple dann PR-Geruder angefangen hat. Dann ist irgendwo aufgetaucht, dass das Hash-System, was Apple einzusetzen angekündigt hat, schon seit iOS 14.3 mit obskurem Namen im System versteckt war, wo es jemand dann mal rausgepuhlt und mit Bildern beworfen hat. Stellte sich raus: Das meldet für total offensichtlich verschiedene Bilder gleiche Hashwerte. Darauf Apple: Ja, aber in echt haben wir da noch andere Magic. Wieder blöd: Von der war in der Ankündigung irgendwie nie die Rede.

Der (vorerst) letzte Schritt: Apple hat dann mal angekündigt, sich doch nochmal genauer Gedanken machen zu wollen, was, wie und wann man denn tun wolle. Vielleicht kommt dann ja etwas dabei raus, was weniger auf "vertrauen Sie uns, wir wollen nur das Beste für Sie" herausläuft, und klarer darstellt, inwiefern sichergestellt ist, dass da nicht gerade die Grundlage für eine erweiterte Überwachung von iPhone-Nutzern gelegt wird. Denn Wünsche danach werden mit Sicherheit kommen, das ist nur eine Frage der Zeit.

tweetbackcheck