Cupertino fordert Vertrauensvorschuss
Kinderporno-Scan: Apples Antworten lassen viele Fragen offen
Stellt euch vor, das schwedische Einrichtungskaufhaus IKEA hätte am vergangenen Donnerstag automatisierte Fotoprüfungen in euren Wohnzimmern angekündigt. Ab Herbst würden aus diesem Anlass kleine Roboter entsandt, vorerst nur in die vier Wände aller amerikanischen IKEA-Kunden, perspektivisch jedoch weltweit.
Die Roboter prüfen alle aufgebauten Billy-Regale auf in diesen abgestellte Fotoalben, die ihr in der kommenden Woche mit aus dem Haus nehmen wolltet. Werden Alben gefunden, sollen diese gewissenhaft durch geblättert werden. Die Roboter lassen alle Fotos von nahezu fehlerfreien Algorithmen erfassen und gleichen diese dann mit einer Datenbank ab, in der die digitalen Fingerabdrücke von Fotomotiven hinterlegt sind, auf denen die sexuelle Ausbeutung von Kindern zu sehen ist.
Aber keine Angst: Finden IKEAs Roboter, die nicht nur eindeutig identische, sondern auch ähnliche Bilder melden, in euren Alben mögliche Treffer, werden diese durch Angestellte des Möbelhauses noch einmal händisch geprüft, ehe die Behörden verständigt werden.
Apple macht es digital
Der Aufschrei wäre wohl gigantisch ausgefallen. Die Kunden des Möbelhauses hätten viele offene Fragen gehabt und wohl energisch auf Antworten gepocht: „Ich kenne den Inhalt meiner Foto-Alben, natürlich habe ich solch furchtbare Schnappschüsse nicht im Haus. Dass muss ich niemandem beweisen, erst recht keinen Robotern, die möglicherweise eklatante Fehler machen. “
Genau diese Reaktion erlebt Apple gerade, nachdem der Konzern Ende der vergangenen Woche eine entsprechende Überprüfung privater Bilder angekündigt hat.
Um auf den (zurecht) lauten Aufschrei zu reagieren, der seitdem auf Apple niederprasselt, hat das Unternehmen inzwischen ein FAQ-Dokument veröffentlicht, das Antworten auf häufige Fragen zur angekündigten Fotoüberprüfung liefern will. Das hastig veröffentlichte 6-Seiten-Dokument (PDF-Download) weicht allerdings eher aus als konkret zu werden.
Apple setzt auf das Vertrauen seiner Nutzer
Trotz immerhin 12 beantworteter Fragen ist weiterhin völlig unklar, wie viele Foto-Fingerabdrücke Apple mit den Geräten seiner Anwender abgleichen will und wo genau diese von wem zusammengestellt werden. Apple spricht lediglich von der NCMEC und „anderen Kinderschutzorganisationen“. Prozesse was die Erstellung, den Zugriff und die Erweiterung der Datenbank angeht, bleiben unklar.
Zudem scheint Apple vor allem auf den Vertrauensvorschuss seiner Nutzer zu setzen und bleibt vage. Die Frage „Könnten Regierungen Apple dazu zwingen, andere Bilder in die Liste aufzunehmen?“ beantwortet der Konzern etwa schlicht mit „Apple wird derartige Forderungen ablehnen“. Im Text fehlt nur noch die Barschel-Fußnote, mit der Tim Cook stellvertretend für Apple sein Ehrenwort gibt.
Vor versehentlichen Anzeigen soll „eine menschliche Überprüfung“ durch Apple-Mitarbeiter schützen. Im Zweifelsfall entscheiden über die vermeintliche Legalität eurer Urlaubsfotos also die selben Personen, die in den zurückliegenden Jahren zahlreiche Fehlentscheidungen beim Zugang zum App Store getroffen haben, der bekanntlich ebenfalls auf „menschliche Überprüfungen“ setzt.
Wir gehen davon aus, dass unsere Leser die skizzierten IKEA-Roboter nicht durch die Wohnungstür lassen würden und wundern uns darüber, was Apple zu der Annahme veranlasst hat, dass dies auf unseren Telefonen akzeptabel wäre.
Zum Nachlesen
- Kinderporno-Scan: Apple hofft auf ein Missverständnis
- Kinderporno-Scan auf allen iPhones: Apple erntet Kritik von allen Seiten
- Dickpic per iMessage: iOS 15 warnt vor Penis-Bildern
- Missbrauchsfotos: Das iPhone prüft mit iOS 15 auch lokal
- Kindesmissbrauch: Apple scannt iCloud-Fotos auf bekannte Bilder
Ich finde es schon speziell wenn Apple auf meinem Gerät nach Sachen suchen kann. Da kann ich mir dann auch gleich ein Google Handy kaufen, wenn das so ist.
An sich ist die Idee von Apple ja toll. Aber ich will trotzdem nicht das die auf meinem Gerät schnüffeln.
Ich glaube niemand will das. Es ist gut gegen Kinderpornos vorzugehen, absolut, aber das ist nicht Aufgabe eines Privatunternehmens und schon gar nicht bei jedem ohne jegliche Begründung und nur weil es eben sein könnte. Das hat mit der viel gepriesenen Privatsphäre von Apple nichts mehr zu tun. Ich sehe das als großen Vertrauensbruch und damit wird die Tür zu jeglichem Missbrauch geöffnet.
sehr ich genauso
++++
Letzten Monat hat die EU genau das beschlossen, alle TK Anbieter müssen diese Scans durchführen.
Das heißt es wird keine Rolle spielen ob du Apple, Google oder Microsoft nutzt, wobei letztere das ganze schon seit letztem Jahr machen (korrigiert mich wenn ich mit dem Zeitraum falsch liege)
@Chris 100 % richtig. Das ist eine Vorgabe die alle erfüllen müssen. Apples Version ist schonmal technisch in Ordnung.
Einfach nach „EU Scan Beschlossen“ suchen. 1. Treffer
Das muss jeder Hersteller in irgendeiner Form machen. Apples Variante ist wohl die datenschutzfreundlichere.
Die EU hat lediglich beschlossen, dass die Anbieter legal scannen können (nicht müssen!).
Referenz
https://www.heise.de/news/EU-Parlament-erlaubt-flaechendeckende-Scans-nach-Kinderpornografie-6130267.html
Richtig, trotzdem scannen alle größeren Anbieter schon seit Jahren freiwillig jedes Fotos das in die Cloud geladen wird bzw. das über deren Server läuft.
Warum drängt sich Apple dann auf. Könnten sie doch einfach lassen.
In der Cloud! Aber nicht auf Deiner Hardware!
Der feine Unterschied ist: Bei Apple wird schon auf dem Endgerät selbst nach Inhalten gesucht.
Die EU hat AKTUELL beschlossen das gescannt werden darf ABER es wird bereits über eine Verschärfung diskutiert (vertagt auf September).
Vielleicht sollten sie lieber einen Scanner für Planungen von Brüsseler Sexparties der Abgeordneten installieren.
sorry aber ich finde es nicht in Ordnung das es langsam keine geschützten privaten Bereiche mehr gibt.
es sei denn Du bist Politiker sonst stehst Du unter Generalverdacht.
Was kommt als nächstes?
Wurde nicht beschlossen das Nachrichten wie Chats und Mails gescannt werden dürfen? Die Bilder, welche aufgenommen und lokal gespeichert werden gehören meiner Meinung nach nicht dazu.
Weiter finde ich es bedenklich, das man bei einem Verdachtsfall nicht informiert wird
Ich finde das Feature absolut nicht in Ordnung, aber in der FAQ von Apple steht ganz klar
„The system does not work for users who have iCloud Photos disabled. This feature does not work on your private iPhone photo library on the device“
Also NICHT auf dem Gerät.
Habe mal einen Frage: habe gelesen das die Hash-Datenbank auf dem Gerät liegen soll. Wie groß mag die wohl sein?
Da sich solche Hash recht gut komprimieren lassen, wahrscheinlich nicht sehr groß. Der Rechenaufwand für diese Aktion steigt halt noch ein wenig an. Bereits jetzt rechnet das iPhone ja nachts, welche Motive auf deinen Bildern zu sehen sein können, oder welche Personen abgebildet sind. Da hängen die einfach ein weiteres Modul dran, welches diesen Abgleich zusätzlich durchführt. Spannend wird wie die Ähnlichkeit ermittelt wird. Vergleichbare Verfahren reduzieren im ersten Schritt die Auflösung der Bilder sehr stark. Auf das Ergebnis wird dann ein Hash gebildet. Stimmt dieser überein, sind die Bilder laut Algorithmus zumindest ähnlich. Die Fehlerquote dabei ist allerdings enorm hoch. iFun hat ja neulich ein Beispiel gezeigt, dass dann beispielsweise als ähnlich angesehen werden würde, obwohl es grundsätzlich unterschiedliche Motive zeigt.
Das ist hier aber eine sehr tendenziöse Berichterstattung. Ich hab es schon in einem anderen Forum geschrieben, warum Apple das macht und warum es mehr Vorteile als Nachteile hat und warum sich für alle nichts ändert:
Ich fasse mal zusammen, was da überhaupt passieren soll, weil es da wohl schon einen Haufen Missverständnisse gibt:
Derzeit werden bei allen US-Cloudanbietern diese Fotos nach diesen Bildern durchsucht, im Trefferfall von Mitarbeiter gesichtet und dann an Ermittlungsbehörden weitergeleitet.
EU-Cloudanbieter müssen das demnächst genauso machen, die Gesetzgrundlage wurde im Juli beschlossen.
Apple wird zukünftig genau das Gleiche machen, wenn man die iCloud-Mediathek benutzt (wo bekanntlich alle Fotos in die Cloud geladen werden), aber nicht erst bei Eintreffen der Fotos in der Cloud, sondern lokal.
Wird die iCloud Mediathek nicht aktiviert, passiert nichts
Fazit: Wer die iCloudmediathek nutzt und bisher auch genutzt hat, für den ändert sich nichts. Wer sie nicht nutzt, für den ändert sich auch nichts.
Die ganze Kritik von Snowden und Green etc. beruht darauf, dass Apple gezwungen werden könnte auch nach anderen Kriterien zu scannen, oder generell auch zu scannen, auch wenn die iCloud-Mediathek nicht genutzt wird.
Diese Argumentation ist aber hanebüchen. Denn es würde ein Gesetz voraussetzen, das nur für Apple gilt. So etwas hat es noch nie gegeben und kann es auch nicht geben. Das einzige was man unterstellen könnte, dass Apple damit die Machbarkeit demonstriert und die Hersteller zukünftig dazu verpflichtet werden könnten.
Die Machbarkeitsstudie ist aber schon passiert. Nicht erst durch Apples Ankündigung, sondern durch sämtliche KI Funktionen und Apps auf heutigen Smartphones, die genau das machen können, nämlich Fotos nach alles Mögliche zu sortieren und zu erkennen.
Jetzt kann man sich die Frage stellen, warum macht Apple das vor dem Upload und nicht wie alle anderen danach. Apple will danach die Bilder in der Cloud nicht mehr entschlüsseln (was bekanntlich alle anderen machen müssen), weil das gesetzlich notwendige bereits auf dem iPhone passiert ist.
Das ist ein großer Vorteil.
Denn tatsächlich könnte jeder Cloudanbieter am Tag X dazu verpflichtet werden auch nach Kriterien XYZ zu suchen. Problem dann für die Cloud-Nutzer: Selbst wenn man dann am Tag X alles löscht, bleiben die Daten noch 180 Tage verfügbar.
Apple könnte dann aber sagen: Geht nicht, wir haben keinen Schlüssel. Wir können das nur ändern, wenn wir die Hashes am Tag X per Update ergänzen. Dann hat aber der Apple User noch Zeit, die entsprechenden Bilder zu löschen – oder das Update zu verweigern.
Danke für deinen Kommentar.
Bin ich jetzt happy über die Entwicklung – nein.
Hilft es mir das Thema besser einzuordnen – ja!
Ich finde ihn auch nett formuliert, aber am Ende ist es nur schöngerede von Fakten. Nur weil heute ein Missbrauch dieser Funktion noch nicht bekannt ist (ist ja auch neu), ist es so sicher wie das Amen in der Kirche, dass sie Missbraucht werden wird. Das hat die Geschichte schon unzählige Male bewiesen.
Als ob Länder wie China sich davor scheuen würden ausschließlich ein Unternehmen zu etwas zu zwingen. Wenn es keinen Rechtsstaat gibt funktionieren dessen Prinzipien auch nicht. Und nur weil das bei uns nicht denkbar ist, muss es andernorts nicht genau so aussehen. Firmen und auch Apple haben sich da mehrfach sehr flexibel gezeigt, was „lokale Besonderheiten“ anbelangt.
Sehr blauäugig diese Argumentation in meinen Augen also.
Die Argumentation ist nicht blauäugig, sie ist sehr rational. Wenn es danach geht, hätte es vor Jahren den Aufschrei geben müssen, als die anderen Anbieter in der Cloud gescannt haben. Damals gab es übrigens vereinzelt Berichte das Nutzer plötzlich wegen unverfänglichen Fotos (ja Fehler passieren) die Polizei vor der Türe stehen hatten. Hier und anderswo nutzt man wunderbar den Namen Apple, da man damit Klicks generiert und nicht mehr.
Lieber WillyW: Wenn man Apple in anderen Länder dazu zwingen würde auch nach anderen Sachen zu suchen, dann verlangen die das auch von Samsung, Xiaomi und Co.
Jedes Smartphone hat bereits die KI, die das kann, sonst könnte dein Smartphone nicht alleine Fotos sortieren und Kategorisieren.
Sicherlich könnte man Apple dazu zwingen, zum Beispiel in China das so zu machen, aber ganz bestimmt nicht nur Apple. Das wird da übrigens schon von Tencent genauso gemacht.
sehe ich auch so
+1
Meines Wissens sind die Fotos in der iCloud nicht Ende zu Ende verschlüsselt .
Korrekt und genau das soll geändert werden. Da die Bilder aber auf KiPo zu durchsuchen sind, geht das nur, wenn die Fotos vor dem Upload danach durchsucht werden. Das kann man der schematischen Darstellung von Apple gut erkennen. Nur wenn eine gewisse Anzahl von positiven Treffern erfolgte, werden diese nicht Ende zu Ende verschlüsselt und gesichtet.
Genau richtig – die Fotomediatheken in der iCloud sind aktuell NICHT verschlüsselt.
Das googlen hätte kürzer gedauert als dein „Wissen“ hier zu verbreiten. Fotos sind verschlüsselt.
So lange ein unbekannte Anzahl an Dritten deinen priv. Key haben, sind die Fotos, wie auch alle anderen Daten, als nicht verschlüsselt anzusehen. Da gibt es absolut keine Diskussion.
So ganz kann das ja dann aber auch nicht stimmen: Wenn es nir darum geht, die Verschlüsselung nicht aufzubrechen, wie will Apple denn dann an die Bilder zur Kontrolle kommen, wenn sie keinen Schlüssel für die Bilder in der Cloud haben? Direkt aus dem iPhone? Dann reden wir hier von einer Hintertür. Für mich geht es dann wohl eher dahin Rechenleistung in der Cloud zu sparen. Zumindest nach deiner Beschreibung.
Erkannte Bilder erhalten einen Voucher (Ersatzschlüssel), den Schlüssel dieses Bild zu entschlüsseln hat Apple.
Hey danke, für diese ausführliche Antwort!
Hast du dazu noch weiterführende Quellen für Interessierte?
Was ist an dem Artikel tendenziös? Der Vergleich mit den IKEA Robotern ? Ist aus meiner Sicht schon treffend.
Und es ist halt was dran, öffnet man diese Tür wird es nicht lange dauern bis in China nach anderen Sachen gescannt wird. Zensur vom feinsten.
Dazu fand ich icloud für Fotos schon super, jetzt werde ich es auf eine lokale Synology Lösung mit eigener „Cloud“ umbauen, hab keine Lust, dass Apple Mitarbeiter meine Fotos anschauen.
Ich habe zwar kein iPhone mehr, aber Synology ist schon super und habe ich auch seit einiger Zeit, da ich nichts bei Google&Co hochladen möchte, und so unbegrenzt Speicherplatz habe. Einrichten und Bedienung ist super-easy.
Das ist ein Scherz oder? Du fandest iCloud für Fotos super, obwohl da schon seit Jahren deine Fotos nach KiPo durchsucht wurde und Apple diese entschlüsseln konnte? Dann müsstest Du über die neue Funktion jubeln, denn dann sind deine Fotos sicherer als vorher, weil keine Behörde nach dem Upload mehr darauf zugreifen kann.
Die Argumentation kam ich so halb nach voll ziehen. Ich frage mich immer noch, warum das auf dem iPhone ausgeführt werden muss? Apple scheint die Scand ja bereits bei in der iCloud gespeicherten Fotos (oder beim hochladen) durchzuführen.
https://www.iphone-ticker.de/kindesmissbrauch-apple-scannt-icloud-fotos-auf-bekannte-bilder-151938/
Was geht jetzt mehr, was vorher nicht schon ging?
Jetzt werden (vermutlich) alle lokal gespeicherten Bilder mit Hashes versehen und auf dem iPhone abgespeichert.
Wer garantiert, dass diese Hashes nicht irgendwann (evtl. auch auf staatlichem Druck hin) das iPhone verlassen?
Danach ist es ein leichtes – für wen auch immer – Hashes von Fotos auf Twitter, Facebook etc. zu erstellen und mit den Hashes der iPhones abzugleichen. Schon weiß man woher das Foto kam bzw. wer es auf seinem iPhone hat.
Bei einem geschätzten Marktanteil von mindestens 50% aller Fotos durch das iPhone – ist das schon ein potentiell massives Kontrollinstrument…
Diversen Berichten nach werden die Fotos zukünftig verschlüsselt. Damit wäre ein Scan auf den Servern nach den Datenschutzbestrebungen nicht mehr möglich, also muss der vor dem Upload passieren. Bei anderen Anbietern werden die Fotos übrigens weiter auf den Servern gescannt. Ist das besser oder gleich? Ich finde den Ansatz Fotos auf Servern nur noch verschlüsselt liegen zu haben wesentlich beruhigender, als wenn ich weiß das Anbieter XYZ dort meine Fotos nach belieben durchsuchen kann und die dort offen rumliegen.
Es bietet dann aber auch die Möglichkeit: Hashes von den iPhones mit Hashes von anderen Fotos zu vergleichen.
Das bedeutet die Rückverfolgung von ca. 50% aller Fotos weltweit – und nicht alle haben das Glück in unserer Welt zu leben.
Ich bitte um Quellen:
Wann und wo hat die EU irgendwas verordnet? Wundert mich, da ich davon nichts bekommen habe. Und bitte Quellen die Belegen dass Microsoft, Google & Co das tun, bzw auch tun müssen.
Du siehst also keine Bedenken? Letztes Jahr hiesss es noch erst in der Cloud wird gesucht, jetzt heisst es es wird Lokal gesucht und was kommt morgen? Die Mittel heiligen nicht den Zweck. Wir reden hier von veralteten Datenbanken die kein Kind schützt da der Missbrauch schon stattfand, dennoch betreibt Apple eine riesenaufwand. Warum ist es für dich also unverständlich bis Apple nach anderen Dingen sucht?! Wie lange wird es also dauern bis man nicht nur nach Hashes sucht, denn das ist der größte Schwachsinn überhaupt, weil neues Material unentdeckt bleibt und somit Missbrauch weiterhin stattfindet. Eine Datenbank ist nur so gut und so aktuell wie sie gepflegt wird. Viel logischer und effektiver wäre es als wenn Apple nach nackter Haut oder primären Geschlechtsteilen sucht und genau das wird der nächste Schritt sein! Dann muss man aufpassen wenn man auf SM steht und dementsprechend solche Bilder macht. Was reitet Apple hier den Moralapostel zu spielen? Unsere Polizei wird doch nicht jedem Fall hinterherlaufen der ein paar CP Bilder hat. Das Ergebnis hat man ja beim Metzelder gesehen wo unsere Gerichte versagen! Wie will man die großen Fische damit fangen um wirklichen Missbrauch zu verhindern. Ihr könnt mir doch nicht sagen dass die Profis solche Bilder auf ihren iPhones geschweige denn Cloud speichern. Wer will hier wen veralbern?!?!
https://www.heise.de/news/EU-Parlament-erlaubt-flaechendeckende-Scans-nach-Kinderpornografie-6130267.html
https://www.fr.de/kultur/google-fahndet-nach-kinderpornografie-11243753.html
https://www.schau-hin.info/news/kampf-gegen-kinderpornografie-facebook-google-und-co-verabschieden-neues-regelwerk
https://www.heise.de/newsticker/meldung/Microsoft-meldet-Kinderpornografie-in-Cloud-Diensten-an-deutsche-Ermittler-2516510.html
Reicht das erst einmal?
Danke, ich meinte aber wo die lokale Suche verpflichtend ist. Dass mit den Clouds war mir schon bekannt.
@mike: Die ist nicht verpflichtend, aber wenn der Cloudanbieter die verschlüsselt speichern will ohne selbst den Schlüssel zu haben, muss das Durchsuchen auf dem Gerät selbst passieren. Eine andere Lösung gibt es nicht.
Wir mögen hier in der EU noch ein gewisses Maß an Rechtsstaatlichkeit genießen – so sieht die Situation z.B. in China ganz anders aus. Wer dort in Zukunft Winnie Pooh Memes mit Xin Jinping auf seinem iPhone hat, dürfte mit Abzüge von seinem Social Credit Points rechnen. Die Ausrede, dass ein Scan nach solchen Bildern nicht möglich ist, gilt fortan nicht mehr und könnte eine Bedingung für Apple werden, auf dem chinesischen Markt iPhones zu verkaufen (Apple hat in China im Q3 ’21 mal eben knappe 15 Mrd Dollar Umsatz generiert…).
Schön umschrieben nur falsch! Ob ich Cloud Dienste nutze ist mein Ding und der Risiken bin ich mir bewusst. Was aber auf meinem Telefon gespeichert ist geht nur mich was an und bei begründeten Verdacht die Staatsanwaltschaft die danach über einen Beschluss versuchen kann Daten auszulesen.
Was Apple macht ist vorauseilender Gehorsam! Damit ist Tür und Tor geöffnet für missbrauch.
Alle scannt ja nur Fotos, die in die Cloud hochgeladen werden.
Es gibt keinen Zwang der eu scannen zu müssen , sondern zu dürfen…kleiner Unterschied.
Niemand hat die Absicht eine Mauer zu bauen.
Logikfehler dabei (unter anderem): eine Verschlüsselung ist nur dann eine Verschlüsselung, wenn außer dem Anwender niemand die Daten beziehungsweise Fotos entschlüsseln kann. Und das ist bei Apples iCloud leider immer noch nicht der Fall. Apple besitzt sozusagen einen Nachschlüssel.
Danke für die sehr gute Erklärung. Ich denke, Apple hat hier von allen Anbietern die beste Möglichkeit geschaffen. Mir ist es doch völlig egal, an welcher Stelle die Fotos gescannt werden. Gescannt werden müssen sie. Apples Lösung ermöglicht aber mehr Sicherheit für den User, da die Cloud dann verschlüsselt werden kann. Ich verstehe den Aufschrei gegen Apple auch nicht. Der Handel mit KiPo muss erschwert, besser noch ganz verhindert werden.
Da ja nur bekannte Bilder per hash gefunden werden können frage ich mich, welches geheime Bild jemand verbreiten möchte und wer das dann warum verhindern möchte.
Wenn zum Beispiel staatliche Gewalttaten dokumentiert werden sollen und Bilder davon verbreitet werden kann es dem Staat doch erst auffallen, wenn das Bild bereits weit verbreitet wurde und dadurch bekannt ist. Dann ist es aber zu spät.
Bitte korrigiert mich wenn ich zu wenig Fantasie habe.
Und wenn ein Mitarbeiter tatsächlich per Auge meine falsch positiven nachprüfen müsste, so what? Als ob es irgendeinen Ami interessieren würde, wie meine Frau oder ich nackt aussehen (worst case, will ich keinem zumuten!). Da gibt es doch so viele frei zugängliche erotische Bilder. Ich habe gehört, es gibt sogar schon PornoFILME! So interessant sind wir alle nicht!
Ich vermute allerdings, bevor jemand persönlich zig-tausende Bilder in Augenschein nimmt wird nicht der hash verglichen, sondern das original Bild (natürlich per Software) Alles andere wäre doch völlig unsinnig, da es ja um schon bekannte Bilder geht.
Was mich an deinem Text stört; wenn die Cloud-Anbieter ihre Online-Alben durchsuchen MÜSSEN (schreibst du zumindest), dann dürfte es relativ egal sein, was Apple vorher lokal macht. Oder ist irgendwo beschrieben, das die lokale Suche die Online-Suche unterbinden kann?
Wirklich gut geschrieben und anschaulich für jeden erklärt was gerade passieren soll
Wenn ich Fotos von meinen Kindern in der Badewanne habe, dann wird da wahrscheinlich direkt ein Alarm bei Apple losgehen. Dabei ist es ganz natürlich
Nur wenn der Algorithmus diese als ähnlich zu in der Datenbank bestehenden Bildern betrachtet. Dazu müssen aber keine nackten Kinder auf den Bildern sein. Es kann auch ein grundsätzlich anderes Motiv sein.
So ist es wohl nicht. Der NeuralHash deiner Fotos wird mit denen in einer Datenbank abgeglichen.
Keine Ahnung ob es hier zu Falsch/Positiv Meldungen kommen kann.
Prinzipiell ist aber auch zu beachten, dass keiner weiß welche Hash’s in dieser Datenbank gespeichert sind. Denkbar wäre auch, dass diese um andere Bilder erweitert wird die keine CSAM sind.
Gruselig…
Ich habe zahlreiche Bilder aus dem Familienalbum abfotografiert, mein Bruder und ich in der Badewanne vor vielen Jahren. Unsere eigenen Kinder haben meine Frau und ich nie so fotografiert, fanden die alten Bilder aber lustig. Jetzt muss man also auch bei alten Familienfotos aufpassen. Ich habe Clout und Backup und alles was online gespeichert wird deaktiviert, werde alles wieder lokal am PC sichern. iCloud-Abo gekündigt.
Da diese Fotos wohl kaum in einer entsprechenden Datenbank liegen werden, gibt es da auch keine Probleme. Auch das Argument das es zu Fehlern kommen kann ist müßig. Man beschreibt in der Doku sehr ausführlich das die Chance eines false-positive bei etwa 1 zu 1 Trillionen liegt. Außerdem läuft auch das Argument das vollkommen verschiedene Fotos gleiche Hashwerte erzeugen könnten ins Leere. Natürlich kann auch ein Apfel und eine Birne einen Treffer auslösen, wenn der Schwellenwert entsprechend niedrig eingestellt ist. Das scheint aber der Doku nach hier nicht der Fall zu sein. Dahingehend finde ich die meiste Berichterstattung eher für den Otto-Normalverbraucher kontraproduktiv, als hilfreich.
Das tritt deutlich öfter auf als du denkst:
In the six years that I’ve been using these hashes at FotoForensics, I’ve only matched 5 of these 3 million MD5 hashes. (They really are not that useful.) In addition, one of them was definitely a false-positive. (The false-positive was a fully clothed man holding a monkey — I think it’s a rhesus macaque. No children, no nudity.)
Quelle: https://www.hackerfactor.com/blog/index.php?/archives/929-One-Bad-Apple.html
Solange der Schwellenwert nicht bekannt ist, ist die Diskussion müßig. Wenn ich den entsprechend ansetze, sind auch Birne und Apfel ein Treffer. Und dennoch passieren Scans täglich in der cloud.
Die lokale fotoprüfung findet für Bilder statt die in iCloud hochgeladen werden.
Macht es nicht besser. Aber ein Verhalten bei Apple zu kritisieren, dass bei One-Drive, Dropbox, Google-Drive seit Jahren Gang und Gäbe ist, (Dort jedoch serverseitig nach dem upload, ist etwas scheinheilig.
In iCloud ist es bekannt, dass die Fotos gescannt werden. Aber nun auf dem lokalen Handy eben nicht.
Es gibt Menschen, wie mich, die in iCloud keine Bilder hochladen. Generell nur lokal privates speichert.
Der Scan betrifft nur Bilder die in iCloud hochgeladen werden. Diese werden vor dem upload gescannt. Der Scan ist so gesehen Teil des Upload Prozess
Bilder die nicht in iCloud geladen werden, werden nicht gescannt.
Woher hast du diese Information? Mir ist nur bekannt dass lokal auf dem Handy gescannt wird, unabhängig vom Upload zur iCloud.
Das steht alles in der Dokumentation. Leider ist die Berichterstattung da sehr oberflächlich.
Richtig. In den Clouds (nicht nur iCloud) bereits lange Standard. Jetzt geht es um die Leute, die eben keine Cloud-Angebote nutzen.
@msp:
Falsch, der Scan von Bildern in der iCloud ist schon länger Standard.
Nun gehts um den Scan, lokal, in deiner Fotos App
Nein!!!!
Die Informationen stammen aus der Primärquelle. Technische Spezifikation in Form eines mehrseitigen PDF direkt bei Apple.
Wenn ich meine Daten auslagere ist das ja noch ok, aber auf dem eigenen Gerät nicht mehr.
Am Thema vorbei map es geht hier um lokale Bilder auf deinem phone die nicht in die cloud hochgeladen werden!
Ja Scan findet Lokal statt. Aber nur die Bilder, die hochgeladen werden, werden als Teil des upload Prozess werden gescannt. Lokale Bilder werden nicht gescannt.
+1 wo ist es
Das passiert bei iCloud seit letzten Jahr auch schon Serverseitig. Aber da habe ich die Wahl es nicht zu nutzen. Hier fingert Apple gleich an meinen lokalen Fotos herum, das geht zu weit. Sie stellen jeden der ihre Geräte nutzt unter Generalverdacht. Vor allem wo soll das enden? Welcher Suchmodus wird als nächstes eingebaut? Oder ist die nächste Stufe dann, dass ein Foto von einem freien Oberkörper gar kein Foto mehr „auslöst“. Und hier sind wir dann auch schon mittendrin in der Selbstzensur.
Es geht nur um Bilder die in die Cloud geladen werden. Ist der Cloud Upload aus, wird auch nichts lokal gescannt, ist der Upload an, wird lokal „statt wie bisher“ in der Cloud gescannt. Es ändert sich also sowohl für Nutzer der Cloud nichts, wie auch nicht für Anwender, die die Cloud nicht nutzen.
Prima, dass Apple das nun auch macht. Mein nächstes Smartphone wird dann ein Xiaomi…da spare ich einen Haufen Geld.
„Apple setzt auf das Vertrauen seiner Kunden“
Wenn ich schon solche Aussagen höre… Apple und insbesondere Tim Cook können mich mal kreuzweise. Die können mir noch so viele Fragen beantworten und Ausreden erfinden, eine Hintertür bleibt eine Hintertür.
Sollte dies geschehen, ziehe ich echt den Schlussstrich mit Apple.
Und dann konsequent sein und gar kein Computer mehr von irgendein Hersteller kaufen. Sonst wäre es nur heuchlerisch.
Nein, dann kann ich auch China-Krempel kaufen, fahre auch nicht schlechter und spare einen Haufen Geld…
Wo ist denn da die Hintertür? Apple hat keinen Zugriff auf deine Daten, wenn Du die Cloud nicht nutzt.
Bitte vergesst nicht, dass Apple dafür kaum etwas kann. Sie müssen das so umsetzen und alle anderen Messenger ebenso. Dies ist eine Forderung von Sicherheitspolitikern aus den USA, der EU und DE. Egal wie wir das jetzt finden, einen Rückzieher wird es da nicht mehr geben.
Sende mir doch bitte mal den Link dazu, damit ich mir das mal durchlesen kann!
Brauch er nicht, da sind andere IT-Seiten etwas genauer. Bei Golem steht dazu was. Hinzu weiß mannshohe genau, wer die Datenbank füttert. An der wird nämlich bereits seit Jahren in Kooperation mit den Polizeien und Microsoft gearbeitet. Dazu gab es sogar mal eine sehr gute TV-Reportage 2019. Dahinter steckt extrem viel Arbeit, denn alles wird sehr genau ausgewertet. Man wohl so viel Material, dass die Datenbank noch über Jahre gefüttert werden kann und leider kommt ja auch immer neues dazu. Wir sollten cool bleiben und nicht sofort den Aufschrei üben. Wirklich. Noch ist nicht alles bekannt, da müssen wir jetzt eben noch was warten. Aber da es alle Messanger implementiert haben müssen, wird es ja eh noch ein Dauerthema bleiben.
Einfach nach „EU Scan beschlossen“ suchen. 1. Treffer
Zum Beispiel kannst Du diesen Artikel lesen:
https://www.zeit.de/politik/ausland/2021-07/datenschutz-missbrauch-eu-parlament-internetanbieter-grooming
Oder den hier:
https://www.patrick-breyer.de/chatkontrolle-eu-verordnung-zur-flaechendeckenden-und-verdachtslosen-durchsuchung-elektronischer-nachrichten-angenommen-klage-geplant-widerstand-gegen-ausweitung/
Oder Du hörst Dir die letzte Folge Logbuch: Netzpolitik an:
https://overcast.fm/+Hx_lIr-0o/33:31
Nein ist es nicht. Niemand hat Apple dazu gezwungen diese Funktion lokal einzubauen.
In der Cloud ja. Aber on Device rumschnüffeln? Ne. Denkt bitte daran, dass dies irgendwann auch andere Daten betreffen kann.
Wahrscheinlich hat Apple niemand dazu gezwungen es ist aber eine EU Verordnung die folge geleistet werden muss.
Nein, die EU erlaubt es…da muss nicht zwangsweise geschnüffelt werden…
Aber nicht auf dem Device
Nein, aber wenn die Fotos verschlüsselt in der Cloud liegen sollen, dann muss das scannen vor dem Upload passieren, anders geht es nicht.
Mich wundert, dass man viele Dinge einfach so hinnimmt. Der Aufschrei mag da sein, aber Kommentare wie „So ist das nunmal und es gibt kein Weg zurück.“ sind nicht ungefährlich für die menschliche Zukunft.
Jeder einzelne von Euch kann selbst etwas dazu beitragen, z.B. mit dem Geldbeutel. Wenn Euch das wirklich stört, was die da treiben, dann kauft halt kein iPhone mehr und unterstützt dieses ohne andere Projekte nicht.
Dann heißt es aber weiter, es geht nur iPhone, Android kommt garnicht in Frage… Selbst dann gibt es noch unzählige Möglichkeiten…
Lies bitte die Kommentare nochmal etwas durch. Für diese Scans gibt es gesetzliche Vorgaben. Gegen diese müsste man protestieren. 99% der Menschen kämen aber nie auf die Idee, so einen Gesetzestext überhaupt zu lesen.
Mit der Begründung, Kinder zu schützen, bekommt man jedes Gesetz problemlos durch, bei den Parteien und beim Volk.
Die wenigsten denken technisch und prinzipienorientiert. Ein einziger Virus macht ein ganzes System kaputt.
Eigentlich bliebe nur offene Hardware und Software.
sascha, bitte wo steht denn was von gesetzlichen vorgaben? bspw. beschreibt der heiseartikel eine ent-illegalisierung der scans, nicht aber eine verordnung bzw. vorgabe der eu, die privatunternehmen dazu verpflichtet zu scannen. widersprüchlisch ist auch: es wird (vorerst) nur in den usa freigeschaltet, wenn das eine eu-verodnung ist, warum.. muss ich nicht zu ende schreiben ;)
bspw. schreibt netzpolitik.org:
„Doch ab 21. Dezember gibt es für das routinemäßige freiwillige Durchleuchten von Uploads keine rechtliche Grundlage mehr.
Das neue Gesetz soll das ändern und eine Ausnahmeregelung für das freiwillige Scannen von Videos, Bilder und Chatnachrichten wegen möglichen Fällen von Kindesmissbrauch schaffen. Nach Wunsch des Parlaments soll die Durchleuchtungserlaubnis auch Verkehrs- und Verbindungsdaten umfassen, die von automatisierten Systemen nach Schlüsselwörtern und verdächtigen Mustern durchsucht werden dürfen.“
https://netzpolitik.org/2020/gesetz-gegen-kindesmissbrauch-eu-parlament-gibt-weg-frei-fuer-durchleuchten-privater-nachrichten/
[…]Does this mean Apple is going to scan all the photos stored on my iPhone?
No. By design, this feature only applies to photos that the user chooses to upload to iCloud Photos, and even then Apple only learns about accounts that are storing collections of known CSAM images, and only the images that match to known CSAM. The system does not work for users who have iCloud Photos disabled. This feature does not work on your private iPhone pho- to library on the device.[…]
Also nur die die in die Cloud geladen werden!
Ich verstehe nicht wie das Unternehmen mit einem der Besten Marketing und Kommunikations Teams der Welt, es nicht hinbekommt diese essenzielle Information deutlicher zu kommunizieren.
Absolut korrekt, das ist mir auch schleierhaft, wie man dieses absolut essenzielle Information in keinster Weise deutlich kommuniziert hat. Aus der Diskussion der letzten Tage musste man zwingend annehmen, dass immer gescannt wird, auch ohne iCloud Upload. Hier hat sich Apple ein riesiges Eigentor geschossen.
Apple hat das sehr klar kommuniziert. Aber mit tendenzieller Berichterstattung erzeugt man mehr Klicks. Es gibt auch Seiten, die das sehr genau und sehr sachlich beschrieben.
Wenn man Gotos in die Cloud hochlädt, ist das „Feature“ aktiviert und scannt Deine Fotos AUF DEINEM iPhone bereits und gleicht es AUF DEINEM iPhone mit der CSAM Datenbank ab.
Ein Scan auf deinem Device findet statt.
Solltest Du Deine Fotos jedoch nicht (!) mit iCloud synchronisieren Findet der OnDevice Scan auch nicht statt.
ablehnen und protestieren schön und gut – aber das beantwortet erst nicht die Frage ob es erzwungen werden kann. Und erinnern wir uns an’s Fisa Court (danke, Snowden!), ist auch auf öffentlich bekannte Gesetzgebungen nicht allzu viel Wert zu geben… Schlicht ein Werkzeug wie es nie existieren sollte, da es für den Missbrauch viel zu attraktiv ist…
Was ist, wenn jemand die Hash Datenbank entschlüsselt und es schafft, Bilder zu erstellen, die normal aussehen, aber bei der Prüfung anschlagen? Dieser jemand, versendet die Bilder dann an ganz viele WhatsApp Gruppen. Da WhatsApp standardmäßig die Bilder erstmal in der Fotobibliothek speichert, würde bei ganz vielen Benutzer plötzlich die Algorithmus anschlagen.
Und dann steht die Polizei vor der Tür und tritt diese ein.
Neue Form des Swattings?
Dafür müsste erstmal eine bestimmte Summe von Bildern vorhanden sein und hochgeladen werden. Nur auf dem iPhone passiert nichts.
Ein Hash ist eine einwegfunktion. Dort gibt es kein „Entschlüsseln“. Das wird bewusst so gehandhabt um Inhalte auf diesen Listen nicht durch das aufführen auf der Liste noch bekannter zu machen. Apple gibt an dass weniger als 1 aus 1 Trillionen Bildern fälschlicherweise mit einem auf der List verwechselt wird. Dementsprechend brauchst du viele Trillionen Bilder um genug Bilder zu haben, mit denen du deinen Plan in die Tat umsetzen kannst.
Es ist aber kein Hash sondern ein Neural Hash. Ob der genau diese mathematischen Eigenschaften aufweisen kann, wäre erst zu prüfen.
bei der Gesichtserkennung zum Beispiel gibt es ja bereits Tricks, wie man Fotos so manipulieren kann, dass sie falsch anschlagen:
https://youtu.be/AuMZt6TWUV0
Das kannst Du doch jetzt schon machen, wenn Du es wolltest. Egal ob Android oder IOS. Wer die Fotos in der Cloud speichert, dessen Fotos wurden schon seit Jahren nach KiPo durchsucht. Hat irgendwie niemanden interessiert.
Also alle die nicht iCloud Photos aktivieren sind dann unter Generalverdacht da sie Bilder vor dem Scan verbergen
Genau, wie alle die Android benutzen.
Nochmal den Artikel ergänzt:
Die Technische Spezifikation von Apple (mehrseitiges PDF) beschreibt ganz klar, dass der kiPo Scan nur auf Bilder angewendet wird, die in iCloud hochgeladen werden. Dabei wird zu Bildern die auf iCloud hochgeladen werden das Ergebnis der Hash-Prüfung hinzugefügt.
Bilder die nicht auf iCloud hochgeladen werden, werden nicht geprüft. Lokale Mediatheken sind nicht betroffen.
Nahezu alle anderen Cloud Dienste und sozialen Netzwerke Prüfen jetzt schon auf die Liste Bekannter KiPo. Dort findet die Prüfung serverseitig nach dem upload statt. Apple hat jetzt ein Verfahren Entwickelt wie die Prüfung lokal vor dem upload stattfinden kann.
Die Erkennung ist erstmal nur in den USA aktiv. Die Falsch positiven Rate wird von Apple von unter einem Fall auf eine Trillionen Bilder angegeben. Eine Meldung wird überhaupt erst für Apple einsehbar wenn mindestens ein Treshold von mehreren Bildern überschritten wird.
Perfekt ist es nicht, Man kann und soll das kritisch sehen. Eine Prüfung auf dem lokalen Gerät ist eine große Grenze die eingerissen wird. Aber die Diskussion sollte schon auf Basis der Fakten geführt werden.
P.s.: In den USA werden übrigens auch die Bilder und Livestreams von Ring-doorbells und anderen Cloud Kameras direkt an die örtliche Polizei weitergeleitet, ohne vorherige Prüfung.
die false-positve rate liegt bei eins zu einer billion, nicht trillionen. das entspricht einem unterschied von sechs nullen. darfst also auch gern bei den fakten bleiben, mein freund ;-)
Mir drängt sich ja stark der Eindruck auf, Datenschutz ist nur eine weitere Marketinghülse ohne Substanz, ähnlich wie das permanente Greenwashing oder Menschenrechtsgeblubber. Sobald es ernst wird werden alle Werte über Bord geworfen.
Sobald der Staat es möchte müssen sich Unternehmen beugen. Das sollte keine Überraschung sein. Und so ist es auch richtig.
Vor allem mit dem Totschlag-Argument KinderPusteblume klappt das super. Da weiß jeder, dass sich niemand gegen die Verfolgung stellen würde. Ich befürchte, da kommt in den nächsten Jahren noch mehr. Das ist nur der Türöffner.
Das Ganze dient dem Datenschutz. Bisher müssen Fotos in Clouds unverschlüsselt sein, damit diese auf KiPo durchsucht werden können. Apple kann dann aber die Fotos verschlüsselt in der Cloud Speicher, weil sie der Verpflichtung zum Scan bereits nachgekommen sind vor dem Upload. Während bei Amazon, Google, Microsoft und Co. auf Verlangen auf alle deine Fotos zugreifen kann, kann Apple sagen: Wir haben den Schlüssel nicht!
Danke, leider werden genau diese Punkte in der Berichterstattung vergessen.
Deine Aussage ist komplett falsch.
Apple hat die privaten Schlüssel jedes iCloud-Users. Es besteht also grundsätzlich immer Zugriff auf alles. Es gibt meines Wissens keine Aussage seitens Apple, dass iCloud Fotos >zukünftig< gesondert verschlüsselt werden. Eventuell habe ich da was übersehen, hast du da eine Quelle für mich?
Was du nicht verstehst, oder ignorierst, oder nicht wahr haben möchtest:
Wenn das in der Cloud passiert, dann können private Geräte unangetastet bleiben. Jedem sollte klar sein, dass „die Cloud“ etwas anderes ist als das persönliche Gerät. Die meisten hier haben kein Problem damit das ihre Fotos in der Cloud gescannt werden! Das begreifst du einfach nicht.
In der Cloud = OK
Auf dem Gerät = Nicht OK
Es geht darum das dies nur der erste Schritt ist. Nur die erste Datenbank mit Hashes. Nur der erste Datentyp der gescannt wird. Der prinzipielle Fakt das auf meinen Geräten Dritte ohne mein Wissen (ich kenne ja die Datenbank nicht) nach Informationen suchen, ist inakzeptabel.
Un nochmal: In der Cloud ist das absolut OK, weil ich meine Daten da aus der Hand gebe, nicht aber lokal auf meinem Gerät. Eine Prinzipsache!
Das komplett egal! Für die, die iCloud nutzen, von mir aus.
Aber ich nutze iCloud nicht und bekomme nun eine KI aufs Handy, die meine Bilder scannen kann. Kann! Auch wenn’s die noch nicht tut….
Big Apple is watching you – #spyOS15.
Kommt aber erst mit iOS 15 oder ?
Und betrifft mich nur wenn ich die iCloud Fotomediathek aktiviert habe ?
Sehr schlechter Vergleich mit IKEA und den Billy.
Der Vergleich wäre dann passend, wenn tatsächlich ein Scan unabhängig vom iCloud Upload auf dem Gerät stattfinden würde. Wenn es nun tatsächlich so ist, dass lediglich zur iCloud hochgeladen Bilder gescannt werden und damit der Scanvorgang nur von der Server Seite, auf der es bekanntermaßen bei allen Anbietern schon etliche Jahre stattfindet, jetzt auf das iPhone verlegt wird, dann macht es das potenziell sogar sicherer. In diesem Fall ist der Vergleich nicht mehr passend.
Auch im anderen Fall ist es nicht passend, denn Apple schickt uns keine extra Hardware sondern beglückt uns mit einen Feature in einen neuen iOS.
Und wer sagt dir das es so bleibt?
Sollte Apple das wirklich so durchziehen dann war’s das mit iPhone und iMac. Dann werde ich mir was anderes suchen.
ok – mich interessiert wohin du wechseln willst
Kannst mir gerne deine Macs & iDevices geben.
Ich habe mir als Apple Fanboy Gedanken dazu gemacht und fordere von Tim Cook eine Klarstellung
https://redaktion42.com/2021/08/08/ein-offener-brief-an-tim-cook-zu-neuralmatch/
Er wird beeindruckt von diesen auf deutschen Verfassten Eintrag…
Das ist mir völlig egal welche Ziele Apple verfolgt, und mit welchen Mitteln. Sie haben auf meinem Gadget absolut nichts zu suchen. Das mit IKEA kann man ja weiter spinnen. Wie wärs wenn Polizei einfach mal vorbei kommt und still und leise guckt. Eure Haustüren müssen dafür natürlich offen sein. Apple hat das sofort abzustellen, und Punkt.
Auf der EU-Ebene muss natürlich geklagt werden. Wir müssen zusehen, dass die die diese Klagen schon vorbereiten, ordentlich Unterstützung bekommen. Das ist vollkommen indiskutabel, das irgendwer irgendwas scannt. Das muss zur Massenprotesten führen.
Leider wird es das aber nicht – die meisten werden wieder mit „Ich habe doch nichts zu verbergen“ reagieren.
Wie man hier in den Kommentaren sieht regen sich alle nur über Apple auf – weil es auf einmal ganz nah ist. Der eigentliche Aufreger müsste aber die EU-Verordnung sei.
Ich gebe dir vollkommen recht. Die neuen Gesetze sind sowas von untergegangen neben Corona und Überschwemmung und Klimazielen.
Allerdings hätte Apple sich ja auch beschweren können, und trotzdem die Gesetze umsetzen können.
@Igor: Dir EU hat gerade erst die Grundlage dafür geschaffen:
https://www.heise.de/news/EU-Parlament-erlaubt-flaechendeckende-Scans-nach-Kinderpornografie-6130267.html
Der Drops ist gelutscht.
Der Scan auf dem iPhone hat aber Vorteile gegenüber dem Scan in der Cloud, denn nur so können Fotos in der Cloud verschlüsselt werden.
achtung mein hinweis ist völlig wertungs- und meingungsfrei.
in dem artikel steht:
„Die Kommission arbeitet an einem Folgegesetz, das alle Dienstleister zur Überwachung verpflichtet.“ bedeutet im umkehrschluss: noch ist es nicht verpflichtend, sondern freiwillig. korrekt?
Der Trend ist leider sehr groß und schnell geworden, das BigTech sich aufschwingt Richter zu spielen und das die Staaten, es sogar an Big Tech weiterleiten.
Es hat keiner irgendwas auf meinem iPhone zu suchen, es sei denn ein Richter ordnet es an!
Warum werden alle unter Generalverdacht gestellt?
Aber schauen wir uns doch mal die Kreise an, welche so etwas besitzen! Es ist nicht nur der kleine Mann, nein auch die Elite! Siehe Fußballer Metzelder, und kürzlich war es nicht so gar ein Staatsanwalt, der es sogar aus den Akten zog!
Nicht zu vergessen die Grünen wollten und wollen Sex mit Kindern legalisieren!
Als ehemaliges Opfer von sexuellem Missbrauch hätte ich mir gewünscht, genau jetzt groß zu werden. Aber das versteht ihr Idioten alle nicht. Nur weil ihr euren Kindern das nicht antun würdet, gibt es da draußen Menschen wie mich, die einfach nicht diese glückliche wohl beschütze Kindheit hatten.
Denkt man drüber nach, was ihr hier für harte Aussagen trefft! Stellt euch mal vor, wie vielen Menschen es dadurch besser gehen kann. Dachte immer, dass so ein Menschenleben immer so unbezahlbar sei …
Der Kommentar ist natürlich Unsinn, denn die Triebtäter sind jetzt gewarnt und werden sich eine Digitalkamera ohne Netzanbindung zulegen. Da wird die SD-Karte in den PC (ohne Netzanbindung) gesteckt und die Bilder übertragen.
Aber alle anständigen Menschen sollen als potentielle Täter gelten und sich ihre Bilder scannen lassen.
Sorry, ich mache da nicht mit und habe mir gerade eine ‚Canon PowerShot G7‘ zugelegt. Ich habe kein Facebook, kein Instagram, kein Whatsapp und ich werde mir meine Bilder nicht scannen lassen.
Das etwas gegen Missbrauch getan werden muss ist absolut richtig – und ich glaube auch nicht das hier ernsthaft jemand dagegen ist.
Aber der Ansatz ist falsch! Technik kann das Problem nicht lösen und schafft sogar neue Probleme.
Es tut mir von Herzen leid, dass Dir das passiert ist. Die Jagd nach KP sollte auch nie aufhören.
Dieser Weg ist jedoch der falsche, da er autoritären Regimen, Geheimdiensten und anderen dunklen Gesellschaften auch die Möglichkeit gibt, andere Dinge auf Deinem Phone zu scannen.
Nehmen wir das ganze kommt nach Ungarn. Wird Orban wirklich nur KP Fotos Hash’s in die Datenbank laden? Ich glaube nicht.
Wie kommst darauf, das nur Autoritäre danach lechzen? Deutsche Sicherheitsorgane wären als erste sofort dabei.
Und warum sollte Apple das zulassen, wenn Orban das will? Und warum will er das dann nur von Apple, warum sollte ein Android das nicht auch können?
@Thom: Orban ist ein Beispiel, welches ich ran gezogen habe. Kannst Du auch gerne mit Putin, Erdogan oder Xi Ji-Ping ersetzen.
Google hat bisher noch keine On-Device Scans ermöglicht.
@Igor: Geheimdienste habe ich inkludiert in meinem Post.
Dein Kommentar ist blanker Unsinn.
Ich frage mich jetzt ja doch, wie das ifun-Team einen Kommentar durchrutschen läßt, in dem der Verfasser alle anderen Kommentatoren als „idioten“ bepöbelt.
Es ist unglaublich mutig, so einen Kommentar zu schreiben. Und du hast beste Beweggründe.
Allerdings muss man Gesetze und Ähnliches nicht nach ihren Beweggründen beurteilen, sondern wie sie wirklich funktionieren. Beim Kommunismus z.B. habe ich immer den Eindruck, dass sehr idealistische Menschen diesen herbeisehnen. Funktionieren tut er aber nicht und am Ende steht einer mit der Peitsche da und überwacht die Arbeiter: „damit alle gleich sind“.
Viele Menschen haben kein gutes Gespür für Technik. Bei Technik zählt aber nur die Funktionsweise und nicht die Beweggründe. Wenn der Zauberlehrling den Besen herbei gezaubert hat dann putzt der Besen…
Im Prinzip ist kaum noch ein Land mehr politisch frei, weil Apple Google und Co. alles überwachen können beziehungsweise auf Zuruf des amerikanischen Gesetzgebers alles zuliefern müssen..
Aber so wie ich das verstanden hab, werden ja die Geräte nur durchsucht wenn iCloud-Fotos aktiviert ist, richtig? Das geht zumindest aus den FAQs von Apple hervor. Private, On-Device Fotos sind davon nicht betroffen, oder hab ich da was falsch verstanden?
Ja, Apple schreibt das so.
Da steht auch das du keinerlei Informationen oder Einblick in die Daten erhältst nach denen gesucht wird. Die Nutzung kann jederzeit, ohne das deine Zustimmung erforderlich wäre, angepasst, geändert, erweitert werden. Es gibt keine Rechte deinerseits, Apple ist nicht haftbar.
Alles beruht ausschließlich auf Vertrauen.
Einen schönen Tag noch.
Es ist und bleibt einfach nicht Apples Aufgabe nach Porno Bilder zu suchen.Das ist Aufgabe der Justizbehörden.Die schlafen aber gerne und lang.Genau so wie das Jugendamt.Als nächstes wird das Macbook gescannt. Dann die angeschlossenen Festplatten.Wie weit darf ein Soft und Hardware unternehmen gehen. Ist das noch mit Datenschutz vereinbar.? Apple ist kein Staatliches Organ.
Zumal die Kinderpornobilder nur als Vorwand dienen.
Bilder in der Cloud werden gescannt, also auch meine Fotos von Urkunden, Screenshots von Banküberweisungen. Ich vertraue da Apple nicht.
Ich werde mich umorientieren.
Erstmal habe ich mir eine Canon Taschenkamera zugelegt und experimentiere gerade damit.
warum macht man Fotos vom Urkunden und Banküberweisungen?
@coutinho
Weil man paranoid ist?
Quark, falls ich überhaupt noch irgendein Papier habe, mache ich davon ein Foto und werfe es dann weg. Rechnungen oder sonstige Belege.
es ist n Witz, das absolut jeder der ein Handy besitzt, als Kinderpornouser unter generalverdacht gestellt wird.
Das ist lediglich um den Datenschutz auszuhebeln.
Dann kann ja auch jeder Bulle in die Wohnung kommen und alles untersuchen!!!
So wie ich diesen Artikel verstanden habe:
https://daringfireball.net/2021/08/apple_child_safety_initiatives_slippery_slope
sind hier zwei Dinge vermischt: einmal die KI Erkennung, die rein lokal läuft und nur „warnt“ wenn ein Kind z.B. ein entsprechendes Bild bekommt. Das könnte ein harmloses Urlaubsbild fälschlich als problematisch erkennen – aber das ist rein lokal und wird auch von niemandem angeschaut! Auch wenn man so ein Bild in die iCloud packt, passiert nichts!
Der zweite Part ist, dass die Bilder lokal mit der Hash Datenbank abgeglichen werden. Das wiederum lässt so gut wie keine Verwechselungen zu – weil eben nur nach den bekannten Hashes gesucht wird (ohne dass eine KI den Inhalt analysiert).
Die einzige potentielle Gefahr sehe ich darin, dass man in die Hash-Datenbank natürlich prinzipiell auch andere Bilder aufnehmen – z.B. regimkritische Abbildungen.
Aber die Befürchtung, dass auf einmal Apple Mitarbeiter die persönlichen Nakedei-Bilder begutachtet, ist in meinen Augen nicht gerechtfertigt …
Korrekt!
Falsch. Es werden nicht Hashwerte der Dateien verglichen, sondern aus den Bildern Hashwerte mittels des NeuralHash Verfahrens berechnet. Diese können durch ihre Flexibilität (Rotationsinvarianz, leichte Farbverfälschungen, Ausschnitte etc.) deutliche höhere Falsch-Positiv Ergebnisse liefern als klassische Hashverfahren.
Wenn es so zuverlässig wäre, bräuchte Apple keine manuelle Betrachtung mehr bevor es weitergeleitet wird.
Das harmlose Urlaubsbild mag für Dich harmlos sein, in gewissen Staaten ist es das ganz und gar nicht. Und da Apple ohne Not dieses System implementiert, wird die eine oder andere Staatsmacht bei Apple anklopfen und freundlich darum bitten entsprechende Bilder in Zukunft doch für alle zu blockieren, nicht nur für Kinder. So blöd sind die Regierungen nicht, als dass sie nicht wüssten, dass das mit ein paar Zeilen Code getan ist.
Apple leistet damit Zensur und Diskriminierung Vorschub, ich weiß nicht, was das soll.
Ich kann mir Apples Verhalten nur dadurch erklären, dass sie von den US-Geheimdiensten an die Kette genommen wurden und jetzt die Daten genauso teilen wie Google das macht.
–> das iPhone sorgt nicht mehr für Privatsphäre
Habe meiner Frau heute erst wieder Fotos gesendet, wie unser 2 jähriger nackt auf dem Töpfchen sitzt. Muss ich nun mit Konsequenzen rechnen? Wer setzt die Messlatte?
Nein! Maximal stuft die lokale KI das Bild als verdächtig ein und warnt Dich vor dem Senden bzw Deine Frau vor dem Anschauen. Da ist keine Cloud und kein Apple Mitarbeiter beteiligt.
Falls genau dieses Bild (und nur dann stimmt der Hash) in den einschlägigen Datenbanken drin ist und Du es dann in die iCloud packst – dann bekommt es ein entsprechendes Flag. Solange das ein privates Bild ist, passiert da also nichts!
siehe mein Kommentar weiter oben
Meine Bilder sind alle nur über eine analog Fotoapparat gemacht worden und von mir einwickelt worden. Lieber Steinzeit als als Überwachung. Bilder werden von mir per Post verschickt. Was macht Apple dummes Gesicht, oder seit neustem habe ich ein Fotogerät mit einer CD Karte, dazu eine Drucker wo ich die SD Karte reinstecken kann und Bilder ausdrucken kann beides hängt nicht im Netz.Was macht Apple dummes Gesicht. Auf der SD sind auch Filme und die Kamera kann ich an einen Monitor anschliessen. Was macht Apple dummes Gesicht Ich könnte noch mehr Möglichkeiten audzeigen wo man böses machen kann ohne das jemand zugreifen kann
Apple, the biggest plot twist of privacy of the century LOL
Das ganze stinkt gewaltig imho.
Schön anschaulich auf den Punkt gebracht. Deshalb mag ich euch.
Es ist die Aufgabe der Exekutive, nicht eines Privatunternehmens! Zudem wird damit eine rote Linie überschritten, was Freiheitsrechte angeht! Mit dem ersten Glied ist die Kette geschmiedet…
Die skizzierten IKEA-Roboter würde ich an der Eingangstür mit dem Vorschlaghammer empfangen, daß nichts mehr von ihnen übrig bliebe.
Und gegen IKEA Strafantrag wegen aller im Zusammenhang mit einem derartigen Vorgang in Betracht kommenden Delikte stellen.
Apple: zieh Dich sehr warm an! …
P.S.: Vertrauen will erworben werden. Deshalb gibt es von mir keinerlei Vertrauensvorschuß, weder heute, noch morgen. Für niemanden, und erst recht nicht für Apple.
Wie konsequent-weise dieses Vorgehen ist, macht dieser Konzern gerade drastisch-plastisch deutlich.
China und Russland sind sicher schon ganz heiss darauf, mit den Machern mal einen Plausch zu halten. Das muss man doch auch für eigene Zwecke nutzen können! Es geht ja nur um Fotos von Kriminellen und Terroristen – Leute die etwa für Menschenrechte protestieren, die sich gegen die Staatsmacht auflehnen. Oder schwul/lesbische Inhalte in Russland (wo es übrigens KEINE Pride-Watchbänder zu kaufen gibt und auch keine Pride-Watchfaces), oder iCloud-Server für China in China damit alles achön komtrolliert werden kann. Oder keine Facetime in gewissen arabischen Ländern.
Apple schwurbelt immer so gerne von Datenschutz und -sicherheit, Diversität – aber hintenrum wird Diktatoren und totalitären Regime in den Allerwersten gekrochen. Was Apple wichtig ist ist einzig Geld.
Also, ich finde wenn man schon Vergleiche zieht kann man auch folgenden konstruieren:
Jeder Autofahrer steht unter Generalverdacht ein Raser zu sein.
Darum stellt die Polizei Blitzer auf und misst bei JEDEM Autofahrer die Geschwindigkeit.
Sollte einer zu schnell sein gibt es ein Foto. Wenn nicht, passiert … nichts!
Ich find Apples Lösung völlig ok. Ich mag Blitzer nur vor meiner Haustür um mich zu schützen. Aber doch nicht da wo ICH fahre;-) Die sollen gefälligst ALLE anderen Raser erwischen, aber mich nicht behelligen! Der Blitzer MUSS abgeschaltet werden bevor ich komme, denn ich fahre ja NIE zu schnell.
Wasch mir den Pelz, aber mach mich nicht naß.
… Du sagst es … „die Polizei“ … der Staat … fällt Dir was auf?
und auch noch recht wichtig: Im öffentlichen Raum. Oder blitzt die Polizei bei dir auf dem Privatgrundstück bzw. kontrolliert deinen TÜV?
@flo
Dann wäre es also ok, wenn Apple eine Schnittstelle schafft, die es dem Staat / der Polizei erlaubt, diesen Scan auf Deinem Iphone durchzuführen? Oder einen Match des Hashes direkt ungeprüft an die Polizei / den Staat weiterzuleiten?
Also, mir ist diese Lösung viel lieber!
Ach ja, bin seit >10 Jahren „Tagesvater“, stehe von daher als Mann schon immer unter Generalverdacht.Ich finde das aber in Ordnung, wenn dadurch auch nur EIN Pädophiler erwischt wird.Eine Freundin wurde als Kind von Ihrem eigenen Vater misbraucht, ich weiß was das anrichten kann!
Auch, wenn in einem anderen Artikel erwähnt wird, dass 2020 nicht mal 300 Meldungen von Apple an die Polizei gingen ist das für mich kein Grund, das laxer zu händeln. Ich gehe davon aus, daß das daran liegt, dass es in der Szene im Gegensatz zu Normalusern (siehe oben, deshalb der Aufschrei) bekannt ist und deshalb genmieden wird.
…muss ich jetzt echt wieder mein Nokia 8210 aus der Schublade kramen…
Achtung, da geht einiges durcheinander (sicherlich auch wegen Falschinformationen von anderen Webseiten, Magazinen oder Zeitungen). Und diese zusammengestellte FAQ hat bei mir ein paar Fragen beantwortet und etwas Wissen bestätigt, aber keine geöffnet (geschieht nur bei Leuten, die an die Falschinformationen felsenfest glauben und daher gewisse angeblich existierende Paradoxien natürlich unauflöslich zu sein scheinen). Ich kläre hier „kurz“ (leider doch längerer Text geworden) auf, warum sich fast nichts ändert (außer bei iMessage etwas, aber das hat nichts mit möglichen Behörden zu tun), obwohl Komentatorïn @“tommiw“ nur mit kleinen Fehlern fast alles geschrieben hat (nur: alle Kommentare habe ich so spät Nachts noch nicht gelesen, weshalb manches evtl. wiederholt):
Bzgl. lokal gespeicherten Photos: Dieser CSAM Scan erfolgt nur bei Fotos, bevor sie zu iCloud Photos hochgeladen werden. Die iCloud Photos sind auf Apples Servern sowieso nicht Ende-zu-Ende-verschlüsselt (wie die meisten Daten, nur manches Wichtige wie iCloud Keychain, iMessage, Health Data und weiteres sind Ende-zu-Ende-verschlüsselt, wenn 2FA aktiviert ist). Eine detaillierte Auflisteng, was wie verschlüsselt ist, findet man auf Apples englische Seite „iCloud Security Overview“ (Link findet man in jeder Suchmaschine schnell mit den Begriffen „apple icloud security overview“). Davor führten sie sicherlich wie alle großen Cloud-Anbieter den CSAM Scan auf ihren Servern aus. Wenn dies auf den Geräten lokal geschieht, spart Apple einiges an nötigem Aufwand auf ihren Servern. Also wer iCloud Photos (wozu auch Photo Stream gehört und bestimmt auch Photo Sharing) nutzt, für den ändert sich mit iOS 15 & macOS 12 nichts.
Bzgl. Fotos in iMessage: iMessage ist bei aktiviertem 2FA Ende-zu-Ende-verschlüsselt. Hier erfolgt zwar auch ein CSAM Scan, aber wenn es etwas möglicherweise Bedenkliches findet (also nur Fotos, die empfangen wurden oder verschickt werden sollen), dann warnt es lediglich nur den Nutzer, wenn diese(r) über 12 Jahre alt ist. Aber mehr geschieht nicht. Wenn man 12 Jahre alt oder jünger ist, dann waren die Eltern zuständig dafür beim Kinderkonto iMessage zu aktivieren. Die Eltern können dann also einstellen, ob sie zusätzlich zu der automatischen Warnung auch informiert werden sollen. Dort sehe ich keine Bedenken, denn mit 12 oder weniger ist man unter besonderem Schutz und sollten sowieso noch nicht sexuell aktiv sein. Also auch wenn die Eltern intolerant sind und gegen LGBTQ+ sind, könnten sie dies nur bei bis einschließlich zu dem Alter 12 verhindern, aber später nicht. Deshalb ist diese Implementation sogar begrüßenswert, da sie potentiell psychisch schädigende Bilder vom Kind entweder abgehalten oder zumindest vermindert werden können. Und falls das Kind das schädigende Bild sah, kann das Elternteil das Kind zum einen trösten, und zum anderen etwas erklärend und/oder beratend zur Seite stehen und somit den Schaden entweder mindern oder sogar beseitigen.
Das auf dieser Seite versuchte metaphorische Vergleich hinkt gewaltig. Denn diese Billy Regale sind nicht einfach nur lokal, sondern auch auf einer für den Nutzer gemietete Privatfläche, wo nur der Nutzer und IKEA Zugang haben. Wenn das Billy Regal „lokal“ ist, dann kann es nur in einem Vorraum vor dem Zuhause sein, zu dem auch IKEA einen Zugang bereitgestellt bekommen hat, wenn man den Dienst „iCloud Photos“ nutzt. Hat man aber das Bilderalbum nicht in diesem Billy Regal, welches höchstens im Vorraum stehen kann, sondern man hat es im Inneren des Hauses, wo IKEA natürlich kein Zugang bereitgestellt bekommen hatte und daher nicht zum Dienst „iCloud Photos“ gehört, kann IKEA kein CSAM Scan in diesem Bilderalbum durchführen. Man beachte, damit erwähne ich nicht iMessage. Bei iMessage ist es so, als wenn IKEA einem für die Bilder in iMessage ein Roboter schickt und dieser die Bilder überprüfen kann. Aber diesen Roboter muss man nie zurück schicken und hat auch keinen Kontakt zu IKEA. Es kann nur den Nutzer warnen und bei Minderjährigkeit (12 und jüngeres Alter) schickt es den Warnhinweis evtl. auch den Eltern, falls die Eltern den Warnhinweis auch erfahren wollen.
Achtung, da geht einiges durcheinander (sicherlich auch wegen Falschinformationen von anderen Webseiten, Magazinen oder Zeitungen). Und diese zusammengestellte FAQ hat bei mir ein paar Fragen beantwortet und etwas Wissen bestätigt, aber keine geöffnet (geschieht nur bei Leuten, die an die Falschinformationen felsenfest glauben und daher gewisse angeblich existierende Paradoxien natürlich unauflöslich zu sein scheinen). Ich kläre hier „kurz“ (leider doch längerer Text geworden) auf, warum sich fast nichts ändert (außer bei iMessage etwas, aber das hat nichts mit möglichen Behörden zu tun), obwohl Komentatorïn @“tommiw“ nur mit kleinen Fehlern fast alles geschrieben hat (nur: alle Kommentare habe ich so spät Nachts noch nicht gelesen, weshalb manches evtl. wiederholt):
Bzgl. lokal gespeicherten Photos: Dieser CSAM Scan erfolgt nur bei Fotos, bevor sie zu iCloud Photos hochgeladen werden. Die iCloud Photos sind auf Apples Servern sowieso nicht Ende-zu-Ende-verschlüsselt (wie die meisten Daten, nur manches Wichtige wie iCloud Keychain, iMessage, Health Data und weiteres sind Ende-zu-Ende-verschlüsselt, wenn 2FA aktiviert ist). Eine detaillierte Auflisteng, was wie verschlüsselt ist, findet man auf Apples englische Seite „iCloud Security Overview“ (Link findet man in jeder Suchmaschine schnell mit den Begriffen „apple icloud security overview“). Davor führten sie sicherlich wie alle großen Cloud-Anbieter den CSAM Scan auf ihren Servern aus. Wenn dies auf den Geräten lokal geschieht, spart Apple einiges an nötigem Aufwand auf ihren Servern. Also wer iCloud Photos (wozu auch Photo Stream gehört und bestimmt auch Photo Sharing) nutzt, für den ändert sich mit iOS 15 & macOS 12 nichts.
Bzgl. Fotos in iMessage: iMessage ist bei aktiviertem 2FA Ende-zu-Ende-verschlüsselt. Hier erfolgt zwar auch ein CSAM Scan, aber wenn es etwas möglicherweise Bedenkliches findet (also nur Fotos, die empfangen wurden oder verschickt werden sollen), dann warnt es lediglich nur den Nutzer, wenn diese(r) über 12 Jahre alt ist. Aber mehr geschieht nicht. Wenn man 12 Jahre alt oder jünger ist, dann waren die Eltern zuständig dafür beim Kinderkonto iMessage zu aktivieren. Die Eltern können dann also einstellen, ob sie zusätzlich zu der automatischen Warnung auch informiert werden sollen. Dort sehe ich keine Bedenken, denn mit 12 oder weniger ist man unter besonderem Schutz und sollten sowieso noch nicht sexuell aktiv sein. Also auch wenn die Eltern intolerant sind und gegen LGBTQ+ sind, könnten sie dies nur bei bis einschließlich zu dem Alter 12 verhindern, aber später nicht. Deshalb ist diese Implementation sogar begrüßenswert, da sie potentiell psychisch schädigende Bilder vom Kind entweder abgehalten oder zumindest vermindert werden können. Und falls das Kind das schädigende Bild sah, kann das Elternteil das Kind zum einen trösten, und zum anderen etwas erklärend und/oder beratend zur Seite stehen und somit den Schaden entweder mindern oder sogar beseitigen.
Wenn man gegen Kinderpornos vorgehen will sollte man vielleicht erst mal die erwischten Perversen einsperren, statt frei rumlaufen zu lassen, Stichwort Metzelder.
Ich wüsste gerne wieviele Täter bisher überführt wurden, nur weil sie entsprechende Photos bei Google/Microsoft gespeichert hatten.
Wer solche Photos sammelt und weitergibt, verfügt über kriminelle Energie und benutzt kein iCloud/Google/OneDrive dafür. Ich fürchte das ganze wird nicht viel bringen.
Bzgl. Messages: hier gibt es eindeutig keine Vorschrift, die Apple zu so etwas zwingt und andere Firmen machen so etwas auch nicht. Das ganze ist lächerlich. Messages? Meine Kinder benutzen Snap.
Außerdem geht es dabei nicht um kriminelle KiPo sondern um Nacktfotos, fallen darunter auch irgendwelche religiösen Darstellungen oder zB der David von Michelangelo?
Jaja, ich weiß, es wird nur bei Kindern aktiviert, blabla, aber es gibt genug Staaten die werden Apple vorschreiben dass das auch für Erwachsene gilt. Apple schafft sich damit ohne Grund Probleme.
Super, also steht jetzt jeder unter Generalverdacht. Ich glaub sowas gabs schonmal. Das gegen KiPo vorgegangen wird ist absolut richtig, aber deswegen kann man doch nicht die Fotos von jedem/jeder durchsuchen. Zumindest ein Anfangsverdacht sollte schon gegeben sein.
ein ganz wunderbar treffender vergleich, den ihr hier aufführt…
es mag gut gemeint sein – aber apple betritt gerade absolutes minengebiet und ist vollkommen in eine sackgasse geraten…
und ich frage mich: ist so etwas (oder ähnliches) tatsächlich von der EU gefordert bzw. gesetzlich verankert worden?
da haben aber die journalisten in keinster weise aufgepasst…
ich möchte in keinem fall das ein schw…bild von mir aus versehen auf dem tisch eines apple mitarbeiters landet… und das wird es – so wie wir die künstlichen intelligenzen bereits in allen gebieten kennen gelernt haben.
der science fiction film „minoroty report“ lässt ebenfalls grüßen – missbrauch vorprogrammiert…
Scheinheilig ist es LGBTABC+ zu unterstützen, aber Apps mit nackten Titten zu verbieten.