iphone-ticker.de — Alles zum iPhone. Seit 2007. 38 839 Artikel

Unerwünschte Nebenwirkungen möglich

Kinderporno-Scan auf allen iPhones: Apple erntet Kritik von allen Seiten

Artikel auf Mastodon teilen.
228 Kommentare 228

Wie massiv die Anzahl der kritischen Reaktion auf die gestrige Ankündigung ausfallen würde, die iPhone-Modelle aller Anwender fortan proaktiv auf das Vorhandensein kinderpornographischer Inhalte abzuklopfen, wird Apple wohl nicht erwartet haben.

Privacy

Das Netz reagiert mit Zynismus

Andernfalls hätte sich der Konzern auf seiner Sonderseite zu den neuen Kinderschutz-Funktionen von iOS 15 wohl aktiver darum bemüht, die jetzt laut werdende Kritik schon im Vorfeld zu antizipieren und etwa mit beruhigenden FAQ-Einträgen abzufedern.

Snowden befürchtet Ausweitung

Und kritische Argumente gegen Apples Kinderporno-Scan hagelt es aus allen Richtungen. Neben der Stellungnahme der amerikanischen Bürgerrechtsorganisation EFF, die Apple den Einbau einer iPhone-Hintertür vorwirft, hat sich inzwischen auch der bekannte Whistleblower Edward Snowden zu Wort gemeldet.

Dieser gibt auf dem Kurznachrichten-Portal Twitter zu bedenken: „Wer heute nach Kinderpornographie sucht, kann morgen nach beliebigen Inhalten scannen“.

Offener Brief von Wissenschaftlern und Entwicklern

Mittlerweile haben zahlreiche Wissenschaftler und Forscher einen ersten offenen Brief verfasst, der Apple für die Einführung einer Hintertür, die „fundamentale Datenschutz-Vorkehrungen aller Apple-Produkte unterminiert“, heftig tadelt.

Das Schreiben fordert die geplante Content-Überprüfung umgehend einzustellen und verlangt von Apple die Rückkehr zum Prinzip der vollständigen Ende-zu-Ende-Verschlüsselung.

Zudem haben in den vergangenen Stunden viele Einzelbeispiele die Runde gemacht, die mögliche Nebenwirkungen der von Apple vorgeschlagenen Fotoprüfung skizzieren.

Unerwünschte Nebenwirkungen möglich

Am häufigsten wird dabei die Sorge kommuniziert, dass totalitäre Staaten wie China die nun von Apple geschaffene Möglichkeit zum Foto-Scan nutzen, um nach bekannten regierungskritischen Grafiken und Inhalten zu suchen.

Mit Blick auf die kürzlich erfolgten Pegasus-Attacken warnen Experten zudem: Zukünftig könnten Angreifer, die über Fähigkeiten zum Kompromittieren eines iPhones verfügen, dieses unbemerkt mit Bildmaterial füllen, das den Kinderpornographie-Scanner zum Auslösen bringt, um gegen unliebsame Personen vorzugehen.

Was die Prüfung von Kurznachrichten auf sexuell eindeutige Inhalte angeht, befürchten Forscher wie Kendra Albert von der Harvard Law School elterliche Übergriffe auf Kinder.

Zudem sind auch Falsch-Positiv-Meldungen des Bild-Scanners nicht ausgeschlossen. Kollisionen beim Abgleich der Foto-Fingerabdrücke könnten für Vorwürfe sorgen, die im Kontext der sexuellen Ausbeutung von Kindern, mit massiven Beeinträchtigungen für die betroffenen Anwender einhergehen könnten.

Zum Nachlesen:

06. Aug 2021 um 17:11 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    228 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Hatte sich nicht gerade Apple so damit gerühmt, dass Daten bei ihnen sicher seien? Und jetzt das!?!

      • Nein, ist es nicht

      • Wenn jemand -egal wer- auf meine persönlichen Daten zugreifen kann, ist das nicht sicher und ist genau das!

      • Ist es nicht. Der Hintergrundgedanke ist zwar gut gemeint aber das ganze ist ein massiver Eingriff in die Privatsphäre.

      • Ja es ist ein ein anderes Thema und Nein es ist kein Eingriff in die Privatsphäre.
        Die Bilder kann Apple gar nicht sehen.
        Und es ist richtig dass sie das machen.
        Um Kinderpornographie stoppen zu können, muss etwas passieren BEVOR es in Umlauf kommt.
        Und das gehet nur durch die Scans von Apple mit iOS und Google mit Android (wurde der Aufschrei nicht da war BTW.)

      • Jeder Apple Nutzer ein potenzieller Pädophiler? Dann hast du wohl auch nichts dagegen, dass in unregelmäßigen Abständen unangemeldet und ohne begründeten Verdacht deine Wohnung durchsucht wird?

      • Schwachsinn!

      • Es ist doch eigentlich nicht so schwer: Wenn jemand auf meinem Gerät in meinen Dateien was auch immer sucht, dann ist das der massivste Eingriff in die Privatsphäre, den man sich vorstellen kann.
        Da sind die Gründe sekundär. Noch heiligt der Zweck nicht die Mittel.

      • Das is Schwachsinn. Die Bilder werden mit einer Datenbank von bekannter Kinderpornografie abgeglichen. Sie müssen also schonmal im Umlauf gewesen sein…

      • Das zu verhindern ist nicht der Auftrag von Konzernen wie Apple oder Google! Das ist der Auftrag der Justizorgane! Niemals so auf diesem Weg!

      • Ich finde das top in Ordnung

      • So wie ich das verstanden habe werden hash Werte bekannter Bilder mit den auf dem iPhone gespeicherten verglichen. Damit kann ich prinzipiell nach jeder Art von Bild auf jedem iPhone suchen – also auch systemkritische Grafiken, Bilder oä in Staaten wie China, Iran, Belarus, …

        Was mich weiterhin irritiert – wenn nur der Hash Wert verglichen wird – kann man den nicht recht einfach verändern -I.e. man ändert Belichtung, schneidet das Bild, oä. Müsste sich dann nicht der Hash ändern und damit das Kinderpornobild dann gar nicht mehr erkennen lassen?

      • Ja. Die kleinste Änderung im Bild ändert auch den hashwert der Datei.
        Es reicht also schon 1 Pixel des Bildes zu verändern.

      • Der Hash ändert sich nicht wenn der Ausschnitt, Helligkeit oder Farbe geändert wird. Nur wenn die relevante Information geändert wird ändert sich auch der Hash.

      • Das ist schlicht falsch. Jede Änderung an einer beliebigen Datei ändert deren Hashwert. Auf genau diesem Prinzip basiert die Authentizitätsprüfung von Informationen.

    • Genau das sind sie doch. Die Fotos in der Cloud werden -egal ob bei Google, MS oder Amazon- schon seit langem gescannt. Wenn das auf dem iPhone passiert, bevor man es in der Cloud speichern will, ist das generell positiv zu sehen, weil Apple dann alle andere Fotos verschlüsselt speichern darf.

    • Das ist doch eine ganz einfache Geschichte. Apple schafft die technischen Grundlagen und die Regierungen die passenden Gesetze dazu.
      Es geht mit Kinderpornos los, weil jeder der das nicht akzeptiert dann ein Pädophiler ist. Apple muss sich an geltendes Recht halten. Also werden die Datenbanken irgendwann von der russischen oder chinesischen Regierung für Ihre Bürger erstellt. Und dann wird das Weiterleiten eines regierungskritischen Bildchens gleich den Sozialscore beeinflussen.
      aber bei uns wird das noch einige Jahre dauern. Aber die Demokratiefeinde bekommen hier auch schon weiteren Zulauf.

  • Mal abwarten bis die rausbekommen dass das von der EU durchgewunken ist. Da gab es keine Empörung. Sehr komisch.

  • Höchst bedenklich, dieser Schritt von Apple. Für mich ein Bruch des Datenschutz-Versprechens. Solche „Hintertüren“ werden immer missbraucht, das hat sich in der Vergangenheit gezeigt.

    Ich bin froh, wird Apple kritisiert und hoffe, dass sie ihre Entscheidungen nochmals überdenken.

  • marius müller westerwelle

    „Hey wir wollen was für den Schutz von Kindern unternehmen“
    „Fuck off und verpiss dich!“

    -unsere Gesellschaft

    • Das ist ein dummer Kommentar. Klar bin ich gegen Kinderpornografie, aber ein Profi wird die Bilder so oder so irgendwo abspeichern. Wenn’s nicht auf’m Handy ist, ist es auf dem Computer.

      Dafür eine Hintertür zu öffnen, kann genauso gefährlich sein.

    • Stell Dir vor, die Regierung würde vorschreiben, dass bei jedem ein Fluchttunnel installiert wird, um entführten Kindern eben jene zu ermöglichen.
      Der Fall muss nicht eintreten aber der Tunnel ist da. Und wenn Einbrecher den Tunnel nutzen, um dein Hab und Gut zu klauen ist es zu spät. Oder die Polizei unbemerkt bei Dir ins Haus kommt und deine Sachen durchwühlt, während du nicht zu Hause bist.

      Intention 1 = Ausführung eher so meh

      • Ich verstehe es nicht. Welche Hintertür geht auf wenn das Gerät lokal analysiert und bei Bedarf meldet?

      • Es kann durch dieses System jede Art von Inhalt auf deinem Gerät gemeldet werden. Die Inhalte die gemeldet werden sollen, können ja easy erweitert werden. Verstehst?

      • Du hast es doch gerade in Deiner Frage formuliert. Ein Programm analysiert DEINE Bilder und MELDET es anschließend. Wer hindert das Programm daran noch andere Dinge zu melden? Oder Funktionen zu implementieren, die mehr machen als nur melden?

        Ein Programm welches bereits auf Deinem Device installiert ist mit einer ständigen Verbindung zu einer dritten Partei kann auch ohne Dein Wissen „Upgrades“ erhalten die den Funktionsumfang „erweitern“

      • Wie soll das denn lokal analysiert werden? Es müssen ja die Vergleichsdaten irgendwie zum IPhone kommen. Selbst wenn die Analyse nicht auf Apple Servern passiert gibt es in jedem Fall einen Datenaustausch der vom Besitzer des Gerätes nicht kontrollierbar ist.

      • Wer das verhindert? Gerichte!
        Wie will denn der Staatsanwalt jemanden verklagen, wenn er nicht sagen kann, wie er an die Information gelangt ist.

        Das ist wieder das typische Aluhutdenken. Wer so denkt, nutzt bestimmt keine Cloud. Da nur vor dem hochladen an die Cloud (und nur in den USA) die Bider gescannt werden ist das wohl ein unsinniges Argument.

      • Stand so im letzten iPhone Ticker Artikel nicht. Wenn deine Aussage stimmen sollte, hat iPhone Ticker eine Art Fake News verfasst, da wichtige Inhalte abgingen.

      • TOMW, Du hast glaube ich nicht verstanden, wie das funktioniert. Die Staatsanwaltschaft kann natürlich jeden anklagen, der illegales Material besitzt, völlig egal, ob derjenige weiß, wie er in den Besitz gekommen ist.

        Wenn Dir jemand einen Briefumschlag mit KiPo-Bildern unter der Tür durchschiebt, bist Du de jure bereits im Besitz von KiPo und machst Dich ab diesem Moment strafbar. Unwissenheit schützt vor Strafe nicht. Das war schon immer so. Und wenn Dir jemand auf Deinem Telefon eine Datei plaziert, dann hast Du ein Problem.

      • Richtig. Ein praktisches Beispiel: ich habe diese Woche ein Foto von meinem Neffen erhalten. Baby, klein, Nackt an der Brust der Mutter.
        Jetzt lass den Algorhytmus drüber laufen und morgen steht die Staatsanwaltschaft vor der Tür. Das sind Zustände, die möchte ich nicht. Denn hier wird jeder per se unter Generalverdacht gestellt.

    • Das ist ein äußerst dämlicher Kommentar, der nur von Ahnungslosigkeit zeugt.

    • Die Pädo-Szene ist jetzt gewarnt und es werden wieder Digitalkameras von Casio und Co genutzt, ohne Netzanbindung.

      • Ebendas. Es ist schon erschreckend. Noch erschreckender ist, wie blauäugig die ganze Sache gehandhabt wird. Aber etwas gutes hat es: immerhin werden diese „Menschen“ dazu gezwungen, wieder etwas reales herumzutragen. Damit kann man dann endlich wieder echte Polizeiarbeit und Detektivarbeit leisten, um hoffentlich diese Personen ihrer wohlverdienten Strafe zuzuführen

      • Na wunderbar, dann ist das verbreiten ja viel schwieriger, langsamer und im Gegensatz zu verschlüsselten Dateien leicht abzufangen und als Beweis zu sichern. Der Empfänger ist bekannt und die Bezahlung wird man dann auch zurückverfolgen können.

  • Weiß jemand ob es so eine Technologie stand heute auch bei Android/Google Fotos gibt und ob diese bereits zum Einsatz kommt?

  • Ich bin auch dagegen und stimme Snowden vollkommen zu. Wenn die Hintertür einmal offen ist, dann ist sie für alles und jeden offen.

    Stellt euch doch mal vor, wenn euch das Handy beim nächsten Urlaub am Flughafen abgenommen und durchsucht wird…

    • Dann finden sie bei mir meine letzten Zeugnisse, Urlaubsbilder und Foodporn. Letzterer ist zwar nicht erotisch, aber wer weiß, ob mir das eine Sperre wegen Pizza einbringt.

      • Google mal Falsch/Positiv…

      • Warte mal ab, bis ein Bild eines Hotdogs an Deine Eltern gemeldet wird ;-)

      • Warte mal ab bis Urlaubsfotos Deiner Kinder dann auf Deinem Handy dann als Kinderpornographie gemeldet werden.

      • An meinen Vorredner: zurückspulen und die älteren Beiträge ansehen. Inhaltlich falsch.

      • Du hast wohl noch keine Bekanntschaft mit der TSA gemacht. Die dürfen mit Dir und mit Deinem Telefon alles machen, wenn Du in die USA einreist. Wenn Du Dich weigern solltest, das Telefon auszuhändigen oder zu entsperren, wirst Du – wenn Du Glück hast – sofort in den nächsten Flieger nach Hause gesetzt.

    • Das ist inzwischen Praxis in China. Dort wird teilweise eine staatliche app installiert

      • In China wird alles kontrolliert und überwacht. Wir sind zum Glück aber nicht in China.

      • Noch nicht. Der Weg dahin wird mit solchen Funktionen/Möglichkeiten aber wunderschön vorgeebnet.

  • Grundsätzlich bin ich für Datenschutz, aber in diesem Fall sehe ich das anders. Es werden ja keine Fotos durch dritte gesichtet , sondern nur auf bestimmte hashwerte geprüft.

    • Für den Otto-Normal-Nutzer nicht möglich zu verstehen. Auch nicht wann solche Meldung überhaupt raus geht. Und überhaupt das es schon längst von anderen praktiziert wird.

      • marius müller westerwelle

        Und das ist doch echt extrem traurig, Apple beschreibt doch schon für Kindergartenkinder wie das ganze abläuft, noch simpler geht es ja nu nicht. Aber ja, Hashwerte sind schützenswerter als Kinder.

      • Und Autohersteller melden automatisch an die Behörden, wenn du mal zu schnell um die Kurve fährst? George Orwell in Reinkultur…

      • Bei LKW Fahrer wird das automatisch vom LKW aufgezeichnet ja.

    • Nun sind es Hashwerte der gekannten (die unbekannten gehen immer noch durch due Lappen) Kinderporonos Fotos und Videos. Morgen sollen es dann noch Hashwerte sein von zum Bsp Essen sein und die fast Foodbilder werden an die Versicherungen gemeldet. Übermorgen wer weiß.

      Es wird nicht nur bei den Hashwerten der Kinderpornograhie leider bleiben.

  • Für MEIN Verständnis:
    Fotos kann ich doch jetzt schon nach beliebigen Motiven scannen/durchsuchen.
    Es handelt sich, für MEIN Verständnis, nur um eine Erweiterung dieser Funktion auf besagte Inhalte‽
    Das alles findet lokal auf meinem iDevice statt.
    Könnte mir das bitte jemand auseinanderdividieren‽

    • Wenn jemand dein iphone nimmt und damit CSAM abfotografiert, wird gleich mal Dein Account gesperrt.
      Klasse Denial of Service Attacke.

    • Der Scann ist nicht das Problem sondern die automatische Benachrichtigung von Strafverfolgungsbehörden.

      Auch wenn die False-Positive-Rate gegen Null gehen würde, jeder einzelne Fall kann eine Existenz vernichten.

      Auch der Fall, dass Dir ein harmloses Bild mit einem kritischen Hash per Messanger geschickt wird, ist nicht auszuschließen.

      • marius müller westerwelle

        Es werden Hashwerte mit bereits bekannten verglichen + das Foto wird benannt. Wenn man also eine Meldung an die Polizei abgibt wird es a) sehr wahrscheinlich sein dass es sich um ein indiziertes Vergewaltigungsbild/Video handelt und b) sollte das nicht der Fall sein, wird der Beweis durch das gemeldete Bild erbracht. Da wird also nix zerstört.

      • NEIN!
        Siehe https://www.theregister.com/2021/08/05/apple_csam_scanning/

        Hier wird klargestellt, dass es sich NICHT nur um den Abgleich von Hashwerten handelt, sondern eine stark funktionserweiterte Neural Engine zum Einsatz kommt. Die Fähigkeiten dieser sind (noch) nicht genau bekannt, gehen aber weit über die simplen Hashes hinaus. Es ist also anzunehmen das Apple die Technik auch auf andere Zwecke und Dienste ausdehnen kann und wird. Professor Matthew Green hat seine Aussagen dazu korrigiert: https://twitter.com/matthew_d_green/status/1423071186616000513

        „[…] Eventually it could be a key ingredient in adding surveillance to encrypted messaging systems.“

        Betrachtet man die gesamte Situation genauer, sieht es tatsächlich so aus als würde man hier einen Grundstein für die so oft angefragte „Backdoor“ in iOS-Systeme legen. Ein Eingeständnis, damit in Zukunft auf Exploits/Hacks verzichtet werden kann. Der Hersteller (hier Apple) selbst übernimmt den Teil der Prüfung und Offenlegung von Verletzungen der jeweils lokal gültigen Gesetze. Die Verfolgung dieser bleibt natürlich in der Hand des jeweiligen Staates.

      • Das glaubst du? Die Nachbarn wissen doch immer was, wenn die Polizei bei dir deswegen vor der Türe steht erfahren die Nachbarn das irgendwann und dann wird getuschelt und es interessiert im Nachhinein die wenigsten das es die wenigsten dass es eine Falschmeldung war. Du hast in der Nachbarschaft den Ruf eines Pedophielen oder Kinderschänder. Mit Glück bleibt es nur in der Nachbarschaft so dass du nur um ziehen musst, mit Pech wandert dass in deine Firma und du musst auf Blödt kündigen und die Firma wechseln.

        Das zerstört sicherlich also nix…

      • Wer sich die Mühe macht die PDF Doku mal durchzulesen, findet darin unter anderem, dass erst eine gewisse Anzahl an Bildern im Account liegen müssen, bevor das System überhaupt anspringt. Heißt im Umkehrschluss das ein false-positive keinen Alarm auslöst. Nach eigenen Angaben liegt die Wahrscheinlichkeit eines false-positive wohl im Billionen (oder Trillionen) Bereich, also absurd hoch. Drittens sollen dann die Fotos erst geprüft werden. Sollten also dort nur false-positive zu finden sein, läuft die Meldung ins leere.
        Auf der anderen Seite machen das die Cloud Anbieter schon lange und vermutlich wird jeder Server, über den auch nur ein Foto läuft, das direkt kurz mal abgleichen. Von daher müsste man schon seit Jahren ohne Onlinezugang leben um dem zu entgehen und hier sehe ich den Vorteil das die Fotos vermutlich verschlüsselt in der Cloud liegen können, da der Abgleich ja auf dem Gerät stattfindet, während bei anderen Anbietern die Arbeit erst auf den Servern losgeht.

      • Diese mühe muss sich iPhone Ticker machen um entsprechende Artikel zu verfassen. Wenn ich bzw. wir Leser alles selbst recherchieren muss, braucht es kein iPhone Ticker mehr.

  • Mein Vertrauen in Apple ist dadurch beschädigt worden. Das war das einzige kaufargument das Apple ein abgeschlossenes System ist. Klar finde ich kinderpornografie furchtbar aber rechtfertigt das iPhones einfach auf gut Glück zu durchsuchen von Leuten die damit nix am Hut haben?

  • Unter dem Aspekt der Sicherheit kann man natürlich alles aushebeln. Unter anderem YouTube hat das schon eindrucksvoll bewiesen wie schnell unliebsame validierte Daten, z. B. über Corona innerhalb von mehreren Minuten gelöscht wurden, Einspruch sinnlos.
    Das hier seitens Apple, kein staatliches Unternehmen, eine andere Motivation vorherrscht als Kinderschutz, ist kaum zu übersehen. Die Digitalkonzerne üben Druck auf die Gesellschaft aus bis die totale Überwachung Realität ist.

  • DerPositiveDude

    Find ich gut. Und wenn es zum false positiv kommt verklagte ich Apple nach Strich und Faden, wenn die Polizei vor meiner Tür steht, meiner Frau erzählt das ich Kinderpornos auf meinem Handy habe, es aber nach Prüfung nicht stimmt. Nachbarn und der Arbeitgeber werden sicherlich entspannt mit meiner Untersuchungshaft umgehen wenn die erfahren wieso. Dann bekomme ich bestimmt ein Entschuldigungsschreiben von Apple in dem man sich für den Bug entschukdigt und mir 20% Rabatt einräumt für das nächste iPhone. Aber wir alle wissen ja, Software und der Mensch ist unfehlbar. Daher wird es nie dazu kommen.

    • Wohnst Du in den USA?

      Und wie soll das etwas falle positiv gemeldet werden? Die Foto (es müssen mehrere sein) selbst gehen an die Ermittler und die werden bestimmt unterscheiden können, ob Du Fotos von einem Kind beim Baden gemacht hast oder ob es sich um Pornografie handelt.

      • Aber schlimm genug, dass sich irgendwelche Ermittler – ohne echten Grund – Bilder von meinem Kind beim baden reinziehen können.

      • @TomW
        Das mit der Verletzung der Privatsphäre hast Du leider nicht verstanden.
        Den Artikel von der EFF gelesen?

      • Das ist aber die Rechtslage in den USA. Für uns in Europa hat es nur Vorteile. Bisher wurden deine Fotos in jeglicher Cloud in den USA auch gescannt. Wenn Apple das aber auf die Region und auf das Gerät verschiebt, werden deine Fotos nicht mehr gescannt.

  • Ich weiss nicht wieso man sich da so anstellt!
    Wer kinderpornografisches Material auf m Handy hat, dem gehört es nicht anders!
    Ich find das gar nicht so schlecht, so lange meine Bilder sicher sind.
    Ich geh davon aus, dass sie es sind, denn das könnte Apple sich nicht erlauben.
    Im Kampf gegen diese Schweine is mir persönlich jedes Mittel recht!

    • wenn dir das jemand per mail schickt, hast du es auch drauf. und dann?

      • Wenn dir das eine mailt, speicherst Du das dann in der Cloud?

      • Ersten Lokal ist nicht Cloud.
        Zweitens dann bekommst es via Message und hast das Autospeichern an (da es schon immer an war).

      • Nein, auf dem iPhone lokal. Aber dann sendet das iPhone das Foto automatisch in die Apple iCloud. Und dann?

      • Martin, das passiert auch jetzt schon – sowohl bei iCloud Mail als auch Google Mail.

    • Lies mal weiter oben meine Analogie mit den Tunneln und denk mal zwei Schritte weiter.

      Wenn diese Hintertür erstmal drin ist kannst Du Deine „Ich hab nix zu verbergen“-Mentalität auch in die Tonne treten.

      Die Idee dahinter ist gut und sollte auf jeden Fall verfolgt werden aber nicht mit dieser Umsetzung.

    • Ich hoffe sehr, dass in Deutschland dramatisch aufgestockt wird bei den Polizisten, die damit zu tun haben. Durch den genialen Coup mit den kryptohandys und einiger anderer Erfolge vorher schon ertrinken die Polizisten allerdings in Beweismitteln, die sie kaum bewältigen können.
      Durch Apples Initiative könnte da noch mehr dazu kommen. Sofern es so bescheuerte Täter gibt, die den Schuss immer noch nicht mitbekommen haben, und Fotos mit kriminellen Inhalten auf ihrem iPhone speichern.
      Ich hoffe sehr, dass wir den Sumpf im aktuellen Jahrhundert trockner bekommen. Erstmals in der Menschheitsgeschichte kann man diesen Tätern ernsthaft auf die Schliche kommen. Es sind ja so unfassbar viele.
      Das auf der einen Seite,
      auf der anderen frage ich mich auch, warum dieser Vorstoß von Technologiefirmen kommt. Meines Verständnisses nach sind das Dinge, die gesetzlicher Grundlage und Regelung bedarf.

      • Da die Funktion nur in den USA aktiv ist, hat es für deutsche Polizisten keine Auswirkungen.

    • Bis Du dann falsch durch eine Software beschuldigt wirst und Deine Existenz auf einmal verschwindet.
      Aber sowas wird nie passieren und ist auch noch nie passiert….

      • Wie soll das passieren? Die Fotos werden an die Ermittlungsbehörde weitergeleitet. Die werden schon wissen, ob das nur Fotos von der Tochter beim Badeurlaub sind, oder Kinderpornografie.

      • Echt? Die Wissen ob das Nackte Kind in der Wanne, am Pool etc. meines ist oder ein Fremdes?

        Du bist sehr leichtgläubig und naiv.

      • @Ichy: Genau das wird geprüft. Sind es harmlose Bilder von Kindern im Pool, oder sexuell anstössige Fotos. Im Zweifelsfall wird es der Ermittler schon prüfen.
        Außerdem, was machst Du dir für einen Kopf? Die Funktion ist nur in des USA aktiv.

      • Du glaubst vermutlich auch an den Weihnachtsmann.

      • @TomW
        Und ganz besonders in China wird das so sein.
        Vor allem weil es dort ja ganz schnell auffällt und in die internationale Presse kommt, wenn da eine Existenz verschwindet.
        Und die scannen da sicherlich nach mehr als nur CSAM.

    • 1.) Den Kampf gegen die Schweine sollen die Ermittlungsbehörden führen und nicht Apple.

      2.) Kein einziger Fall wird verhindert, wenn Monate später ein Foto auf dem iPhone von einer Person entdeckt wird. Es bringt genau gar nichts.

      3.) Die Backdoor, die gerade implementiert und geöffnet wird, kann künftig auch nach unliebsamen Kommentaren, Menschen mit Meinung X oder Kaufbereitschaft Y scannen. Möchtest du das?

  • Ich finde hier wird irgendwie jede Rechtsstaatlichkeit umgekehrt.
    Erstmal geht grundsätzlich NIEMANDEN etwas an was jemand auf seinem Handy hat, PUNKT.
    Sollte jemand einen begründeten Verdacht haben, ist etwas etwas anderes..

  • Hoffentlich bleiben sie bei diesem Shitstorm standhaft.

    Wenn irgend ein Regime das Ganze erweitern will machen sie es ob Apple mitspielt oder nicht.

    Und wenn wir schon dabei sind.
    Ich bin auch für die Todesstrafe von Kinderschänder.

  • Das ist wirklich absolut inakzeptabel und indiskutabel. was Apple da plant. Wie ist das Unternehmen darauf überhaupt gekommen? Ich will das sie jegliches abscannen meiner Daten sofort einstellen.

      • Lokal auf dem iPhone ist nicht iCloud.

      • @Ikke: Es werden nur die Fotos gescannt, die auf die iCloudmediathek gespeichert werden sollen. Steht doch in der Funktionsbeschreibung von Apple – das neue es ist nur in den USA aktiv.

      • Was glaubst Du wohl, wie lange das auf die USA beschränkt bleibt? Wenn die Technologie erstmal da ist, wird sie von anderen Staaten auch genutzt werden bzw. Apple wird verpflichtet, das in diesen Staaten zu aktivieren. Und die Listen kommen dann nicht mehr vom NCMEC, sondern von der jeweiligen Staatssicherheit.

        Es ist extrem blauäugig und träumerisch, was Du und TOMW hier verbreiten. Ihr glaubt, dass Staaten die Privatsphäre ihrer Bürger beachten würden? Habt Ihr Euch mal damit beschäftigt, was seit Jahren von Horst Seehofer, dem Verfassungsschutz und anderen Behörden in Deutschland immer und immer wieder eingefordert wird? Und immer und immer wieder von Gerichten gerade noch so gestoppt werden muss? Irgendwann wird mal einer dieser Versuche durchkommen, und das war‘s dann.

      • @Bob:
        Genau da liegt doch der Vorteil des Scans auf den iPhone selbst. Wenn andere Staaten etwas fordern, muss es sowieso umgesetzt werden. Das hat hiermit nichts zu tun, denn ein Gesetz gilt generell für alle. Aber Beispielsweise könnte ein Staat von heute auf morgen beschließen alle Fotos in einer Cloud zu sichten. Alle Fotos auf dem Handy kann er aber nicht sichteten, dafür müsste ein Hersteller wie Apple erst mal verpflichtet werden das technisch umzusetzen. Dann kannst Du ggf. immer noch reagieren.

    • Fragst Du Dich nicht auch, wozu diese immer schnelleren Prozessoren und die KI-Fähigkeiten verwendet werden sollen?
      Das wird wohl erst der Anfang vom Ende sein. Nicht gut.

  • Huch?!
    Habt Ihr gerade meinen Beitrag gelöscht?
    Der war doch absolut ok?!
    Hä?
    Ich bitte um Erklärung.

  • George Orwell lässt grüßen! Man muss sich mal ausmalen, was passiert, wenn jemand zu Unrecht verdächtigt wird. Da können ganze Existenzen vernichtet werden.
    Das, was Apple da vorhat ist doch eigentlich originäre Aufgabe der Strafverfolgungsbehörden.

  • Ich kann mir kaum vorstellen, dass das mit der DSGVO und dem TTDSG vereinbar ist. Abgesehen davon ist ein Generalverdacht unangemessen, weil sicher/hoffentli h 99,99% der Nutzer keine Pädophilen sind.

    Aber es hat für Apple noch einen nicht zu unterschätzenden Nebeneffekt: Die Akkulaufzeit, die – kurz vor Erscheinen der neuen iPhones – durch iOS 14.6 wundersam massiv verkürzt wurde, wird sicher nochmal verkürzt, wenn sich Apple aus der Ferne durch alle iPhones schnüffelt. Eine Kaufmotivation mehr.

  • Apple ist kein Gesetzgeber, kein Richter. Und für die Rolle des Moralapostel ist ein Konzern, der sich vor totalitären Regimen wie China tief in den Staub wirft, denkbar ungeeignet. Wer ethisches Verhalten fordert, sollte erst mal zeigen, dass man selbst die eingeforderten moralisch/ethischen Grundsätze in glaubwürdiger Form vertritt.
    Abgesehen davon: erst End-to-end-Verschlüsselung einführen und iphones so zu bauen, dass Strafverfolgungsbehörden beschlagnahmte Geräte nicht auslesen kann und dann den angepriesenen Kundenservice Datensicherheit wieder aufzuweichen ist widersinnig.

  • Angenommen man will einen Politiker, Fussballer, Sänger usw. diskreditieren, schickt man ihm einfach ein Bild per Mail? Ich hoffe mal, dass das dass nicht zum neuen Mobbingwerkzeug bzw. Volkssport unter Schülern, Kollegen etc wird. Man könnte dadurch schon die ein oder andere Karriere zum stoppen bringen.

  • Also ich finde die Mikros sollten auch auf Daueraufnahme stehen und bei Schlagwörtern wie Koks, Drogen, Schwarzgeld, usw. direkt an die Polizei leiten.

  • Wenn ich hier so mitlese, werde ich also bei jedem „Treffer“ augenblicklich gekündigt, verliere Haus und Familie und werde für 18 Monate in U-Haft gesteckt…
    Bin mal gespannt, wie sich Apple jetzt verhält.
    Selbst Apple wird ja unlauteres Verhalten quasi sofort unterstellt, ohne daß man die GENAUEN Abläufe kennt…
    Ein Urteil zu fällen, ohne die detaillierten Hintergründe zu kennen, ist bestenfalls grenzwertig… verhält sich mit der eigenen Meinung ebenso…

  • Man könnte von manchen die hier Kommentieren meinen, das sie tatsächlich derartiges Material auf dem Handy haben.
    Bestimmt kommt jeder direkt in Untersuchungshaft der wegen einem false:positive Treffer gemeldet wird. Wenn unter 10.000 Fotos ein Hash zu dem der Datenbank passt, werden mit Sicherheit zuerst weitere Untersuchungen eingeleitet, um dann die Richtigkeit der Prüfungen und ggf. zu untermauern.

    • Oh je, auf solche Kommentare habe ich ja gewartet.

      Du musst jetzt noch schreiben, dass Du keine Geheimnisse hast.

      Und jeder, der seine Privatsphäre geschützt sehen will, ist deswegen also ein Pädophiler?

    • Nur weil ich für mich Privatsphäre haben will, ein grundlegendes Menschenrecht, bin ich kein Verbrecher.

      Du solltest mal in Geschichtsbücher schauen. Nicht nur 1933 bis 45, daraus kann man nie genug lernen, sondern auch zum Beispiel McCarthy-Ära in den USA. Bereits der Vorwurf, dass Du Kommunist bist, hat damals Deine Existenz zerstört. Egal, ob berechtigt oder nicht.

      Wehret den Anfängen.

  • Wenn ich das alles hier so lese, ist vielen Personen anscheinend ihre Privatsphäre und die ehemals garantierte persönliche Freiheit eine Sch…. Wert. Man muss nur etwas mit der Sicherheit als Begründung erzählen uns die Maße findet jede Maßnahme gut. Oder es ist ihnen egal. Sie haben ja nichts zu verbergen. Doch? Haben sie, nämlich ihre Privatsphäre, so man darauf überhaupt noch wert legt.
    So etwas war mal ein Grundpfeiler der Demokratie.

  • Wenn’s man um den Schutz der Kinder ginge, aber das ist nicht das Thema.
    Sondern anders Nutzbare Hintertüren in einem Betriebssystem.
    Hinzu kommt wenn man jemanden schaden will stopft man sein iPhone mit Pornobildern zu!

  • Wenn das Realität wird, bin ich fertig mit Apple!!!
    Ein für allemal – Was bilden die sich eigentlich ein, die ver… Amis???

  • Irgendwann wird die Funktion genutzt um Schwule zu identifizieren, was macht Tim Cook dann? Und das ist nicht mal böse gemeint

  • Der Titel ist im Übrigen komplett irreführend und falsch!
    Es wird nicht pauschal auf ALLEN iPhones mit iOS 15 gescannt, sondern nur auf den iPhones welche iCloud Fotos aktiviert haben und somit ihre Fotos in die Cloud laden.
    Dann werden die hochzuladenden Fotos vor dem Upload lokal gescannt.

    Ist iCloud Fotos deaktiviert, wird auch nichts gescannt.
    Link: https://www.imore.com/psa-apple-cant-run-csam-checks-devices-icloud-photos-turned?amp

    So klingt das nämlich schon mal anders als in den ganzen Diskussionen bisher.
    Sämtliche Cloud-Anbieter scannen Fotos welche man bei ihnen hochlädt.

  • Wie erkennt das System ein Kind? Ich mein wenn Teenager Nackfotos untereinander senden „müssen“ soll das doch ihre Sache sein. Ob es jetzt korrekt und sinnvoll ist ist eine andere Sache. Jeder wie er meint, solange er niemanden schadet. Manch 15 jährige sehen aus wie 18 und umgekehrt das selbe. Ich vermute das wird nicht so einfach sein gut und böse zu unterscheiden…

    • Es wird eine Hash-Datenbank zum Abgleich genutzt. Wenn da jetzt jemand meint ein Nackedei Foto von sich macht und an die Ehefrau schickt, schlägt da kein Alarm an, da der Hash einfach keinen Treffer in der Datenbank auslösen kann.

      • Habt ihr Euch mal Gedanken gemacht, oder gibt es eine Aussage woher die hash Werte kommen? Wie ist sicher gestellt dass das keine falschen Daten drin sind? Z.B. Bilder von einer Demo?

      • Auch das steht in der Dokumentation.

  • Ich finde es gut, dass Apple unsere Kinder schützen möchte. Und wenn dadurch totalitäre Staaten an Extra-Infos rankommen sollten, dann ist das halt so.

  • Ich bin gegen Kinderschänder aber noch mehr habe ich etwas gegen den Raub der Freiheit mit Salami-Technik

  • Warum ist das ein Problem, wenn alles lokal stattfindet und nur hashes geprüft werden.
    Foto wird zum Versand bestimmt. iPhone generiert hash vom Foto, prüft es gehen eine Datenbank und wenn kein Treffer, wird es versendet, oder erst empfangen.
    Wenn man dies Als Option als Eltern für die Kinder aktivieren kann, ist dies eine gute Sache und weicht nicht die ende2ende Verschlüsselung auf. Sollte aber optional sein.

    • Aha, und du kennst die Datenbank? Du vertraust einer Datenbank die du nicht kennst? Ich behaupte mal, dass sogar Apple die Datenbank nicht kennt und schon gar nicht abgleichen kann ob es sich bei den Hashs wirklich um KP-Material geht. Sie öffnen nur die Tür für jemanden. Treu dem Motto: Wird schon gut gehen find ich grob fahrlässig. Und denke nicht nur an dich, sondern auch an deine Kinder in der Zukunft.

    • Es weicht DEINE Privatsphäre auf.
      Bei iMessages schaut Dir/Deinen Kindern ständig apple über die Schulter.
      Was macht das aus dem freiheitlichen Denken? Schere im Kopf.

      Wirst Du auf Google neugierig und unbeschwert nach allem suchen, was Dich interessiert, wenn Du weißt, dass nach bestimmten Schlüsselwörtern gescannt und mit Dir verknüpft wird? Schere im Kopf.

  • Es ist ein bisschen so wie mit dem Klimaschutz. Alle wollen ihn, aber wenn es dann konkret wird – Leitungsnetze, Windräder, Solarfelder – dann hagelt es Kritik und Gerichtsverfahren. Wir müssen uns einfach mal entscheiden, was wir wollen. Kein System hat nur Vorteile. Es kann immer nur so sein, dass das eine das andere deutlich überwiegt. Hier sind es aus meiner Sicht die Vorteile.

  • Viele Kommentare hier sind echt peinlich. Fotos in der Cloud werden schon seit Jahren mit Hashes abgeglichen. Die Änderung hier gilt auch nur für die USA, weil Apple dort verklagt wird, weil sie nicht genug gegen Kinderpornografie unternehmen.

    Was ändert sich jetzt:
    In den USA: Die Fotos werden jetzt lokal gescannt und nicht mehr in der Cloud. Ansonsten bleibt alles beim alten, bei einem positiven Hash wird das Foto geprüft und bei Verdacht an die US Ermittlungsbehörden weitergeleitet. IMessage bekommt noch zusätzlich eine Kinderschutzfunktion (optional). Alle anderen Fotos in der Cloud sollen aber dann nicht mehr gescannt werden.

    In Europa: Bilder in der Cloud werden nicht mehr gescannt und können dann verschlüsselt gespeichert werden, was ein deutlicher Vorteil gegenüber Google, Microsoft und Amazon Clouddiensten ist.

    Leider gibt es wie immer mehr Desinformation als Informationen zu dem Thema.

    Die Bedenken von Snowden und Co beziehen sich nicht auf die Funktion an sich, sondern was man (staatliche Behörden)damit zukünftig machen könnte. Das ist aber Unsinn, denn das könnte man sowieso, wenn man es wollte, sieht Pegasus.

    • iMessages können trotzdem überwacht werden.

      Und zum Scanning:
      Wo steht, dass das in Europa nicht aus Versehen aktiviert wird?

      Oder in gewissen anderen Ländern bewusst?

    • Dir ist einfach nicht zu helfen, weil Du das Big Picture nicht sehen kannst. Du glaubst tatsächlich, dass diese Funktion ausschließlich in den USA benutzt wird und Dich hier als Europäer nichts angeht. Und dass das niemals über die USA hinaus erweitert wird.

      Lass uns in 5 Jahren mal prüfen, in wie vielen Ländern dann diese Scanfunktion auf iPhones aktiv ist und woher die jeweiligen landesspezifischen Hashlisten kommen. OK?

  • So ein bestimmter HASH muss doch irgendwie nachbaubar sein, mit z.B. Lego und Bockwürstchen oder was weiß ich, dieses völlig dämliche Foto, welches nicht im entferntesten irgendetwas mit dem ursprünglichen Thema zu tun hat, laden sich dann alle User aufs Handy und überall schrillen die Alarmglocken. Was passiert dann? Wird dann halb Deutschland verhaftet?

    • Du solltest dich einmal damit beschäftigen, wie eine Hash-Funktion funktioniert.

      • Hashfunktionen sind injektiv und können nur bei perfekten Hashes Kollisionen vermeiden.
        Insofern könnte man wohl mit digitalen Lego-Bockwürsten solche Kollisionen erzeugen.
        Wie aufwändig das ist, steht woanders – zumal es ja wohl mehrerer davon bedarf, bevor die besagten „menschlichen Zensoren“ alarmiert würden.

    • So ein Blödsinn!
      Was hätten denn die unbescholtenen User davon, die Polizei auf falsche Fährten zu locken?
      Zumal das sicher verboten wäre (vortäuschen einer Straftat)
      Ich finde, das ist der richtige Weg den Apple da eingeschlagen hat. Apple scannt halt nicht in der Cloud wie alle anderen sondern schon an der Tür und kann damit ruhigen Gewissens den Behörden den Zugang zur Cloud verweigern.

  • Willst du in die Privatsphäre der Bürger eindringen, sage es geht um Kinderpornos und min. die hälfte der Bürger findet das toll.

  • Sorry, aber das geht jetzt eindeutig zu weit! Ich liebe Apple seit Jahrzehnten – aber das ist eine Unverschämtheit. Das Ansinnen in Ehren – Kinderschänder gehören erschossen oder bis zum Tod in einem Loch weggesperrt – aber der Zweck heiligt nicht die Mittel. JEDER iPhone-Nutzer wird damit unter Generalverdacht gestellt, von einem Unternehmen das mit Privatsphäre protzt. Und wann kommt der Mac dran? So nicht! Apple sollte lieber ein paar 100 Millionen in die Initiativen pumpen die gegen Kinderschänder arbeiten und die Opfer betreuen.

    • Warum werden solche Kommentare eigentlich nicht gelöscht? Der Verfasser scheint von einem »zivilisierten Rechtsstaat« noch nichts gehört zu haben. Das ist Gedankengut von vor 70 Jahren.

      • @flo
        das Gedankengut mag altertümlich sein ist es doch die einzige richtige und gerechte Lösung. Das Kind welche die „Freude“ hatte mit solchen widerlichen Bestien sich abzugeben hat das zukünftige Leben bereits versaut bevor es richtig angefangen hat. Das schlimmste daran ist dass wahrscheinlich die ehemaligen Opfer die späteren Täter werden und das Rad sich weiter dreht und niemals aufhört. Ein geschändetes Kind hat das Ganze leben lang einen Knacks und wird nie normal und richtig glücklich.
        Welche Therapie schlägst du vor? Bewährung oder 3 Jahre offener Vollzug? Therapie Gespräch im Kreis und Hände halten und singen?
        Sorry deine neumodische Strafen welche üblich angewandt werden sind ein Hohn für alle Opfer.

      • Sachliche Diskussion mit Dir nicht möglich. Von „neumodischen Strafen“ habe ich kein Wort verloren. Wohin „altertümliches Gedankengut“ führt, hat uns die Geschichte gelehrt. Täter gehören in einem Rechtsstaat bestraft – allerdings nach dem Gesetz. Sobald davon abgewichen wird, öffent man (wieder) die Büchse der Pandora – da ist es, was die „ewig Gestrigen“, die sich partout nicht weiterentwickeln wollen, einfach nicht verstehen.

      • Kinderschänder lassen sich nicht therapieren. Das sind Monster und bleiben es. Die gehören weggesperrt bis sie mit dem Füssen voran rausgetragen werden.

  • Und wenn nun STÄNDIG alle Mikros mitlaufen würden und bei Schlagwörtern Meldung machen und aufzeichnen wäre das dann auch OK? Oder bei Mails über Apple-Konten? Oder bei allem, was man mit Safari und überhaupt allen Apple Apps macht? Ist nicht weit davon entfernt.

  • Soso, ich nehme mal an Apple bekommt die Hashes von einer anderen Institution zur Verfügung , also eine Aneinanderreihung von irgendwelchen Codes die selbst Apple nicht wirklich nachvollziehen könnte? Ist ja schliesslich alles Geheim. Apple stellt somit nur einen Tunnel zur Verfügung wo die Regierung durchkriechen kann. Upps, ein Hashtag zuviel, ein Zahlendreher dort im Code und schon wird „versehentlich“ nach schwarzen Flüchtlingen gescannt. Und alle Apple Fanboys so, yeah. #facepalm

    • Du hast es nur teilweise verstanden, es kann nicht nach Bildern von schwarzen Flüchtlingen gesucht werden. Eine Regierung könnte nach einem bestimmten Bild von schwarzen Flüchtlingen suchen lassen. Sollte der selbe schwarze Flüchtling 1000 selfies von sich auf dem ha du haben, schlägt nichts an so lange es nicht die exakt gleichen Bilder aus der Datenbank sind.

  • Ich arbeite im Bereich der Informationssicherheit.Wird diese Funktion in den europäischen iPhones aktiviert, wird die (geschäftliche) Nutzung von iPhones unmöglich. Denn:

    • die Hashwerte verwaltet Appel geheim. Somit kann nie gesagt werden,welche Arten von Dateien gescannt werden und somit muss das Gerät als kompromitiert und unsicher gelten
    • NSA, Diktatoren, EU, Bundesregierung werden sich die Finger danach lecken. Das ist wie den Deckel der Büchse der Pandora ein klein wenig anheben
    • O.g. Organisationen werden flucks Gesetzte schaffen, die Apple zwingen jeden Hash den sie wollen in die Liste aufzunehmen.
    • Einfacher kommt man nicht an Firmengeheimisse (Apple besorgt einem das schon)
    • Einfacher war es noch nie einen per manipulierten Daten ans Messer zu liefern

    Versteht mich nicht falsch, Kindesmissbrauch ist so mit das Schlimmste! Aber es darf nicht als Damokesschwert genutzt werden um damit das Unschuldsprinzip, welches einenes unserer Grundrechte ist, auszuhebeln! Das hatten wir ja mit Zensusular schon mal, wo geheime DNS-Sprerrlisten unser aller Rettung von den Kindesmissbrauch sein sollte.
    Da müssen sich die Strafverfolgungsbehörden was anderes einfallen lassen. Außerdem gibte es dafür schon den tollen Staatstrojana.
    Die Intranzparenz des ganzen Systems birgt einfach zuviele Risiken und wird Begehrlichkeiten an falschen Stellen wecken!

  • ich wollte dieses Jahr auf iPhone umsteigen,danke für die Info…dann bleibe ich wohl doch lieber bei Samsung.

  • Ich glaube ich reaktiviere bald mein Nokia wieder. Ist am Ende vermutlich eh gesünder.

  • Deshalb nur NAS daheim und der ganze iCloud Mist deaktiviert.

  • Diese bescheuerte Thema hatten wir doch schon vor 2 Jahren. Wieso wird es wieder ausgegraben und so getan, als wäre es neu? Hier auf dieser Plattform wurde es doch schon mal gepostet?

  • Irgendwie wird man unter einen Generalverdacht gestellt? Das ist ungefähr so als würde jedes Gespräch das man privat führt aufgezeichnet, und bei gewissen Schlagwörtern werden die Behörden informiert. Oder eine pauschale Hausdurchsuchung bei jedem Bürger einmal im Monat ohne Beschluss oder Verdacht. Bei allem Verständnis dass man gegen Pädophile vorgehen muss, alle Maßnahmen die in eine Dauerüberwachung ohne jeglichen Verdacht führen sind einfach falsch. Man stelle sich mal vor, Siri oder Alexa hören immer zu, bei JEDEM, und wenn dann jemand Drogen, Mord, Falschgeld usw. sagt wird das gemeldet, auch da sage ich, natürlich muss man Verbrechen bekämpfen, aber bitte nicht auf diesem Weg. Solche Maßnahmen öffnen die Büchse der Pandorra….und die Totalüberwachung ist nicht weit entfernt….

  • Ich hoffe jemand verklagt die Apple Rechtsbrecher wegen dieser rechtswidrigen Aktion.

  • Diese Scan Methode soll doch erst mit iOS15 implementiert werden. Wäre es nicht ein Zeichen, wenn sich eine grosse Mehrheit gegen dieses Update entscheidet? Apple rühmt sich doch immer damit wie viele das Update nach ein paar Wochen installiert haben.

  • Wie lächerlich zu denken dass ein Staat auf Apple angewiesen ist um seine Bürger auszuspionieren Man muss nur in die Vergangenheit gehen , hat wunderbar ohne Apple funktioniert.

  • Endlich mal ein vernünftiger Beitrag von jemandem, der die Sachlage richtig einschätzt und treffend formuliert hat. Es gibt doch noch intelligente Menschen!

  • Es gibt „bekannte“ Fotos von Pädophielen. Diese Fotos (Datein) haben immer denselben Hashwert.

    Diese Hashwertliste wird mit Fotos auf dem iPhone abgeglichen. Es werden keine Fotos analysiert o.ä.

    Es gehen also KEINE Bilder an Apple. Erst wenn eine Datei mit einem bekannten hashwert ermittelt wird gehen Infos hierzu an Apple!

  • Es gibt „bekannte“ Fotos von Pädophielen. Diese Fotos (Datein) haben immer denselben Hashwert.

    Diese Hashwertliste wird mit den Hashwerten der Fotos auf dem iPhone abgeglichen. Es werden keine Fotos analysiert o.ä.

    Es gehen also KEINE Bilder an Apple. Erst wenn eine Datei mit einem bekannten hashwert ermittelt wird gehen Infos hierzu an Apple!

  • Edward Snowden hat vorliegend -wieder einmal- mit einem kurzen, prägnanten Satz den Nagel auf den Kopf getroffen.

    George Orwell hatte dies im vergangenen Jahrhundert mit „1984“ -wenngleich auch per weitausholendem Zukunftsroman- bereits vorweggenommen. Die beschriebenen Schreckensszenarien von „1984“ erscheinen gegenüber dem, was Apple nun vorhat, geradezu als Kindergarten. Sogar, wenn man sich STASI & Co. noch dazudenken würde.

    1. Heutiges Argument von Apple (+ Dergleichen) für die Überwachung von Posts: Schutz von Kinderpornographie.

    2. Konsequenz dieses Denkansatzes: Frönung von Begehrlichkeiten aus 1. – „Honi soit, qui mal y pense“ = Zweck: der Gläserne Bürger. Via Globalkriminalisierung von Männlein und Weiblein.

    Wie sagte Sir Edward Snowden schon -überaus treffend- zuvor?: „Wer Freiheit gegen Sicherheit tauschen möchte, wird am Ende beides verlieren.“

    Honi soit, qui mal y pense …

    Leute: wacht auf, zeigt Apple & Co. (hier) die dunkelrote Karte – und sei es, daß Ihr über Alternativen zu Apple-Produkten nachdenkt! Am Umsatz/Geldbeutel hat es noch ein(e) Jede(r) gemerkt! …

  • Wieso dürfen fremde Menschen bei Apple meine Bilder auswerten? Sind die bei der Staatsanwaltschaft in Deutschland und haben einen richterlichen Beschluss dafür? Wenn ich dann mit meinen iPhone in die USA oder China reise, was gilt dann?

  • Bitte an die Betreiber: Sagt bitte nicht mehr Kinderporno, dann dies impliziert, dass die Kinder rechtskräftig bewusst diesem Porno zugestimmt haben. Es ist aber in Wirklichkeit Kindermissbrauch.

    An alle: Es wird wohl viel durcheinander gemischt. Laut https:[//]www[.]apple[.]com[/]child-safety[/]pdf[/]CSAM_Detection_Technical_Summary[.]pdf scannt Apple nur iCloud Photos lokal, die sowieso ohne E2E-Verschlüsselung in iCloud landen (haben sie sicherlich schon vorher wie die großen Betreiber Google Cloud, Microsoft Cloud, Dropbox und andere auf ihren Servern durchgeführt, nur dass sie nun damit nötige Performance auf ihren Servern einsparen, wenn dieses Scannen bereits die Geräte der Besitzer lokal ausführen).

    Laut diversen Quellen habe Apple bei iMessage nur gesagt, dass dann jugendliche Nutzer oder die Eltern der Minderjährigen bei möglichen Funden gewarnt werden, aber sie erwähnten nicht, dass sie dann Behörden unterrichten. Das geschieht anscheinend nur bei iCloud Photos, was bereits früher getan wurde.

    Wenn also bei iMessage lediglich die Jugendlichen oder Eltern vom Minderjährigen gewarnt werden, dann ist diese neue Funktion sogar begrüßenswert, da dies möglicherweise Cybergrooming oder anderes Schlechtes entweder verhindert oder wenigstens vermindert.

    Bedenklich ist jedoch, dass wegen dieser Implementation eine Anpassung des Scannens für Unrechtsstaaten dann leicht wird und diese dies dann auch fordern, da Apple sonst nicht in deren Land verkaufen darf (z.B. China und Uiguren).

  • Ist das nicht ein massiver DSGVO-Verstoß, den man anzeigen kann?

  • Worüber wird sich hier aufgeregt ? Über eine Funktion, die für Niemanden ausser für Kinderpornobesitzer relevant ist ? Es schaut ja keiner auf die privaten Fotos. Es ist ein elektronischer Scan, der nach bestimmten Merkmalen sucht. Kein Foto wird dabei unangemessen behandelt. Weder sieht es jemand, noch wird es gespeichert noch wird der Inhalt ausgelesen, da der Scan ja die Aufgabe hat Kinderporos zu finden.
    Zum Einen ist e seine Vorgabe der EU, die eben auch Apple einhalten MUSS, zum Anderen ist es eine – für mich nicht weiter beachtenswerte – sinnvolle Schutzfunktion im Kampf gegen Kriminelle. ich bin nicht kriminell, mich stört es nicht. Aber wer sich über so etwas so aufregt … vielelicht zu Recht ?

  • Wer schläft in der Demokratie wacht in Diktatur. Es ist kurz nach 12 und immer noch nicht verstanden wo geht es hin?!

  • Es ist mal wieder erschreckend wie viel Unwahrheiten , falsche Infos, eigene Meinungen oder sonst was hier unter diesem Artikel stehen.
    Man hätten den Artikel auch etwas tiefgründiger schreiben können aber ich fürchte dazu ist dann das ct Heft da.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 38839 Artikel in den vergangenen 6322 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven