Uni-Professor warnt vor Nebenwirkungen
Missbrauchsfotos: Das iPhone prüft mit iOS 15 auch lokal
Update: Apple hat die Einführung der beschriebenen Funktion inzwischen offiziell bestätigt.
Original-Eintrag: Der Kryptographie-Experte Matthew Green ist an der renommierten Johns Hopkins University als Professor aktiv und scheint über ausgesprochen gute Drähte zu Apples Betriebssystem-Entwicklern zu verfügen.
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Diese, so Green auf dem Kurznachrichten-Portal Twitter, sollen am morgigen Freitag dazu übergehen nicht mehr nur die auf iCloud hochgeladenen Fotos auf Inhalte zu prüfen, die im Zusammenhang mit der sexuellen Ausbeutung von Kindern stehen, sondern auch lokal gespeicherte iPhone-Fotos zu durchsuchen.
Apple habe vor die lokalen Bilder seiner Anwender mit den Fingerabdrücken bekannter Missbrauchs-Fotos abzugleichen und würde serverseitig dann all jene Nutzer melden, auf deren Geräten mehrere Treffer verzeichnet worden seien.
Kurznachrichten-Kontrolle durch die Hintertür?
Was grundsätzlich erst mal nach einem begrüßenswerten Schritt Apples klingt, ist nach Angaben von Professor Green Anlass zur Sorge. Ist die Infrastruktur auf den Endgeräten erst mal vorhanden, könnte das Scannen lokaler Inhalte langfristig problemlos auch auf Apples Kurznachrichten-Applikation iMessage ausgeweitet werden.
Eine Möglichkeit vollverschlüsselte Kurznachrichtendienste auf spezifische Inhalte hin zu durchforsten fordern Strafverfolgungsbehörden auf der ganzen Welt seit Jahren von Apple. Der Professor der Johns Hopkins Universität führt China als einen der problematischen Märkte an. Apples iMessage ist dort der letzte Messenger mit Ende-zu-Ende-Verschlüsselung.
Kollisionen könnten Falsch-Positiv-Meldungen provozieren
Zudem besorgniserregend: Das System würde auf Fingerabdrücken „problematischer Medieninhalte“ basieren, die von Anwendern nicht nachvollzogen werden könnten. Entsprechend bestünde die Gefahr von Kollisionen. Also das Vorhandensein von Bildern, die trotz gänzlich anderer Motiv-Inhalte, den selben Fingerabdruck wie bekannte Missbrauchs-Fotos besitzen. Solche Kollisionen könnten versehentlich auftreten, durch entsprechende Bildmanipulation aber auch aktiv provoziert werden.
Apple should commit to publishing its algorithms so that researchers can try to develop “adversarial” images that trigger the matching function, and see how resilient the tech is. (I will be pleasantly but highly surprised if Apple does this.)
— Matthew Green (@matthew_d_green) August 5, 2021
Green hat Apple dazu aufgefordert die im Hintergrund aktiven Algorithmen offenzulegen, damit Sicherheitsforscher diese auf ihre Anfälligkeit für Kollisionen abklopfen könnten, zeigt sich aber wenig zuversichtlich, dass Apple den Themenbereich überhaupt kommentieren wird.
Es ist gut etwas gegen Kinderschänder zu unternehmen, ob privatwirtschaftliche Unternehmen mit einer pauschal Überwachung dafür zuständig sind finde ich sehr grenzwertig…
Sehe ich auch so.
Aber es ist nicht gut unter dem Deckmantel der kinderpornos alle iphones zu durchsuchen
Das ist genau der Punkt! Die sagen uns Kinderpornos aber das ist nur der Grund mit dem es durchgewinkt wird und dann mal sehen was wir alles noch damit rausbekommen!
Es wird nichts durchsucht. Es ist ein plumpes Abgleichen, ob bestimmte Merkmale in einer lokalen Datenbank auftauchen oder nicht. Das hat mit „durchsuchen“ nichts gemein.
rover ein plumper Abgleich ist eine Art von Durchsuchung
Ja aber heute sind es abgleich gegen kipo und morgen gegen anti USA propaganda
bitte benutzt den Begriff „SEXUELLEN MISSBRAUCH VON KINDERN“ .
Kinderpornos erweckt doch einen komplett falschen Eindruck und sollte mMn baldmöglichst in dem Zusammenhang aus unserem Sprachgebrauch verschwinden !
@lefranck
Nein, es erweckt genau den richtigen Eindruck. Dein Begriff ist etwas anderes, hängt aber sehr oft durchaus zusammen.
Und du hör bitte auf zu plenken.
Das ist nicht Grenzwerten sondern ein massiver Eingriff in den Privatbereich, der ausschließlich Strafverfolgungsbehörden mit richterlicher Anordnung zusteht!
Nein, hier heiligt der (ohne Frage) gute Zweck nicht die Mittel!
Hab‘ nichts zu verbergen.
Aber auch in Textnachrichten… geht es hier echt nur ums Prinzip? Mir ist es echt egal, ob irgendein Computer oder sonst eine Person mitbekommt, dass mir ein Freund schreibt, dass er gerade zwei macht..
Sollte es irgendwann dazu kommen, dass Inhalte in Unterhaltungen mit Freunden dazu genutzt werden mir zugeschnittene Werbung bei Google zu zeigen, dann schmeiß ich das Handy weg. Aber bis dahin \_(ツ)_/
„Hab‘ nichts zu verbergen.“ Uiuiuiuiui – wo soll man da anfangen? Wehret den Anfängen. Das mag ja auf dich zutreffen, aber wenn entsprechende Techniken erstmal vorhanden und etabliert sind, können diese Systeme hervorragend missbraucht werden. Werbung ist dabei das kleinste Problem. Denk mal politische Aktivisten. Bitte überdenke solche Aussagen und mach Dir klar, was potentielle Folgen sind.
Wenn du nichts zu verbergen hast können wir doch bitte vorbeikommen und bei dir zuhause nachsehen ob das auch stimmt. Jeder hat Dinge, die niemand etwas angehen auch wenn die legal sind .
Absolut nicht akzeptabel von Apple. Der Zweck heiligt nicht alle Mittel, auch wenn wir uns alle beim Zweck einig sein werden.
Hm, ich bin da mit Dir einig.
Nur, wenn wir uns wirklich alle einig werden, gäbe es den Bedarf gar nicht.
Ergo, irgendwer ist da mit uns nicht einig.
Und so sehr ich diese Scanfunktion (lokal oder in der Cloud) richtig Scheisse finde, der andere Umstand triggert mich mehr.
Apple kann auf lokal gespeicherte Bilder zugreifen??
Die können Alles… wenn Sie wollten.
Hier finde ich es prima, aber auch grenzwertig.
*grins*
Würde mich auch interessieren, ob und wie das möglich ist.
What happens on your iPhone, stays on your iPhone…,not.
Nein.
Sowas kann locker lokal passieren.
Man muss nur eine Datenbank mit Hashwerten problematischer Inhalte lokal ablegen. Und dann muss man von allen Fotos (darum geht es ja hier) die Hashwerte berechnen (was auch kein Akt ist). Und diese Werte dann auf Treffer vergleichen.
Dafür muss gar nichts irgendwo hin übertragen werden. Es kann 100% lokal geschehen.
Das Ergebnis wird übertragen und keiner hat Einsicht was da wohl wo gefunden wurde.
Und das wird bemängelt: Appel meldet Dich. Du hast keine Ahnung über das was und warum bis die Cops bei Dir auf der Matte stehen. Und dann wird es schwierig wenn Du Dein Phone nicht entsperren willst…
Also entsperrst Du weil es ja ein Fehler ist und schon haben die Cops Deine Chats mit Mama oder Deiner SM Gruppe usw…
So hab ich mir das auch schon gedacht, danke.
Dann danke für die Klarstellung. Dann wärs okay und sinnvoll.
Wenn apples lokale spotlight Indizierung auf den iPhone Katzen und Hunde findet und das bild damit tagged wird sie auch anderes finden können
So viel zum thema was auf deinem iPhone passiert bleibt auf deinem iphone
Wenn Kinderpornos auf einem iPhone „passieren“, darf das nicht unentdeckt bleiben.
Auch das ist kein grund alle unter generalverdacht zu stellen
Das ist die typische Aussage gegen jegliche Art von besseren Möglichkeiten zur Strafverfolgung.
Klar, das Thema ist mehr als kritisch zu betrachten und kann vor allem, wenn man die Thematik weiter spinnt auch locker zur Zensur eingesetzt werden.
Viele Täter bei Missbrauchsfällen rücken nur dann in den Fokus der Ermittler, wenn diese auf überwachten Seiten aktiv waren, oder von einem Dritten, der das zufällig mitbekommen hat, gemeldet werden. Dem nette Nachbarn von nebenan sieht man selten an, dass er eine Vorliebe für Kinder hat.
Ich bin schon seit langem der Meinung, dass Privatsphäre und Sicherheit zwei nicht vereinbare Gegensätze sind. Je mehr die Privatsphäre geschützt wird, umso schwerer fällt es den Behörden Straftäter und/oder Terroristen zu identifizieren und einzugreifen. Gleiches natürlich andersherum. Je mehr die „Sicherheit“ erhöht wird, umso mehr muss man als Bürger die Privatsphäre einschränken.
Diese Privatsphäre kommt auch den Kriminellen zugute, das dürfen wir nicht vergessen. Wenn der Hashwert der Bilder automatisch und anonym mit einer Datenbank abgeglichen wird und nur bei einem Treffer ein menschliches Wesen den Treffer beurteilt und gegebenenfalls an die Behörden weiterleitet, dann ist das für mich persönlich ein annehmbarer Kompromiss.
Wer sich hier hinstellt und vehement darauf pocht, dass SEINE Privatsphäre niemals angetastet werden darf, der hat meiner Meinung nach eine sehr egoistische Lebenseinstellung, wenn er SEINE Privatsphäre über das Leben von Menschen, in diesem Fall insbesondere Kindern, stellt.
Und diese Menschen sind dann sicherlich die ersten, die wieder die Polizei anklagen, warum denn nichts unternommen wird. Wo kein Richter, da kein Kläger. Ohne Hinweise auf eine mögliche Straftat können die Behörden per Gesetz nun ein mal nicht aktiv werden.
Bestes Beispiel ist hier der Mord an Sophia Lösche. Die Familie hat sich tierisch darüber aufgeregt, dass die Polizei nichts unternommen hat und oft die Aussage zu hören bekam, dass keine Streifenwagen/Personal verfügbar ist. Die Ironie an der Sache: Der Vater war überzeugter Grünen Wähler und damit für die damalige Rot-Grün Regierung mitverantwortlich, die der Meinung war: „Wir brauchen keinen Polizeistaat“ und somit einen massiven Stellenabbau herbeigeführt hat. Was der Personalmangel ausmacht sieht man heute besser denn je.
Ja, das Thema mit dem Abgleich der lokalen Bilder ist schwierig und definitiv eine ethische Grundsatzfrage. Aber wir müssen auch bedenken, dass wir mit einer Blockade solcher Möglichkeiten auch immer die Straftäter schützen.
Wer hier eine bessere Idee hat um solche Straftäter in den Fokus der Ermittler zu rücken, dann nur her damit.
…es bleibt auch auf deinem iPhone und wird nicht gelöscht… :-)
Hauptsache mit Datenschutz und Privatsphäre werben. Da ist echt ein nogo von Apple, lokale private Inhalte zu scannen.
Sagt er. Aber Scans finden auch statt, wenn du Bilder mit Hunden findest (wenn du nach Hund suchst), oder wenn automatische Texterkennung in iOS 15 in Bildern ist. Das setzt jeweils einen Scan voraus. Das ist nicht automatisch problematisch. Wenn das Scanergebnis dann an Apple geteilt wird, dann wird’s natürlich kritisch.
Exakt!
Aber Bilder mit Hunden werden nicht an die Polizei gemeldet…
Wenn es sogenannte Listenhunde sind vielleicht ja schon!
Kurz gesagt, unsere „sicheren“ iPhones sind gar nicht so sicher und können von jedem (inklusive Apple) gehackt / gescannt werden. Hab ich das richtig verstanden?
Wird wahrscheinlich lokal als bestandteil des betriebsystem laufen und bei alarm ne mitteilung an apple machen.
Ja klar. In iOS15 ist das iPhone auch per „Wo ist“ lokalisierbar, wenn es ausgeschaltet ist ;)
Ich dachte, für so etwas gibt es Durchsuchungsbeschlüsse, in unserem Fall nach § 102 StPO!?
Strafprozessrecht ist hier nicht anwendbar. Jeder Nutzer willigt mit den AGB in eine solche Durchsuchung ein. Hier herrscht ein Verhältnis zwischen zwei „Privatpersonen“. Wer in entsprechende AGB einwilligt, muss damit rechnen, dass die dort erläuterten Möglichkeiten ausgeschöpft werden.
Also AGB brechen kein Gesetz und AGBs oder Bestandteile der AGBs können auch unwirksam werden/erklärt werden.
Genau, die Gesetze stehen über den AGB’s. Verbesserungen in den AGB’s gegenüber dem darüber stehenden Gesetz sind erlaubt, aber AGB’s dürfen nicht die Gesetze aushebeln
Es gibt keine AGB‘s, sondern nur AGB. Und das Apostroph setzt dem Irrsinn noch den Gipfel auf.
Dies ist keine Durchsuchung.
Werft doch hier nicht mit Begriffen rum, die Ihr nicht versteht.
Wenn man einen Begriff nicht versteht, kann man ihn auch nicht absichtlich falsch verwenden.
Also darf man damit sehr wohl herumwerfen.
Aufklärung ist besser als Aufregung.
Das ist doch Quark, kein Algorithmus der Welt kann Bilder eineindeutig! richtig zuordnen, ob diese strafrechtlich relevant sind. Das würde bedeuten, dass 99,99999999% der Bilder die herausgefiltert werden, strafrechtlich nicht relevant sind.
Der Zweck heiligt nicht alle Mittel.
Doch das geht. Aber natürlich nur bei bekannten Dateien.
Wenn Du ein KiPo-Bild hast, dass durchs Internet geht ist es höchstwahrscheinlich bekannt und die MEtadaten ebenfalls.
Wenn Du selbst KiPo herstellst, werden diese Daten natürlich nicht bekannt und eben auch nicht auffallen.
Jetzt denk das mal weiter:
Apple hat alle Hashes und weiß wer die Bilder gemacht hat. Jetzt kommt ein Bild von zB einer Demo ins Netz und China will wissen wer das Bild gemacht hat ;)
Und dann?
Schönes Beispiel,.. und dann?
Doch es gibt sehr gute Techniken um bereits bekannte Bilder zu erkennen, auch wenn sie gecroppt und verfremdet worden sind.
PhotoDNA von Microsoft zum Beispiel.
Es gab vor fast einem Jahr eine Podcast-Episode (Making Sense with Sam Harris – Episode 213) zu dem ganzen Themenfeld.
Zugegeben, diese Episode hat mich (als bis dato absoluten Verschlüsselungsbefürworter) doch etwas zum Nachdenken gebracht.
Ich wusste gar nicht, wie virulent solche Bilder und Videos inzwischen verbreitet werden und wie schwer es trotz aller Anstrengung ist den Erstellern und Verbreitern dieses Materials beizukommen. Man kann vom Umfang her fast schon mit den massenhaften Tauschen von urheberrechtlich geschützten Filmen und Musik gleichsetzen.
Ich weiß jetzt zwar immer noch nicht, was eine akzeptable Lösung ist um den Strafverfolgungsbehörden und im Grunde dann auch Opfern zu helfen, aber sich einfach auf den Standpunkt zurückziehen:
„Verschlüsselung ist heilig und an diesem Dogma darf nicht gerüttelt werden“ finde ich inzwischen weltfremd.
Bedauerlicherweise ist das aber nur die halbe Seite der Medaille, denn Anonymität und Verschlüsselung sind für Dissidenten in restriktiven Regimen leider oft essentiell und überlebensnotwendig.
„Man kann vom Umfang her fast schon mit den massenhaften Tauschen von urheberrechtlich geschützten Filmen und Musik gleichsetzen.“
Was für gehobelter Dünnschiss. Mal die Märkte Angebote und Nachfrage vergleichen
Alle Iphone Nutzer unter Generalverdacht stellen ist nicht schön mein lieber Tim!
Diese „Generalverdachts“-Dingens ist immer ein schwaches Argument. Jede Fahrkartenkontrolle in der Bahn stellt nach dieser Logik die Kunden unter Generalverdacht. Ebenso jede Geschwindigkeitsmessung, Altersverifikation, etc. pp.
Nur dass du bei den von dir genannten Punkten nicht in das Privatleben der Leute reinschnupperst…
Quasi jede größere Onlineplattform, die mit user generated Content umgeht, das auf deren Servern landet wird auf alle möglichen Dinge gecheckt, sei es Urheberrecht oder anderes strafrechtlich relevantes Material. Die Anbieter haben sogar die Verpflichtung diese Material – nach Kenntnis darüber – umgehend zu entfernen. Dies trifft auch auf Material zu, welches nicht öffentlich ist.
Google z.B. scannt seit Jahren Gmail nach Kinderpronografie über einen Datenbankabgleich.
Schwaches Argument Stichproben und Generalverdacht zu vergleichen. Altersverifikation war dann noch genannt weil? … es auch nichts damit zu tun hat, oder … ?
Fahrkartenkontrollen bei der Bahn sind keine Stichproben – jeder einzelne Fahrgast wird kontrolliert! Daher Generalverdacht.
Die gelten Beförderungsbedingung regeln ganz klar, dass Fahren ohne Fahrschein nicht gestaltet ist. Zur Umsetzung derer werden Kontrollen durchgeführt. Kein Generalverdacht sondern nur durchsetzen der Beförderungsbedingungen.
Dann lies dir mal durch, welche Art Fotos du nicht in iCloud laden darfst. Apple setzt hier die eigenen AGBs durch. Und nebenbei auch geltenden Recht.
Fahrkartenkontrollen sind Stichproben aus der riesigen Menge an Fahrgästen…
Keiner kann auf einmal sofort ein ganzes Verkehrsnetz kontrollieren…
Der Vergleich hinkt aber gewaltig!
Fahrkartenkontrolleure kontrollieren aber such nicht jeden überall und permanent.
Der Vergleich hinkt. wenn man das so weiterspinnt, würde eine Einlasskontrolle z.B. bei einem Konzert dem gleich kommen.
Apple scannt doch bereits alle iMessages.
Das ist leider nix neues.
Immer wenn ich Memes per iMessage an Freunde in den USA schicke werden die Bilder von Apple erkannt und dann runter skaliert, damit man den Text nicht mehr lesen kann.
Und nein, das liegt nicht an meinen Einstellungen in iOS.
Beweise?
Toll.
Und die ganzen Kinderschänder haben bis morgen Zeit alles runter zu löschen. Warum wartet man nicht mit der News, bis es passiert ist?
Das sowas möglich ist, finde ich auch krass. Allerdings ein notwendiger Schritt.
Heute sind es die Kinderschänder, morgen sind es die Andersdenkende….
Was heute noch gut ist, könnte morgen Deinen Kopf kosten usw.
Finde das nicht prickelnd, aber „Hey, wir haben ja nichts zu verbergen.“
Bisher hatte ich Apple Produkte, eben weil es privat war.
Das sehe ich ab sofort etwas anders…
Ja super! Lasst uns doch alle Wohnungen mit Kameras ausstatten und bei Verdacht von illegalen Aktivitäten eine Meldung an die Polizei rausschicken.. Das ist doch die Lösung für eine Gewaltfreie Welt!!!
Brauchen wir gar nicht mehr. Liegen doch in jedem Haushalt genug devices rum die sowohl Bild als auch Ton übertragen können. Hach ehemalige stasi Mitarbeiter sind echt froh in unserer Welt leben zu dürfen!
Das wäre doch ohne vorherige Zustimmung in der EU eine massive DSGVO Verletzung? Die gesammelten Bild-Metadaten wären ja eindeutig personalisiert und nicht anonym.
Das Problem ist wenn man Bilder von seinen eigenen Kinder auf dem Gerät hat und jemand von der Ferne dadrauf zugreift kann der garnicht wissen was das von Kinder sind.
Klarer Fall von nicht verstanden was passiert. Es werden die Werte BEKANNTER Missbrauchsbilder aus entsprechenden Datenbanken mit den lokalen Bildern abgegelichen. Ähnlich arbeitet ja auch bereits Facebook (inkl. Instagram). Das ist etwas komplett anderes! Weder werden hier iPhones durchsucht noch irgend etwas zu Apple hochgeladen.
Ich sehe das zwar auch skeptisch – dennoch schreiben einige hier ziemlichen Käse nur weil siedie technischen Zusammenhänge nicht verstehen.
So funktioniert das nicht. Es werden vielmehr „Fingeprints“ mit bekannten Fotos aus einer DB abgeglichen. Ist das Foto nicht in dieser Datenbank passiert rein gar nichts, vollkommen ungeachtet des Motivs, das sogar strafrechtlich relevantes Material enthalten könnte. Die schicken hier keine KI drüber, die die Bilder nach Motiv interpretiert.
Das machen Ermittlungsbehörden seit Jahren und „scannen“ nach dieser Methode das Netz, was ich für absolut legitim halte.
Wenn Apple das jetzt mit Bildern macht, die in ihrer Cloud lagern, kann ich das verstehen – sie werden wenig Lust haben, dass derartiges Material über Ihre Cloud verteilt wird. Das hat sicher auch etwas mit Haftungsfragen zu tun.
Irgendein Apple-Mitarbeiter schaut sich dazu also den ganzen Tag Kinderbilder an um Fingerprints zu erzeugen? Gruselige Jobvorstellung….
Clouddaten werden nicht zwangsläufig geteilt, dennoch gescannt.
noch nicht…
Na die Frage ist nun nur: wechseln jetzt alle Datenschutz bewussten Nutzer von Apple zu irgendwelchen dubiosen krypto android Phones die eigentlich genau für Kriminelle gedacht sind?
@ifun Bitte korrekt übernehmen, da steht nichts von lokalem scannen. Der Prozess läuft lokal ab um die iCloud Fotos zu scannen
„Initially I understand this will be used to perform client side scanning for cloud-stored photos.“
Das gleiche haben sie mit den iCloud Fotos schon vorher gemacht mit Microsofts PhotoDNA oder wie das heißt. Jetzt sind die iPhones so leistungsfähig, dass der Prozess lokal stattfindet.
„Initially Apple is not going to deploy this system on your encrypted images. They’re going to use it on your phone’s photo library, and only if you have iCloud Backup turned on.“
Die benutzen Rechenzeit und Batterie für Aufgaben, an denen die Nutzer selbst kein Interesse hat, bzw. nicht selbst initiiert. Als wenn die das nicht auf deren Cloudserver selbst machen könnten
TSCHÜSS APPLE!!! SO NICHT!!!!!!
Bye! Und viel Spaß bei android.
Wo es schon ewig gemacht wird.
Sagt wer?
Bitte um einen Link.
Getroffene Hunde bellen?
Also das kann ja nur auf zwei Dingen basieren:
Entweder Hashwerte und PhotoDNA.
Beides ist geeignet um vollständig lokal abzulaufen. Da wird nichts durchsucht oder übertragen oder auch nur einem Menschen gezeigt zum auswerten.
Das ist so simpel, dass man fragen muss warum das nicht schon immer so war. Bei allen Anbietern.
Ich glaube eine entscheidende Frage ist: Was passiert wenn es einen Treffer gibt? Was passiert jetzt mit dieser Information? Hier wirds interessant, weil derzeit sieht es so aus, dass Apple (oder Goolge) das Bild mit Geräte-Informationen und Account sichert/überträgt, darüber nochmals richtet und es dann an Behörden weiterleitet. Der Hersteller wird also zum Teil des Strafverfolgungssystems.
Außerdem ist interessant was passiert wenn man jemanden so ein Bild unterschiebt, der Rest passiert ja dann automatisch. Damit kann man jemanden echt schaden, selbst wenn sich tatsächlich raus stellt das das ein Fehlalarm war, der Schaden ist angerichtet.
Mir geht es dabei weniger darum, ob nun ein Mensch aus den USA oder auch aus Europa die Bilder untersucht. Mir geht es eher darum, wie treffsicher das ganze wäre. Bei 100% hätte ich damit auch absolut kein Problem, aber was wenn der Alarm fehlerhaft losgeht? Wenn so was einmal im Raum steht, ist es schon vorbei. Da bringt danach ein sorry auch nichts mehr.
Tja, man kann ein unschuldiges Bild auch so manipulieren, dass es den Hash-Wert eines Missbrauch-Bilder aus der Datenbank hat, wenn einem der Hash bekannt ist
@kater Karlo
Wozu?
Hmm, ich weiß immer noch nicht wie ich dazu stehen soll.
Normalerweise würde ich ja sagen:
Lieber nicht, denn mit dieser Technik werden im Grunde alle iPhone-Nutzer im Grunde unter Generalverdacht gestellt.
Aber andererseits könnten sich damit (falls die Technik funktioniert und nicht ständig bei normalen Kinderfotos Falschalarm schlägt) hunderte oder gar vielleicht tausende Kinder gerettet werden.
Heilig der Zweck also die Mittel?
Das ist fast so wie mit dem Thema Verschlüsselung bei dem ich jahrelang kategorisch auf Seiten der Freiheit stand und den Strafverfolgungsbehörden keinen Fußbreit geben wollte.
Denn eigentlich sollte es klar sein, dass die Kommunikation zwischen zwei Personen weiterhin privat bleiben sollte und die Strafverfolgungsbehörden sich nicht einfach in einen solchen Chat einklinken und dann die Kommunikation von Monaten und Jahren durchleuchten können.
Aber mir kann auch keiner sagen, dass die hier greifenden Gesetzen damals für Chats mit Dutzenden von Personen gedacht waren, die in solchen virtuellen Räumen unter Straftaten planen und massenhaft solche Bilder tauschen.
Denn auch die Freiheit hat ihre Grenzen.
Wie genau werden dadurch Kinder gerettet? Bilder sind immer Momentaufnahmen der Vergangenheit. Das lässt sich nicht rückgängig machen. Und wenn man die Berichte über die gesprengten Ringe verfolgt, liest man immer, dass kaum bis nichts gefunden wird, dass nicht schon Jahrzehnte alt ist. Sprich: Das was aktuell läuft, findet fast ausschließlich im Verborgenen statt. Dem wird man damit nicht auf die Spur kommen.
Es gibt schon einige Fälle, wo ein aktueller Missbrauch verhindert wird und das Kind gerettet wird. Selten wohl.
unwahrscheinlich in diesen Fällen, da es nur auf alten Bildern basiert.
ich habe vollstes verständniss bei diesem thema. aber trotzdem: lokal ausspionieren geht gar nicht
Finde ich garnicht gut, das eine Thema ist klar, aber mein iPhone ist mein iPhone und wenn nicht, kann Apple gerne das Gerät wieder haben. Dann benutze ich halt mein altes Nokia 3210 wieder ;)…
1984
Ich bin schockiert! Das ganze stinkt doch zum Himmel.
Wir sind uns doch einig, das solche Ferkel das nun eh wissen und umgehen und somit keiner dieser Menschen gefasst wird. Stattdessen sehe ich die Gefahr, das man auf einmal vor einer solchen Beschuldigung steht, weil es ein Fehlalarm gab. Dann Prost Mahlzeit! Da reitet die Polizei dann mit einem Durchsuchungsbefehl ein und sicher bekommt auch der Arbeitgeber etwas mit. Ebenso die gesamte Nachbarschaft.
Das kann man sich nicht vorstellen, was das alles für Konsequenzen haben kann!!!!
Womöglich kommen diese „Tools“ mit neuen IOS Versionen? Noch ein Grund mehr auf der aktuellen Version zu verbleiben!
Geht gar nicht, unternehmen sind nicht der Staat, wenn meine Festplatte von wem auch immer untersuchen will braucht dafür einen richterlichen Beschluss.
Ihr sieht das auch alles mit Privaten Augen. Jetzt stelle man sich vor: Millionen von Firmen haben iPhones im Einsatz wo auch mal Geschäftliche Fotos gemacht werden. Entweder werden die Kameralinsen unbrauchbar gemacht oder es werden keine iPhones mehr eingesetzt da das Vorgehen gegen die IT Richtlinien verstößt. Herzlich.
Ja das stimmt, auf Firmenhandys werden auch geheime Bilder gespeichert, die niemanden etwas angehen. Zukünftig wird die iT das Wohl berücksichtigten müssen und vermutlich auf iPhones verzichten.
Die lokale Foto-Mediatheak durchsuchen? Ja, macht ruhig. Die Schniedelbilder da drin sind von mir am FKK-Strand.
Oder durchsuchen wir bereits das gesamte Gerät und den Inhalt von sämtlichen Apps inkl. deren Dateien, Dokumenten und Caches von jeglichem Content, der irgendwo zwischengespeichert wurde. Wird das auch alles kontrolliert? Oder nur die Foto-Mediathek im Foto-App?
Die Antwort auf die Frage ich übrigens egal.
Was technisch möglich ist, wird getan. Heute oder morgen. Gründe gibt es immer, vor allem auch legitime. Viele davon sind mittlerweile zu derartigen Totschlagargumenten geworden, daß jegliche Diskussion darüber bereits das Urteil bildet.
Ich denke nicht, dass sich das in Deutschland rechtlich durchsetzen wird. Da hilft auch das zustimmen einer AGB nicht.
Ich weiß nicht in welchem Deutschland du lebst, in meinem Deutschland ist mittlerweile vieles möglich was früher undenkbar war.
Richtig so. İch hoffe alle anderen firmen folgen.
Und was soll das bringen…siehe Christoph Metzelder?!?!?
Das ist ja das kuriose daran, solche Menschen werden mit teueren Anwälten immer davon kommen.
Problem ist das man schneller drin ist als wieder raus
Apple: fuck you! Die 12k$ Geräte in meinem Haus wandern morgen in die Müllverbrennung.
Gib sie lieber mir.
Wehret den Anfängen. Ist die Funktion erst mal implementiert dann wird diese Begehrlichkeiten wecken. Lernt die Menschheit denn nicht ?
Ich kann noch nicht einmal mehr im Ansatz verstehen, dass man sich über Pro und Contra bzgl. solcher Implementierungen unterhalten kann. Der Fall Pegasus hat doch so was von deutlich gezeigt, dass auch nur die kleinsten Lücken in Systemen von mobilen (und mit Netzwerken verbundenen) Geräten unsere gesellschaftlichen Strukturen bedrohen. Straftäter*innen aller Art wird es immer geben und Sicherheit (das ist wohl der Hintergrund) wird auch immer nur ein Gefühl bleiben. Heute fühlen wir (insbesondere die in der „westlichen“ Welt) uns nicht vor Straftaten anderer sicher und in der Zukunft fühlen wir uns nicht vor dem Staat sicher, weil er uns bis in die kleinste Einheit kontrollieren wird. Ein Leben frei von Risiken und Gefahren scheint ja bei der Masse so begehrt zu sein, dass ohne Nachdenken danach gestrebt wird, alle Entscheidungen irgendwann Algorithmen überlassen zu können. Ich bin froh, dass ich nicht mehr erlebe! Aber bis dahin finde ich das alles erstmal total cool!
Liebes ifun.de Team, es ist erschreckend, wieviel Inkompetenz in den Kommentaren unterwegs ist.
Schreibt doch bitte einen Artikel, der Hash oder DNA Prüfung erklärt.
Wieviele hier mutmaßen, daß ihre privat selbst erstellten Fotos einen Alarm auslösen können ist schon übel.
Aber ganz wichtig: ihr müsst das alles in die Überschrift reinpressen. Oft wird der nachfolgende Artikel ja wohl nicht gelesen!
+1 Danke
Und wie ich bereits weiter oben geschrieben habe, gehts nur um den lokalen Abgleich der iCloud Fotos. Der Abgleich lief vorher Serverseitig und nun lokal. Aber es geht noch nicht um die lokal gespeicherten Fotos.
Was ich dann nicht verstehe: Warum macht Apple bei einem Attentäter Theater dem FBI zu helfen? Warum wird hier zwischen Straftaten unterschieden?
Klar ist es theoretisch richtig, Kindesmissbrauch zu verfolgen, aber letztendlich ändert sich nichts daran, ob jemand irgendwelche Fotos/Videos auf dem iPhone hat oder sich lieber im Darkweb rumtreibt (ders halt wirklich macht). Und wenn man sowas macht, sollte man wenigstens offen dazu stehen und nicht sagen „alles was auf dem iPhone passiert, bleibt auf deinem iPhone“ (für die Leute die halt ihre privaten Fotos/Videos drehen etc.).
Also wenn ich ein Pimmelbild für meine alte mache, dann möchte ich eigentlich auch nur dass das meine alte sieht und niemand anders. Aber es hat mich auch etwas beruhigt, dass andere geschrieben haben das dies scheinbar wirklich nur durch irgendwelche Metadaten der Fotos erkannt wird von irgendeinem Algorithmus und nicht von Mitarbeitern.
Wieso ab morgen? Was ist morgen? Gibt es da ein Update oder wird von Ferne ein Schalter umgelegt, welcher die Funktion auf allen Geräten aktiviert?
Auch wenn das in diesem speziellen Fall vielleicht sogar verständlich und sinnvoll sein mag, bin ich mit diesem Vorgehen überhaupt nicht einverstanden.
Apple sollte endlich dazu übergehen ALLE Inhalte in iCloud Ende zu Ende zu verschlüsseln….Auch die Fotos….und nicht plötzlich anfangen auch die lokalen Inhalte der Nutzer zu kontrollieren.
Geht gar nicht!
Mein Smartphone meine Bilder! Ich möchte nicht, dass Apple meine PRIVATEN Bilder scannt !
Kann mir das jemand bitte etwas genauer erklären?
Werden nun alle Bilddateien auf den iPhones inklusive den Bildern in den Messenger-Apps (WhatsApp, Threema) und Apps wie „documents“ gescannt ?
Auch dann, wenn iCloud Fotos und iCloud Backup deaktiviert sind?
Oder handelt es sich hierbei um scanns der „Fotos“ App ?
Viele sollten hier Erwachsen sein und was die eigene Ehefrau einen über Threema schickt, sollte Apple eigentlich nicht zu scannen haben.
Bitte keine Arroganten oder besserwisserischen Antworten. Einfach nett sein bitte =)
– Nur Fotos App
– nur iCloud Fotos! Nicht die lokalen Fotos. Es wird dann neu lokal analysiert, was in der iCloud Mediathek ist.
– wenn du iCloud Backup aushast bist wird nichts „gescannt“
Danke, Tim!
Wie heißt es in der Werbung: Wir schätzen deine Privatsphäre und deswegen gehören Daten auf deinem iPhone dir…
Schlau formuliert… Offensichtlich zählt Apple sich selbst zu deiner Privatsphäre.
Ich mag die anderen zu wiederholen, aber trotz der Tatsache, dass der Besitz und Verbreitung von illegalen Inhalten verboten ist, steht dem gegenüber der Schutz einzelner inkl. Privatsphäre. Diese Interessensabwegung ist so schmalgradig, dass keineswegs einem Unternehmen überlassen und so intransparent durchgeführt werden darf. Ich denke, dass die Algorithmen und die Prozesse mit allen Zugriffsmöglichkeiten auf die Auswertungen von Apple veröffentlicht werden müssen!
Das ist erst der Anfang. 1984 lässt grüssen. Browser Verlauf,Chats,Konto Bewegungen,
Facebook, YouTube und alle anderen Zensieren. Apple durchsucht anscheinend ohne Zustimmung der „Kunden“ deren iPhones.
Die digitale Herrschaft der Konzerne gehört dringend reguliert!
Ich bin absolut für sehr sehr hohe Strafen alleine schon für den Besitz von Kinderpornografie, aber Apples Vorstoß geht viel zu weit. Niemand geht es etwas an was die Kunden auf ihren iPhones haben. Eines der Hauptargumente für das teuere iPhone schwindet zusehends.
Ich habe selbst Kinder und finde solche Verbrechen mit Kindern unerträglich und dass schlimmste was einem Kind passieren kann, aber deswegen alles aufgeben? Deswegen Apple alle Berechtigungen zur Durchsuchung geben? Der einzige Grund wo ich so etwas befürworten würde wäre ein konkreter Verdacht und zur Unterstützung der Strafbehörden. Damit hat sich Apple in der Vergangenheit aber sehr schwer getan.
Was passiert wenn Apple falsch lag? Wie zum Beispiel wenn der Nutzer viele Bilder von seinen Kindern im Urlaub am Strand gemacht hat? Das bedeutet nicht das man gleich ein Kinderschänder/in ist.
wenn so ein bild im mail spam eingang liegt, wird es dort auch erkannt und gemeldet?
Ich weiß gar nicht was das bringen soll. Das ist eine illegale Untersuchung und nicht richterlich sanktioniertes eindringen in die besonders geschützte Privatsphäre. Selbst wenn die was finden würden ist es fraglich ob das ein gerichtsverwertbares Beweismittel wäre.
Es ist immer die gleiche Tour: man stellt ein wirkliches abscheuliches Verbrechen in den Mittelpunkt, gegen dessen Verhinderung – egal mit welchen Mitteln – wirklich keiner etwas haben kann ohne in die unmoralische Ecke gestellt zu werden. Und Schritt für Schritt wird die persönliche Freiheit eingeschränkt – ist ja egal wenn man nichts zu verbergen hat.
Bleibt zu hoffen, dass es dagegen bald klagen der Datenschutzbeauftragten angestrengt werden mit eine Strafe-heute die selbst apple wehtut.
Und dazu nutzt Apple ungefragt die Leistung der Kundengeräte.
Heute sind es solche abscheulichen Bilder und morgen vielleicht Bilder mit regierungskritischem Inhalt. Ich glaube so langsam hat sich das Thema Smartphone erledigt.
Dss ist ein gravierender Eingriff. Ich lasse mich da auch nicht durch solche Killer-Begriffe wie Missbrauchsfotos irritieren. Apple muss dafür verklagt werden. Wie lange werden wir im Namen des Kapfes für was auch immer zur völlig durchsichtigen gemacht.
Solange die Begriffe Kinderpornografie, Terrorismus und Kriminalität globale Überwachung rechtfertigen
Kein Wunder, das der Akku immer schneller leer wird…
Automatisches iOS Update: DEAKTIVIERT
Wo kommen wir eigentlich hin wenn Tech Firmen mein Handy durchsuchen, was Strafverfolgungsbehörden nur mit Richterlicher Anordnung dürfen ?
Die Welt gehört sowieso der Konzernen. Die Demokratie sowie die Staaten sind eine Utopie. Wer regiert die Welt?