Google sorgt für Negativbeispiel
Fotos von nacktem Kleinkind: Account-Verlust und Polizeieinsatz
Dass Apple im August des vergangenen Jahres die Einführung einer neuen Foto-Scan-Funktion ankündigte, mit der das Unternehmen proaktiv gegen die sexuelle Ausbeutung von Kindern vorgehen wollte, ist schon fast wieder in Vergessenheit geraten.
Nach der überraschenden Vorstellung drei neuer Kinderschutzfunktionen im vergangenen Jahr, hat Apple davon bislang nur eine wie vorgesehen implementiert. Die beiden anderen wurden in abgewandelter Form integriert beziehungsweise erst mal auf Eis gelegt.
- Nachrichten-App: Nacktfotoscan erreicht deutsche iPhone-Nutzer
Damals wollte Apple eigentlich drei Kinderschutzfunktionen in das iPhone-Betriebssystem integrieren:
- System-Intervention bei thematischen Suchen: Suchen Anwender im Netz, über Siri oder die Spotlight-Suche Apples nach Wortkombinationen, die erkennen lassen, dass diese offenbar auf der Suche nach Inhalten sind, die möglicherweise im Zusammenhang mit dem Missbrauch von Kindern stehe, wird die Suchabfrage abgebrochen und durch einen Warnhinweis ersetzt. Hier hat Apple nicht geschraubt.
- iMessage-Nacktfilter: Die Erkennung von Nacktbildern auf den Telefonen von Kindern sollte dafür sorgen, dass diese erst nach Nachfrage angezeigt werden und die Eltern in der zugehörigen Familienfreigabe informiert werden, wenn sich die Kinder für die Anzeige entscheiden. Hier ist Apple inzwischen davon abgekommen, die Eltern zu informieren.
- Lokale Erkennung von Missbrauchsbildern: Umstrittenste Neuerung und von Apple bis auf Weiteres verworfen, war die lokale Suche nach Missbrauchs-Fotografien. Apple hatte vor, Geräte von Anwendern die iCloud-Fotos nutzen, bereits vor dem Upload auf Fotos zu durchsuchen, die die sexuelle Ausbeutung von Kindern darstellen könnten. Nach einem lauten Aufschrei von Journalisten, Aktivisten, Zivilgesellschaft, Datenschützern und IT-Sicherheitsexperten, entfernte Apple die Hinweise auf die sogenannte CSAM-Erkennung dann im vergangenen Dezember gänzlich.
Google sorgt für Negativbeispiel
Ein aktueller Fall aus den USA, den die New York Times am Wochenende dokumentiert hat, zeigt, welchen Einfluss Falsch-Positiv-Treffer vergleichbarer Technologien auf Anwender haben können.
Nachdem ein Vater Fotos seines nackten Kleinkindes für einen behandelnden Mediziner gemacht hat, stufte Google die Bilder über einen automatisierten Scan als kriminell ein und deaktivierte den zugehörigen Google-Account.
Der betroffene Nutzer sah sich daraufhin nicht nur mit ermittelnden Strafverfolgern konfrontiert, sondern verlor auch sein mehrere Jahre altes Google-Konto. Eine Einspruchsmöglichkeit war nicht vorgesehen.
So ist das, wenn man nichts zu verbergen hat.
Der erste Kommentar hier ist direkt der Beste :D
Der arme Kerl…
Und der übertriebene Aktionismus amerikanischer Prüderie. Am meisten nervt, daß niemand zuständig, erreichbar oder als Ansprechpartner vorgesehen ist. Schöne, neue Welt
@Alnig
Das hat nichts mit „amerikanischer Prüderie“ zu tun, es ging dabei um vermeintlichen Kindesmissbrauch.
Nun, man hätte beim Accountinhaber mindestens mal nachfragen können, bevor man ihn aufgrund falscher und nicht bewiesener Verdächtigungen verurteilt / henkt / seines Accounts beraubt. Spinnen wir den Faden doch mal weiter: Google hat den Versand der Fotos an den behandelnden Arzt des Kindes unterbunden. Sofern es um eine lebensnotwendige Behandlung ging, können die von Google sich schon mal warmlaufen, falls das Kind wegen der nicht weitergeleiteten Bilder und deswegen unterbliebenen (rechtzeitigen?) Behandlung einen Schaden davonträgt.
Mal ehrlich, wenn dein Kind in Lebensgefahr ist, rufst du den Notarzt oder schickst du noch Fotos hin und her?
Übertrieben? Würde ich zustimmen, wenn es nicht so viele Leute geben würde, die sich an Kindern aufgeilen oder noch schlimmer. Finde es gut, dass sich die Unternehmen Gedanken machen, auch wenn es dabei zu Fehlern kommt. Muss halt der Prozess optimiert werden, aber doch nicht gleich wieder abgeschafft. Wer weiß wie viel Pedos sich schon allein hier rumtreiben …
Ich bin grundsätzlich ja bei Dir, aber wie sollte eine lebenswichtige Operation und unterblieben sein, wenn der Vater sein Kind zuhause fotografiert und das Bild dann zum Arzt schickt? Dann ist die Maßnahme alles andere als lebensnotwendig.
Googles Beispiel wird halt wirklich von der KI „erkannt“. Apple Beispiel ist aber ganz anders. Da werden nach bekannte Kipos gescannt. Kleiner aber feiner Unterschied.
@Tut: Und? Das macht auch eine KI und auch da kann es zu Falsch Positiven Ergebnisse kommen.
Nein kann es nicht. Das macht keine Quasi keine KI. Die Methode die Apple einsetzt ist von Microsoft entwickelt worden. Eine Falsch positive Antwort ist so gut wie ausgeschlossen.
Aha, das erkläre uns dann doch mal genauer, wenn du da so sicher antwortest.
„Eine Falsch positive Antwort ist so gut wie ausgeschlossen.“
und genau das macht es ja so gefährlich…..es ich nicht die Möglichkeit vorgesehen das sich die KI „irrt“ oder „Fehler“ macht…
Auf der unsikbaren Titanic haben viele bis das Wasser über das Deck gelaufen ist nicht daran geglaubt das dass Ding sinken könnte….
Wenn es nicht so ein ernstes Thema wäre (seibst Vater), müsste ich jetzt schmunzeln. Woher dein Wissen, dass das von MS entwickelte System fehlerfrei und sicher arbeitet? Bitte um genauere Details. Danke.
Und warum sollen dann Treffer erst aufsummiert und dann von Apple-Mitarbeitern gesichtet werden, bevor es den Behörden gemeldet wird? Ja, im ersten Schritt wird nach bekannten Dateien gesucht, aber eben auch nicht nur bitgleiche Dateien erkannt werden. Da liegt der Haken.
„So gut wie ausgeschlossen“ != „Ausgeschlossen“
Es gibt immer Fehler, egal ob Mensch oder Maschine.
Eine Falscherkennung kann man nie ausschließen.
Lies mal hier
https://www.heise.de/news/Kinderporno-Scanner-im-iPhone-Bereits-Hash-Kollisionen-erzeugt-6169043.html
Das wüsste ich jetzt aber gerne wie das geht? Kannst du das bitte erklären oder Quellen angeben???
Von Microsoft entwickelt ? Und dass soll die Begründung sein das ein False Positive ausgeschlossen ist ? Ich würde das ein bisschen anders sehen …. KI macht immer Fehler – die Frage ist WIVIELE ?
Was ist das denn für eine verquere Argumentation? Weil das von MS entwickelt wurde, sind „false positives“ ausgeschlossen? In welcher Parallelwelt lebst du denn?
Sowohl bei Google wie auch bei Apple sitzt ein ML-Algorithmus (gemeinhin als „KI“ bezeichnet) dahinter. Dabei ist es egal, ob Bilder direkt ausgewertet werden, oder ob erst ein Hash auf Basis des Bildes berechnet wird und der dann verglichen wird. Es gibt *immer* falsch positiv bewertete Ergebnissen.
Das brisante an solchen „Scans“ ist das Feintuning zwischen „Zuviels Falschmeldungen“ und „zu wenig richtige Erkennungen“.
„Nein kann es nicht.“
„Sogut wie ausgeschlossen.“
Red kein Mist.
Stichwort(e):
– Voreilender Gehorsam
– pauschal Verdächtigung, gegen jeden und alles
– und auch gleich noch Sippen Haft mit ran.
getopt durch Beweis Last Umkehr und keine „Einspruchs“ Möglichkeit.
Finde immer (nicht mehr Lustig) wie sich Firmen als Behörden abspielen!
Zusammengefasst:
A. Hitler 1933!
Oder auch der Dümmste Spruch den man bringen kann!
Ähm… man schickt Nacktbilder von den Kindern über einen Standard Messenger-Dienst an den behandelnden Mediziner?
Das kommt häufiger vor, als man glaubt. Bei meinem Bruder in der schulgruppe wird so viel geteilt, dass wirklich nicht jeder wissen sollte….
Also, direkt nacktbilder nicht, sondern eher die Stelle mit den Symptomen. Ich wundere mich immer wieder bei meinem Bruder, was da so in der schulgruppe geteilt wird….
Trotzdem, ob stelle oder nicht. Was erzählt man da einem Kind. „Papa macht jetzt ein Foto von der Stelle und schickt es dem Pfleger,…“? Würde man das auch von sich selbst so machen? Ich denke nicht.
Ein schönen Positiv Beispiel warum diese KI scans schrott sind und das argument iCh hAbE dOcH nIcHtS zU vErBeRgEn einfach schwachsinn ist
Deshalb auch immer eine Datensicherung der Cloud-Konten machen.
Was bringt das wenn einem trotzdem der Zugriff verwehrt wird ?
Wenn an dem Konto z.B. auch bezahlte Apps hängen, nützt dir eine Sicherung auch nichts.
Super … so wird es in Zukunft bestimmt öfters kommen. Die KI kann schließlich nicht unterscheiden was der Hintergrund des Bildes ist : eigenes Kind, fremdes oder aus welcher Intention her das Bild gemacht wurde.
Früher wurde nach sowas auch nicht gescannt. Man muss einfach die Kirche im Dorf lassen und diesen Kram dazu abschalten.
+1
Hier von Kirche zu reden ist auch ziemlich daneben!
Da musste ich auch erst einmal schlucken.
:D
Wenn es denn Medien gelungen sein sollte in euren Köpfen Kirche und sexuellen Missbrauch gleichzustellen, dann läuft etwas gewaltig schief. Studien zeigen, dass statistisch gesehen, in Kirchen nicht mehr missbraucht wird, als in Sportvereinen usw. Das Problem dieser medialen Darstellung: Es hilft den Opfern nicht, diese einseitigen Beschuldigungen. Kindesmissbrauch ist ein gesamtgesellschaftliches Problem.
Das bezweifle ich:
Die Kirche hat in verschiedenen Ländern so viele Kindesmissbräuche verursacht (USA, Deutschland, Irland?…) Gepaart mit Vertuschung und Geldzahlungen.
das ist einmalig und da kommt nichts ran.
Das Zölibat sollte gebrochen werden, notfalls per Gesetz.
genauso die Stellung der Frau innerhalb der Religionen (hallo Priesterin, Rabinerin, Imamin)
Religionen haben in D zu viel Freiraum den ich absolut nicht versteh.
Das ist eine pauschalisierende, unbelegte Behauptung, die nur Stimmung machen soll, aber niemandem nützt.
Kindesmissbrauch, wo und von wem auch immer, ist schrecklich und gehört verfolgt. Aber Stimmungsmache ist keine geeignete Methode der Verfolgung.
Genial wie mein kurzer Kommentar wegen einer Redewendung völlig aus dem Ruder läuft :D :D
Oder sollte ich das lieber nicht schreiben, nicht das jetzt jemand mit Rudern um die Ecke kommt
Jetzt lass aber mal das Ruder im Boot…
Dann nenne doch mal eine Quelle dieser Studien
Dazu sag ich nur Amen
Hahahahahahahahaha Ich glaube statistisch gesehen ist die Kirche auf Platz eins.
@ralfer04
Wenn die Kirche sich mal gegen so etwas positionieren würde, dann hätte man vielleicht auch ein anderes Bild. Aber so kommt man leider nur zu dem Schluss das alle da mit drin stecken. Sorry, aber selbst schuld wenn man denkt das es ein Drecksverein ist.
Ok sorry, es ging nur um die Redewendung, es sollte jetzt kein Zusammenhang andeuten :) blöder Zufall
@ralfer04 +1
@ralfer04
Ach ja?
Dann zeig mir doch mal die Studie in der gezeigt wird, dass Kinder systematisch vom Sportverein eingesperrt (Irland) oder ihre Leichen verscharrt wurden (Kanada).
Unglaublich, diese Relativierung der Gräueltaten der Kirchen.
Einfach furchtbar!
Jetzt darf man nicht einmal Fotos von seinen eigenen Kindern machen, wenn sie nichts an haben?
Allein die Nacktheit reicht aus, um jemanden zum Verbrecher zu machen?
Meiner Meinung nach sollten da andere, zusätzliche Kriterien angewandt werden.
Das ist dich krank!!!
dich = doch
„texted a few high-quality close-ups of their son’s groin area“, „(husband’s) hand was visible, helping to better display the swelling“ – ohne Kontext „explicit“. Keine Falscherkennung, jedoch Falsch- oder gar keine Deutung.
Da sollte gar nichts anderes angewandt werden, solche Systeme gehören verboten
Wahrscheinlich hast Du recht!
Will immer noch wissen wie es technisch funktioniert.
Werden die Bilder übertragen und dann gescannt oder auf den Gerät analysiert?
Was ist mit iPads?
Zu viele Fragen?!
Apple wollte die Analyse lokal auf dem Endgerät machen. Bei Google weiß ich es nicht.
iFun hat zu diesem Thema schon viel geschrieben. Nutze bitte die Suche. Da sollten alle deine Fragen beantwortet werden
Hab eigentlich da immer aufgepasst auf die News.
Ich lese eigentlich immer nur „iPhone und auf den Gerät“. Also keine Übertragung und nicht bei iPads.
Aber heutzutage wird sowas auch mal fix geändert. Daher fragte ich einfach mal fix nach ;)
Googles Beispiel ist hier das die KI solche Dinge erkennt. Apples Kipos Scanner sucht nach bekannte Fotos.
Bei Google und co werden die Daten auf der cloud gescannt, ganz ohne Aufschrei. Also natürlich geschieht das ohne das ein Mitarbeiter die Fotos sieht wenn alles io ist. Wenn Apple das System verbessert, denn (etwa gleichen) scan auf dem handy schon vor dem Upload macht und so illegale fotos gar nicht erst in der cloud haben würde (a la Upload filter, was ja die EU wünscht) gibt es einen Aufschrei…
Man muss die Menschheit nicht verstehen, oder?
Das ist das Problem mit der Menschheit. Die meisten begreifen nicht die Vorgehensweise und werden gesteuert von Hintermännern die ein künstlichen Aufschrei erzeugen wollen. Die meisten haben nicht die nötige Intelligenz den Unterschied zu erkennen. So ist es mit vielen Themen. Die dummen gehen voll auf dem Leim.
Oh bitte, was redest du da schon wieder für kokolores?! Meinst du echt die Mitarbeiter die nur einen Job haben und den App Store von bösen Apps fernhalten sollen? Und jetzt willst du mir weiß machen, dass die Kipo-Scan-Mitarbeiter so viel zuverlässiger sind? Menschen sind ja so unfehlbar?! Wo lebst du eigentlich? Villa Kunterbunt? Bist du im Auftrag von apple hier? Deine Kommentare sprechen zumindets ganz klar dafür.
Im vorliegenden Fall hatte der Kindesvater lt. NYT ein Android Handy mit aktiviertem Google Cloud Foto Upload. Er macht die Bilder, das Handy lädt diese in die Cloud hoch, dort werden sie gescannt ob es ein bekanntes Kipo Bild ist (was hier ja nicht der Fall war) und die Google KI scannt nochmal, ob es ein unbekanntes, aber trotzdem illegales Bild ist. Und diese hat dann Alarm geschlagen. Daraufhin hat ein Mitarbeiter die Bilder geprüft und, laut Google, keine Rötungen oder Reizungen erkennen können, die eine Aufnahme erklären würden und hat dann Alarm bei der Polizei gegeben. Und dann nahm das Unheil seinen Lauf.
An der Erkennung, Meldung und Deaktivierung ist GRUNDSÄTZLICH nichts Schlechtes, daß jedoch statt Reaktivierung bei Erkennung eines Fehlers nicht wiederhergestellt, sondern unwiderruflich gelöscht wird, ist inakzeptabel und unnötig – für den Anbieter aber wohl das Einfachste.
Ist das dein Ernst Janina? :D Jede Nachricht jedes Bürgers zu scannen ist für dich ok? So etwas geht auch nur, weils es so viele Schafe wie dich gibt.
Bob du bist doch das größte Schaf was gesteuert ist.
Warum? Er hat doch recht!
Wo kommen wir denn hin wenn jeder erst einmal unter Generalverdacht überwacht wird?
Es kann doch nicht okay sein einfach mal pauschal die Inhalte jedes Handybesitzers zu scannen, weil er könnte ja.
Danke und Amen. TUT TUUT :)
Ich verstehe die ganze Kritik hier, aber wenn durch diese Funktionen für jedes Kind was dadurch gerettet wird, ein Konto versehentlich gelöscht wird, finde ich das vollkommen okay.
Und solche Negativbeispiele sind dafür da, das die Entwickler die Software stetig verbessern werden, und die Fehlerquote weiter minimiert wird.
Gehts noch? Erzähl das mal dem Typen der jetzt eine Menge Ärger am Hals hat und sich jedem Rechtfertigen muss. Nur weil ein paar Entwickler geschludert haben? Ob du da so verständnisvoll als Betroffener reagieren würdest?
Also ich würde lieber eine Stellungnahme mehr schreiben als darüber nachzudenken, dass „Onkel Willy“ ungestraft so Bilder macht. Er kann ja mithilfe des Doktors den Grund belegen und dann wird da wohl auch der Fall geschlossen werden. Wäre halt nur schöner wenn man dann sein Konto auch wieder entsperren kann (oder es automatisch durch die Polizei wieder freigegeben wird). Das wäre grad das einzige was ich an dem Prozess ändern würde.
Dein Handy als ausführendes Organ in einer 1984-Dystopie?
Das ist ja nicht nur die Kontolöschung.
Da rückt ja die Polizei an und nimmt dich mit. Das passiert ja nicht still und heimlich nachts um 3 Uhr.
Und dann werde mal das Gerede von den Nachbarn wieder los: „Schon gehört, den Meier haben sie heute wegen Kinderpornos verhaftet“.
Es wäre die Opferung meiner Privatsphäre wert, mir zumindest, wenn das wirklich so wäre. Wenn sie wirklich NUR auf der Suche nach Kinderschändern wären.
Dann wäre das ein paar Fehlalarme wert.
Aber dem ist nicht so. Und das ist alles nur der Anfang.
Das könnte ihm in den USA aber ggf. sehr viel Geld einbringen.
Sowas ging mir auch durch den Kopf. Mit dem richtigen Anwalt kann er Google um Millionen erleichtern. Solche Klagen sind doch Sport bei denen. ;-)
Egal, wer der zu Unrecht beschuldigte Typ ist – G hat die besten, die meisten, die einflussreichsten Anwälte. Nur wenn G das Thema aus den Medien haben will(!), werden sie „Stille“ kaufen.
Der referenzierte Artikel der NYT ist hinter einer Paywall bzw. setzt einen vorhandenen Account voraus.
Hier entlang: https://archive.ph/tL6wk
Selten so ein Blödsinn gehört. Wir kriegen es nicht mal hin unsere Personalausweise zu digitalisieren, aber eine Nackt-KI soll reibungslos durchlaufen. Ich behaupte mal, dass solche Bilder egal ob mit Kindern oder Erwachsenen Frauen meist ohne Gesicht, bzw. Kopf abgebildet werden und auf die primären Geschlechtsteile reduziert werden. Wie will also die KI da differenzieren? Fehlschlüsse sind somit vorprogrammiert und jeder der Nacktfotos von Geschlechtsteilen besitzt ohne genaue Zuordnung steht erstmal unter Generalverdacht. Was ist mit asiatischen Frauen die oft zierlich gebaut sind? Schöne neue „heile“ Welt. Welch eine Freude.
Die Absurdität der Amerikaner: Da werden Eltern von Kleinkindern, die gemeinsam nackt im Aufblas-Pool spielen, strafrechtlich verfolgt! Gleichzeitig werden 14-jährige an der Waffe ausgebildet!
+1
Nur als Beispiel: Facebook hat vor ein paar Monaten mein Facebook Profil blockiert, weil ich nach deren Meinung Nacktfotos gepostet habe. Das Profil war aber das von meiner BBQ Seite michiboabbq und hat nur „nacktes“ Grillgut gezeigt. Soviel zu den super KI’s…
:D
Dann das nächste Mal das Grillgut in Bananenblätter einwinkeln….
Nicht umsonst heisst es Foodporn ;-)
Mal ganz doof gefragt: Wie wird so ein Tool entwickelt? Ich stell mir ganz naiv vor wie die Ki mit Kinderpornomaterial gefüttert wird um zu lernen wonach sie zu suchen hat. Aber woher nehmen die Entwickler solche Aufnahmen, bzw wie ist das rechtlich geregelt? Oder läuft das ganz anders? Hat da jemand ne Ahnung?
Bei Googles Beispiel liegst du vielleicht richtig. Apple Beispiel brauch das Training nicht da es nur nach bekannten Material nachscannt.
Ah okay, dh Apple bezieht bekanntes Material von den Strafbehörden und scannt nach dem Kram?
Der der solche Bilder macht verfolgt auch die News über Google und Apple. Also wird man anderweitig auf Android Smartphone mit Google freien OS ausweichen. Und das ganze über verschlüsselte Dienste versenden. Wenn es nicht heute schon so gemacht wird. Die das dann noch immer so machen sind wahrscheinlich 0.001%. Also sollte Google und Apple mal wieder runter kommen. Die haben in Thema Sicherheit oft keine Ahnung und der normal dumme Bürger glaubt den den Mist den die Marketing Abteilung produziert.
Danke. Einer der es wirklich verstanden hat. Als würden sich die Kriminellen jetzt so viel einfacher zu erkennen geben. Und zip kennen die auch nicht. *facepalm
Vllt kennen die verschlüsselte HDDs
Also wenn mein Kind krank ist gehe ich hin zum Mediziner. Und wenn es mir akut erscheint gehe ich in die Notaufnahme. Da mache ich keine Fotos von einem unbekleideten Kind und schicke es dann wie? WhatsApp, Email etc? Das erscheint mir doch etwas hin konstruiert. Schon gar nicht im amerikanischen Gesundheitssystem. Vermutlich hat derjenige vorher ein Foto seiner Kreditkarte geschickt?
Egal, wenn einer meint Fotos von seinem unbekleideten Kind machen zu müssen, dann sollte derjenige zur Digitalkamera greifen. Diese Bilder haben nichts auf irgendwelchen Cloudspeichern verloren.
Schonmal was Online Sprechstunden gehört? Gerade im Apple App Store scheint das der nächste große Hit unter den Krankenkassen zu sein. Und was meinst du wie solche Bilder von der Digitalkamera zum Doc kommen sollen? per Brieftaube? Am Ende hängt alles in einer Cloud bzw. einem Server.
Als Beispiel würde mir hier der verlauf einer krankheit in den Sinn kommen. Klar könntest du auch jeden Tag zum Arzt um das von dem protokollieren zu lassen oder du machst halt jeden Tag ein Foto und zeigst dem beim Folgetermin den Verlauf, aber ja: sowas hat nichts auf einem cloudspeicher zu suchen.
Hier in Spanien ist ein Online Termin mit dem Arzt ganz normal.
Da gebe ich dir recht in Spanien ganz normal. Auch sonst ist in Spanien das Digitale Zeitalter schon viel weiter. Bsp. Zählerstand ablesen ab und zuschalten Wasseruhr ablesen….
In Deutschland gibt es viele Mediziner und Apps, welche eine Ersteinschätzung über ein Foto aus der Ferne erlauben, z.B. in Bezug auf verdächtige Hautstellen (Hautkrebs), Ausschläge, allergische Reaktionen o.ä.
Hierzu schickt man je nach Praxis oder Anbieter die Fotos klassisch per Mail, oder aber sogar, wenn man damit einverstanden ist, per Messenger oder lädt es alternativ in einer App hoch.
Glaube, dass es sogar gesetzliche Krankenkassen gibt, die mit dem einen oder anderen Anbieter kooperieren. Gerade in Bezug auf Hautkrebs bzw. verdächtige Stellen gibt es genug Leute, die aus Scham oder aus anderen Gründen keinen Hautarzt oder anderen zertifizierten Arzt aufsuchen. Dann ist die Früherkennung natürlich billiger und auch für den Patienten deutlich besser als eine Behandlung vom Hautkrebs im fortgeschrittenen Stadium.
Und ich meine oben gelesen zu haben, dass es sich nicht um eine Ganzkörperaufnahme des Kindes gehandelt hat, sondern um eine Aufnahme des Intimbereiches ohne, dass das Gesicht o.ä. sichtbar gewesen sei. Kann man davon halten, was man will. Ich würde es auch nicht machen, aber wenn die Story stimmt, dann ist es nun mal blöd gelaufen. Wie oben auch bereits jemand schrieb, ist es besonders ärgerlich, dass es bei sowas keine direkten Ansprechpartner gibt oder dass man erstmal die Presse einschalten muss, um die Aufmerksamkeit von Google oder anderen großen Konzernen zu kriegen.
Würde mich nur interessieren, wie solche Aufnahmen z.B. in Deutschland rechtlich bewertet werden, wenn auf dem Handy der Eltern Aufnahmen des Intimbereiches von den minderjährigen Kindern gefunden werden. Vorausgesetzt, dass die Aufnahmen eben eindeutig zum Zweck der medizinischen Dokumentation angefertigt worden sind.
Was ich komisch an dieser Story finde: oben zitierte ebenfalls jemand, dass die Hand des Elternteils auf die Stelle im Intimbereich gezeigt haben soll. Schon ein bisschen komisch – warum macht man dann keine Nahaufnahme? Gerade moderne Smartphones können doch super Nahaufnahmen anfertigen, dann muss man doch nicht den kompletten Unterkörper bzw. Intimbereich fotografieren und mit der Hand drauf zeigen.. andererseits denke ich, wenn es wirklich „echte“ KiPo sein soll, warum man sich dann an die Presse wendet.
Der Fakt das Google sich über das Urteil der Polizei stellt und eigene Untersuchungen des Privatlebens der Betroffenen angestellt hat, und dann nach eigenen Google-Gesetzen handelt, ist das gruseligste was ich seit langem gesehen habe!
Der Artikel ist wirklich sehr interessant! Man kann darin gut erkennen wie viel weiter das Ganze schon geht, was für ein massiver Eingriff das in die Leben der beiden Familien ist. Der komplette Verlust der Privatsphäre, die komplette Offenlegung ALLER Daten die über zehn Jahre zurück gehen…
Na ja. So lange die Bevölkerung, auch hier in Deutschland diesen unsäglichen Schwachsinn von Rettung der Kinder schluckt, und sämtliche Übergriffe des Staates gutheißt, werden sich auch hier bald chinesische Verhältnisse einstellen.
Was für ein Witz „eine Einspruchsmöglichkeit war nicht vorgesehen“. Wollen die uns verarschen? Das ist ja rechtlich quasi undenkbar
Jemand „neXt“ gesehen?
Fehlt nur noch das Deep Fakes theoretisch sowas fingieren können. So kriegst du jeden. Beweise dann doch mal das Gegenteil.