Metadaten für mehr Transparenz
Google Fotos: KI-Bearbeitungen werden zukünftig ausgewiesen
Der Suchmaschinen-Anbieter Google hat angekündigt, bearbeitete Schnappschüsse in Google Fotos ab der kommenden Woche durch neue Hinweise auf den Einsatz von Künstlicher Intelligenz (KI) transparenter kennzeichnen zu wollen.
Der Technologiekonzern beruft sich auf die eigenen KI-Prinzipien, die ein verantwortungsbewusstes Vorgehen sicherstellen sollen und unterstreicht in diesem Zusammenhang das wichtige Signal eines transparenten Vorgehens.
Konkret soll die Google Fotos-App zukünftig für die Nutzer kenntlich machen, ob und welche KI-basierten Bearbeitungstools verwendet wurden, um bestimmte Änderungen an einem Bild vorzunehmen. Dazu zählen Tools wie der „Magic Editor“, der „Magic Eraser“ oder auch „Zoom Enhance“.
Googles Auto Frame erweitert vorhandene Aufnahme künstlich
Diese Funktionen ermöglichen es, unerwünschte Objekte zu entfernen, die Beleuchtung zu verbessern oder einen neuen Bildausschnitt zu erstellen – Aufgaben, die ohne KI-Einsatz oft mit hohem Aufwand verbunden wären.
Bereits jetzt enthalten Fotos, die mithilfe von KI verändert wurden, Metadaten, die auf technischen Standards des International Press Telecommunications Council (IPTC) basieren. Diese sollen festhalten, ob ein Bild mit generativer KI bearbeitet wurde. Neu sei laut Google nun, dass diese Informationen direkt in der App für Nutzer neben Dateinamen, Standort und Sicherungsstatus sichtbar gemacht würden.
Googles „Add Me“-Funktion kombiniert mehrere Fotos miteinander
Zudem weist das Unternehmen darauf hin, dass künftig nicht nur generative KI-Bearbeitungen gekennzeichnet werden, sondern auch Kompositionen aus Elementen verschiedener Fotos eine solche Markierung erhalten sollen. Dies betrifft Funktionen wie „Best Take“ auf den aktuellen Google Pixel-Modellen oder das kürzlich vorgestellte „Add Me“-Features des Pixel 9, das Bildmontagen erstellt, indem Schnappschüsse kombiniert werden, die in kurzer Abfolge aufgenommen wurden.
Das Unternehmen plant, weiteres Feedback einzuholen und zusätzliche Maßnahmen zur Kennzeichnung von KI-basierten Bildbearbeitungen zu evaluieren.
Vom Grundprinzip – klasse!
+1
Finde ich auch sehr gut.
Von der KI erstellte Medien (Texte, Bilder oder Videos) müssen gekennzeichnet werden, am besten sogar gebrandet, damit diese nicht gelöscht werden können.
Ich bin mir aber sicher, das Organisationen, welche sich auf „Fake News“ spezialisiert haben, auf diese Regelung sch***en, was die Erkennung dieser KI generierten Falschinformationen unmöglich machen wird zu erkennen…
Ein absolut entscheidender und enorm wichtiger Schritt.
Die Frage ist nur wieder wann es soweit ist und die ki befähigt ist diese Metadaten wieder selbstständig automatisch zu entfernen …
Richtig! Die Kennzeichnung KI-generierter bzw. veränderter Bilder muss in den Metas erwähnt sein. Dennoch ist es in PS so einfach, die Metas zu löschen. Selbst wenn die Bilder gebrandet sind.
Kann ich diese KI Features von Google auch auf dem iPhone benutzen? Oder nur bestimmte?
Würde mich auch interessieren
Vieles geht auf dem iPhone auch. Ich nutze auf meinem iPhone quasi nur die Google Apps und Dienste und bin damit mehr als zufrieden.
Warum dann nicht einfach gleich ein Google Pixel kaufen? *rolleyes*
Bei dem Nick vermute ich mal eine Fake News.
Und dann wird das Bild ohne Metadaten verschickt …
Wenn das Bild fertig ist und ich es mit einem BildschirmSnap abfotografiere hat es gar keine Daten mehr… und dann? Weiß keiner was und woher und wie was mit dem Bild angefangen wurde.
Screenshot com Bild machen – alle Medaten weg. Wer die KI missbrauchen will schafft das mit 3 sekündigem aufwand.
sieht man dann halt an der Auflösung des Bildes und kann 1 und 1 zusammenzählen, weshalb ein Screenshot verschickt wurde ;-)
Ein Screenshot vom 4K Bildschirm dürfe schon reichen ohne dass jemand aufmerksam wird. Mal abgesehen davon dass es auch simple Tools zum löschen der Metadaten gibt. Da kann ja sogar ACDsee
Irgendwann steht das eh überall dran, da jede Kleinigkeit der Bearbeitung diesen Flag schon ausmacht. Daher bringt das (für mich) nicht viel.
Vollgenerierte Bilder würde ich verstehen. Naja schwer dann jedoch zu definieren.