Bildverbesserungs-Software in Aktion
Seltener iPhone-Kamera-Effekt: Die Frau mit den sechs Händen
Schaut euch mal dieses Foto der Schauspielerin Tessa Coates an. Auf den ersten Blick seht ihr eine gewöhnliche Brautkleidanprobe. Die beiden Spiegel zeigen die Frau allerdings nicht nur mit unterschiedlichem Gesichtsausdruck, sondern wir sehen hier auch insgesamt drei völlig unterschiedliche Handhaltungen.
Das Fotografie-Blog PetaPixel ist der Frage nachgegangen, wie dieser Effekt zustande gekommen ist und kann dabei auch einen von Coates konsultierten Apple-Techniker zitieren, der als Basis für seine Erklärung zu bedenken gibt, dass es sich beim iPhone nicht um eine Kamera, sondern um einen Computer handelt. Beim Drücken des Auslösers wird nicht eine einzige Momentaufnahme erfasst, sondern auch wenn es sich nicht um eine klassische Serienaufnahme handelt ultraschnell eine Reihe von Bildern geschossen, aus denen mithilfe von künstlicher Intelligenz dann das als Einzelfoto präsentierte finale Bild zusammengesetzt wird.
Kameraeffekt mit Seltenheitswert
Bei dem in dieser Aufnahme sichtbaren Effekt handelt es sich dem Apple-Mitarbeiter dennoch um einen „Lotteriegewinn“. Die abgebildete Person muss ihre Hände entsprechend bewegt haben, während die Kamera „belichtet“ hat, was bei schlechteren Lichtverhältnissen und besonders in Innenräumen gerne auch mal eine vergleichsweise große Zeitspanne erfasst.
In jedem Fall zeigt die Aufnahme eindrucksvoll, wieviel Software-Technik bei einer solchen Aufnahme im Hintergrund abläuft. Ohne diese künstlichen Verbesserungen könnte die Aufnahme wohl nicht annähernd diese Lichtstärke und Brillanz aufweisen. Betrachtet man das Foto nämlich aus diesem Aspekt, so könnte man meinen, hinter dem Fotograf sei eine aufwändige Beleuchtungsinstallation platziert.
Kamera als Verkaufsargument für Handys
Die Weiterentwicklung der Kamera ist bei modernen Smartphones mittlerweile zu einem der wichtigsten Merkmale bei den alljährlichen Modellwechseln geworden. Egal ob Apple und Google, neben stetig wachsenden Megapixel-Zahlen sollen vor allem softwareseitige Verbesserungen dafür sorgen, dass die mit dem Telefon geschossenen Bilder mehr und mehr an die Qualität von Profikameras heranrücken.
Krass. Ein nettes Fundstück…
Ich finde das zum kotzen.
Sorry für diese Ausdrucksweise, aber für mich ist ein Bild ein einmaliges Dokument ohne jegliche (nach-)Bearbeitung.
Bei Android teilweise noch schlimmer: Erfundene Zähne bei Kindern oder Mondbilder mit Auflösungen, die physikalisch niemals mit der integrierten Kamera möglich wären. Was soll das?
Ich fand es schon vor Jahren schlimm, in einer digitalen Spiegelreflexkamera Effekte zu finden, wie zum Beispiel Vivid oder dramatische Effekte.
KI wie z.B. bei Dall-E finde ich beeindruckend aber auch mindestens genauso furchteinflößend.
Es gehen ja heute schon viele Fake News, basierend auf falschen Bildern, um die Welt.
Was soll erst in zwei oder drei Jahren geschehen, wenn diese Bilder selbst kreiert, fotografisch perfekt sind?
Einfach eine analoge Kamera nehmen und schon ist wieder alles gut.
Es gibt so praktische Holzkästen, wo sich der Fotograf unter einem schwarzen Tuch versteckt und dann für die Belichtung den Deckel vorne abnimmt und wieder drauf steckt. Da hat man dann die volle Kontrolle und kann später in der eigenen Dunkelkammer genau bestimmen wie das Bild entwickelt wird.
Aber mal im Ernst: Ich verstehe ja das Argument, dass man möglichst „natürliche“ Bilder ohne Filter-Klatsch haben will, aber so etwas hat es noch nie gegeben. Ein Bild muss immer entwickelt werden. Damit wird es dunkler oder heller, die Farben kräftiger oder blasser, etc. Ein Bild ohne jede Nachbearbeitung gibt es also gar nicht.
Natürlich sollte ein Foto noch ein Foto sein. Sonst kann ich mir den nächsten Afrikaurlaub sparen, die Mülltonnen in der Garage Fotografieren und dann in Photoshop die KI anweisen den Hintergrund durch eine Savanne und die Tonnen durch Elefanten zu ersetzten.
Bin ich bei dir. Die dahinter steckende Software ist da oft zu sehr motiviert
Mach halt nen RAW Bild und lass den Leiten ihren Spaß…. ;)
Bis zu einem gewissen Punkt hast du schon recht. Schaut man sich die einschlägigen große YT-Kanäle an wird man sehen dass sogar Wechselobjektive im RAW Modus das Bild „korrigieren“.
Da plädiere ich für einen „totalen Manuellen Modus“auf Knopfdruck.
Die andere Seite der Medaille ist das es genügend Hobbyfotografen gibt die sich eben das zum gewissen Grad auch wünschen.
Anscheinend immer noch zu wenig Software Technik, die die Gleichstimmigkeit des Bildes wohl nicht prüft
Hm…hier müsste die Software das Bild semantisch verstehen, erkennen, dass es sich nicht nur um Hände handelt, sondern diese auch noch ein und der selben Person zuordnen um dann darauf zu achten, dass alle 6 Hände die gleiche Position haben.
Schon, aber wir reden doch andauernd über künstliche Intelligenz. Das wäre IMO durchaus ein Anwendungsfall dafür.
Die Stimmigkeit wird sicherlich geprüft, aber die Spiegel sind hier ja gar nicht erfassbar und prüfbar, da letztendlich gar nicht sichtbar. Die Person ist durch diese Spiegel aber in drei völlig unterschiedlichen Positionen und Perspektiven zu sehen, weswegen die Software da auch drei unterschiedliche Personen erkennt. Und jede wird daher auch individuell „optimiert“.
Ich dachte, das wäre eine Panoramaufnahme.
Dem beschnittenem Titelbild nach, hätte ich das auch zuerst gedacht, aber es wird ja dann das ganze gezeigt.
Nein. Wenn man früh genug abbricht sieht es aus wie ein Foto. Ich mach dauernd so Späße mit meinen Kindern. Das ganze ist einfach eine Panoramaufnahme, frühzeitig beendet. Ganz easy.
So haben wir auch Urlaubsbilder gemacht wo ein und dieselbe Person an verschiedenen Orten steht. Oder meine Kinder an Halloween wie sie mich ansehen, der Spiegel aber die Kinder ansieht.
Wem das „abgebrochene Panorama-Bild“ zu aufwändig ist, Foto-App GroupShot
https://apps.apple.com/de/app/groupshot/id488709126
+1 dafür würde aber das Kleid unten links nicht stimmig sein
Wird es auch sein, oder irgend ein anderer Fake. Denn so schnell wie das iPhone die interne Bildfolge schießt bewegt keiner seine Arme in „saubere“ 3 Stellungen. Schon gar nicht vorm Spiegel
Warum nicht. Diese Bewegung der Arme braucht max eine halbe Sekunde. Und bei nicht optimalen Lichtverhältnissen macht das iPhone locker ausreichend lange Belichtungsreihen. Und es braucht ja keine „sauberen“ (bewegungslose) Stellungen der Arme, es braucht nur ein paar ausreichend scharfe Bilder in diesen Stellungen (auch wenn sich die Arme zu diesem Zeitpunkt in Bewegung befinden können die Bilder ja noch scharf sein),
Hab auch erstmal an Fotomontage und nicht auf (angebliche) Rechenfehler gedacht.
Who knows..
Genau das war auch mein erster Gedanke.
@gruml beim iPhone 7 vielleicht aber beim 15er brauchste keine Sekunden bei dem Licht
+1 mein erster Gedanke
Ich sehe öfter als diesen hier benannten Effekt, wenn große Kontraste fotografiert werden müssen und dabei die Kamera nicht ruhig gehalten wird, dass die Belichtungsreihe nicht zu 100% akkurat aufeinander gelegt wird. Das gibt dann so Ränder an den Übergängen von dunklen Elementen in die hellen Flächen.
Bitte keinen Shitstorm wegen dieser Brautaufnahme herbeizwingen. Eigentlich gibt es hier nichts zu sehen.
Das gezeigte Fehlerbild kann jedem Handy passieren und sogar bei manueller Bearbeitung in Photoshop vorkommen.
Wenn Du ein einzelnes Foto in Photoshop lädst verändert sich nicht die Position bzw. zeitliche Veränderungen von Objekten es sei denn Du greifst selbst aktiv mit der Bearbeitung ein oder nutzt die Möglichkeiten der Mehrfachaufnahmen von LiveView wie eben hier.
Ist in der Landschaftsfotografie beispielsweise ein Problem, weshalb die Verbesserungen im Dynamikumfang von Sensoren hochwillkommen sind. Sichtbar besonders bei Wolken oder Blättern an Bäumen im Wind.
Ja wenn Software dazwischenkommt kann das schnell passieren . Machine Learning :)))))) Meine Spiegelreflexkamera ist da noch zu „dumm“ die macht die Bilder, wie ich sie im Sucher sehe.
Macht sie eben nicht.
Die macht bilder wie du sie um sucher sehen würdest während er kurz dunkel ist
Ich mache ein Foto und nicht 5 ;-) das ist der Unterschied. Da physikalisch durch den kleinen Sensor keine andere Möglichkeit für Lowlight besteht. Und im Anschluss wird es zusammengerechnet. Und wer nicht rechnen kann oder sich verrechnet …
Das ist mir gerade eben wieder aufgefallen. Einen Gegenstand mit leuchtenden Elementen mit dem iPhone 12 Pro fotografiert, Belichtungsdauer 2 Sekunden, freihand und doch knackscharf. Mit einer DSLR / DSLM hätte ich zwar mit ISO-Reserven sicherlich auch kürzer belichten können, aber die leuchtenden Elemente hätten wahrscheinlich ein händisches DRI erfordert.
Hexe. Eindeutig. Das ist ein Zeichen :-)
Nein, Drillinge ;)
;-)
Ist doch mal ein cooler Effekt!
An Profikameras …. das Bild ist flau hat keine Tiefenschärfe, das konnte mein Sony Ericsson W800i bereits.
Es heißt Schärfentiefe, und die ist auch von der Blende, Abstand und Objektivbrennweite abhängig…
Falsch! Tiefenschärfe ist genauso korrekt!
Falsch! Die Begriffe werden oft gleich gesetzt, das stimmt aber nicht.
Die Schärfe der Tiefe sagt etwas ganz anderes aus, als die Tiefe der Schärfe.
Falsch ICH habe Recht!
Ja stimmt jetzt wo du es sagst solche Fotos habe ich schon mit meinem Nokia 3310 gemacht.
Vielleicht solltest du dir die Bilder von deinem W800i nochmal anschauen. Man überschätzt mit der Zeit die Qualität der Bilder von damals.
Junge junge. Das W800i hatte ich zwar auch aber das hatte jetzt nicht wirklich eine gute Kamera, für die damalige Zeit evtl. schon aber jetzt.
http://handy.vieraugen.com/Aus.....stadt1.JPG hier ein Link in 2mpx Auflösung. Leider bist du einfach nur ein Troll. Daher dient die Info allen anderen welche vergessen haben wie 2mpx wirklich aussehen.
Der Troll hat sogar ausbelichtete Fotos an der Wand A4 , macht nix. Sind eben glattgebügelt. Weitergehen, hier gibt es nichts zu sehen.
Naja bei schlechten Lichtverhältnissen zeigt das iPhone doch sogar an, dass es mehrere Sekunden belichtet und man stillhalten soll. Damit ist ja eindeutig was passiert und man kann den Effekt eines bewegenden Motivs sicher auch bewusst erzeugen.
Im Prinzip kann man sagen, Fotos die mit aktuellen Smartphonekameras geschossen werden bilden Situationen ab, die es so nie gegeben hat. Irgendwie find ich das nicht gut.
+1
Schon seit analogen Zeiten gilt: Kein Foto ist das Abbild der Wirklichkeit
Hast du dich auch damals an Familen im Fantasialand drangehängt und immer wenn ein Foto geschossen wurde gut sichtbar in den Hintergrund gemogelt?
– du Schlawiner ;-)
Falsch, die Situation hat es so gegeben und zwar alle drei, sind nur in einem Bild zusammengelegt worden…
Ja, aber nicht mit einem Klick, sondern eher durch zum Beispiel eine Panorama Aufnahme
Auch das, was DU mit deinen Augen siehst, ist kein Abbild der „Wirklichkeit“ sondern ist eine „Berechnung“ von ins Hirn weitergeleiteten Lichtreizen die dort zu einem Bild „zussmmengerechnet“ werden. Auch hier führt das Hirn Ergänzungen durch, gaukelt oft Wahrnehmungen vor die so nicht existieren.
+1
@Ragnar
Yep! Allein schon die Tatsache, dass wir nicht alles auf-dem-Kopf-stehend und seitenverkehrt sehen, zeigt, wie massiv unser Hirn in den „Sehprozess“ eingreift.
Lass dich nicht von diesem Fake verunsichern
Ich stell‘ mir schon die ersten Gerichtsverhandlungen vor, in dem so entstandene Fotos als Beweismittel für eine Straftat gezeigt werden… Wenn schon mit Software gearbeitet wird, um das Bild zu „verbessern“ müsste es zumindest auch die Originale mit speichern.
„Ich war das nicht – die Waffe hat die Kamera-Software hinzugedichtet, euer Ehren“
Das ist durchaus bereits seit Jahren ein Thema. Schon vor mehr als 13-15 Jahren gab’s zumindest bei Canon ein Verifizierungsmodul, mit dem irgendwie die Nichtbearbeitung von Fotos nachgewiesen werden konnte. Allerdings weiß ich nicht mehr darüber und wenn heute das Endergebnis der internen Fotoentwicklung als einzige „Originaldatei“ abgespeichert wird ohne dass in den EXIF-Daten nachvollziehbar wird, ob es manipuliert ist, natürlich witzlos. Auch deswegen gehen wir Menschen schwierigen Zeiten entgegen. Was ist Wahrheit und was ist Lüge auf Fotos? Allerdings sind Bildmanipulationen ja nun auch schon vor hundert oder mehr Jahren im Labor vorgenommen worden.
Ich weiß nicht ob ichchab glauben soll. Vielleicht auch eine Fakemeldung. Denn so schnell kann die Dame ihre Arme gar nicht in 3 Stellungen bewegt haben wie das iPhone die interne Bildfolge schiesst. So einen Blödsinn glaube ich nicht.
Das iPhone könnte sich für die Wahl von drei „Frames“ der Reihenfotografie entschlossen haben nach der Langzeitbelichtung. Der Algorithmus kann so angepasst sein, dass Einzelbilder mit Bewegungsunschärfe verworfen werden. Dann kann das Ergebnis mit etwas „Glück“ so aussehen. Auch ein Grund dafür, dass richtige Ausleuchtung selbst bei den viel gepriesenen Promo-Shootings von Apple und seinen Influencern immer ein Thema bleiben wird, zumindest bis allgemeine KI in die Bildentwicklung eingezogen ist, die nächste Stufe der jetzigen „KI“.
Könnte, kann, kann – ich glaube es nicht. Das Ergebnis ist einfach zu „perfekt“.
Genau wie der wahre Klaus sagt. So dunkel ist es da nicht, als wenn es sich da um eine mehrere Sekunden lange Belichtung handeln würde. Ich würde noch nicht einmal glauben, dass selbst in mehreren Sekunden die Dame ihre Arme dreimal anders hält. Versucht euch das mal bildlich vorzustellen, was das für eine Bewegung ist und das in einer Abfolge von extrem kurz hintereinander belichteten Bildern Noch dazu kommt ja, dass die internen, mehrfach Bilder unterschiedlich belichtet werden für einen gegebenenfalls notwendigen HDReffekt. Das sind ja nicht alles die gleichen Bilder, die die Kamera macht und wie gesagt schon gar nicht in einem so langen Abstand
Probiere es doch aus… das geht locker. Eine Sekunde ist lang, und für die Bewegung (verschränkte Arme (rechts) nach unten fallen lassen (Mitte, links)) braucht man keine halbe Sekunde. Die dame muss ja nicht extra die Arme in den drei Stellungen still halten (links kann man erahnen, dass die das auch gar nicht tut, denn wie sie dort die Hände hält, würde sie beim stillhalten so sicherlich nicht tun)
Und die Kamera-App macht ununterbrochen Bilder, sodass beim drücken des Auslösers Bilder von vor und nach dem Auslösen zur Bildverbesserung zur Verfügung stehen. Je nach Lichtverhältnissen ist die Zeitspanne sicherlich unterschiedlich lang, bei Dunkelheit geht das bis zu mehreren Sekunden. In Innenräumen ist das sicherlich locker eine halbe Sekunde drin.
Genau theoretisch, was du willst, ich glaube es nicht . so dunkel ist es da nicht. Hier handelt es sich nicht um mehrere Sekunden und auch würde ich trotzdem niemals glauben, dass die Arme in derart unterschiedlichen Haltungen fotografiert wurden wenn das nur die Bilder der Bildabfolge sein sollen.
Nachtrag, hast du dir das Bild eigentlich richtig angeguckt? Da ist hinten ein helles Fenster wo sogar Sonne ist zusätzlich kleine helle Scheinwerferchen, weil dort eine Brautmode begutachtet wird und du willst mir was von langer Belichtungszeit erzählen… da hat man einfach mal eines dieser Spaß Panoramen gemacht
Da bin ich bei Dir. Bei mir schaltet die Langzeitbelichtung wesentlich später ein.
Dennoch habe ich den Langzeitbelichtungseffekt wie bei Spiegelreflexkameras bei iPhone noch nicht bemerkt.
Nachher mal probieren.
Aber ich stimm Dir zu, zu perfekt, für „1“ Foto.
Ich glaube, dass das Bild gefaked ist, weil der Vorhang, der sich links hinter / seitlich der Dame befindet, im Spiegel vor ihr nicht zu sehen ist. Außerdem befindet sich im linken Spiegel auf der Stirn der Dame ein Lichtpunkt, den es in dem Spiegel vor ihr nicht gibt. Dort gibt es einen kleineren Lichtpunkt, aber auf der anderen Seite der Stirn. Und entweder haben beide Spiegel verschieden gefärbtes Glas, oder die Farben stimmen nicht über ein. Auf jeden Fall ist das Bild im Spiegel vor ihr deutlich kälter, als im Spiegel links neben ihr.
Natürlich ist das ein Fake, im Spiegel hat sie die Hände sogar gefaltet und deshalb niemals so schnell runter fallen lassen und dann erst den einen Arm und dann den anderen Arm. Wie lange soll die Belichtung gewesen sein, dass so etwas zu Stande käme. Niemals, es ist da ja nicht mal dunkel.
Mal dir doch mal die Situation auf einem Blatt Papier auf. Wi stehen die Spiegel, wo die Dame, wo der Fotograf. Und dann versuche dich mal an deine Physikkenntnisse (Optik) aus der Schule zu erinnern und male mal die „Lichtstrahlen“ auf, die auf die Kamera treffen, und von wo die kommen. Du wirst dann bemerken, dass man den Vorhang links im Spiegel vor der Dame auch gar nicht von der Kameraposition aus sehen kann. Das passt also durchaus.
Was die Lichtreflektion auf der Stirn angeht, dass die sich verschiebt oder ändert, wenn die Person sich bewegt (es ist extrem unwahrscheinlich, dass sich nur die Arme bewegen, und der Rest des Körpers an exakt der selben Position verharrt), ist nun auch keine Magie. Also auch hier alles plausibel.
Klar kann das durchaus Fake sein, aber es kann durchaus auch genau so aus der Kamera-App gekommen sein. Nichts im Foto deutet tatsächlich auf einen Fake hin. Und dass man die Arme von der einen in die andere Position in z.b. weniger als einer halben Sekunde bewegen kann, ist nun auch nicht verdächtig, denn dass kann jeder ja selbst ausprobieren und selbst feststellen, dass das kein Problem ist.
Ich verstehe wirklich nicht, warum du unbedingt daran glauben willst und einen iPhone Fehler suchst. Diese Situation sieht sowas von gestellt aus das erkennt sogar ein Laie, meine Frau etc.
Die „aufwändige Beleuchtungsinstallation“ hinter dem Fotografen ist einfach nur eine Fensterfront mit Tageslicht (was jedoch unbestritten ein sehr gutes Licht sein kann)
Peinlicher AI Fail!
Zeigt aber eben auch, dass Handykameras eigentlich oft keine Momentaufnahme mehr darstellen sondern ihre Bilder mit Hilfe von Software und Ki irgendwie selbst interpretieren und damit verfälschen.
Vielleicht sollte man aufhören es „KI“ zu nennen.
the „carbonara-effekt“
Samsung hat’s ja bewiesen, wie man es nicht machen sollte, mit ihren (künstlich generierten) Fake Moon Bildern… mit ihrem Space Zoom!
https://www.theverge.com/2023/3/13/23637401/samsung-fake-moon-photos-ai-galaxy-s21-s23-ultra
Das ist ein Hoax.
Danke, sehe ich auch so
Das Gegenteil von „Deep Fake“ – wenn Leute schon auf so etwas reinfallen, macht mir KI noch mehr Angst als ohnehin schon.
Missverständnis scheint aufgeklärt zu sein: fälschlicherweise ein „Panorama shot“ – https://youtu.be/QqcYiDn6d1s?si=SUUuKlkRkWr6tRy_
Nachtrag zu meinem vorherigen Kommentar:
Hier auch nochmal der Link zum YouTube Video der Analyse:
https://youtu.be/QqcYiDn6d1s?si=pM1o9iSPOrNFL25g