Bilderkennung statt Abstandsmessung
Porträtmodus beim iPhone SE: Klappt dank ML auch beim Abfotografieren von Fotos
Die Entwickler der Kamera-App Halide haben die im iPhone SE verbaute Kameratechnik unter die Lupe genommen und stellen in einer lesenswerten Abhandlung zum Thema Porträtmodus die Frage: Ist das iPhone SE der einäugige König?
Hintergrund ist die Tatsache, dass Apples neuestes iPhone-Modell trotz einfacherer Kameratechnik als beim iPhone XR oder den 11er-Modellen ebenfalls im Porträtmodus fotografieren kann, also einen Unterschied zwischen Vorder- und Hintergrund „sieht“.
Teurere iPhone-Modelle haben dabei ein leichtes Spiel, können sie dank mehrerer verfügbarer Objektive mehr Daten erfassen und auch die auf Basis der verschiedenen Aufnahmewinkel mögliche Entfernungsbestimmung in ihre Berechnungen mit einbeziehen. Das iPhone XR trickst hier mit sogenannten Fokuspixeln, die auf dem Kamerasensor des Geräts weit genug auseinander liegen, um ähnlich wie wir dies mit den Augen tun, ebenfalls aus unterschiedlichen „Blickwinkeln“ zu messen. Beim iPhone SE ist der Kamerasensor kleiner, somit sind diese Werte hier nicht mehr sonderlich hilfreich.
In der Folge wird der Porträtmodus beim iPhone SE ausschließlich auf Basis von maschinellem Lernen (ML) generiert: Die Kamerasoftware erkennt menschliche Gesichter oder Personen und weiß daher, welche Bereiche zum Vorder- und welche zum Hintergrund gehören. Diese Tatsache bringt einen interessanten Nebeneffekt mit sich: Das iPhone SE ist das einzige iPhone-Modell, bei dem man ohne zusätzliche Software auch beim Abfotografieren einer 2D-Vorlage, beispielsweise eines ausgedruckten Fotos, einen Porträteffekt anwenden kann.
Damit verbunden kommt allerdings auch eine Einschränkung. Der Porträteffekt steht beim iPhone SE nur zur Verfügung, wenn Menschen fotografiert werden. Natürlich wäre es theoretisch auch möglich, der Software beizubringen, wie Hunde und Katzen aussehen, dies allerdings wohl mit deutlich größerem Aufwand und mit zusätzlichen potenziellen Fehlerquellen. Apples Beschränkung des Porträtmodus auf menschliche Gesichter darf man also als das Bestreben interpretieren, die Qualität der Funktion möglichst hoch zu halten.
Wer die zum Preis von 6,99 Euro erhältliche Kamera-App Halide verwendet, kann diese Beschränkung aushebeln. Die Anwendung bietet die Möglichkeit, mit dem iPhone SE auch Porträtaufnahmen von Tieren anzufertigen. Darüber hinaus bringt der sogenannte Depth-Modus der App eine nette Spielerei mit sich: Ihr könnt euch hier die von eurem iPhone erfassten Tiefenwerte visualisieren lassen – das funktioniert mit allen iPhone-Modellen, die den Porträtmodus unterstützen.
Im Artikel steht, dass die teureren Modelle den Vorteil mehrerer Linsen hätten… Aber es funktioniert doch genauso mit der Frontkamera. Die gleiche Technik nutzt man hier halt auch, oder? Ich gehe noch weiter und behaupte, es könnten noch mehr Modelle…
Die Frontkamera nutzt dazu vermutlich die dreidimensionale Abtastung über FaceID, oder? Habe seit langem ein X, daher keine Möglichkeit des Vergleichs.
Korrekt. Die FaceID-Sensoren tasten dreidimensional ab.
Ja, wie mein Vorredner schon sagte, wird das über FaceID realisiert
Okay, wieder was gelernt
Finde den Portrait-Modus ja cool, aber bisher habe ich auf jedem Foto Fehler gefunden. Bei mir funktioniert der nicht so „haarperfekt“, wies in der Werbung hieß.
Es ist und bleibt leider ein Handy und keine Spiegelreflex (oder ähnlich) mit richtigem Bokeh.
Bei mir das gleiche…
schau dir mal die Werbung von Apple etwas genauer an! Dort haben die Models meist kurze, glatte Haare oder eine Mütze auf. Da funktioniert das dann perfekt.
Ich hab grad gar keine Haare. Solange der Bart vor meiner Kleidung ist, gehts fehlerfrei :’D
Es ist und bleibt halt ein rechnerisch umgesetzter Filter, ebenso wie der Nachtmodus. Das Ergebnis ist deshalb auch in vielen Fällen nur brauchbar, um es auf dem Display des iPhones anzusehen. Wenn jedoch alles optimal ist – Licht, Motiv, Situation können die Ergebnisse echt beeindrucken. Aktuelle iPhones (eigentlich alle Smartphones) haben halt einen winzigen Sensor und auch die Optik ist nicht der Brüller – hier ist selbst so gut wie jede kleine Reisezoom-Kamera deutlich besser.
Mein X hat diese Probleme auch. Das 11er und ein Xr sind da aber bereits viel besser und nahezu fehlerfrei. Bin sehr zufrieden mit den neueren Modellen.
Es ist auch in der Werbung nicht perfekt (einfach mal die Konturen genau anschauen). Bislang liefern nur die Pixel Geräte die mit Abstand besten Ausschnitte Und schärfsten Kanten (auch ohne Tiefenkamera oder ähnlichem). Ist für mich nicht nachvollziehbar, da eben gerade die Premiumgeräte durch den Tiefensensor eigentlich selbst ohne ML genauer sein müssten.
Habt Ihr eigentlich auch das Problem beim iPhone 11 Pro Max das, wenn Ihr ein Foto gemacht habt und es gleich darauf bearbeiten wollt, es einfach nicht geht? Weder lässt es sich verschicken, noch sonst was, die App Fotos kann nur Bilder anzeigen, alles andere funktioniert einfach nicht. Ich weiss das wenn ein Foto gemacht wurde, es kurze Zeit benötigt um „bearbeitet“ zu werden, aber selbst nach 20 Sekunden tut sich nichts…erst ein Neustart hilft, dann kann man es auch versenden. Das ist echt mega nervig und wird hoffentlich bald behoben.
Ne, alles OK bei mir.
Cool, wäre interessant, inwieweit sich die KI austricksen lässt, damit das auch für andere Gegenstände geht.
Die Funktion ist ja als Spielerei ganz nett, oder wenn man den Hintergrund nicht zeigen möchte, aber die Bilder sind aus Sicht eines Bildbearbeiters oder Fotografen einfach nur Müll, die Unschärfe läuft in die Kanten, Haare etc.
sieht man schön bei der verbrannten Oma. Da hauts recht viel in die Haare und rechts die Hand ist auch nicht schön.
Aber besser als nix. :)