Objekte KI-unterstützt entfernen
Neu in iOS 18.4: Foto-Retusche mithilfe von „Apple Intelligence“
Mit iOS 18.4 steht nun auch die Funktion „Bereinigen“ offiziell in der Fotos-App auf dem iPhone zur Verfügung. Hierbei handelt es sich um eine ebenfalls im Rahmen von „Apple Intelligence“ integrierte und auf künstlicher Intelligenz basierende Funktion, mit deren Hilfe man störende Objekte aus Fotos entfernen kann. Wie gut oder schlecht das funktioniert, unterscheidet sich abhängig von den gewählten Fotos und Objekten zum Teil deutlich.
Die Funktion findet ihr etwas unscheinbar platziert, wenn ihr bei einem in der Fotos-App geöffneten Bild die Bearbeiten-Funktion auswählt, unten rechts mit einem Radiergummi als Symbol. Beim ersten Aufruf dauert es ein wenig, bis die Erweiterung vollständig geladen ist. Anschließend habt ihr dann die Möglichkeit, gezielt einzelne Objekte, sogenannte „Ablenkungen“, aus dem Bild zu entfernen.
Die „Bereinigen“-Funktion unterstützt euch bei solchen Bildkorrekturen, indem die infrage kommenden Objekte wie etwa die Gießkanne in unserem Beispielbild teilweise schon automatisch hervorgehoben werden. Zudem kann man auch über auf dem Bild vorhandene Objekte streichen, sie antippen oder einkreisen. Wenn genaueres Arbeiten nötig ist, kann man die entsprechende Stelle im Foto auch vergrößern, indem man wie üblich zwei Finger auf dem Bild auseinanderzieht.
Wie eingangs schon erwähnt, unterscheiden sich die Ergebnisse, die man mithilfe dieses neuen Retusche-Werkzeugs erzielen kann, in der Qualität zum Teil deutlich. Im privaten Bereich präsentiert sich die „Bereinigen“-Funktion von „Apple Intelligence“ jedoch als attraktive Option, wenn es darum geht, die mit dem iPhone aufgenommenen Fotos schnell und einfach zu verbessern.
Weitere KI-Verbesserungen für die Fotos-App
Als weitere Neuerungen wurde die Fotos-App auf dem iPhone mit iOS 18.4 mit einer verbesserten Suchfunktion sowie der Möglichkeit ausgestattet, Rückblickfilme auf Basis einer Textbeschreibung zu erstellen.
Und nicht mal auf meinem iPhone 14 Pro Max ist das freigeschaltet. Lächerlich Apple.
Das wusstest du aber schon vorher. Apple Intelligence gibts erst ab iPhone 15 Pro und das ist seit einem Jahr bekannt.
Der Name sagt doch schon alles
+1
+1
Wie sollte man das freischalten wenn dafür Apple Intelligence genutzt wird was auf dem iPhone 14 Pro Max nicht verfügbar ist?
Dafür kannst du doch z.b die App Touch Retouch verwenden. Hat zwar keine Objekt Erkennung aber das macht ja die AI.
Ich nutze Retouch seit Jahren, es ist automatisch als Erweiterung in die Foto-App von iOS integriert. Funktioniert auch ganz ordentlich – für diese Funktion braucht es wirklich kein Apple Intelligence…
Doch für die Objekt Erkennung.
Ich bin froh noch darauf zu verzichten. Darum liebe ich das 14 Pro Max
@Trollli
Hahahaha, wenn man sich selbst disqualifiziert… ^^
Funktioniert einwandfrei muss ich sagen
finde ich auch… bin sehr begeistert…
Dann nutzt mal den magischen Radierer von Google… Dann seid Ihr von dem Apple Retusche Werkzeug gar nicht mehr so begeistert.
Aber niemand möchte seine Bilder auf Google Server hochladen.
Die Fotos App von Google greift auch direkt auf die interne Foto-Bibliothek von dem iPhone zu
Verarbeitet die Bilder aber nicht lokal auf dem Gerät, sondern auf Google Servern.
Google und die anderen: die machen das alles in der Cloud in deren tollen KI. Apple macht das lokal. Da wird nix hochgeladen …
Dann hast du noch nicht gesehen was bei android (Google) möglich ist
+10
Ich finde die Ergebnisse ziemlich miserabel. Aber ich bin sowieso kein Freund von derartig manipulierten Fotos.
Das Funktioniert überhaupt nicht gut. Die Bilder sind danach quasi unbrauchbar.
Bin ich anderer Meinung. Mehr schlecht als recht. Sobald es ein bisserl kompliziert wird sieht man sofort unscharf und verschwommene Stellen
WLAN erforderlich, oh man…
Wer sagt das?
Ich habs gerade im Flogmodus problemlos gemacht.
Die Fotos App.
Flugmodus hat nichts mit WLAN zu tun.
@Addi ist das dein Ernst?
Man kann flugmodus aktiv haben und dann das WLAN wieder einschalten. Beim nächsten mal flugmodus einschalten lässt das iPhone das WLAN an und deaktiviert somit nur den Mobilfunk…
Also ja das kann durchaus sein ernst sein
@Devil: Im Flugmodus ist WLAN i.d.R. weiterhin aktiv. Ich kann aber bestätigen, dass die Funktion verfügbar ist, wenn sowohl mobile Daten, als auch WLAN de-aktiviert sind.
Ja das nervt mich auch. Habe einen unlimited Vertrag der Telekom. Mit 5G. Ja mein Gigabit Vertrag zuhause ist schneller, aber ich würde das trotzdem gerne ohne WLAN nutzen wollen :/
Bei mir geht das auch mit deaktivieren WLan!?
Stellt euch doch nicht so dumm:
Das Einmalige Laden der Funktion erfordert offensichtlich ne wlan Verbindung und danach geht es ohne.
Wieso denkst du dir sowas aus? Es käme ja faktisch dem gleich man könnte das nur zu Hause machen. Mal abgesehen von öffentlichen WLAN. Aber Es ist überhaupt nicht an WLAN gebunden.
Hab es gerade in der Atbeit ohne wlan getestet, klappt ohne Probleme !
Nur für den Download der KI-Elemente bei der ersten Nutzung. Steht da aber auch
Der einzige, der es verstanden hat.
Es funktioniert ohne WLAN es muss nur vorher einmal runtergeladen werden
Hättest du mal den Artikel gelesen, dann wüsstest du, dass beim ersten Mal das Software Modul nachgeladen wird…
Mir fehlen schon sehr die Bearbeitungsmöglichkeiten von Samsung :-/ Da hinkt Apple Lichtjahre hinterher.
Aber immerhin ein Anfang. Habe ich die Tage mehrfach ausprobiert. Funktioniert ganz gut.
Willkommen im Jahr 2025 – aber du hast recht :-) Besser spät als nie.
Lohnt sich eben nicht für die 2 Benutzer die sowas nutzen.
Achso??
Sagt wer?!
Was für Fotos macht ihr alle dass ihr soviel retuschieren müsst?
Haha. Das möchtest du gar nicht wissen.
Da geht es nicht nur ums retuschieren.
Ja, dann aber trotzdem, was macht man da so? Womit ist man unzufrieden? Viele Fotos sehen nach der Bearbeitung nicht mehr natürlich aus oder spiegelt nicht die Momentaufnahme wieder.
Ein Hund läuft gerade durch das Bild in dem Moment als ich auslöse. Nur ein Beispiel.
Belichtung, Schatten und Reflexionen entfernen, Portrait-Modus hat Samsung mehr zur Auswahl, mehr Filter (im Sinne von Farbenspiel) usw usw… Dazu benötigt man bei Apple schon wieder zusätzliche Apps. Bei Samsungs KI ist es möglich zB einem Hund einen Hund zu zeichenen, das Gerät erkennt das und wandelt es um – sieht aus wie echt. Da kann auch Apples Playground einpacken. Alles Spielereien, aber Apple ist mit Vielem hinten nach.
#sry; einem Hund einen Hut zu zeichnen, meinte ich :-/
Wer will Samsung?
Anscheinend genug Leute ;-)
Genau, und mehr als genug wollen Apple obwohl se ja in allem so weit hinterher sind. Also sind doch alle glücklich, und solange Apple den Großteil der weltweiten Smartphone Gewinne abschöpft denke ich sind die auch ganz zufrieden
So wie Google, Honor, Cat… ja sogar Emporia. Um das gehts aber nicht. Lediglich darum, wie weit hinten Apple mit diesem feature ist. Pb man nun damit zufrieden ist, oder nicht, muss jede/r selbst entscheiden.
Hm, trotz 18.4 bei mir nicht zu sehen – iPhone 14 Pro. Gibts das nur bei neueren Modellen? Auf dem Foto im Artikel ist 12 oder 13 zu sehen!?
Wurde von Anfang an schon ziemlich ausführlich kommuniziert, dass es das Feature erst ab dem 15 Pro erst gibt.
Nur für die Geräte mit Apple Intelligence. Also iPhone 15 Pro, 16, 16 Pro, etc.
Was für ein dreck Apple….
Mir war nicht klar, dass selbst das so eng gesehen wird….
Was heißt denn eng. AI ist AI. Nicht eng und nicht weit. Geht bei allen 16ern und 15 pro. Basta.
Könnte auf den Fotos auch ein 16e sein ;-)
Bestimmt! War auch mein Gedanke. :)
Könnte das am mangelnden Hauptspeicher liegen?
iPhone 13 Pro Max und diese Funktionen sind nicht mehr verfügbar? Ein Witz, ich kann nur nicht drüber lachen!
Warum? Anscheinend liest du ifun, dann müsstest du wissen, dass du kein Apple Intelligence bekommst.
Darüber kann man sich doch nicht ernsthaft aufregen.
Lesen? Die meisten vermutlich nur die Headline.
Wieso sind die Funktionen nicht mehr verfügbar, waren Sie jemals verfügbar?
Dein Telefon wird 4 Jahre alt. Was erwartest du?
Ich hab mir das besser vorgestellt. Bei meinen bisherigen Ergebnissen hat man gesehen, dass da was verändert wurde. Bzw. es war einfach nur eine verwischte Stelle.
Hängt von der Größe des entfernten Teils und der Art des (Umgebungs)Hintergrunds ab.
Manchmal hilft es, wenn man bei größeren Objekten diese nicht auf einmal, sondern Stück für Stück entfernt
Je „ruhiger“ die Umgebung des zu entfernenden Objektes ist, desto besser wird das Ergebnis.
Man darf nicht vergessen das „hinter“ dem Objekt ja nichts ist und quasi aus der Umgebung berechnet wird.
Eine Stelle, an der ein Objekt in einer sehr farbenintensiven Umgebung entfernt wurde, wird natürlich verwaschen aussehen.
Oft hilft es diese Stellen dann selbst auch noch 1-2 mal zu bereinigen.
Bspw. in Photoshop werden bei ähnlichen Funktionen aber recht komplexe Hintergründe rekonstruiert. Ich hab ehrlich gesagt schon vor 20 Jahren bessere nicht-KI-basierte Algorithmen gesehen, als das was Apple hier bietet. Mit KI-Unterstützung sollte das deutlich besser sein.
Meine Vermutung: Das verwendete Modell (was ja extra runtergeladen wird) ist einfach zu schwach.
Du kannst auch das „Geisterbild“, das manchmal als Ergebnis noch zu sehen ist, nochmal einkreisen.
Bei mir hat das bislang so gut wie immer bestens funktioniert, nach dem zweiten Mal bereinigen, war das Bild an der Stelle sauber. Hängt aber, wie von anderen schon beschrieben, stark vom Hintergrund ab.
Das seltsame daran ist, dass ich diese Funktion auf meinem Ipad schon eine ganze Weile hatte, nachdem ich mit dem Gerät im nicht EU-Gebiet eingeloggt war, nicht auf dem iPhone (15 pro Max)
Jetzt habe ich sie offiziell auf dem iPhone aber nicht mehr auf dem iPad (vorletzte Gen.)
Auf dem iPad Pro mit M1 war die Funktion in der Beta Version und ist jetzt auch vorhanden. Ich kenne kein anderes iPad, wo diese Funktion vorher vorhanden sein sollte
Muss auch sagen, dass das erstaunlich gut funktioniert. Habe schon einige Schnappschüsse damit verbessert.
Schade, dass da Apple alle Altgeräte (>2 Generationen) willkürlich beschnitten hat.
Hätte ich gern mal ausprobiert.
Das hat mit willkürlich nichts zu tun. Diese ganzen Apple Intelligence Funktionen laufen lokal auf den Geräten. Und die Generationen vor den 15 Pro iPhones haben zu wenig Arbeitsspeicher dafür.
Gibt ja auch andere AI Apps, die lokal laufen und die das auch auf älteren Geräten schaffen.
Es kommt ja immer auf die Modellöse an. Das sind dann wahrscheinlich kleinere Modelle, die nicht die Ergebnisse liefern, die Apple gerne hätte.
Modellöse = Modellgröße
Nutze doch Touch Retouch. Hast zwar keine Objekt Erkennung aber auch gut.
Danke für den Tip, das werde ich ausprobieren.
Nutze ich auch schon lange, aber auch die Ergebnisse sind nicht mit Googles magischem Radierer zu vergleichen
Funktioniert sehr gut, wenn man von keiner Zauberei ausgeht. Manchmal glaube ich die Leute denken sie bekommen von heute auf morgen magische Kräfte. Eventuell muss man auch ein wenig Erfahrung in Bildbearbeitung haben um Zusammenhänge in der Retusche zu verstehen.
Leider ist die Funktion ziemlich enttäuschend im vergleich zu anderen KI.
Bei einfachem Hintergrund aber dennoch zu gebrauchen.
Zwei Anmerkungen hierzu: 1. Das klappt in meinen Tests äußerst meh. 30 % gute Ergebnisse, 70 % will man einfach nur unbrauchbar.
2. Ich will kein Öl ins Feuer der Leute gießen, die ältere Geräte haben, aber das Feature funktioniert auch noch, wenn man Apple Intelligence in den Settings ausschaltet :D – kann ein Bug sein, weil es ist total offensichtlich, dass es da im Hintergrund ordentlich rechnet und zu tun hat.
Die App Retouch funktioniert bei weitem besser und genauer ;-)
Komisch. Auf meinem iPhone 5 SE geht es auch nicht.
Das ist nicht komisch. Es wurde von anfang an gesagt, dass das nur ab dem 15 pro funktionieren wird so wie der Rest von Apple intelligence auch
Er wollte einen Witz machen… ;-)
Der angebliche Vorteil, dass KI-Funktionen lokal auf neuen Geräten laufen, ist mE keiner. Das dauert selbst bei den Schreibtools so lange (M1), dass der ChatGPT-Server um Längen schneller ist.
Der Sinn der lokalen Ausführung ist der Datenschutz, der Preis ist die Zeit.
So ein Quatsch. Außerdem hat Apple ja eigene Server, die angeblich voll verschlüsselt KI-Anfragen beantwortet. Da hätte man also problemlos auch ältere iPhones mit Apple Intelligence versorgen können – und sie hätten sogar schneller reagiert als die lahmen Topmodelle mit ihrer lokalen Verarbeitung. Der Datenschutz wäre gem. Apple genauso garantiert gewesen.
„Bereinigen laden“ … seit einer gefühlten Ewigkeit … sehr unbeeindruckend Apple
Diese Funktion hat Android OS mit dem Google Pixel 7A vor zwei Jahren schon gehabt. Kurz danach kam die auch in der Google Fotos App auf dem iPhone dazu, wenn man ein Speicherplan bei Google hatte. Und das hat auch sehr gut funktioniert, ohne dass man damit ein High and Smartphone benötigte. Das ganze hat überhaupt nichts mit einer besonderen KI Leistung zu tun. Das ist leider wieder einmal alles reines Marketing. Das Apple überhaupt so lange gebraucht hat, ist schon absolut ein Witz.
Oh Mann, das ist ja schon Jack Ass verdächtig. Du wirst sicherlich gleich gesteinigt.
Android wird von den Apple Jüngern wegen solcher Funktionen belächelt und bekommen sie die Funktion Jahre später, selbst auf ihre Geräte, wird es als „revolutionärer Meilenstein“ gefeiert :-D
Ja, weil es bei Google auf den Google Servern gerechnet wird und somit Google deine Fotos bekommt, wer das will, ist doch nett, ich will es nicht, daher freu ich mich dass es bei Apple lokal auf meinem Gerät läuft und meine Fotos nach wie vor nur lokal auf meinen Geräten sind.
Ich bin enttäuscht wie schlecht die Funktion im Vergleich zur Android Variante ist. Gleiches Bild, 1x iPhone 15 Pro, 1x Fairphone 5. Die Qualität beim iPhone ist eine Katastrophe. Da hilft dann auch kein Verkaufsargument „Privacy“. Wenn das Ergebnis so schlecht ist, wird es nicht verwendet.
Die Konkurrenz ist hier echt meilenweit voraus. Ich hoffe, dass Apple Intelligent nicht das neue Siri wird, sondern wir echte Verbesserungen sehen und der Anschluss zu den Mitbewerbern gefunden wird.
Ich wette, es gibt einige Apps, die das wesentlich besser hinkriegen und auch auf älteren Geräten laufen.
Ich traue Apple allerdings durchaus zu (und erwarte es eigentlich auch), dass hier noch gründlich nachgebessert wird.
Ich bin kein Foto-Profi – und meiner bescheidenen Meinung nach sind die Ergebnisse für die meisten Anwender, sicherlich total ausreichend, wie auch für mich.
Wie läuft 18.4 denn sonst so? Noch Probleme mit Mail bspw.?
Retouch macht es bei mir schon seit dem 3GS
Funktioniert leider nur mit WLAN, warum auch immer
Beim ersten Mal, weil das KI-Modell zuerst herunterladen werden muss. Danach geht es auch ohne aktives WLAN.
Reiner Marketing Trick. Dazu braucht man nur wirklich keine KI.
Apps wie „Retouch“ machen das schon seit vielen Jahren auf allen älteren iPhones.
Richtig coole finde ich: Kreist mal ein Gesicht ein, es wird verpixelt.