Neue Optionen im Kontrollzentrum
iOS 18.4: „Visuelle Intelligenz“ wird ausgebaut
Apple hat den Montagabend zur Bereitstellung der zweiten Vorabversion von iOS 18.4 genutzt. Das nächste Betriebssystem-Update soll im April erscheinen und wird Apple Intelligence erstmals offiziell in Deutschland einführen.
Neu in iOS 18.4 Beta 2
In Beta 2 von iOS 18.4 hat Apple das Kontrollzentrum überarbeitet und diesem eine eigene Sektion für Apple Intelligence spendiert. Dort befindet sich nun die Funktion „Siri-Anfragen tippen“, die zuvor lediglich in den Siri-Einstellungen zu finden war. Zusätzlich gibt es neue Möglichkeiten zur Aktivierung von Siri („Sprich mit Siri“) und zur Nutzung der KI-Kamera-Funktion „Visuelle Intelligenz„.
Wird die Funktion „Visuelle Intelligenz“ im Kontrollzentrum aktiviert, können Nutzer Objekte und Orte in ihrer Umgebung identifizieren. Die KI-Funktion soll es ermöglichen Informationen zu Tieren und Pflanzen zu erhalten, Texte zu analysieren und Kalenderereignisse auf Grundlage von Informationen auf Plakaten oder Flyern zu. Die Funktion steht zunächst für die iPhone-16-Familie, das iPhone 15 Pro und das iPhone 15 Pro Max zur Verfügung.
Da die iPhone-15-Modelle über keine spezielle Kamerasteuerung verfügen, lässt sich die Visual Intelligence über das Kontrollzentrum oder die Aktionstaste aktivieren. Apple stellt die Funktion damit erstmals auf einem iPhone zur Verfügung, das nicht zur iPhone-16-Serie gehört.
„Visuelle Intelligenz“ wird ausgebaut
Mit „Visuelle Intelligenz“ sollen Nutzer verschiedene Informationen aus ihrer Umgebung abrufen können. Dazu gehören:
- Identifikation von Orten und Unternehmen mit Angabe von Öffnungszeiten, Kontaktdaten und gegebenenfalls Reservierungsoptionen. Allerdings ist diese Funktion vorerst auf die Vereinigten Staaten beschränkt.
- Die Erkennung und Analyse von Texten, darunter Übersetzungen, Zusammenfassungen und Vorlesefunktionen.
- Bestimmung von Pflanzen und Tieren.
Laut Apple setzt die Nutzung der „Visuelle Intelligenz“-Funktion grundsätzlich die Aktivierung von Apple Intelligence voraus. Zusätzlich bietet Visuelle Intelligenz eine direkte Anbindung an externe Dienste wie Google und ChatGPT. Nutzer können so ähnliche Objekte online suchen oder sich über ein erkanntes Objekt weiterführend informieren lassen.
wann kommt normalerweise die public beta 2?
Meistens 1-2 Tage später in der letzten Zeit. Ich tippe auf heute Abend
Finde ich gut, dass sie diese Funktion auf die 15 Pro Geräte erweitern.
+1
Und wenn alle genügend angefixt sind, kommen die Abos.
Das verwechselst du mit der Konkurrenz.
Alternativ: Nenn mir mal einen Service/Feature, welches Apple kostenlos zur Verfügung gestellt und erst im Nachhinein mit einem Abo belegt hat.
Siri hat ihr „altes“ Design wieder…
Bei mir auch. Bei mir wurde der Playground auch erst wieder dauerhaft aktiviert, nachdem ich den VPN abgeklemmt habe. Siri ist aber wieder „ganz die Alte“
Ja leider, fand das neue Design viel ansprechender
Einfach die Sprache und die Region auf englisch umstellen, neu starten und Siri neu laden lassen. Dann alles wieder Retoure. Dann geht’s wieder.
Kannst du das mit „Siri neu laden lassen“ nochmal genauer erklären?
Gerade getestet, es bleibt alles beim alten, Siri „Old“ Version
Doch funktioniert, man braucht wlan damit Apple AI wieder alle Modelle lädt… lediglich Visual Intelligence geht (ich hoffe noch) nicht…
Alternativ die mobilen Daten auf „mehr Daten über 5G stellen und Stromverbindung herstellen
Stimmt, hat nur etwas gedauert!
Siri ist wieder schlechter geworden in 18.4 Beta 2.
Geht das?
Autsch…aber ja :D
Nach dem Update funktioniert Apple Intelligence erstmal nicht richtig.
Abhilfe steht ein Beitrag höher schon.
Region und Sprache auf US English stellen, Apple Intelligence das Sprachpaket nachladen lassen, danach alles wieder auf Europa und Deutsch stellen und erneut Sprachpaket laden lassen
Dann funktioniert Apple Intelligence und Optik wieder .
Danke für Deinen Hinweis +++
Freu mich drauf. Hab ein 15 pro Max :)
Wie startet man auf iPhone 15 Pro dieses Visual Intelligenz Dingens? Soll man über den Button links erreichen können, aber das lässt sich in den Einstellungen gar nicht hinterlegen. Hä
Ups, geht wohl nur beim iPhone 16 … Müll xD
Kann mir das jemand mit einem 16er beantworten: Muss man die Kamerataste länger drücken, damit man zu dieser KI-Funktion kommt oder ist das in die Kameraapp integriert? Danke
ja. Längerer Druck startet die ‚visual Intelligence‘ App und nicht die Kamera-App (eben am 16pro getestet); also keine Integration.
Durch gedrückt halten der Kamerataste. Das kannst du unter Einstellungen, dann Kamera einstellen.
Allerdings funktioniert das unter der Beta 2 bei mir nicht mehr.
„wird ausgebaut“
Ich hoffe im Sinne von:
– fliegt raus
– Ersatzlos gestrichen
– Code wird gelöscht
– Blödsinn braucht keiner, konzentrieren wir uns auf was wichtiges
Aber ich befürchte es/das ist wohl nicht gemeint.. Schade.
Du kannst dir ja ein altes Nokia Handy kaufen. Gute Idee, oder?
Bei mir werden keine Mauls auf dem Sperrbildschirm angezeigt (iPhone 16 Pro Max).
Mails meine ich
Habe Siri (Apple Intelligent) gefragt, „wie kalt wird es diese Nacht“, Antwort war „es wird Sonnig werden diese Nacht“. Mein Humor!