Cloud-Version der Sprachassistenz Siri?
Apples KI-Offensive mit iOS 18: Auf dem Gerät und in der Cloud
Apple wird bei der für diesen Herbst geplanten KI-Offensive zweigleisig fahren und bereitet sowohl künstlich-intelligente Funktionen vor, die ausschließlich lokal auf den Geräten der Kunden zur Verfügung stehen und ausgeführt werden, als auch solche, die in spezialisierten Rechenzentren auf dedizierter Hardware ablaufen.
Ein Mix aus local und remote AI
Hier sollen dann auf KI-Aufgabenbereiche hin optimierte Hochleistungs-Prozessoren zum Einsatz kommen, die mit denen vergleichbar sind, die Apple in aktuellen Mac- und iPad-Modellen einsetzt. Geplant ist, die eher triviale Nutzung von Künstlicher Intelligenz auch weiterhin ausschließlich lokal durchzuführen. Also etwa die Objekterkennung in Bildern. Umfangreiche KI-Aufgabenstellungen sollen hingegen von Apple selbst betriebene Rechenzentren übernehmen.
Die Initiative soll nach Angaben des Wirtschaftsnachrichten-Dienstes Bloomberg Teil von Apples generativer KI sein, wobei bislang völlig unklar ist, was Apple hier anbieten könnte. Dass Apple hier lediglich einen weiteren Bild- oder Textgenerator bereitstellt, der dann mit ChatGPT oder Dall-E konkurrieren könnte, ist eher unwahrscheinlich.
Cloud-Version der Sprachassistenz Siri?
Derzeit wird davon ausgegangen, dass Apple konkrete Pläne zum KI-Einsatz auf iPhone, iPad und Mac im Rahmen der WWDC-Entwicklerkonferenz präsentieren wird, deren Auftaktveranstaltung in diesem Jahr auf den 10. Juni fällt. Apple soll seit drei Jahren an dem KI-Vorhaben arbeiten, war zuletzt aber durch die zunehmende Popularität von ChatGPT und Googles Gemini erheblich unter Druck geraten und soll die eigenen Anstrengungen daraufhin intensiviert haben,
Zu den Prozessoren, die die KI-Aufgaben in Apples Rechenzentren übernehmen könnten, gehören etwa die M2 Ultra, aber auch bei dem mit dem iPad Pro vorgestellten M4-Chip handelt es sich um einen hochoptimierten Apple-Prozessor mit Neural Engine. Chips, mit denen Apple zukünftig auch eine erweiterte, cloud-basierte Version der Sprachassistenz Siri betreiben könnte. In einem Monat wissen wir mehr.
Bin mal gespannt, was dann auf dem M3 nicht geht. Das Air habe ich mir gerade vor 3 Wochen gekauft.
Bin ich auch gespannt… wäre ein Witz, wenn das Gerät nicht alles unterstützt…
Warum?
Bis zur Veröffentlichung des neuen Betriebssystems wird dein Air zusätzliche 19 Wochen älter sein. Es ist denkbar, dass für die vollen KI-Funktionen von iOS 18 eine noch leistungsfähigere Neural Engine nötig sein könnte, die mehr Ressourcen effizient nutzt, ohne den Stromverbrauch zu erhöhen. Bei einem (Pro-)Gerät erwartet man allerdings, dass die Entwicklungsabteilung die Hardware zukunftsorientiert konzipiert hat, sodass selbst mit zunehmendem Alter des Geräts die neuen Funktionen mindestens in einem normalen Umfang unterstützt werden. Aber Hey,… ich habe keine Glaskugel.
ziemlich nichts sagend für soviele Worte
Auf dem HomePod muss es ja schließlich auch laufen..!
Nö, der hat ja ne dauerhafte stabile netzverbindung. Der kann das auch in die Cloud schieben. Objekterkennung macht der ja eh nicht.
Ne muss er nicht. Da kommt ein neuer, der dann den neuen Chip hat und der das nur kann ;)
Ich hoffe das alle Geräte, die iOS 18 unterstützen, von den Features profitieren. Ich kann mir allerdings gut vorstellen, dass bestimmte Funktionen nur den kommenden Geräten und denen mit M4 vorbehalten sind.
Wenn sie das iPhone 15 pro rauswerfen bei diesen Funktionen wird es wohl einen shitstorm des todes geben
Na logisch werden die besten Funktionen nur mit einem extra AI Chip funktionieren
+1
Ich kann mir vorstellen, dass die M4 mehr Dinge on-Device verarbeiten können und bei den älteren Geräten dann auf die cloud zurückgegriffen wird
Das wird nicht so sein, auch nicht wenn es 10 mal geht.
Der um sich greifende KI-Wahn macht einen – fertig. Dann sitzt man wieder, um diese ganzen nicht gewollten Internetverbindungen zu unterbinden.
Aluhut soll helfen hab ich gehört
+ 1000 !!!! Volltreffer ! Was auch den Geräten im Hintergrund passiert bestimmt Apple in dessen Interesse. Das ist auch der echte Grund, warum alles immer schneller werden muß. Damit der Durchschnitts*** das gar nicht merkt. Bis auf absolute Profi-Anwendungen profitiert sonst gar nichts davon.
Ich hoffe, dass die Digital-Trulla Siri auch irgendwann mal in irgendeiner Form von KI profitiert.
Ja dann wenn KI wieder durch richtige Menschen abgelöst wird.
So wie bei Alexa?
Wenn Siri auch nur annähernd so „schlau“ wie Alexa wird, freue ich mich schon.
Ich hoffe, dass Siri bei uns auch endlich mal eine angenehmere Standard-Stimme bekommt…
Ich find die männliche Standardstimme sehr okay.
Klingt bisher alles extrem planlos. Aber ich bin offen für eine positive Überraschung seitens Apple.
Ist es sicher auch, apple hat sich ja mit der Skibrille beschäftigt und das Jahre lang!
Klar, weil Apple auch nur eine Abteilung für Research & Development hat und dort auch nur zwei Mitarbeiter angestellt sind.
Und die „Skibrille“ ist zurzeit die günstigste und leichteste Mixed Reality Brille mit so niedrigem Pass Through Delay und der Auflösung am Markt. (Was nicht bedeutet, dass diese perfekt sei. Und alle getroffenen Entscheidungen bezüglich der Brille ideal wären. Aber man möge bitte in der Realität bleiben.)
Ich wundere mich immer wie inflationär das Wort KI für alles benutzt wird.
Aber Gottes Marketing ist eben alles