Offline-Diktate ab A12 Bionic
Neu mit iOS 15.5: Siri-Sprachauswertungen erfolgen lokal
Groß kommuniziert hat Apple die Änderungen, die iOS 15.5 seit dem 16. Mai großflächig zur Verfügung stellt bislang zwar noch nicht, ausgewählte Medienvertreter wie etwa die US-Journalistin Sareena Dayaram wurden jedoch in Hintergrundgesprächen informiert und haben die Informationen jetzt brühwarm an interessierte Anwender durchgereicht.
Um es kurz zu machen: Die iOS-Aktualisierung auf Version 15.5 war etwas signifikanter als es der Beschreibungstext des Updates, der ausschließlich von Verbesserungen in der Podcasts-App berichtete, hat durchblicken lassen.
Siri-Sprachauswertungen erfolgen jetzt lokal
Größtes Datenschutz-Update: Spracheingaben, die sich an Apples Sprachassistenz Siri richten, werden nicht mehr an Apples Server gesendet um dort in reinen Text übersetzt zu werden. Dieser Vorgang erfolgt auf neueren Geräten nun vollständig lokal.
Alle iPhone-Modelle in deren Inneren mindestens ein Apple-Chip vom Typ A12 Bionic oder neuer Arbeitet, also alle Modelle ab dem iPhone XS beziehungsweise dem iPhone XR, bauen für das Sprachverständnis keine Online-Verbindungen mehr auf.
Dies führt nicht nur zu schnelleren Siri-Reaktionen, sondern auch dafür, dass sich eine Handvoll einfacher Sprachbefehle ohne anliegende Internetverbindung ausführen lässt. Dazu zählen etwa das Stellen eines Weckers, das Anlegen einer neuen Erinnerung und das Öffnen einer bereits installierten Applikation. Auch Text-Diktate in der Notizen-App benötigen keine Online-Anbindung mehr an Apples Server.
App-Datenschutzbericht ausgebaut
Zudem hat Apple auch den sogenannten App-Datenschutzbericht ausgebaut. Dieser notiert sich seit iOS 15.5 nun auch wenn Applikationen auf Kamera oder Mikrofon zugegriffen haben.
Der App-Datenschutzbericht protokolliert App-Zugriffe auf das netz, auf persönliche Daten und auf Geräte-Komponenten wie die iPhone-Kamera um deren Verhalten auch im Systemhintergrund überwachen zu können.
- Neu in iOS 15: App-Aktivitäten aufzeichnen und auswerten
Ich bin mir grad ziemlich sicher, dass das mir der lokalen Siri bei mir schon seit einiger Zeit (15.3 oder so?) funktioniert.
Ich bin jetzt auch verwirrt. Ich dachte bislang auch, dass Apple schon in früheren iOS Versionen das eingebaut hat. Wurde doch in der WWDC auch groß beworben.
Hat bei mir auch schon vorher funktioniert. Habe schon häufiger wlan oder Bluetooth etc. im Flugmodus mit Siri gesteuert.
Ich glaube ihr meint die Diktatfunktion. Die gibts schon länger lokal. Und die ist auch ohne Siri möglich, wie bei mir.
Also Siri auf Englisch hat schon immer offline funktioniert (seit iOS 15)
Mich würde in dem Zusammenhang mal folgendes interessieren:
Wenn ich Siri sage, dass ich den abgespülten Song nicht mag, bestätigt Siri „Ich werde mir merken, dass Du diesen Song nicht magst“ (korrekt) und manchmal spricht sie „Magst“ aber wie „maxt“ aus. Wovon hängt das ab ? Jemand eine Idee ? Selbes IPhone, selber User, mal so und mal so….
…abgespielt:) …
Das passt schon. Du sagtest ja NICHT magst. :–)
Das sind wirklich großartige News, für mich wichtiger als die meisten (aber nicht alle) anderen Neuerungen der letzten Jahre!
Leidiges Thema, ich weiß. Allerdings ist der Akkuverbrauch mit 15.5 bei mir wieder schlechter geworden. Ein Blick in die Verbrauchsanzeige offenbarte, dass die Musik App sehr viel (>50%) verbraucht hat. Zudem war die Rückseite sehr warm. Hatte die App aber nicht in Verwendung. Habt ihr ähnliche Beobachtungen?
Bei mir ähnlich. Vor dem Schlafengehen auf 100% aufgeladen -> nächster Morgen 06 Uhr noch irgendwas bei 60%.
Das war vorher definitiv nicht so.
Da bleibt doch die Frage: wann gehst du schlafen? :-)
Und jetzt mal im Ernst: irgendwelche im Hintergrund(Aktivitäten) laufenden Apps die viel Akku saugen?
Stell den Wickler auf 7 Uhr, vielleicht hast du dann 70% Batterieladung am Morgen.
Meist so gegen 23 Uhr. Hintergrundaktivitäten sind genauso unauffällig wie vor dem Update.
Vielleicht haben ja die Illuminaten etwas damit zu tun (Ein Witz, für alle die schon wieder nach Luft ringen).
Mein iPhone 12 mini hat seit diesem Update das erste mal seit Monaten eine passable Batterielaufzeit. Auch ist der standby Verbrauch so minimal geworden, das ich mich ohne Power Bank aus dem Haus traue. :|
Ich habe das gleiche Problem. Effektiv fehlen mir rund 2 Stunden Laufzeit. um ca. 1800 Uhr wechselt das 12Pro bereits in den Stomsparmodus. Das war vor dem Update definitiv nicht so.
JA! Leidiges Thema weil es IMMER wieder kurz nach dem Update kommt, obwohl bekannt ist, dass gerade dann der Akkuverbrauch noch höher sein kann. Leidiges Thema auch, weil bei mir der Akku gerade mal 4% an einem Vormittag verloren hat. Ich hab das iPhone aber auch nicht alle 2 Minuten in der Hand um damit zu spielen oder zu Whatsappen …ich lebe noch recht normal!
Neuindexierung nach Updates. Vermutlich wurde der on device Algorithmus zur Erkennung welche musik für dich passt bisschen angepasst und dein iPhone muss nun die gespeicherten Daten (wann welche musik etc.) neu analysiert werden. Sollte sich nach ein paar Tagen bessern.
Das gibt es doch seit iOS15? Was ist hier jetzt neu?
Dachte ich auch…
Das nützt nicht viel. Solange die Spracherkennung nicht besser wird bleibt Siri ein Spielzeug.
Das bedeutet wahrscheinlich, dass eine Anfrage über die Apple Watch nach wie vor eine Internetverbindung aufbaut, oder?
Siege meine Antwort unter @Mario.
Ich wünsche mir, dass dies auch auf dem HomePod mini kommt.
Müsste man mal testen, indem man WLAN an der AW und WLAN + mobile Daten am iPhone ausschaltet. Kann ja sein, dass die AW die Anfrage ans iPhone schickt, welche es dann verarbeitet.
Oh, die Antwort sollte an @Holfo gehen. Sorry!
Aber, Mario, ich wünsche mir dies auch. Der im Mini verbaute S5 sollte eigentlich noch genug Power dafür haben.
Man sollte sich hier von dem Wort „Datenschutz“ nicht teuschen lassen! Das Gerät analysiert alle eingesprochenen Wörter/Texte genau und sendet gesammelte Statistiken regelmäßig an Apple. Dazu gehört auch die Erkennung von anstößigen oder sexuellen Eingaben (in Suchfelder usw.), das wird von einem Analytics-Deamon gesammelt und übermittelt. Darüber hinaus wird weiterhin Apples USA-Server kontaktiert wenn die lokale Auswertung fehl schlägt.
Mehr Privatsphäre gibt es hier also keinesfalls, durch die immer aggressivere Auswertung sogar eher weniger. Aber die Reaktionszeit dürfte sich verbessern.
Quelle?
Du hast nicht wirklich „teuschen“ geschrieben, oder? Also das e ist schon sehr weit vom ä auf der Tastatur entfernt…
Blödsinn. Diese Daten werden vollkommen unabhängig vom iPhone übermittelt und sind reine statistische Werte, mit denen kein Datenschutz aufgehoben wird. Es ist aber durchaus ein Unterschied, ob meine Spracheingaben von Mitarbeitern bei Amazon ausgewertet werden oder lokal auf dem Gerät!
Da will mal wieder einer den Oberschlauen spielen!
XD von eine*r Mitarbeiter*in! Als ob ein*e Mitarbeiter*in die Anfragen live abhören würde und die Aktionen triggern.
PS: es geht nicht um die Verbesserung der Erkennung, sondern um das verstehen des Befehls. Vor iOS 15 wurden die textschnipsel an einen Server geschickt welcher dann dem device sagte, was gemeint war und welche Aktionen ausgeführt werden müssen.
Audioschnipsel und andere Daten werden immer noch per Stichproben von Menschen analysiert und verbessert, wenn vom user erlaubt.
Bitte von „News“ in „Olds“ verschieben *augenroll*
Muss so sein denn seit dem Update erkennt er einige Sachen nicht mehr so gut beim Diktieren.
Beispielsweise lassen sich im Flugmodus keine Notizen oder Kontakte erstellen, weil
selbiger aktiviert ist. Nachrichten (vor)schreiben auch nicht.
„Hey Siri, wie spät ist es“ ist aber offenbar schon zu schwierig für die Offlineauswertung auf dem iPhone 12 Pro…..
Frage doch einfach „Wie viel Uhr ist es?“… -.-
Ich hab den Eindruck, dass seit dem Update folgender Fehler sehr viel öfter auftritt: ich spreche irgendein Kommando in die Watch („setze Mehl auf die Einkaufsliste“), die Uhr versteht es – aber gleichzeitig hört sich das iPhone zu und versteht irgendwelchen Unsinn („es gibt keine Liste namens Einkauf“). Hat das sonst noch jemand? Gibt es eine Lösung dafür, dass beide Siris angehen?
Auf dem iPhone hey Siri ausschalten?
Ich finde es mal wieder einen serh guten Schritt von Apple weiterhin die Datensicherheit zu verbessern. Der Kritikpunkt, dass die Daten missbraucht werden können, ist somit nicht mehr zutreffend, so dass auch skeptische Menschen Siri verwenden können.
Im Vergleich zu anderen Anbietern mehrkt man schon, dass Apple den Datenschutz ernst nimmt.