Gezielte Fehlererkennung
Siri-Sprachstudie: Testnutzer sollen Siri per App verbessern
Mit Siri Speech Study hat Apple eine iOS-App veröffentlicht, die gezielt zur Verbesserung der Siri-Funktionen beitragen soll. Die Anwendung begleitet eine von Apple durchgeführte „Siri-Sprachstudie“ und lässt sich frei laden, die Benutzung ist allerdings nur für von Apple ausgewählte Teilnehmer an dem Programm zur Produktverbesserung möglich.
Das Magazin TechCrunch konnte einige erweiterte Informationen zu der neuen Siri-Studie bei Apple in Erfahrung bringen. Demnach soll die App Teilnehmern an dem von Apple initiierten Programm zur Verbesserung der Siri-Funktionen die Möglichkeit bieten, ihr Feedback direkt mit Apple zu teilen. Beispielsweise können Nutzer erklären, was sie eigentlich gemeint hatten, wenn Siri etwas falsch verstanden hat, bemängeln wenn Siri versehentlich ausgelöst wurde oder in einem Mehrpersonenhaushalt einen Benutzer falsch identifiziert hat.
Die letztgenannte Funktion, der HomePod-Mehrbenutzermodus, steht hierzulande noch nicht zur Verfügung, soll Apple zufolge aber nach langer Wartezeit nun endlich in diesem Jahr noch starten.
Apple weist im Zusammenhang mit der Siri-Sprachstudie darauf hin, dass die Daten der Teilnehmer nicht automatisch übertragen, sondern jeweils explizit freigegeben werden müssen. Nutzer sehen eine Liste mit ihren letzten Siri-Anfragen und können auswählen, was sie davon mit Feedback versehen an Apple senden wollen. Darüber hinaus würden keine Daten der Benutzer gesammelt oder verwendet.
Apple lässt hier wohlweislich ein hohes Maß an Sorgfalt walten, stand das Unternehmen vor zwei Jahren doch massiv in der Kritik als bekannt wurde, dass der Hersteller Siri-Aufzeichnungen ohne das Wissen der betroffenen Nutzer analysiert hatte, um die Qualität des Dienstes zu verbessern. Mit den Aufzeichnungen waren zwar keine persönlichen Informationen verbunden, doch geben derartige Aufnahmen unter Umständen auch für sich schon ausreichend Informationen preis, um sie mit konkreten Personen zu verbinden. Apple hatte sich daraufhin entschuldigt entsprechende Korrekturen zugesichert.
Siri-Befehle werden künftig lokal verarbeitet
Apples erweiterte Anstrengungen zur Verbesserung der Qualität mit Siri dürften nicht zuletzt mit den neu angekündigten Funktionen der Sprachassistentin zusammenhängen. So soll die Spracherkennung in Zukunft ausschließlich lokal auf dem Gerät selbst stattfinden und eine Internetverbindung nur noch dann aufgebaut werden, wenn dies für die Anzeige der Ergebnisse nötig ist. Die lokale Verarbeitung der Siri-Befehle kommt nicht nur der Privatsphäre der Nutzer zugute, sondern wird auch dafür sorgen, dass einfache Befehle merklich schneller ausgeführt werden.
Ist die lokale Erkennung von Siri eigentlich in den Betas schon aktiv?
Ja, funktioniert perfekt.!
Immer wenn ich kein Internet habe, sagt Siri, dass etwas schiefgegangen ist.
Neuste DEV Beta.
Also bei der Public Beta 5 funktioniert Siri perfekt im Flugmodus (ohne WLAN oder Mobile Daten).
Ist die Entwickler Beta schon eine Beta 6 oder auch noch die Beta 5?
Die lokale Umwandlung von Text funktioniert allerdings auch erst ab dem iPhone 10S und neuer.
Ahh okay. Hab ein 10s (XS) aber hatte bisher mit der DEV Beta noch nicht die Offline Erkennung zu funktionieren gebracht.
Soweit ich informiert bin gilt die offline Erkennung nur für bestimmte Kommandos. Z.B. Flugmodus an/aus.
Nein, die analysiert die Sprache immer offline. Sie kann halt keine Informationen ansagen, die sie im Internet checken muss.
Mit iOS 15 passiert grundsätzlich die komplette Verarbeitung auf dem Gerät und nicht mehr in der Cloud. Damit zieht man nach, da ein Teil der Konkurrenz das schon seit über einem Jahr anbietet.
Wer denn?
Wer soll denn das sein? Amazon und Google bestimmt nicht. Da geht ohne Internet nichts.
Google Assistent
Apple interessiert Benutzerfeedback leider einen Scheiss.
Ich habe schon so oft an Betas für iOS und macOS teilgenommen, und Bugs gemeldet.
Rückmeldung dazu gab es nie, und oh Wunder die Bugs waren auch im Release mit am Bord.
Ne Rückmeldung habe ich auch nicht bekommen aber schon erlebt das ein gemeldetes Problem in einem Minor Version Update behoben wurde.
Denkst du die haben da einen Typen nur für dich sitzen? Die kriegen Bug reports aus allen Ländern über alles mögliche. Diese Reports müssen gesichtet werden, katalogisiert, reproduziert und dann priorisiert werden. Ist dieser Bug sehr schlimm? Betrifft es viele Anwender? Wie schwer sind die Ausmaße? Leicht nervig oder beeinträchtigt das irgendeine Funktion erheblich?
Dann müssen diese Bugs auch noch bearbeitet werden, mit vielen Problemen die wahrscheinlich eine höhere Priorität haben.
Die Qualität der Bugreports spielt auch eine Rolle. (Schritte zum reproduzieren usw). Die Antwort ist nicht einfach immer nur „Alles interessiert jeden einen Scheiss“.
Naja ich habe auch schon einige Bugs gemeldet, die seit Catalina auftauchen und auf Big Sur immer noch zu finden sind. Ich hab‘ manchmal auch das Gefühl, dass da Apple nicht immer hinhört..
Hmm, kann ich so nicht bestätigen… habe sowohl von Apple Rückmeldung erhalten … Und auch mit dem Hinweis, was (gegebenenfalls) korrigiert wurde
Wie kann man denn an der Studie teilnehmen ? Meine Apple Watch spinnt nämlich ziemlich oft…
Was die immer noch nicht hinbekommen, ist die Aussprache englischer Bandnamen und Songtitel. Das ist nun wirklich megapeinlich.
Klingt nach einem simplen Problem, ist aber viel komplexer, da es eine synthetische Stimme ist. Siri müsste in der Lage sein die Stimme zu wechseln. Das ist bei Alexa auch nicht viel besser. Frag sie mal was auf englisch „Guten Morgen“ bedeutet. Dann hört man wie die Stimme sich bei der Übersetzung ändert. Die deutsche Stimme kann keine englischen Wörter sprechen sowie die englische keine deutschen.
Ja, das ist leider so. Wobei man es sicherlich mit etwas Aufwand lösen könnte – es geht ja nur um Songtitel und Bandnamen. Sei es nun mit einer speziellen Routine die dann abläuft und von mir aus eine Art „Sample“ abspielt – Titel und Co. Werden ja grundsätzlich erkannt… es sind natürlich Millionen von Titel in allen möglichen Sprachen. Scheint in der Tat extrem komplex zu sein oder man hält es allgemein für nicht so wichtig.
Mich nervt es immer wieder ungemein.
Kommt die Lokale Erkennung auch für den HomePod Mini? Für Licht An/Aus braucht man dich nicht immer erst zum Apple Server.
Frage ich mich auch.
Nein, der hat einen Prozessor ohne Neural Engine soweit ich weiß. Damit ist die lokale Analyse leider nicht möglich. Hoffentlich gibt es bald eine aktualisierte Version, die das kann. Das Thema mit den Wanzen in der Wohnung ist immer noch ein Problem.
Da läuft so viel übers iPhone denke es sollte kein Problem sein.
bin ich in der Küche sage ich hey Siri geht erst Handy an dann läuft alles über den pod. Mikrofon wird aber das vom iPhone genutzt. Erst wenn ich Tür zu hab oder ins iPhone flüstere wird das Kommando am iPhone umgesetzt.
Ich bin dabei. „Hey Siri bitte hör auf mein iPhone auszuspionieren“
Was mich an Siri am meisten nervt:
plötzlich versteht sie Kommandos nicht mehr, die vorher monatelang oder sogar jahrelang funktioniert haben.
Kenn ich.
hey Siri barlicht anschalten
hey Siri barlicht ausschalten Beim 2. sagte mir Siri nachdem es monatelang ging
“tut mir leid Meru, ich weis leider nicht was du mit ausschalten meinst“ ……
Ist bei mir auch so! Siri ist dumm wie Brot! Immer will sie Musik abspielen! Mit löschen oder ändern von Timer drehe ich immer fast durch, das versteht sie gar nicht! Habe mal einen Alexa, seit zwei Tagen. Bis jetzt hat sie alles immer sehr gut verstanden was ich gesagt habe und auch ausgeführt. Siri gegen Alexa, im direkten vergleich ist Siri stroh dumm!
Habe vorginge Woche versucht während der Fahrt zu sagen das es mir eine Route nach xxxx erstellen soll. Völlig sinnlosen Unterfangen…. Siri frage mich immer um Bestätigung ob ich diese Ziel meine nur um mir dann mitzuteilen das ich gerade nicht navigiere und sagen soll „Wegbeschreibung nach xxx „ aber das hab ich die ganze Zeit gesagt….
Hey Siri: Spiele Open FM von TuneIn
Ok, ich spiele Apple Music One.