Apple trainiert mit Audioclips
Siri soll Menschen mit Sprachfehlern besser verstehen
Siri soll Menschen mit Sprechstörungen besser verstehen. Einem Bericht des Wall Street Journal zufolge arbeitet Apple zu diesem Zweck mit einer Sammlung von 28.000 aus Podcasts zusammengetragenen Audioclips, mit deren Hilfe die Sprachassistentin auf die Charakteristik von Stottern trainiert werden soll.
Apple ist auf diesem Feld nicht alleine. Auch Amazon und Google sind darin bestrebt, ihre Sprachassistenten für besseres Verständnis von Menschen mit Sprachfehlern und krankheitsbedingten Sprachbehinderungen zu optimieren.
Krankheiten wie ALS können das Sprachsystem derart beeinträchtigen, dass die Siri und Co. die Befehle immer schlechter bis irgendwann gar nicht mehr verstehen. Systematische Verbesserungen wie auch die Integration neuer Softwarefunktionen sollen hier Abhilfe schaffen. Amazon hat beispielsweise eine Kooperation mit dem Anbieter Voiceitt angekündigt, mit deren Hilfe sich Alexa auf die Erkennung spezifischer Sprachmuster trainieren lässt.
Apple hat dem Bericht zufolge bereits eine Studie zu diesem Thema angefertigt, die in den kommenden Tagen veröffentlicht werden soll.
Siri soll mal erst mal Menschen ohne Sprachfehler richtig verstehen, wenn man das mit Alexa vergleicht ist Siri um Welten hinterher…
Hier umgekehrt. Spannend. Hängt wohl wirklich von den Sprechenden ab.
+1
Exakt mein Gedanke…
Musste gerade herzhaft lachen. So viel zum Thema Selbsteinschätzung
Cool, Siri endlich auch für uns Bayern… ;-)
Und für Kripke (Big Bang Theory).
+1
hihi
Westowong?
Musste auch an den Kripke denken! :-)
Endlich….
Cool, aber SIRI hat oft noch Probleme mit Menschen ohne Sprachfehler…
Freut mich. Ich würde es gut finden wenn danach endlich mal die Normalsprechenden dran kommen würden.
Siri versteht ja nichtmal Menschen ohne Sprachfehler :D
Ich bin ja echt kein Fan von Google….Aber in deren Assistant kann ich besoffen mit 3 Promille reinnuscheln und der versteht mich. Vorallem korrigiert er das erkannte Kontextabhängig während man spricht.
Bei Siri ist aber auch die Ausführung nen riesen Problem. Teilweise wird die Sprache zwar komplett richtig erkannt (solange man keine englischen Worte verwendet) aber dann wird einfach nicht das getan, was getan werden soll.
Richtig lustig ist es einfach immer wieder, wenn man mit Siri songs mit englischen Titeln starten will….
Bei mir klappt alles super. Hängt wohl vom Benutzer ab.
Finde es sehr gut dass die Entwicklung auch in diese Richtung getrieben wird.
Allerdings ist Siri in Sachen Fähigkeiten zumindest im deutschen Sprachraum noch sehr ausbaufähig.
Leicht off topic: Gefühlt hören die HomePods (Groß und Mini) seit dem letzten Update schlechter auf „Hey Siri“.
Siri soll erstmal Leute ohne Sprachfehler verstehen, gegen Alexa und Co. ist es echt grausam
Siri könnte mittlerweile auch die Quelle für Sprachfehler sein:
– Die Weihnachtsbaum ist eingeschaltet
– ich spiele enkore uhne fuis…
– jetzt rechts abbiegen in die kichgasse
Vielleicht hören wir uns für Siri genau so ungewöhnlich an – ich spreche mittlerweile SIRI und damit verstehen wir uns blendend
Stellt jemand auch die Sprachfehler der Deutschen Siri ab?
Ich bin wohl der einzige, bei dem Siri im Deutschen keine Probleme macht. Dazu kommt, dass der eine HomePod in der Bude jedes Mal die Triggerworte deutlich besser versteht als die Echos im jeweiligen Raum, in dem man sich befindet.
Ja, es gibt immer den Einen bei dem alles zu 100% sauber läuft. War letztes Jahr auch bei mir noch so. Dann habe ich angefangen Apple beim PRO wörtlich zu nehmen und seit dem ist der Wurm drin.
Habe die Tage, mindestens vier mal Antwort von Siri erhalten, wo sie teilweise anfing zu stottern!!! Es hörte sich jedenfalls so an! Kann doch kein Zufall sein.
Wäre überhaupt mal nötig, das Siri aufschließt zu Alexa und Google. Manchmal frage ich mich, was Apples Entwicklungsabteilungen so treiben. Jetzt holt man wieder die alten Designs aus der Schublade usw.