iphone-ticker.de — Alles zum iPhone. Seit 2007. 38 839 Artikel

Eigene Sprachbefehle konfigurieren

Neu mit iOS 12: Siri Shortcuts könnten auch Spotify steuern (ein wenig)

Artikel auf Mastodon teilen.
23 Kommentare 23

Wenn es nach Apple geht, soll die Sprachassistentin Siri ausschließlich mit Apple Music zusammenarbeiten, die Sprachsteuerung von Konkurrenzangeboten wie Spotify ist nicht erwünscht, oder war es bislang zumindest nicht. Ein kleiner Lichtblick in dieser Richtung öffnet sich nun. Mit iOS 12 gewährt Apple Entwicklern die Möglichkeit, ihre Apps mit Unterstützung für die sogenannten „Siri Shortcuts“ auszustatten.

Siri Shortcuts Hinzufuegen

Grundsätzlich kann auf dieser Basis dann jede Anwendung mit Siri zusammenarbeiten. Anwender können hier ihre eigenen Sprachbefehle erstellen, um kompatible Apps anzuweisen, bestimmte Aktionen auszuführen. Apple hat dies im Rahmen der Eröffnungsveranstaltung zur WWDC 2018 ausführlich demonstriert, beispielsweise wurde durch den Sprachbefehl „Ich habe meine Schlüssel verloren“ die Bluetooth-Tracker-App Tile aktiviert.

In eingeschränktem Maß könnte man künftig auch bei der Nutzung von Spotify, Deezer & Co von der neuen Technologie profitieren. Voraussetzung ist, dass die Entwickler dieser Apps die Shortcuts-Unterstützung integrieren. Mit dem Komfort der Siri-Steuerung von Apple Music lässt sich dies dann zwar nicht vergleichen, aber zumindest die rudimentäre Wiedergabesteuerung oder auch das Abspielen ausgewählter Wiedergabelisten sollte möglich sein.

Apple beschreibt die Siri-Kurzbefehle wie folgt:

Siri Shortcuts bieten einen neuen, viel schnelleren Weg, Dinge zu erledigen, mit der Möglichkeit, dass jede Anwendung mit Siri arbeitet. Die Siri-Intelligenz kann eine Aktion zum richtigen Zeitpunkt vorschlagen – sei es, um morgens einen Kaffee zu bestellen oder ein Training am Nachmittag zu beginnen. Benutzer können Verknüpfungen anpassen, indem sie einen einfachen Sprachbefehl erstellen, um die Aufgabe zu starten oder die neue Verknüpfungsanwendung herunterladen, um eine Reihe von Aktionen aus verschiedenen Anwendungen zu erstellen, die mit einfachem Antippen oder einem benutzerdefinierten Sprachbefehl ausgeführt werden können. Für Entwickler ist es einfach, die Vorteile dieser neuen Funktion mit Hilfe von Shortcut-APIs zu nutzen.

Via TechCrunch

Dieser Artikel enthält Affiliate-Links. Wer darüber einkauft unterstützt uns mit einem Teil des unveränderten Kaufpreises. Was ist das?
08. Jun 2018 um 09:03 Uhr von chris Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    23 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Naja das wird ja dann wieder n Jahr dauern bis Spotify sich bewegt

  • Ich bin echt gespannt.
    Ich benutze Workflow ab und zu, mit Siri wird das bestimmt noch besser :)
    Auch wenn wir uns das alle glaub anders gewünscht hätten, so muss man selber was dafür tun und Arbeit rein stecken.
    Ein Ex-/Import von Workflow zu Siri Shortcuts wär ziemlich geil :)

  • Schade das man nicht Siri selbst verbessert (bzw. das Sprachverständnis auf den Servern), sondern das ganze einfach auf den Nutzer abschiebt.

    Jetzt soll sich der Nutzer also Aktivierungssätze ausdenken und auswendig lernen um eine Funktion auszuführen. Grandios, wo doch gerade erst Google Duplex vorgestellt worden ist und Alexa jetzt auch lernt auf Nutzerfragen zu reagieren und einfach im Skill Store nach der richtigen Antwort sucht, ohne das der Nutzer einen Skill aktivieren oder fragen müsste.

    • Sind „Shortcuts“ jetzt also so etwas wie „Skills“ (bei Alexa)?

    • Ich finde es genial. Appl könnte überhaupt nicht für jede App Sprachbefehle auf ihren Servern bereitstellen. Und außerdem bleibt dadurch auch die Privatsphäre geschützt da alles lokal auf dem iPhone durchgeführt wird.

      • Es könnte Frameworks geben die es relativ einfach erlauben Befehle App übergreifend nutzen zu können. Der jeweilige Developer muss diese nur in seine App einbinden (also zB. vor, zurück, pause usw. – würde dann in jeder App die entsprechende Steuerbefehle entgegen nimmt funktionieren und ließe sich natürlich auch für alles mögliche andere entwickeln). Nichts anderes passiert ja auch wenn eine App ARKit, HelathKit, TouchID, FaceID, etc. pp nutzt. Die Frameworks werden zur Verfügung gestellt und der Developer klinkt sich da ein. Also alles nur eine Frage des Wollens.

        Alexa macht ja vor wie einfach Entwickler Sprachmodelle erstellen und in das System einbauen können. Serverseitig läuft dann einiges ab (ML, etc.) um das Sprachmodel verstehen und anwenden zu können.

        Es geht aber eher um das generelle Sprachverständnis. Das wird durch dieses Shortcut System (übrigens ein cleverer Name der vieles impliziert) nicht verbessert und die Konkurrenz zieht immer weiter davon. Ob das im Sinne ist?

  • Lokale Spracherkennung ist auch schon lange überfällig. Besonders für die Diktierfunktion sehr lästig, wenn der Empfang nicht so gut ist.

  • Wie exakt müssen diese Shortcuts eigentlich dann „nachgeplappert“ werden, dass Siri diese Aktion auch versteht? Gibt es bspw. Spielraum beim Satzbau?

    • Man sollte dann selber treffende Shortcuts erstellen. So ist jedenfalls gewährleistet, dass man Siri „produktiver“ nutzen kann. Hatte Alexa für etwa eine Woche zu Hause, habe eine Auswahl an Skills geladen, Diese funktionieren trotz aller Amazon-Online-AI-Magie letztlich umständlicher als Shortcuts.
      Um bei Apples Bsp. zu bleiben:

      „Alexa, öffne Tile. Wo sind meine Schlüssel.“
      [Falscher Satzbau weil so vom Dev ggf. online nicht hinterlegt > Aktion wird nicht ausgeführt, zu lange Pause, Skill beendet.]
      „Alexa, öffne Tile …“

      „Hey Siri, wo sind meine Schlüssel?“ oder was auch immer ich mir für einen für mich gut merkbaren Satz ausgedacht habe. Alles auf meinem Gerät. Perfekt.

    • Du musst den Wortlaut genau treffen.

      Habe mir in Workflow eingerichtet das erledigte Erinnerungen automatisch gelöscht werden. Habe dann den Siri shortcut „fertige Erinnerungen löschen“ hinzugefügt und diesen mit Workflow verbunden. Klappt wunderbar, nur wenn man zB sagt „fertige Erinnerung löschen“ (also Singular) funktioniert das nicht mehr. So viel zum Sprachverständnis.

      Hat man mehr als 3-4 Shortcuts eingepflegt wird es anstrengend jeweils den genauen Wortlaut auswendig zu kennen.

  • Also manche sind auch mit garnichts zufrieden. Apple hat hier für die Nutzer (aus meiner Sicht) eine Mega gute App bereitgestellt, mit der man den Alltag ungemein erleichtern kann. Zusätzlich haben die Entwickler noch die Wahl eigene Sachen zu implementieren. Sie können auch eigene Phrasen direkt für Siri programmieren, dies wurde ja auch aufgebellt und sie können nicht nur Nachrichten, Geld usw versenden damit. ich finde die Entwicklung gut und Apple öffnet sich in der Hinsicht immer weiter.

  • Herrlich… bei Alexa haben alle gemeckert,mdass man sich bei Skills den „Wortlaut“ merken muss… dass es nichts mit natürlicher Dprache zu tun hat… jetzt kommt Apple damit und die „Jünger“ feiern es…

    Alexa hingegen hat gerade die ersten Betas am laufen, um Skills eben ohne Wortlaut auszuführen… ach Apple… auch hier wieder vier Jahre zu spät…

  • Apple wundert sich warum viele sich sicher sind, Siri taugt nichts. Aber sie trauen ihren eigenen Produkten nicht. Wenn sie glauben dass Apple Music auf gleichem Level liegt wie Spotify, sollten sie eben einfach etwas daran tun mehr Kunden zu bekommen. Und wir alle kennen ja längst das Hauptproblem bei Apple Music. Es ist und bleibt die Übersicht, Ordnung und der miserable Player (aus Sicht vieler, inklusive mir).
    Apple muss das endlich trennen. Ich sehe Siri nicht als Dienstleistung, sondern Komponente der Geräte die man kauft. Und daher sollte es 100% im Interesse des Benutzers arbeiten. Also eben auch alles anbieten, integrieren und vorschlagen. Gerade bei Paple sollte dies einen Unterschied machen. Aber man sieht wie der Schwerpunkt sich auf Diesntleistung und Service verlagert. Und das passt nicht.

    Wie dem auch sei, außer Wecker stellen und abstellen, nutze ich Siri nicht mehr. Nicht dass aus meiner Sicht ein anderer Dienst besser wäre, aber der digitale Assistent hat für mich als Privatperson keinen Nutzen.

    Das gilt auch für weitere Elemente. Beispiel, ich habe mein iPhone X im Access Pack, da ich Radfahrer und dies schon das eine oder andere iPhone-Leben gekostet hat. Ich bediene Musik über die Apple Watch und die AirPods. Aber mit Spitify muss man immer wieder zum Gerät greifen. Ich bevorzuge trotzdem diesen Dienst. Und wenn ich am Ende keine Vorteile gegenüber Apple Music nennen könnte, so ist es eben Sympathie, die mich bei diesem Anbieter bleiben lässt. Schade nur um den Bedienkomfort den Apples Geräte nur eigenen Diensten bietet.

  • Erst heute wieder gesehen wie wunderbar Alexa funktioniert.

    „Alexa, was kommt heute Abend im Fernsehen?“.

    Alexa liest die 20:15 Programme vor und aktiviert im Hintergrund den Skill Fernsehprogramm (von einer Fernsehzeitschrift). In der App gibt’s zusätzlich eine Karte mit weiteren Infos zum Skill und Bedienmöglichkeiten.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 38839 Artikel in den vergangenen 6322 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven