Risiken durch Prompt-Injection-Angriffe
Apples Siri-Krise: Verzögerung wegen Sicherheitsbedenken?
Apple hat am vergangenen Wochenende bekanntlich die Notbremse in Sachen Apple Intelligence gezogen und die Runderneuerung seiner Sprachassistenz Siri auf unbestimmte Zeit verschoben.
Statt bereits mit iOS 18 den Rückstand zur KI-Konkurrenz von ChatGPT, Grok und Co. aufzuholen, wird Apple die neue Siri-Funktionen von Apple Intelligence nun erst deutlich später als ursprünglich geplant einführen. Erwartet werden erste Tests jetzt frühestens mit iOS 19.
Das Unternehmen erklärte am Freitag, dass die Umsetzung mehr Zeit als Anfangs eingeplant in Anspruch nehmen würde und dass die personalisierten KI-Funktionen voraussichtlich erst im kommenden Jahr eingeführt werden. Gründe für die Verzögerung wurden nicht explizit genannt, doch könnten Sicherheitsaspekte eine Rolle spielen; darüber spekuliert der Entwickler Simon Willison.
Risiken durch Prompt-Injection-Angriffe
Die neuen Funktionen von Apple Intelligence sollen es Siri ermöglichen, auf Nutzeranfragen zu reagieren, Informationen aus Apps zu beziehen und eigenständig Aktionen auszuführen. Dies könnte laut Willison jedoch auch Risiken bergen, insbesondere im Hinblick auf sogenannte Prompt-Injection-Angriffe. Diese Angriffsmethode zielt darauf ab, ein KI-System dazu zu bringen, unerwünschte oder schadhafte Befehle auszuführen, indem manipulierte Eingaben genutzt werden.
Da Siri mit den geplanten neuen Funktionen sowohl auf sensible Nutzerdaten als auch auf externe Inhalte zugreifen könnte, besteht die Gefahr, dass zwielichtige Anweisungen in unverdächtig wirkenden Texten versteckt werden.
Ein Angreifer könnte beispielsweise eine manipulierte E-Mail oder Nachricht senden, die Siri dazu bringt, ungewollt Daten weiterzugeben oder Aktionen auszuführen, die nicht im Sinn des Gerätebesitzers sind. Solche Sicherheitslücken sind in KI-gestützten Systemen bsilang nicht vollständig gelöst worden.
Herausforderungen bei der Absicherung
IT-Sicherheitsexperten weisen seit längerem darauf hin, dass es für entsprchende Schwachstellen bisher keine zuverlässige Lösung gibt. Ein Problem dabei ist, dass eine Sicherheitsmaßnahme, die nur in 99 Prozent der Fälle funktioniert, für Angreifer eine offene Flanke bietet, die den potenziellen Zugriff auf die Gerätedaten mehrerer Millionen Anwender möglich macht. Sobald eine KI sowohl auf geschützte Daten als auch auf fremde Eingaben zugreifen kann, entstehen hier massive Risiken.
Ob Apple die Verzögerung tatsächlich nutzt, um solche Sicherheitsfragen zu lösen, bleibt abzuwarten. Cupertino dürfte jedoch alles daran setzen, die neuen Siri-Funktionen erst dann freizugeben, wenn ein maximales Maß an Datenschutz und Sicherheit gewährleistet werden kann.
Die Prompting Injection hat auch bisher keine KI-Firma vereiteln können. Auf jeden Fall eine Mamutaufgabe. Apple wären ja die ersten bei denen alles klappen würde. Man kann, denke ich, sowieso nicht alles ausschließen. Aber bei Siri ist die Datenqualität eine ganz andere.
Ich glaube nicht, dass E-Mail-Inhalte unbeabsichtigt Teil des Prompts werden können.
Ich schätze, es geht eher darum, persönliche Daten wie eben E-Mails vor Missbrauch durch Prompt-Injection zu schützen.
Dann glaubst Du einfach falsch, hier ein Beispiel von Ende 2024:
https://x.com/wunderwuzzi23/status/1839823446563533111
Und hier ein Beispiel in Apple Notes, besonders lustig, da wurden nicht einmal die Tags aus dem Input entfernt:
https://www.reddit.com/r/iOSBeta/comments/1ex55n3/ios_181_db2_prompt_injection_exploit_with_writing/
Interessant.
Es gibt auch die Theorie, dass 8 GB RAM für die Zwecke, die Apple ursprünglich geplant hatte, einfach doch nicht ausreichen. Das ist halt wirklich sehr sehr wenig für KI Modelle, vor allem da davon ein paar GB für das System selbst schon mal wegfallen.
Nein das ist es nicht. Apple hatte lange vor Apple Intelligence bewiesen mit ein öffentlichen Dokument das es mit wenig RAM geht. Dabei haben sie da ein Forschungspapier offen gelegt.
Dafür hatte Apple doch diese partielle Laden entwickelt. Da gab es einen Artikel zu.
Solange dieses KI Zeugs optional vom Nutzer angeschaltet werden kann, ist doch alles okay ; )
Besser, als halbgares Zeug und zasammengerammschte AI-Wrapper auf den Markt zu werfen wie jeder andere 0815 Hersteller.
sehe ich ähnlich und das ist einer der Gründe warum ich Apple Geräte kaufe
Ich hab seit Jahren das Gefühl, dass ich bei Apple nur noch Beta Tester von halbgaren Produkten bin… und Google Gemini ist alles nur kein 0815
Ich frage mich wie ein Samsung damit umgeht oder (ohne deren Stand zu kennen) das einfach hinnimmt.
Ist bei Siri nicht schon durch die teilweise idiotischen Antworten eine ausreichende Verschlüsselung gegeben?
:D