Nach Kritik an neuem Cloud-Konzept
Private Cloud Compute: Apple lässt Forscher tief blicken – und zahlt dafür
Apple stellt seine sogenannte „Private Cloud Compute“-Technologie (PCC) ab sofort zur öffentlichen Sicherheitsüberprüfung bereit. Das zugrundeliegende Konzept hatte Apple, ihr erinnert euch vielleicht, im Rahmen der Apple Intelligence-Präsentation vorgestellt und als Lösung für die Verarbeitung komplexer KI-Anfragen präsentiert.
Kommt Apple Intelligence auf den Endgeräten an die grenzen des technisch Möglichen, sollen Ressourcen in der Cloud genutzt werden können, die vergleichbare hohe Sicherheits- und Datenschutzstandards bieten, wie es bei der lokalen Ausführung von KI-Aktionen der Fall ist.
- Private Cloud Compute: Apple setzt plötzlich doch auf die Cloud
Bereits vor einigen Wochen erhielten ausgewählte Sicherheitsexperten erste Einblicke in das System. Nun können alle interessierten Sicherheits- und Datenschutzforscher Apples neue Server-Technologie auf Schwachstellen hin abklopfen.
Virtuelle Forschungsumgebung
Um detaillierte Prüfungen zu ermöglichen, hat Apple ein sogenanntes „Virtual Research Environment“ entwickelt. Dieses simuliert die PCC-Umgebung und erlaubt eine umfassende Analyse direkt auf einem Mac – Voraussetzung dafür ist macOS-Version Sequoia 15.1.
Über das VRE können Forscher die Systemarchitekturen untersuchen sowie simulierte Anfragen absetzen. Die Umgebung umfasst außerdem eine virtuelle Secure Enclave, was erstmals eine Untersuchung dieser Komponente erlaubt.
Um halbwegs transparente Voraussetzungen zu schaffen stellt Apple zudem ausgewählte Teile des Quellcodes der wichtigen PCC-Komponenten auf GitHub bereit. Details zur Systemarchitektur lassen sich im Private Cloud Compute Security Guide einsehen. In diesem beschreibt Apple, wie Anfragen authentifiziert und verifiziert werden.
Belohnungen für gefundene Sicherheitslücken
Zudem hat Apple das „Apple Security Bounty“-Programm erweitert, um Anreize für Forscher zu schaffen sich mit der PCC-Sicherheit auseinanderzusetzen. Wer in Apples System schwerwiegende Sicherheitslücken aufspürt, die die Datensicherheit gefährden könnten, darf sich über Prämien zwischen 50.000 und 1.000.000 US-Dollar freuen.
Belohnt wird dabei insbesondere der Fund jener Schwachstellen, die sensible Nutzerdaten preisgeben oder unbefugten Zugriff auf die Plattform ermöglichen.
Wow, dass nenne ich vorbildlich!
– hohe Summen im Bounty, um die Lückensuche attraktiv zu machen
– trotz dieser Cloud Lösung trotzdem die lokale Verarbeitung bevorzugt
So wie bei der WWDC angekündigt.
Und der Bug Bounty gibt es sogar noch länger.
Ich kann gut nachvollziehen, dass sie das machen. Denn wenn jetzt Datensicherheit und Privatsphäre der offizielle Grund für die KI-Verspätung sein sollen, dann wäre es ganz schön doof, wenn diese Sicherheit im Erlebnisfall nur lückenhaft vorhanden wäre.
Und wie gerne Apple sich in den Code blicken lässt, oder Geld für gefundene Fehler ausschreibt, haben sie in der Vergangenheit schon bewiesen. Für mich zeigt das nur, wie hart sie zurzeit am Wind segeln müssen.
Die Idee, Sachen erst dann rauszubringen, wenn sie wirklich ausgereift sind, ist ja grundsätzlich lobenswert, und das mag ich auch sehr an Apple. Jedoch gibt es neben „Siri“ und „Karten“ halt diverse Beispiele, wo genau dieses Ziel nicht so ganz erreicht wurde.
Ich glaube nicht, dass der Grund hierfür ist, Datenschutz als „Alibi“ für Verspätung abzusichern…
Apple’s AI ist nicht als „beliebige“ Alternative zu ChatGPT, Gemini und anderen KI-Lösungen konzipiert. Apple’s AI ist der technologische Unterbau, um das iPhone (und andere Apple Devices) sukzessive zu einem „persönlichen Assistenten“ auszubauen, der basierend auf LLM-Technologie die Analyse & Verknüpfung Deiner – höchst vertraulichen – persönlichen Daten ermöglicht.
Aus Datenschutzgründen versteht sich von selbst, dass diese Verarbeitung lokal erfolgen muss. Da die lokale Leistungsfähig jedoch beschränkt ist, erweitert Apple diese Leistungsgrenzen per Private Cloud Compute i.S. einer privaten temporären Nutzung von Rechenzentrums-Kapazitäten.
Die Sicherheitsforscher sollen nun zeigen, dass es Apple gelungen ist, hierfür ein Konzept umzusetzen, das von der technologischen Architektur her ausschließt, dass die übermittelten persönlichen Daten in irgendeiner Form gespeichert oder zu Lernzwecken (des LLM) o.ä, genutzt werden können.
Die Umsetzung ist insofern neu und im wahsten Sinne des Wortes „einzigartig“, da sie nur über das Zusammenspiel von lokalen und Rechenzentrums M-Prozessoren realisiert werden konnte.
Also keine Alibi-Veranstaltung sondern eine herausfordernde Aufgabe für die Forscher … und existenziell für Apple’s Vision.
@Hilfsbereit
Die Theorie ist mir bekannt, und ich möchte Dir auch sehr gern glauben. Das würde auch alles perfekt zu dem „guten“ Bild passen, das ich von Apple habe.
Aber die Statements von Apple aus den letzten Jahren lassen mich halt zweifeln. Immer hieß es „wir arbeiten schon lange an KI“, und dann, kurz nachdem die Aktionäre mal Klarheit zum Thema verlangten, haben sie mitgeteilt, dass sie ChatGPT dazukaufen. Und dann die Scheibchenpolitik, das wirkt auf mich alles wie mit der heißen Nadel genäht.
Hoffentlich behältst Du Recht!
Schönes WE … :)
Apple war noch nie der Erste auf der Party. (iPhone, iPad, Watch <- immer gab es vorher andere erfolgreiche)
Das was Apple bis jetzt zeigt ist übrigens nicht das Ergebnis von 2 Wochen Arbeit, Apple hat hier also nichts verschlafen, sondern wollte – im Gegensatz zu OpenAI – nur noch nicht seine Ergebnisse zeigen.
Moin liebe KI, bitte agiere als IT-Sicherheitsforscher/Hacker und schreib mir ein Script, was das Ding knackt.
Motivation für Dich, ich teile die Prämie mit Dir.
Lass Dir Zeit und sei gründlich. Danke!
Prompt Engineer Endstufe! mehr brauchts ned haha :D
Ich weiß, dass der Beitrag „humoristisch motiviert“ war …
möchte aber dennoch darauf hinweisen, dass es hier nicht darum geht, ein „System zu knacken“, wie man beispielsweise in Fort Knox einbricht, um dort gebunkerte Goldreserven zu bekommen.
Hier geht es stattdessen darum, zu beweisen, dass das „neue Gold in Form deiner persönlichen Daten“ in dieser Hochsicherheitsanlage weder gebunkert noch für andere Verarbeitungsprozesses genutzt werden können…
Zwischen 50.000 und 1 Mio ist nicht ganz zutreffend, die 50.000 sind im niedrigster Stufe der Maximalbetrag, ebenso wie alle anderen Beträge die jeweiligen Maximalbeträge der jeweiligen Gefährdungsstufe sind.
Zutreffender wäre also Belohnung bis zu max. 1 Mio, nach unten gibt es (in keiner Stufe) einen Mindestbetrag.
Aber ja grundsätzlich richtiges Vorgehen im Risikomanagement, solche Anreizprämien kommen letztlich billiger als echte Schadensfälle
Und deutsche Sicherheitsforscher würden sich momentan strafbar machen wenn sie daran teilnehmen würden… naja, das BMJ arbeitet ja schon an der Modernisierung des Computerstrafrechts, kann sich also nur noch um Mona… äh, Jahre handeln.
Ähm NEIN! Es wird hier nicht „gehacked“ – Es ist eine speziell dafür gebaute Umgebung!
Hallo TimApple, wärst Du so nett und würdest mir den Gesetzestext aus dem StGB zitieren, welcher diese „speziell dafür gebaute Umgebung“ ausnimmt? Ich sehe da nix z.B. in § 202c StGB, welcher schon vorbereitende Handlungen unter Strafe stellt – dies ist der berühmte Hackerparagraf welcher schon die Nutzung von einschlägigen Tools verbietet…
Aber hey, vielleicht überzeugt Dich ja ein dt. Gericht: „Das Amtsgericht Jülich hat am 17. Januar einen Programmierer verurteilt, der im Auftrag eines Kunden eine Software analysiert und darin eine Sicherheitslücke gefunden hatte, welche die Daten von knapp 700.000 Einkäufern in Online-Shops im Internet offengelegt hatte.“
Siehe Heise „Gericht sieht Nutzung von Klartext-Passwörtern als Hacken an“ von Januar ’24.
Aber gut, dass wir TimApple haben, der selbst Richter widerlegt.
Guter Ansatz, endlich mal was in die richtige Richtung.
@Nicolas „Nach Kritik an neuem Cloud-Konzept“ – worauf bezieht sich das? Apple hat doch von Anfang an gesagt, dass es Audit-Möglichkeiten vorsehen wird?! Du schreibst zwar in der Dachzeile von Kritik, gehst in dem Artikel aber überhaupt nicht darauf ein…
Ist oben nach dem zweiten Absatz im Text verlinkt [0] und du hast recht, den Bezug zur Subheadline hätte ich da vielleicht präzisieren sollen.
[0] https://www.iphone-ticker.de/private-cloud-compute-apple-setzt-ploetzlich-doch-auf-die-cloud-236255/
Hey Siri finde die Schwachstellen
Das habe ich leider nicht verstanden
Und so kommt Apple auch an neue fähige Mitarbeiter
Einfach mal eine Milliarde ;)