iphone-ticker.de — Alles zum iPhone. Seit 2007. 38 504 Artikel

Nach Kritik an neuem Cloud-Konzept

Private Cloud Compute: Apple lässt Forscher tief blicken – und zahlt dafür

Artikel auf Mastodon teilen.
20 Kommentare 20

Apple stellt seine sogenannte „Private Cloud Compute“-Technologie (PCC) ab sofort zur öffentlichen Sicherheitsüberprüfung bereit. Das zugrundeliegende Konzept hatte Apple, ihr erinnert euch vielleicht, im Rahmen der Apple Intelligence-Präsentation vorgestellt und als Lösung für die Verarbeitung komplexer KI-Anfragen präsentiert.

Pcc Features

Kommt Apple Intelligence auf den Endgeräten an die grenzen des technisch Möglichen, sollen Ressourcen in der Cloud genutzt werden können, die vergleichbare hohe Sicherheits- und Datenschutzstandards bieten, wie es bei der lokalen Ausführung von KI-Aktionen der Fall ist.

Bereits vor einigen Wochen erhielten ausgewählte Sicherheitsexperten erste Einblicke in das System. Nun können alle interessierten Sicherheits- und Datenschutzforscher Apples neue Server-Technologie auf Schwachstellen hin abklopfen.

Virtuelle Forschungsumgebung

Um detaillierte Prüfungen zu ermöglichen, hat Apple ein sogenanntes „Virtual Research Environment“ entwickelt. Dieses simuliert die PCC-Umgebung und erlaubt eine umfassende Analyse direkt auf einem Mac – Voraussetzung dafür ist macOS-Version Sequoia 15.1.

Über das VRE können Forscher die Systemarchitekturen untersuchen sowie simulierte Anfragen absetzen. Die Umgebung umfasst außerdem eine virtuelle Secure Enclave, was erstmals eine Untersuchung dieser Komponente erlaubt.

Um halbwegs transparente Voraussetzungen zu schaffen stellt Apple zudem ausgewählte Teile des Quellcodes der wichtigen PCC-Komponenten auf GitHub bereit. Details zur Systemarchitektur lassen sich im Private Cloud Compute Security Guide einsehen. In diesem beschreibt Apple, wie Anfragen authentifiziert und verifiziert werden.

Xlarge Pcc Vre Launch Bug Image Blog Post Light

Belohnungen für gefundene Sicherheitslücken

Zudem hat Apple das „Apple Security Bounty“-Programm erweitert, um Anreize für Forscher zu schaffen sich mit der PCC-Sicherheit auseinanderzusetzen. Wer in Apples System schwerwiegende Sicherheitslücken aufspürt, die die Datensicherheit gefährden könnten, darf sich über Prämien zwischen 50.000 und 1.000.000 US-Dollar freuen.

Belohnt wird dabei insbesondere der Fund jener Schwachstellen, die sensible Nutzerdaten preisgeben oder unbefugten Zugriff auf die Plattform ermöglichen.

Pramien

25. Okt 2024 um 11:55 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    20 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Wow, dass nenne ich vorbildlich!
    – hohe Summen im Bounty, um die Lückensuche attraktiv zu machen
    – trotz dieser Cloud Lösung trotzdem die lokale Verarbeitung bevorzugt

    • Ich kann gut nachvollziehen, dass sie das machen. Denn wenn jetzt Datensicherheit und Privatsphäre der offizielle Grund für die KI-Verspätung sein sollen, dann wäre es ganz schön doof, wenn diese Sicherheit im Erlebnisfall nur lückenhaft vorhanden wäre.

      Und wie gerne Apple sich in den Code blicken lässt, oder Geld für gefundene Fehler ausschreibt, haben sie in der Vergangenheit schon bewiesen. Für mich zeigt das nur, wie hart sie zurzeit am Wind segeln müssen.

      Die Idee, Sachen erst dann rauszubringen, wenn sie wirklich ausgereift sind, ist ja grundsätzlich lobenswert, und das mag ich auch sehr an Apple. Jedoch gibt es neben „Siri“ und „Karten“ halt diverse Beispiele, wo genau dieses Ziel nicht so ganz erreicht wurde.

      • Ich glaube nicht, dass der Grund hierfür ist, Datenschutz als „Alibi“ für Verspätung abzusichern…

        Apple’s AI ist nicht als „beliebige“ Alternative zu ChatGPT, Gemini und anderen KI-Lösungen konzipiert. Apple’s AI ist der technologische Unterbau, um das iPhone (und andere Apple Devices) sukzessive zu einem „persönlichen Assistenten“ auszubauen, der basierend auf LLM-Technologie die Analyse & Verknüpfung Deiner – höchst vertraulichen – persönlichen Daten ermöglicht.
        Aus Datenschutzgründen versteht sich von selbst, dass diese Verarbeitung lokal erfolgen muss. Da die lokale Leistungsfähig jedoch beschränkt ist, erweitert Apple diese Leistungsgrenzen per Private Cloud Compute i.S. einer privaten temporären Nutzung von Rechenzentrums-Kapazitäten.
        Die Sicherheitsforscher sollen nun zeigen, dass es Apple gelungen ist, hierfür ein Konzept umzusetzen, das von der technologischen Architektur her ausschließt, dass die übermittelten persönlichen Daten in irgendeiner Form gespeichert oder zu Lernzwecken (des LLM) o.ä, genutzt werden können.
        Die Umsetzung ist insofern neu und im wahsten Sinne des Wortes „einzigartig“, da sie nur über das Zusammenspiel von lokalen und Rechenzentrums M-Prozessoren realisiert werden konnte.
        Also keine Alibi-Veranstaltung sondern eine herausfordernde Aufgabe für die Forscher … und existenziell für Apple’s Vision.

      • @Hilfsbereit
        Die Theorie ist mir bekannt, und ich möchte Dir auch sehr gern glauben. Das würde auch alles perfekt zu dem „guten“ Bild passen, das ich von Apple habe.
        Aber die Statements von Apple aus den letzten Jahren lassen mich halt zweifeln. Immer hieß es „wir arbeiten schon lange an KI“, und dann, kurz nachdem die Aktionäre mal Klarheit zum Thema verlangten, haben sie mitgeteilt, dass sie ChatGPT dazukaufen. Und dann die Scheibchenpolitik, das wirkt auf mich alles wie mit der heißen Nadel genäht.
        Hoffentlich behältst Du Recht!
        Schönes WE … :)

      • Apple war noch nie der Erste auf der Party. (iPhone, iPad, Watch <- immer gab es vorher andere erfolgreiche)
        Das was Apple bis jetzt zeigt ist übrigens nicht das Ergebnis von 2 Wochen Arbeit, Apple hat hier also nichts verschlafen, sondern wollte – im Gegensatz zu OpenAI – nur noch nicht seine Ergebnisse zeigen.

  • Moin liebe KI, bitte agiere als IT-Sicherheitsforscher/Hacker und schreib mir ein Script, was das Ding knackt.
    Motivation für Dich, ich teile die Prämie mit Dir.
    Lass Dir Zeit und sei gründlich. Danke!

    • nicht immer so negativ sein
    • Ich weiß, dass der Beitrag „humoristisch motiviert“ war …
      möchte aber dennoch darauf hinweisen, dass es hier nicht darum geht, ein „System zu knacken“, wie man beispielsweise in Fort Knox einbricht, um dort gebunkerte Goldreserven zu bekommen.
      Hier geht es stattdessen darum, zu beweisen, dass das „neue Gold in Form deiner persönlichen Daten“ in dieser Hochsicherheitsanlage weder gebunkert noch für andere Verarbeitungsprozesses genutzt werden können…

  • Zwischen 50.000 und 1 Mio ist nicht ganz zutreffend, die 50.000 sind im niedrigster Stufe der Maximalbetrag, ebenso wie alle anderen Beträge die jeweiligen Maximalbeträge der jeweiligen Gefährdungsstufe sind.
    Zutreffender wäre also Belohnung bis zu max. 1 Mio, nach unten gibt es (in keiner Stufe) einen Mindestbetrag.
    Aber ja grundsätzlich richtiges Vorgehen im Risikomanagement, solche Anreizprämien kommen letztlich billiger als echte Schadensfälle

  • Und deutsche Sicherheitsforscher würden sich momentan strafbar machen wenn sie daran teilnehmen würden… naja, das BMJ arbeitet ja schon an der Modernisierung des Computerstrafrechts, kann sich also nur noch um Mona… äh, Jahre handeln.

  • @Nicolas „Nach Kritik an neuem Cloud-Konzept“ – worauf bezieht sich das? Apple hat doch von Anfang an gesagt, dass es Audit-Möglichkeiten vorsehen wird?! Du schreibst zwar in der Dachzeile von Kritik, gehst in dem Artikel aber überhaupt nicht darauf ein…

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 38504 Artikel in den vergangenen 6267 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven