iphone-ticker.de — Alles zum iPhone. Seit 2007. 38 723 Artikel

Keine Korrekturmöglichkeiten vorhanden

Beschwerde gegen OpenAI: ChatGPT erfindet Personendaten

Artikel auf Mastodon teilen.
30 Kommentare 30

Die von Max Schrems gegründete Datenschutzorganisation NOYB, eine spendenfinanzierte Nichtregierungsorganisation mit Sitz in Wien, die vielen Anwendern durch ihre erfolgreichen Beschwerden gegen Google und Facebook bekannt sein dürfte, setzt sich jetzt mit OpenAI, dem Unternehmen hinter dem KI-Chatbot ChatGPT auseinander.

Franz Chatgpt

Halluziniert nicht immer: Der KI-Chatbot ChatGPT

ChatGPT erfindet Personendaten

Im Fokus der Datenschützer: Die Eigenschaft von ChatGPT, auf Nachfrage ungenaue und teils unzutreffende Informationen über reale Personen auszugeben. Laut NOYB wirft dieses Verhalten Fragen zur Konformität der KI mit der europäischen Datenschutz-Grundverordnung (DSGVO) auf.

Der Chatbot ChatGPT arbeitet wie viele KI-Textgeneratoren und generiert seine Texte auf Basis von Wahrscheinlichkeitswerten. Die so ausgegebenen Wortkombinationen treffen jedoch nicht immer zu, stellenweise können diese auch erfundene Inhalte, sogenannte „Halluzinationen“, ausgeben.

Keine Korrekturmöglichkeiten vorhanden

Die DSGVO verlangt jedoch die Genauigkeit personenbezogener Daten und gewährt betroffenen Personen das Recht auf Berichtigung falscher Informationen. Darauf pocht auch NOYB. OpenAI jedoch argumentiert, dass eine Korrektur der durch ChatGPT generierten Daten technisch nicht umsetzbar sei und lehnt entsprechende Anfragen ab. Diese Einschränkung stellt eine erhebliche Herausforderung für die Einhaltung der DSGVO dar.

Um OpenAI hier nun in die Verantwortung zu nehmen, hat NOYB eine Beschwerde über die unzureichenden Datenverarbeitungspraktiken von OpenAI eingelegt.

Maartje de Graaf, Datenschutzjuristin bei NOYB, betont die Notwendigkeit der Genauigkeit von Informationen, die durch solche Systeme generiert werden. NOYB hat die österreichische Datenschutzbehörde aufgefordert, die Praktiken von OpenAI zu untersuchen und sicherzustellen, dass die Verarbeitung von Daten mit der DSGVO übereinstimmt.

NOYB hat die Beschwerde im Volltext als PDF veröffentlicht:

Laden im App Store
‎ChatGPT
‎ChatGPT
Entwickler: OpenAI
Preis: Kostenlos+
Laden

29. Apr 2024 um 13:50 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    30 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Es ist in der Tat abenteuerlich, was Chat GPT an Texten produziert. Die sind immer sehr gut formuliert (außer, dass sie oft sehr nach Marketing- oder Privatradiomoderatoren-Sprech klingen), aber inhaltlich sin die Texte oft völlig gaga. In meinem konkreten Fall wurde der absolut lebendige Gründer des Museums, für das ich arbeite, mit einem 500 km entfernt lebenden, schon toten Bauunternehmer verwechselt. Und es wurden Ausstellungsstücke erfunden, die es in dem Museum überhaupt nicht gibt. Das alles trägt die KI aber so überzeugend vor, dass Nicht-Eingeweihte es vermutlich glauben.

    • wie ist das mit ccht GPT – gibts da keine Quellangaben wie bei Copilot, wo ich halt nachlesen kann woher das kommt?

      • Nein, so funktioniert KI nicht. Die generierten Texte haben keinen direkten Bezug zu den Quellen, mit denen das Modell trainiert wurde.

      • @Max

        Da gibt’s aber auch durchaus andere Ansätze. Perplexity.ai oder Arc Search machen auch Quellenangaben.

    • Das ist genau das Problem: Da die von KI erzeugten Informationen weiterverarbeitet und abgelegt werden, referenziert das System irgendwann auf sich selbst. Dadurch entstehen Desinformationsblasen, die vom Laien nicht von der Wahrheit unterschieden werden können. So wird die Fehlinformation weitergetragen, bis sie zur einzig verfügbaren „Wahrheit“ wird.
      Diese Systematik beobachten wir heute schon bei Verschwörungstheorien und ideologisch aufgeladenen Foren, nur dass KI den Prozess immens beschleunigen wird.
      Es wird eine Zeit kommen, zu der auch der „gesunde Menschenverstand“ nicht mehr ausreicht, um dem Einhalt zu gebieten.

      • Sehr korrekter Beitrag! Danke

      • +1 KI hat mit Intelligenz ohnehin wenig zu tun! Ich finde schon den Begriff falsch und irreführend für normalsterbliche die sich nicht mit maschinellem Lernen / LLM auseinandersetzen.

      • Interessant!! Ja, ich persönlich glaube die Zeit ist eh schon gekommen.
        Si interessant und voller Möglichkeiten KI auch sein mag, einen großen Nachteil hat das Ganze… dass wir zu faul werden selber was aus unserer eigenen KI abzufragen. Man hört ja schon jetzt auf eine Frage hin „kannst ja nachgoolen“ wenn was nicht weißt. Stimmt! Aber auf lange Sicht vernachlässigt man damit eben sein eigenes Wissen = PI = persönliche Intelligenz

  • Es ist eben nur künstliche Intelligenz – keine echte.

  • Es ist halt eine generative KI die, wie gut beschrieben ist, anhand von Wahrscheinlichkeiten Sätze zusammensetzt.

    Jenachdem wie sehr man den Kontext verändert kommt da was mehr oder weniger Präzises raus.

    Diese Personenbezogenen Daten sind nicht als solche in dem System.

  • Diese ganze Geschichte mit Ki ist nur für Betrüger mitlerweile ist das über all vorhanden

  • Evtl. ist es (nur) noch nicht das richtige Werkzeug für ALLE Aufgaben – ein Vorschlaghammer eignet sich auch nur seeeeehr bedingt zur Reparatur eines Goldkettchens … und ist nicht per se ein unbrauchbares Werkzeug ?

  • Ein Großteil der Benutzer weiß gar nicht, wie ChatGPT (bzw. Sprachmodelle im Allgemeinen) funktioniert. Und auch bei denen, die es wissen, ist es nicht immer präsent.
    Ein Kollege hat letztens gefragt: „Warum weiß ChatGPT das nicht?“

    Es ist ein Sprachmodell, das Silben (vereinfacht gesagt) aneinanderreiht. Es ist keine Datenbank, aus der „Wissen“ abgerufen wird.

    Wenn die Anwender es aber dafür verwenden, Wissen abzurufen, dann kann dabei völliger Quatsch herauskommen.

  • Das muss die heutige Zeit sein, in der man nicht mehr zum selbst Denken angeregt wird und in der Betriebsanleitung des Autos steht, dass man den Inhalt der Autobatterie nicht trinken soll.

  • Das ist bei Gemini auch der Fall. Das LLMs nicht unbedingt nur Fakten ausspucken, sollte jedem User inzwischen bekannt sein.

  • Hans der Meiser

    ChatGPT und KI erfinden Informationen oder kombinieren Information genauso richtig und falsch wie Menschen.
    Wir glauben auch nicht allen Menschen alles und das sollten wir bei KI auch nicht tun. Die meisten Menschen erfinden wahrscheinlich sogar noch häufiger irgendwelche Quellen.
    ChatGPT oder andere KI dafür verantwortlichen machen dass es falsche Informationen oder unvollständige Informationen gibt – lässt mich an gesunden Menschenverstand zweifeln…

    Antworten moderated
  • KI ist Teufelszeug. Ex-Google-Mitarbeiter sagten bereits vor einigen Monaten, dass ein Monster erschaffen wurde, welches sich schon jetzt nicht mehr einfangen lässt. Aber auch jetzt will wieder jeder als erster an die Bratwurst vor‘m Im*fzentrum ran.

  • Großartige Situation! Wenn ChatGPT Echtdaten ausgeben würde, dann müssten die entsprechenden Anwender nach DSGVO per Opt-In ihre Zustimmung dazu geben, dass die überhaupt verarbeitet werden dürfen. Und dann schon gar nicht öffentlich und die Möglichkeit zur Löschung bestehen.
    Und jetzt soll das System keine künstlichen Daten auswerfen?

    Was für eine Posse.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPhone, iPad, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 38723 Artikel in den vergangenen 6303 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven