Keine Korrekturmöglichkeiten vorhanden
Beschwerde gegen OpenAI: ChatGPT erfindet Personendaten
Die von Max Schrems gegründete Datenschutzorganisation NOYB, eine spendenfinanzierte Nichtregierungsorganisation mit Sitz in Wien, die vielen Anwendern durch ihre erfolgreichen Beschwerden gegen Google und Facebook bekannt sein dürfte, setzt sich jetzt mit OpenAI, dem Unternehmen hinter dem KI-Chatbot ChatGPT auseinander.
Halluziniert nicht immer: Der KI-Chatbot ChatGPT
ChatGPT erfindet Personendaten
Im Fokus der Datenschützer: Die Eigenschaft von ChatGPT, auf Nachfrage ungenaue und teils unzutreffende Informationen über reale Personen auszugeben. Laut NOYB wirft dieses Verhalten Fragen zur Konformität der KI mit der europäischen Datenschutz-Grundverordnung (DSGVO) auf.
Der Chatbot ChatGPT arbeitet wie viele KI-Textgeneratoren und generiert seine Texte auf Basis von Wahrscheinlichkeitswerten. Die so ausgegebenen Wortkombinationen treffen jedoch nicht immer zu, stellenweise können diese auch erfundene Inhalte, sogenannte „Halluzinationen“, ausgeben.
Keine Korrekturmöglichkeiten vorhanden
Die DSGVO verlangt jedoch die Genauigkeit personenbezogener Daten und gewährt betroffenen Personen das Recht auf Berichtigung falscher Informationen. Darauf pocht auch NOYB. OpenAI jedoch argumentiert, dass eine Korrektur der durch ChatGPT generierten Daten technisch nicht umsetzbar sei und lehnt entsprechende Anfragen ab. Diese Einschränkung stellt eine erhebliche Herausforderung für die Einhaltung der DSGVO dar.
Um OpenAI hier nun in die Verantwortung zu nehmen, hat NOYB eine Beschwerde über die unzureichenden Datenverarbeitungspraktiken von OpenAI eingelegt.
Maartje de Graaf, Datenschutzjuristin bei NOYB, betont die Notwendigkeit der Genauigkeit von Informationen, die durch solche Systeme generiert werden. NOYB hat die österreichische Datenschutzbehörde aufgefordert, die Praktiken von OpenAI zu untersuchen und sicherzustellen, dass die Verarbeitung von Daten mit der DSGVO übereinstimmt.
NOYB hat die Beschwerde im Volltext als PDF veröffentlicht:
KI… langsam wird’s echt albern
Kannst du uns mitteilen, was du damit meinst? Die Beschwerde oder das System?
Es ist in der Tat abenteuerlich, was Chat GPT an Texten produziert. Die sind immer sehr gut formuliert (außer, dass sie oft sehr nach Marketing- oder Privatradiomoderatoren-Sprech klingen), aber inhaltlich sin die Texte oft völlig gaga. In meinem konkreten Fall wurde der absolut lebendige Gründer des Museums, für das ich arbeite, mit einem 500 km entfernt lebenden, schon toten Bauunternehmer verwechselt. Und es wurden Ausstellungsstücke erfunden, die es in dem Museum überhaupt nicht gibt. Das alles trägt die KI aber so überzeugend vor, dass Nicht-Eingeweihte es vermutlich glauben.
wie ist das mit ccht GPT – gibts da keine Quellangaben wie bei Copilot, wo ich halt nachlesen kann woher das kommt?
Nein, so funktioniert KI nicht. Die generierten Texte haben keinen direkten Bezug zu den Quellen, mit denen das Modell trainiert wurde.
@Max
Da gibt’s aber auch durchaus andere Ansätze. Perplexity.ai oder Arc Search machen auch Quellenangaben.
Das ist genau das Problem: Da die von KI erzeugten Informationen weiterverarbeitet und abgelegt werden, referenziert das System irgendwann auf sich selbst. Dadurch entstehen Desinformationsblasen, die vom Laien nicht von der Wahrheit unterschieden werden können. So wird die Fehlinformation weitergetragen, bis sie zur einzig verfügbaren „Wahrheit“ wird.
Diese Systematik beobachten wir heute schon bei Verschwörungstheorien und ideologisch aufgeladenen Foren, nur dass KI den Prozess immens beschleunigen wird.
Es wird eine Zeit kommen, zu der auch der „gesunde Menschenverstand“ nicht mehr ausreicht, um dem Einhalt zu gebieten.
Sehr korrekter Beitrag! Danke
+1 KI hat mit Intelligenz ohnehin wenig zu tun! Ich finde schon den Begriff falsch und irreführend für normalsterbliche die sich nicht mit maschinellem Lernen / LLM auseinandersetzen.
Interessant!! Ja, ich persönlich glaube die Zeit ist eh schon gekommen.
Si interessant und voller Möglichkeiten KI auch sein mag, einen großen Nachteil hat das Ganze… dass wir zu faul werden selber was aus unserer eigenen KI abzufragen. Man hört ja schon jetzt auf eine Frage hin „kannst ja nachgoolen“ wenn was nicht weißt. Stimmt! Aber auf lange Sicht vernachlässigt man damit eben sein eigenes Wissen = PI = persönliche Intelligenz
Es ist eben nur künstliche Intelligenz – keine echte.
Also Keine Intelligenz.
Es ist halt eine generative KI die, wie gut beschrieben ist, anhand von Wahrscheinlichkeiten Sätze zusammensetzt.
Jenachdem wie sehr man den Kontext verändert kommt da was mehr oder weniger Präzises raus.
Diese Personenbezogenen Daten sind nicht als solche in dem System.
Neuronale Netze sind etwas anderes als Wahrscheinlichkeiten.
Diese ganze Geschichte mit Ki ist nur für Betrüger mitlerweile ist das über all vorhanden
Ein falscher Schluss schön verallgemeinert…
Chapeau!
Evtl. ist es (nur) noch nicht das richtige Werkzeug für ALLE Aufgaben – ein Vorschlaghammer eignet sich auch nur seeeeehr bedingt zur Reparatur eines Goldkettchens … und ist nicht per se ein unbrauchbares Werkzeug ?
Ein Großteil der Benutzer weiß gar nicht, wie ChatGPT (bzw. Sprachmodelle im Allgemeinen) funktioniert. Und auch bei denen, die es wissen, ist es nicht immer präsent.
Ein Kollege hat letztens gefragt: „Warum weiß ChatGPT das nicht?“
Es ist ein Sprachmodell, das Silben (vereinfacht gesagt) aneinanderreiht. Es ist keine Datenbank, aus der „Wissen“ abgerufen wird.
Wenn die Anwender es aber dafür verwenden, Wissen abzurufen, dann kann dabei völliger Quatsch herauskommen.
Danke.
Kann man gar nicht oft genug sagen. Ich bin letzt auf überraschte Gesichter und klaren Unglauben gestoßen, als ich meiner Nichte (17) und ihrem Freund (19) erklärt habe, dass chatGPT KEINE Suchmaschine ist. Beide hatten schon Hausaufgaben damit gemacht und ohne es vorher selber mal zu lesen abgegeben. Hatten anscheinend Glück, dass nicht Zuviel offensichtlicher Quark drin stand. Aber man man man…von so jungen Menschen hätte ich doch einen versierteren Umgang mit Technologie erwartet.
Das kann man so auch nicht sagen. Die angesprochen Wahrscheinlichkeiten basieren ja auf Daten.
Das muss die heutige Zeit sein, in der man nicht mehr zum selbst Denken angeregt wird und in der Betriebsanleitung des Autos steht, dass man den Inhalt der Autobatterie nicht trinken soll.
Welches Auto?
Das ist bei Gemini auch der Fall. Das LLMs nicht unbedingt nur Fakten ausspucken, sollte jedem User inzwischen bekannt sein.
ChatGPT und KI erfinden Informationen oder kombinieren Information genauso richtig und falsch wie Menschen.
Wir glauben auch nicht allen Menschen alles und das sollten wir bei KI auch nicht tun. Die meisten Menschen erfinden wahrscheinlich sogar noch häufiger irgendwelche Quellen.
ChatGPT oder andere KI dafür verantwortlichen machen dass es falsche Informationen oder unvollständige Informationen gibt – lässt mich an gesunden Menschenverstand zweifeln…
KI ist Teufelszeug. Ex-Google-Mitarbeiter sagten bereits vor einigen Monaten, dass ein Monster erschaffen wurde, welches sich schon jetzt nicht mehr einfangen lässt. Aber auch jetzt will wieder jeder als erster an die Bratwurst vor‘m Im*fzentrum ran.
Auweia…
Was sagt ChatGPt dazu?
Großartige Situation! Wenn ChatGPT Echtdaten ausgeben würde, dann müssten die entsprechenden Anwender nach DSGVO per Opt-In ihre Zustimmung dazu geben, dass die überhaupt verarbeitet werden dürfen. Und dann schon gar nicht öffentlich und die Möglichkeit zur Löschung bestehen.
Und jetzt soll das System keine künstlichen Daten auswerfen?
Was für eine Posse.
Naja, ist schwierig. Wenn die KI Daten erfindet oder aus „falschen“ Quellen erzeugt, kann das schon ein Problem werden.