BBC kontaktiert Apple
„Netanyahu verhaftet“: Apple Intelligence spielt falsche Schlagzeilen aus
Die britische BBC hat Apple kontaktiert, nachdem die KI-Funktionen von Apple Intelligence irreführende Schlagzeilen über einen Mordfall in den USA generiert haben, die die Berichterstattung der BBC stark verzerrt hatten.
BBC kritisiert Apple
In der Kritik stehen die neuen KI-Zusammenfassungen eingegangener Push-Mitteilungen. Im Fall der BBC hatte Apple Intelligence die Zusammenfassung so formuliert, dass sie den Eindruck erweckte, Luigi Mangione, ein Verdächtiger im Mordfall des Versicherungskonzern-CEOs Brian Thompson, habe sich selbst erschossen. Dies entspricht jedoch nicht den Tatsachen.
Die BBC wirft Apple nun vor, über Apple Intelligence Falschinformationen generiert zu haben. Laut der Rundfunkanstalt sei es von großer Bedeutung, dass ihre Inhalte vertrauenswürdig bleiben, auch wenn diese über externe Plattformen verbreitet werden. Ein Sprecher der BBC erklärte, dass das Unternehmen Apple dazu aufgefordert habe, das Problem zu beheben. Von Apple selbst gab es bisher keine öffentliche Stellungnahme.
Auch die New York Times betroffen
Von den fehlerhaften Zusammenfassungen war nicht nur die BBC betroffen. Auch der New York Times wird ein Fall zugeschrieben, bei dem eine KI-Benachrichtigung fälschlicherweise berichtete, Israels Premierminister Benjamin Netanjahu sei verhaftet worden. Tatsächlich bezog sich die Meldung auf einen Haftbefehl des Internationalen Strafgerichtshofs und nicht auf eine Festnahme.
Die Probleme mit Apples KI werfen Fragen nach der Verlässlichkeit des von Apple angebotenen Systems auf. Erste Marktbeobachter werfen dem Tech-Konzern bereits vor, mit Apple Intelligence ein offenbar unausgereiftes Produkt eingeführt zu haben.
Die betroffenen Benachrichtigungen lassen sich zwar durch Nutzer melden, doch Apple hat bisher keine Angaben zur Anzahl der gemeldeten Vorfälle gemacht. Ob und wann Verbesserungen an den KI-Zusammenfassungen vorgenommen werden, bleibt unklar.
Die noch recht jungen Apple-Intelligence-Funktionen stehen Nutzern ausgewählter, englischsprachiger Regionen seit iOS 18.1 zur Verfügung. Die kürzlich ausgegebene iOS-Aktualisierung auf Version 18.2 führte weitere KI-Features wie den Bildgenerator „Image Playground“ ein. Alle KI-Funktionen von Apple Intelligence werden hierzulande erst im April verfügbar sein.
Sieht für mich eher so aus, als könnte Apple in die Zukunft schauen :D
Und das ist erst der Anfang…
Right.
Sign that too
Echt gruselig was man über A.I. so liest und hört.
Besser die „KI“ macht so offensichtliche Fehler. Dann merkt hoffentlich auch der/die letzte, dass man sich nicht drauf verlassen kann.
Das war jetzt aber sehr optimistisch von Dir, dass die meisten solche Falschmeldungen hinterfragen. Bin da nicht überzeugt und finde Kritik sehr angebracht.
KI generieren unsere Nachrichten. Die Verdummung unserer Menschheit geht seinen Weg.
Das tut sie auch ohne KI.
Wenn die KI unsere Nachrichten generiert, dann brauchen wir gar keine menschgemachten Fake-News mehr.
OH MEIN GOTTT – APPLE du SCHULDIGER.
Ich habe vor kurzen ChatGPT gefragt was die bessere Steuerklasse im neuen Jahr wäre.
Die Antwort: Russland hat die Gaslieferung nach Deutschland eingestellt ???????????
Oder: Welche Apple Watch Ultras gibt es, die nur mit WLAN ?????????
Das ganze KI Zeug ist doch nicht zu gebrauchen.
Guten Morgen
Nope, die Antworten werden richtig ausgegeben.
Ich glaube du versuchst uns in die Irre zu führen… tatsächlich muss man so eine KI auch bedienen können.
Verdammt, ertappt, ……. neee, hat schon gepasst, hab aber in meinem Text falsch betont.
Meine Frage: welche Apple Watch Ultras gibt es, KI: es gibt sie nur mit Wlan.
Natürlich hat sie es wesentlich gebildeter formuliert.
… aber vielleicht muss ich der KI eher dienen und bin nur ein DAU.
Satzzeichen können eben auch Leben retten.
Aber noch mal: die Frage zu stellen ob man die Steuerklasse wechseln soll benötigt doch ein wenig mehr Input. Aus trotz hätte ich dir persönlich auch mit anderen Sachen geantwortet.
Ich habe es noch mal mit der Apple Watch geprüft… bei mir kam eine ausführliche Information und nichts bzgl. WLAN. Du verwendest aber für jede unterschiedliche Anfrage einen neuen „Chat“ richtig? Und vermischt einen Chat nicht mit allen deinen Themen?
Also wenn ich den ganzen Roman hier auch noch mal schreiben soll, was ich der KI mitgeteilt habe, dann wird’s keiner lesen. Wäre für mich jedenfalls zu lang :-). UND meine Daten haben ja auch hier nix zu suchen.
Und klar, dass nun ChatGPT das mit der Apple Watch weiß, hab sie ja korrigiert und Sie hat sich bei mir entschuldigt und bedankte dafür.
Und natürlich war das eine neue Anfrage,
Du bist ja penibler ist als die Künstliche Intelligenz selbst.
Es nur so, dass wir sehr viel in letzter Zeit mit KI gearbeitet und dadurch festgestellt haben, dass ALLE Systeme Fehler produzieren und man immer das Ergebnis nachprüfen muss. Mich ärgert aber mittlerweile, das nur bestimmte Firmen in den Fokus genommen werden.
Deshalb:
Es gibt verschiedene Gründe, warum man die Antworten einer Künstlichen Intelligenz (KI) überprüfen sollte:
1. Fehlende menschliche Intuition: KIs basieren auf Algorithmen und Daten. Sie können keine Intuition oder menschliches Urteilsvermögen anwenden. Daher können sie manchmal falsch liegen oder keinen vollständigen Kontext erfassen.
2. Datengrundlage: KIs sind auf die Daten angewiesen, mit denen sie trainiert wurden. Wenn diese Daten unzulänglich, veraltet oder voreingenommen sind, könnte dies die Antworten beeinflussen.
3. Mangel an emotionaler Intelligenz: KIs können menschliche Emotionen, Feinheiten und Stimmungsnuancen nicht vollständig verstehen, was zu Missverständnissen führen kann.
4. Fehler und Unvollkommenheiten: Keine Technologie ist perfekt, einschließlich KI. Es kann immer technische Fehler oder Bugs geben, die die Ergebnisse beeinflussen.
………
Denken Sie daran, dass KI ein Werkzeug ist, das dazu dient, uns bei der Entscheidungsfindung zu unterstützen und nicht dazu gedacht ist, menschliches Urteilsvermögen zu ersetzen. Es ist immer eine gute Idee, die von KI gelieferten Informationen zu überprüfen und zu hinterfragen.
Meine KURZER Kommentar war nur als Beispiel gedacht und nicht als Gesetzmäßigkeit.
Aber wenn man hier nur ausführliche, bewiesene und dokumentierte Posts machen soll, ist mir meine Zeit zu schade und werde nichts mehr kommentieren.
Bei so vielen Satzzeichen wäre ich auch verwirrt.
Ihr habt im Artikel ein paar Rechtschreibfehler … kann ich verstehen, Montagmorgen :)
A.I. ist nicht unausgereift – das ist ein fundamentales Problem von K.I.:
Die Wortwahl basiert auf dem nächst wahrscheinlichsten Wort, und nicht dem sinnvollsten. Es würde im Internet im Zusammenhang mit Haftbefehl sicherlich viel häufiger von Verhaftung geschrieben, im Zusammenhang mit Mord viel häufiger von Selbstmord. Voila: Fake News generated.
Oh ja, noch mal ganz in Ruhe drüber gelesen und drei Typos korrigiert. Danke Dir. Schönen Wochenstart wünsche ich.
Ich wünschte mehr Menschen wäre bewusst, wie sehr man KI Ergebnisse noch selber überprüfen muss. Wenn ich meinen Nichten zuhöre wird mir Angst und Bange. Da werden Hausaufgaben mit KI erledigt und nicht einmal gegengelesen vor der Abgabe. Ich habe mir bei der letzten Familienfeier zu dem Thema den Mund fusselig geredet und von den anwesenden Teenagern nur Augenrollen eingefangen.
Und als doppelt geschädigtes Lehrerkind kann ich nur sagen, dass Lehrer (zumindest einer gewissen Generation) jetzt auch nicht per se die technikaffinsten Menschen zu sein scheinen.
Aber das betrifft nicht nur die Schule. Ich stand letzt auf einer Veranstaltung mit mehreren Personalleitern und -Leiterinnen zusammen und da kam mehrfach: „KI…ja muss ich mir irgendwann mal angucken..weiß
nicht wofür wir das brauchen sollen.“ Das finde ich ist dann das andere erschreckende Extrem. Insbesondere da gerade im HR Bereich in der HR Software immer mehr KI Funktionen verbaut werden, derer man sich gar nicht immer erwehren kann. Und nach der EU AI Act Nomenklatur sind das zu 99% Hochrisikosysteme mit den entsprechenden Anforderungen.
Naja, die Teenager sind ja nicht doof. Es ist immer eine Abwägung zwischen Kosten/Nutzen. Wenn die davon ausgehen, dass die Wahrscheinlichkeit gering ist, dass das auffällt oder sanktioniert wird und man mindestens eine 3 bekommt oder als „gemacht“ zählt, dafür aber mit ein paar Klicks erledigt ist, ist das „smart“. Besonders wenn es ein Thema ist, was sie nicht interessiert. Ich hätte das definitiv auch so gemacht. :D
Ne, das war aus der der Diskussion schon ersichtlich, dass sie KI eher für eine Art Suchmaschine bzw „Wiki“ halten.
Typisch KI!!!!
Abschaffen diesen Schrott braucht eh keiner.
Bei der Fotonachbearbeitung (Entfernen von Bildrauschen oder störenden Elementen) ist KI inzwischen gut zu gebrauchen.
Oder eher den technischen Fortschritt kritisch begleiten und lenken?
Andere KIs kriegen das besser hin.
Mal wieder ein Apple Qualitätsproblem
Ki ist der Untergang weil die Menschen alles glauben Ich hoffe das Apple verklagt wird
Trollst du?
Es reicht ja wohl völlig, wenn Apple die Kritik an den falschen Interpretationen zum Anlass nähme, nachzubessern.
Warum so aggressiv?
Das Problem mit dem nachbessern ist, dass das eben nicht einfach ist. Halluzinationen gibt es bei allen KI-Modellen, und bisher ist das völlig ungelöst. Bisher „doktort“ man herum, dass man z.t. händisch bestimmte bekannt gewordene Fälle nachträglich ausfiltert und unterdrückt. Das ist aber leider keine Lösung, denn damit erschlägt man nur die öffentlich gewordenen bekannten Halluzinationen. D.h. Fehler die die BBC öffentlichkeitswirksam anprangern kann, die werden mit Glück zukünftig ausgefiltert, das was der normale Nutzer ohne viel Öffentlichkeit sieht, bleibt bestehen. Zumal ja nur begrenzt gefiltert werden kann.
Letztlich muss man der KI bei allem was sie produziert, ein gewisses Misstrauen entgegenbringen, und absolut alles und jedes nachprüfen. Das bedeutet aber auch, man muss sich selbst schon im Thema auskennen und ist damit in der Lage, das Problem auch ohne KI zu lösen. D.h. es geht hier ggfs. um eine Zeitersparnis, d.h. die Prüfung und Korrektur der KI Ergebnisse kostet weniger Zeit, als wenn man alles selbst machen würde (aber dann muss man eben auch prüfen).
Oder das Ergebnis ist im Endeffekt völlig egal (wie E-Mail-Zusammenfassungen im privaten Umfeld), wo Fehler schlicht ignoriert werden, weil man im Zweifel die E-Mail eh liest, die Zusammenfassung vielleicht nur die Reihenfolge bestimmt.
Andererseits wissen wir aus den (a-)sozialen Medien, dass Leute häufig nur die (Click-Bait-)Überschrift lesen und daraus schon entscheiden, ob man „liked“ oder „hated“, ohne sich die Mühe zu machen, ob im eigentlichen Beitrag überhaupt das steht, was man da anhand der Überschrift oder der eigen Blase reininterpretiert hat. Insofern kann als9 auch im privaten Umfeld eine Halluzination einer KI schon „gefährlich“ werden.
+1!
Ich finde die KI ist jetzt schon intelligenter als die Menschheit… der Typ gehört immerhin schon lange hinter Gitter.
Wenn KI nur halbwegs intelligent wäre, würde sie nicht so einen Schrott rausgeben. Das trifft übrigens auf manche User auch zu.
+1
+1
Die vielen Fragezeichen sprechen für sich.
Hierzulande erst ab April?! Na so will ich es lieber überhaupt nicht. Ist ja kaputt.
Allgemein muss man sehr aufpassen was bei KI generierten Aussagen raus kommt. Oft sind die Infos halt auch sehr veraltet.
Das Problem ist nicht nur, dass hier halluziniert wird, sondern dass die Falschmeldung dem Nachrichtenportal zugeordnet wird. Das grenzt an Verleumdung.
Echte Apple Qualität halt
Apple hat den KI Trend komplett verschlafen. Es ist interessant, dass es trotzdem gut geht dort. Ich rede jetzt nicht von einzelnen Funktionen, sondern von der Vision eine Tech Firma in die Zukunft zu führen und da lag der Schwerpunkt nun mal auf VR in den letzten Jahren. Ich denke es geht nur gut, weil Apple nun mal eine große Premium-Marke und Lifestyle Firma geworden ist und das ist eine Strategie, die gut aufgegangen ist: es werden schicke und einfach zu bedienbare Produkte mit starker Marke nachgefragt.
Die Vision wurde mit Steve Jobs zu Grabe getragen.
Jetzt geht es nur noch um ebit und shareholder value
Find ich jetzt noch besser, dass Apple Intelligence erst im April zu uns kommt. Die erste Zeit ist quasi Beta.
KI muss weg. Das ist der Sargnagel unserer Zivilisation.
Wobei ich jetzt gar nicht speziell auf Apple schimpfen will, sondern dass eine AI oder besser KI generell noch nicht wirklich intelligent ist, sondern nur Sachen zusammen sucht und anders aufbereitet