Facebook, Instagram und Threads
Meta-Nutzer müssen KI-Inhalte künftig kennzeichnen
Mithilfe von künstlicher Intelligenz generierte Fotos lassen sich mittlerweile längst nicht mehr verlässlich von Originalaufnahmen unterscheiden. Besonders problematisch wird dies, wenn auf diese Weise Personen in ein falsches Licht gerückt oder die Inhalte sonstwie auf manipulative Weise verwendet werden. Die Alarmglocken läuten hier ganz besonders, wenn es um politische Einflussnahme geht.
In den USA stehen in diesem Jahr Präsidentschaftswahlen an und ebenso wie hierzulande spielen dort soziale Medien eine besondere Rolle, wenn es um politische Meinungsmache geht. Der bei der Facebook-Mutter Meta als Leiter der Unternehmenskommunikation tätige Ex-Politiker Nick Clegg hat vor diesem Hintergrund strenge Maßnahmen angekündigt. Wie das Magazin The Verge schreibt, müssen mithilfe von künstlicher Intelligenz erstellte Inhalte auf den Plattformen seines Konzerns künftig entsprechend gekennzeichnet werden.
I asked Meta Ai to imagine "a gentleman of leisure "
This is what I got.
Does it fit? pic.twitter.com/hQ6TRtRwgH— Niall Gillett (@niallgillett) January 31, 2024
Meta will entsprechende Fotos auf Facebook, Instagram und Threads über die kommenden Monate hinweg markieren und will künftig zwingend von seinen Nutzern verlangen, dass sie insbesondere realistische und mithilfe von künstlicher Intelligenz erstellte Audio- und Videoinhalte entsprechend kennzeichnen. In einem weiteren Schritt sollen strenge Maßnahmen für jene Nutzer eingeführt werden, die diese Vorgabe nicht befolgen.
„Gefahren überschaubar“
Die auf den sich mit rasender Geschwindigkeit fortentwickelnden KI-Anwendungen basierenden Gefahren redet der Meta-Vertreter allerdings klein. Die Industrie sei bezüglich der Kennzeichnung von KI-Fotos durch eingebundene Wasserzeichen sehr gut aufgestellt. Verbesserungsbedarf sieht er dagegen bei Audio- und Video-Inhalten.
Cleggs Worten zufolge ist es jedoch ziemlich unwahrscheinlich, dass man auf den Plattformen seines Unternehmens bevor Meta darauf aufmerksam geworden ist, Audio- oder Videomaterial findet, das in vollem Umfang künstlich generiert wurde und das sehr große politische Bedeutung hat.
In der Theorie sicher toll. Die Praxis sieht dann aber wohl wieder so aus:
„Vielen Dank für deine Meldung. Leider konnten wir keinen Verstoß gegen unsere Community-Richtlinien feststellen.“
Weil wieder irgendwo in Asien ein paar unterbezahlte Menschen in Überstunden in Bruchteil von Sekunden das entscheiden sollten.
Meinem Verständnis nach muss der hochladende Ersteller des Posts die Kennzeichnung vornehmen.
Wenn im Falle des Verstoßes die Sperrung des Accounts droht, entfaltet es eventuell Wirkung…
Richtig. Aber das passiert ja nur, wenn das Bild gemeldet wird. Es findet ja ansonsten keine weitere Kontrolle statt. Und das Melden von Facebook-Beiträgen kann in den meisten Fällen in die Tonne gekloppt werden.
heldausberlin, ist nicht nur bei Facebook so, auch bei Instagram, TikTok, YouTube und Twitch.
MMn sind die potentiellen Gefahren NICHT überschaubar, denn die Zielgruppen der Hetzer und Polemiker werden sich kaum von Wasserzeichen aufhalten lassen.
Zum Glück bin ich schon Anfang 50 und werde die Übernahme durch „Skynet“ hoffentlich nicht mehr miterleben… ;-)
Führende Koryphäen im Thema KI behaupten, die größte Gefahr bei KI besteht in der mangelnden Angst/Respekt/Demut der breiten Masse davor…
Das hilft bestimmt…
„Aber da steht doch garnicht „Achtung KI generiert“ dran, dann muss es ja echt sein. “ …macht das Problem wohl deutlich.
Mit Kennzeichnen kommen wir dem Problem nicht bei. Gesunde Skepsis und Medienkompetenz ist das einzige was hilft.
es muss beides sein.
Kennzeichnungspflicht UND Medienkompetenz.
plus die Kleinigkeit, dass Meta, Alphabet, Apple, usw. den Hinweisen von Nutzern konsequent nachgeht; siehe Posts oben.
200% Support
Die tausendfach generierte Abbildung leicht bis garnicht bekleideter Mädels gefährdet auch eine ganze Branche ;-)