Skip to main content

In einer aktuellen Folge von „Last Week Tonight“ prägt John Oliver den Begriff „AI Slop“: Er beschreibt damit die wachsende Flut an generativ erzeugten Bildern, Videos und anderen Medieninhalten, die zunehmend unsere Feeds auf Social Media-Plattformen überfluten. In seinem Beitrag zeigt John Oliver zahlreiche Beispiele solcher Inhalte: KI-generierte Bilder und Videos von Katzen, von „Shrimp Jesus“, von Baron Trump bei „America’s Got Talent“ oder von Papst Franziskus, der ein Selfie mit Jesus über den Wolken macht. Die Inhalte sind absurd, visuell auffällig, erhalten teils Millionen von Views und Likes – und werden von einigen auch als echt empfunden. Und das, obwohl es eigentlich Spam ist.

Wikipedia Artikel: AI Slop

AI Slop: Zwischen Spielerei und Desinformation

Was mich dabei ehrlich gesagt am meisten überrascht hat:
Wie viele Menschen solche absurden KI-generierten Bilder für echt halten. Und wie sehr Plattformen wie TikTok, Pinterest oder Facebook diese Inhalte aktiv pushen, weil sie sich monetarisieren lassen. Inhalte, die oft keinerlei Bezug zur Realität haben, aber durch Likes und Views weiter in die Feeds gespült werden.

Natürlich ist das wirtschaftlich attraktiv: Mehr Content bedeutet mehr Interaktion, mehr Engagement, mehr Werbeeinnahmen. Für einzelne virale Bilder werden bereits nennenswerte Einnahmen erzielt – sei es über Plattformvergütungen, Affiliate Marketing oder AI-Content-Kurse.

Der Effekt geht aber noch weiter: Durch die ständige Konfrontation mit offensichtlich manipulierten Bildern werden die Nutzer insgesamt misstrauischer gegenüber allen Bildinhalten. Im schlimmsten Fall führt das dazu, dass sogar authentische Aufnahmen angezweifelt werden – ein Effekt, der als Liar’s Dividend bezeichnet wird: Je mehr Fakes zirkulieren, desto schwieriger wird es, echte Beweise zu akzeptieren, weil immer auch die Möglichkeit einer Fälschung mitschwingt.

Die andere Seite: Journalismus im Faktencheck-Dauermodus

Wie gravierend diese Dynamik werden kann, zeigt ein ORF Artikel über den Israel-Iran-Konflikt. Redaktionen weltweit sehen sich einer Flut von täuschend echten KI-generierten Bildern und Videos gegenüber. Bildforensiker wie Derek Bowler (EBU) berichten, dass selbst für erfahrene Experten die Verifikation mittlerweile kaum noch eindeutig möglich ist. Teilweise basieren die KI-generierten Clips auf realem Bildmaterial, das als Vorlage verwendet wird, und sind visuell kaum noch von echten Aufnahmen zu unterscheiden.

Früher konnten Verifikationsteams in den ersten Minuten nach einem Ereignis ein sogenanntes „goldenes Fenster“ nutzen: Die allerersten veröffentlichten Inhalte stammten meist noch von Augenzeugen, waren wenig bearbeitet und ließen sich relativ zuverlässig prüfen. Heute kippt dieses Fenster extrem schnell: Bereits wenige Minuten nach einem Vorfall werden die sozialen Medien mit tausenden Beiträgen geflutet, darunter echte Aufnahmen, falsch kontextualisierte Inhalte und täuschend echte KI-Simulationen.

Gerade bei solchen Berichten wird mir immer wieder bewusst, wie wichtig sauberer Faktencheck geworden ist. Und dass Journalismus in dieser neuen Contentflut wieder echte Handarbeit bedeutet.



AI Kennzeichnungspflicht: Kontexte und Grenzen

Gerade weil diese Dynamik in Bereichen wie Journalismus oder politischer Desinformation so gravierend ist, wird oft reflexartig eine breite Kennzeichnungspflicht für alle KI-generierten Inhalte gefordert. Grundsätzlich nachvollziehbar — aber: Der Mehrwert solcher Kennzeichnungen ist je nach Kontext sehr unterschiedlich. Im Bereich Werbung zum Beispiel verstehe ich inzwischen gut, warum viele eine generelle „AI-generated“-Kennzeichnung für wenig sinnvoll halten.

Werbung bildet ohnehin selten den tatsächlichen Zustand ab. Produkte werden perfekt inszeniert, Räume idealisiert, Models retuschiert – ob mit Kamera, CGI oder KI erstellt, ändert für das Publikum wenig an der grundsätzlichen Inszenierung. Die Fiktion ist in der Werbung längst systemimmanent.

Relevanter wird die Diskussion eher dort, wo generative KI klassische kreative Arbeit verdrängt: also z.B bei Kreativwettbewerben, wo handwerkliche, fotografische oder künstlerische Leistungen ersetzt werden.

KI in der Werbung: ein Blick auf die ersten disruptiven Anwendungen

Ein aktuelles Beispiel zeigt, wie schnell generative KI auch die Werbebranche erfasst: In den USA wurde kürzlich ein vollständig KI-generierter TV-Spot ausgestrahlt. Das Video wurde innerhalb von nur zwei Tagen mit Googles neuem „V3“ Text-to-Video-Modell erstellt. Solche Tools erlauben es Marken, in kürzester Zeit Werbeinhalte zu produzieren, die bisher teure, aufwändige Produktionsprozesse ersetzt hätten.

Schon jetzt geraten klassische Agenturnetzwerke unter Druck: Meta etwa plant, die komplette Werbemittelproduktion bis 2026 vollautomatisiert durch KI-Systeme abzuwickeln. Die Geschwindigkeit, mit der KI die Wertschöpfungskette durchdringt, stellt dabei nicht nur wirtschaftliche, sondern auch regulatorische Herausforderungen.

Der AI Act und die Kennzeichnungspflichten

Gerade weil die Risiken bei politischer Desinformation so offensichtlich sind, wird häufig eine breite Kennzeichnungspflicht für alle KI-generierten Inhalte diskutiert. Prinzipiell sinnvoll — aber der tatsächliche Mehrwert hängt stark vom jeweiligen Kontext ab.

Ein völlig absurdes Katzenbild braucht aus meiner Sicht keine Kennzeichnung. Und auch bei generischen Werbemotiven, die ohnehin nie den tatsächlichen Zustand zeigen, sehe ich — zumindest in meinen Anwendungsfällen — wenig zusätzlichen Nutzen in einer verpflichtenden „AI-generated“-Markierung. Werbung lebt von Inszenierung, Ästhetik und idealisierten Bildern — ob diese durch ein Fotoshooting, CGI oder generative KI entstehen, ändert an der Grundmechanik wenig.

Aber: Diese Toleranz endet schlagartig dort, wo KI-generierte Inhalte in kritische Bereiche hineinreichen — etwa bei Kriegsberichterstattung, politischen Ereignissen oder manipulativen Desinformationskampagnen. Dort kann der künstliche Ursprung eines Bildes entscheidend für die Bewertung der gesamten Nachricht sein.

Macht es also Sinn, eine allgemeine Kennzeichnungspflicht für alle genAI-Inhalte einzuführen? Der AI Act (Verordnung (EU) 2024/1689) verpflichtet:

  • Anbieter von KI-Systemen (z. B. Midjourney, DALL·E, Suno), technische, maschinenlesbare Markierungen (Wasserzeichen, Metadaten) einzubauen.
  • Nutzer, die KI-generierte Inhalte veröffentlichen, zur sichtbaren Kennzeichnung, wenn es sich um Deepfakes handelt — also um täuschend echte Simulationen realer Personen, Orte oder Ereignisse.
  • Bei rein generischen, stilisierten oder abstrakten AI-Bildern ohne realen Bezug besteht aktuell keine Pflicht zur sichtbaren Kennzeichnung.
  • Für künstlerische, satirische oder fiktionale Werke gelten vereinfachte Offenlegungspflichten, die den “Genuss” des Werks nicht beeinträchtigen sollen.

Das macht die Lage kompliziert, weil die Grenze zwischen Realität und Fiktion individuell unterschiedlich wahrgenommen wird. Was für den einen offensichtlich absurd erscheint, könnte für andere durchaus als realistisch empfunden werden.

Conlusio

Die Diskussion um AI Slop, Desinformation, Werbung und Kennzeichnung zeigt vor allem: Generative KI wird in sehr unterschiedlichen Kontexten eingesetzt — und lässt sich deshalb schwer einheitlich regulieren.

Auf der einen Seite harmlose KI-Spielereien, auf der anderen täuschend echte Fälschungen zur politischen Manipulation.

Werbung liegt dazwischen: Sie lebt ohnehin von Inszenierung, egal ob mit Kamera, CGI oder KI. Eine generelle „AI-generated“-Kennzeichnung erscheint hier wenig sinnvoll, solange keine Irreführung realer Fakten vorliegt.

Der AI Act versucht, diese Spannbreite mit differenzierten Vorgaben abzubilden. Doch die Vielfalt der Einsatzfelder macht pauschale Regeln schwierig.

Umso wichtiger bleibt faktenbasierter Journalismus — und dafür zahle ich gerne den ORF-Beitrag.

Let's go

Sie haben Fragen zu

meiner Dienstleistung?

Ich biete spezialisierte Workshops für generative KI im Marketing und Midjourney-Kurse für Werbeagenturen an. 🙋‍♀️💜

Mein Angebot


Loading the Elevenlabs Text to Speech AudioNative Player…

Tiny

Tiny Bernhard BA ist eine österreichische Designerin und Illustratorin, spezialisiert auf generative KI in der Bildgestaltung. Sie teilt ihre Einblicke und Techniken auf ihrem Blog und lehrt an der FH St. Pölten im Department Digital Business & Innovation.

WordPress Cookie Plugin von Real Cookie Banner