KI-Videos auf Social Media: Fake it till you make it

E indrücke aus meinen Feeds in den letzten Wochen: Abschreckende Videos von Razzien der US-Einwanderungsbehörde ICE. Aufnahmen von Demonstrierenden in aufblasbaren Froschkostümen, die vor der ICE-Zentrale in Portland tanzen – ein Versuch, Trumps Kriegsrhetorik durch Humor zu entwaffnen.

Ausschnitte aus „Jimmy Kimmel Live“, in denen der Gouverneur von Illinois, J. B. Pritzker, ironisch durch das von Trump so charakterisierte „Kriegsgebiet“ Chicago führt. Der Rapper Adamn Killa, wie er den Tiktok-Trend „Arrest me, Daddy“ adaptiert, um gegen ICE- und Polizeigewalt zu protestieren. Die Verhaftung der Journalistin Debbie Brockman, brutal zu Boden gedrückt.

Seit Trump Ende September und Anfang Oktober den Einsatz der Nationalgarde in Portland und Chicago angeordnet hat, kursieren unzählige solcher Bilder und Filmausschnitte, von offiziellen Propaganda-Clips der Homeland Security, geschnitten wie Trailer von Actionfilmen und unterlegt mit „Deportation will Continue“, bis hin zu Influencer-Videos, die vor Ort beweisen wollen, dass Portland „in Wirklichkeit“ kein „Höllenloch“ ist.

Digitales Strategiespiel

Zwischen Inszenierung und Gegeninszenierung verschwimmen die Grenzen zunehmend. Fakten erscheinen nicht mehr als gegeben, sondern als etwas, das in Echtzeit produziert, bestritten und neu gerahmt wird. In diesem digitalen Strategiespiel, in dem um jede Deutung gerungen wird, stellt sich auf progressiver Seite immer dringlicher die Frage, welche Strategie überhaupt noch trägt – und welche nicht.

Die einen versuchen, mit Kostümen und Komik Trumps martialisches Bild der Protestierenden zu entkräften, andere setzen auf KI-generierte Videos von Verhaftungen und Übergriffen, die nie stattgefunden haben, um durch Empörung und Wut gegen den ICE Aufmerksamkeit zu erzeugen.

Eine durchaus zweischneidige Strategie, die man zu kritisieren geneigt ist. Wer Fake-Videos produziert – selbst wenn sie als solche gekennzeichnet sind –, spielt Trump doch direkt in die Hände. Denn wird durch solche AI-Videos nicht die Glaubwürdigkeit aller Bilder zerstört? Wenn niemand mehr weiß, welches Video echt ist und welches generiert, kann jede Regierung jede unbequeme Aufnahme einfach als Fälschung abtun.

Postfaktische Medienlandschaft

Doch ist diese Kritik nicht zu kurz gedacht? Sind derartige KI-Videos nicht die einzig logische Antwort auf eine Medienlandschaft, die längst postfaktisch ist? Die bittere Wahrheit lautet: Die visuelle Glaubwürdigkeit ist bereits zerstört – und das nicht erst durch KI.

Während echte Aufnahmen jederzeit gelöscht werden können, weil sie gegen intransparente Richtlinien verstoßen, bleiben KI-Videos auf den großen Plattformen meist online, zeigen sie doch keine „echte“ Gewalt, verletzen somit keine Regeln und sind zudem beliebig neu generierbar (wohingegen reale Dokumentationen von emotionalen Aufnahmen per se rarer sind). Die Content-Moderation folgt keiner moralischen, sondern einer ökonomischen Logik: Das Falsche ist schlicht plattformkompatibler als das Wahre.

Naive Forderung nach Echtheit

In einer solchen Medienlandschaft sind KI-Videos keine Sabotage der Wahrheit, sondern ihre konsequente Fortsetzung. Wenn Wahrheit nur durch Simulation sichtbar bleibt, dann wird das Selbstoptimierungs-Mantra „Fake it till you make it“ zur politischen Strategie. Und wenn die Gegenseite längst gekonnt mit Propaganda arbeitet, erscheint die Forderung nach dokumentarischer Echtheit nicht moralisch überlegen – sondern naiv.

KI-Videos zeigen zwar nicht, was ist, aber sie zeigen, was sein könnte – oder wie sich etwas anfühlt. „Dieses Video ist KI. Es zeigt, was wir in der echten Welt durchmachen“, steht etwa unter einer Verhaftungsszene. Sie sind emotionale Stellvertreter einer Realität, die man nicht zeigen kann oder darf.

Am Ende bleibt wohl nur eine unbequeme Einsicht: Vielleicht ist die Forderung nach dokumentarischer Wahrheit nur noch ein nostalgisches Echo aus einer Zeit, in der Bilder noch Beweise waren. Heute müssen wir uns von diesem Beweischarakter endgültig verabschieden.