Warum das KI-Video im ZDF „heute journal“ kein Betriebsunfall war – sondern ein Alarmsignal für den Journalismus:
Es gibt journalistische Fehler. Und es gibt Momente, in denen ein Medium unfreiwillig offenlegt, dass sich gerade etwas Grundsätzliches verändert hat.
Der Einsatz eines nicht gekennzeichneten KI-Videos im ZDF-„heute journal“ gehört zur zweiten Kategorie.
Denn hier ging es nicht um eine falsche Zahl, eine missverständliche Formulierung oder eine zu schnelle Nachricht. Das ZDF zeigte in einer politischen Nachrichtensendung ein Ereignis, das nie stattgefunden hat — und bemerkte offenbar selbst nicht sofort, wie gravierend dieser Schritt war.
Das ist kein gewöhnlicher Fehler. Es ist ein Warnsignal.
Ein politischer Bericht – mit erfundener Realität
Der Beitrag behandelte Einsätze der US-Einwanderungsbehörde ICE und deren Auswirkungen auf Migrantenfamilien. Ein klassisches außenpolitisches Thema, emotional aufgeladen, gesellschaftlich umstritten.
Innerhalb dieses Berichts lief eine Szene, die eine Festnahme darstellen sollte.
Später stellte sich heraus: Das Video war KI-generiert.
Das ZDF räumte ein, die Sequenz hätte als künstlich erzeugt gekennzeichnet werden müssen. Man habe einen Fehler gemacht. (Deutschlandfunk)
Doch die entscheidende Frage lautet nicht, ob ein Fehler passiert ist.
Sondern:
Wie konnte ein Nachrichtenformat überhaupt an den Punkt gelangen, ein künstliches Ereignis zu senden?
Die Ironie, die alles verschärfte
Der Vorgang wäre schon problematisch genug gewesen. Aber die Dramaturgie machte ihn zu einem symbolischen Desaster.
Kurz zuvor warnte die Moderation davor, dass im Internet viele manipulierte Videos kursierten.
Dann sendete das „heute journal“ selbst eines.
Diese Ironie ist keine Pointe — sie ist der Kern des Problems. Denn sie zeigt, dass hier nicht nur eine Kennzeichnung fehlte. Offenbar fehlte das Bewusstsein dafür, dass sich die redaktionelle Logik gerade verschoben hatte.
Das Medium, das Fake von Realität unterscheiden soll, verlor selbst kurzzeitig diese Unterscheidung.
Der Mythos vom „technischen Fehler“
Zunächst erklärte das ZDF, die Kennzeichnung sei aus technischen Gründen nicht erfolgt. Später wurde klar: Neben dem KI-Clip war auch ein reales Video falsch zugeordnet worden. Ein zweiter Fehler.
Aus einem technischen Problem wurde eine Fehlerkette.
Mehrere Kontrollinstanzen — Redaktion, Abnahme, Sendungsverantwortliche — hatten das Material passieren lassen.
Das ist der Moment, in dem die Erklärung „Panne“ nicht mehr reicht.
Denn Technik produziert keine Nachrichtenbeiträge. Menschen tun es.
Nachrichtenbilder sind keine Illustration
Der Journalismus beruht auf einem stillen Vertrag mit seinem Publikum:
Was gezeigt wird, hat stattgefunden.
Dieser Grundsatz unterscheidet Nachrichten von Dokumentation, Unterhaltung oder politischer Kommunikation. Ein Nachrichtenbild ist kein Symbol. Es ist ein Beleg.
Mit generativer KI entsteht erstmals die Möglichkeit, diese Logik zu unterlaufen — nicht durch Lüge, sondern durch Bequemlichkeit.
Fehlen reale Bilder, kann man heute welche erzeugen.
Und genau hier liegt die Versuchung.
Nicht Propaganda.
Nicht böse Absicht.
Sondern etwas Gefährlicheres: Normalisierung.
Wenn KI-Material als „veranschaulichend“ akzeptiert wird, verschiebt sich unmerklich die Rolle des Journalismus — vom Beobachter zum Gestalter von Wirklichkeit.
Warum gerade Migration alles explodieren ließ
Dass der Vorfall in einem Beitrag über Migration geschah, war kein Zufall, sondern ein Verstärker.
Migration ist eines der politisch polarisiertesten Themen unserer Zeit. Bilder von Festnahmen, Familien oder Kindern wirken unmittelbarer als jede Statistik.
Ein künstlich erzeugtes Bild in diesem Kontext wird zwangsläufig politisch gelesen — selbst dann, wenn es nur illustrativ gemeint war.
Der Vorwurf lautete deshalb nicht: Das ZDF wollte manipulieren.
Der Vorwurf lautete:
Das ZDF hat nicht verstanden, dass ein künstliches Bild in einer Nachrichtensendung automatisch politische Wirkung entfaltet.
Öffentlich-rechtlicher Anspruch, öffentlich-rechtliches Risiko
Ein Privatsender hätte den Schaden möglicherweise überstanden wie viele Fernsehpannen zuvor.
Beim ZDF ist die Lage anders.
Öffentlich-rechtlicher Journalismus beansprucht moralische Autorität. Er wird durch Gebühren finanziert, weil er mehr sein soll als Marktfernsehen — verlässlicher, nüchterner, überprüfbarer.
Gerade deshalb trifft ihn der Vorfall härter.
Denn wenn ein öffentlich finanzierter Sender beginnt, Realität visuell zu rekonstruieren, entsteht eine gefährliche Frage:
Worin unterscheidet sich Nachricht dann noch von Narration?
Die eigentliche Krise: KI trifft Produktionsdruck
Der Skandal sagt weniger über KI aus als über den Zustand moderner Nachrichtenproduktion.
Redaktionen stehen unter permanentem Druck:
- schneller senden,
- visuell erzählen,
- online konkurrenzfähig bleiben,
- Aufmerksamkeit erzeugen.
KI löst dabei ein praktisches Problem: Sie liefert Bilder, wo keine existieren.
Der Schritt erscheint klein. Ein Clip hier, eine Illustration dort.
Doch Journalismus funktioniert nicht über Absichten, sondern über Prinzipien. Und eines dieser Prinzipien lautet: Nachrichten erzeugen keine Realität.
Der ZDF-Fall zeigt, wie schnell diese Grenze im Alltag verschwinden kann.
Die falsche Debatte
Seit dem Vorfall wird gefragt, ob KI im Journalismus erlaubt sein sollte.
Das ist die falsche Frage.
Die richtige lautet:
Gibt es Bereiche, in denen KI grundsätzlich nichts verloren hat?
Politische Nachrichten gehören sehr wahrscheinlich dazu.
Denn das Publikum kann nicht gleichzeitig aufgefordert werden, Medien zu vertrauen — und zugleich akzeptieren, dass gezeigte Szenen möglicherweise nie existiert haben.
Der Schaden entsteht nicht durch Manipulation, sondern durch Zweifel
Vielleicht ist das Bemerkenswerteste an diesem Skandal, dass niemand ernsthaft eine gezielte Täuschungsabsicht nachweisen konnte.
Und trotzdem entstand ein massiver Vertrauensverlust.
Das zeigt eine neue Realität des Medienzeitalters:
Glaubwürdigkeit zerbricht nicht erst bei Lügen.
Sie zerbricht bereits bei Zweifel.
Sobald Zuschauer fragen müssen, ob ein Bild echt ist, hat Journalismus einen Teil seiner Autorität verloren.
Konsequenzen jenseits des ZDF
Die schnelle Abberufung einer Korrespondentin und angekündigte Schulungen lösen das strukturelle Problem nicht. Der Fehler war kein individuelles Versagen allein, sondern Ausdruck eines Systems im Übergang.
Alle Redaktionen stehen vor derselben Entscheidung:
- Entweder sie ziehen eine harte Grenze gegenüber KI-Simulationen,
- oder Nachrichten verwandeln sich schrittweise in visuell überzeugte Erzählungen.
Der ZDF-Vorfall macht sichtbar, dass diese Entscheidung nicht theoretisch ist. Sie wird bereits täglich getroffen — manchmal unbemerkt.
Ein Moment der Selbstentlarvung
Vielleicht wird man diesen Fall später nicht als Skandal erinnern, sondern als Offenbarung.
Er zeigte, dass Journalismus im KI-Zeitalter nicht mehr nur Informationen prüfen muss, sondern Realität selbst verteidigen.
Die größte Gefahr liegt dabei nicht in gezielter Propaganda, sondern im Verlust professioneller Instinkte.
Wenn Redaktionen beginnen zu denken: Das Bild zeigt zwar nicht genau dieses Ereignis, aber es steht dafür, dann hat sich die Logik bereits verschoben.
Dann ersetzt Plausibilität Wahrheit.
Fazit: Der Punkt ohne „Aber“
Der ZDF-Fall zwingt zu einer einfachen Erkenntnis:
Nachrichten dürfen analysieren, kommentieren, kritisieren — aber sie dürfen keine Ereignisse visualisieren, die nie stattgefunden haben.
Es gibt hier tatsächlich kein „aber“.
Denn sobald Journalismus beginnt, Wirklichkeit zu simulieren, verliert er seine wichtigste Funktion: Orientierung in einer komplexen Welt zu geben.
Der eigentliche Skandal war daher nicht das KI-Video selbst.
Sondern der kurze Moment, in dem ein traditionsreiches Nachrichtenformat offenbar vergaß, warum Nachrichten überhaupt existieren.
Quellen und weiterführende Links
Deutschlandfunk – ZDF räumt Fehler bei Verwendung KI-generierter Bilder ein
https://www.deutschlandfunk.de/zdf-raeumt-fehler-bei-verwendung-ki-generierter-bilder-ein-100.html
Übermedien – Die falschen ICE-Videos im „heute journal“
https://uebermedien.de/114229/die-falschen-ice-videos-im-heute-journal-und-die-katastrophale-reaktion-des-zdf/
Die Welt – ZDF verwendet KI-Bilder im heute journal
https://www.welt.de/kultur/medien/article699413fecb2e61df38756a30/
taz – Mit dem Zweiten … sieht man KI-Videos
https://taz.de/heute-journal-zu-ICE/%216155436/
Tagesspiegel – KI-Video statt realer Aufnahmen
https://www.tagesspiegel.de/kultur/ki-video-statt-realer-aufnahmen-was-uber-die-fehler-im-heute-journal-des-zdf-bekannt-ist-15264333.html
Kölner Stadt-Anzeiger – ZDF entschuldigt sich nach KI-Video
https://www.ksta.de/kultur-medien/zdf-verwendet-ki-video-und-entschuldigt-sich-kritik-von-kubicki-1-1223206



Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.