Warum künstliche Intelligenz eine institutionelle Herausforderung für Redaktionen ist:
Die Diskussion über künstliche Intelligenz im Journalismus wird meist technisch geführt. Kann KI Texte schreiben? Wird sie Journalisten ersetzen? Wie zuverlässig sind automatisierte Systeme? Doch diese Fragen greifen zu kurz. Denn die entscheidende Frage lautet nicht nur, was KI kann, sondern unter welchen institutionellen Bedingungen sie eingesetzt wird.
Der Philosoph und Publizist Dr. Michael Andrick hat diese Debatte kürzlich zugespitzt. In einem Feuilletonbeitrag beim Kulturradio des öffentlich-rechtlichen Senders Deutschlandfunk Kultur formulierte er eine provokante These: Der Einsatz von KI im Journalismus sollte tabu sein. Die Forderung hat viele Journalisten irritiert – und zugleich eine Diskussion ausgelöst, die weit über Technikfragen hinausweist.
Denn hinter Andricks Argument steht eine grundlegendere Sorge: Was geschieht mit einem Beruf, wenn seine zentrale Tätigkeit – das Denken und Formulieren – zunehmend automatisiert wird?
Der Kern von Andricks Kritik
Andricks Ausgangspunkt ist eine einfache Beobachtung. Journalistische Arbeit besteht nicht nur darin, Informationen zu sammeln, sondern vor allem darin, sie zu verstehen und sprachlich zu gestalten.
Wenn KI genau diese Schritte übernimmt – etwa das Zusammenfassen von Dokumenten oder das Formulieren eines Textes –, verändert sich die Rolle des Journalisten.
„Wenn wir zentrale geistige Tätigkeiten auslagern, verlieren wir sie auch“, argumentiert Andrick sinngemäß. Seine Sorge lautet, dass der Journalismus Gefahr läuft, seine intellektuelle Grundlage zu untergraben, wenn Maschinen zunehmend die eigentliche Denk- und Schreibarbeit übernehmen.
Der Journalist würde dann nicht mehr primär denken und formulieren, sondern Maschinenoutput prüfen und redigieren.
Das klingt zunächst wie eine klassische Kulturkritik an neuer Technologie. Doch Andricks Argument berührt eine tiefer liegende Frage: Was ist eigentlich die unersetzbare Kompetenz des Journalismus?
Wenn Maschinen Informationen zusammenstellen und Texte formulieren können, bleibt dann noch ein klarer Unterschied zwischen journalistischer Arbeit und automatisierter Textproduktion?
Journalismus als Praxis des Denkens
Andricks Argument richtet sich gegen eine Vorstellung, die in vielen KI-Debatten verbreitet ist: die Idee, Schreiben sei eine rein technische Tätigkeit.
In dieser Sichtweise ist ein Text lediglich ein Produkt, das möglichst effizient hergestellt werden soll. Ob ein Mensch oder eine Maschine ihn erzeugt, erscheint zweitrangig.
Doch gerade diese Vorstellung weist Andrick zurück. Schreiben sei nicht bloß die letzte Stufe eines Arbeitsprozesses, sondern selbst ein Denkprozess.
Viele Journalisten kennen diese Erfahrung: Erst im Schreiben klären sich Argumente, entstehen Zusammenhänge und wird sichtbar, welche Informationen wirklich relevant sind.
Der Philosoph Michael Andrick formuliert diese Sorge zugespitzt:
„Wenn wir zentrale geistige Tätigkeiten an Maschinen delegieren, verlieren wir sie auch.“
Schreiben ist nicht nur Darstellung, sondern Teil der Erkenntnis.
Wenn dieser Prozess an KI delegiert wird, könnte der journalistische Beruf seine intellektuelle Substanz verlieren.
Die Gegenargumente: KI als Werkzeug
Gleichzeitig wird Andricks Tabu-Forderung von vielen Medienpraktikern kritisiert. Ihr Einwand lautet: Journalismus war schon immer technikgestützt.
Werkzeuge haben journalistische Arbeit kontinuierlich verändert.
Die Schreibmaschine beschleunigte das Schreiben.
Das Tonbandgerät erleichterte Interviews.
Computer und Internet revolutionierten Recherche und Produktion.
Kaum jemand würde heute ernsthaft fordern, diese Technologien wieder abzuschaffen.
In dieser Perspektive ist KI schlicht ein weiteres Werkzeug. Sie kann repetitive Aufgaben übernehmen und Journalisten entlasten.
Viele Redaktionen experimentieren bereits damit, etwa bei der Transkription von Interviews, der Analyse großer Dokumentenmengen oder der automatischen Zusammenfassung von Berichten.
Der Medienforscher Charlie Beckett von der London School of Economics formuliert diese Position pragmatisch:
„Künstliche Intelligenz wird den Journalismus nicht ersetzen – aber Journalisten, die KI nutzen, werden diejenigen ersetzen, die es nicht tun.“
Die Botschaft lautet: Nicht KI bedroht den Journalismus, sondern der Verzicht auf technologische Innovation.
Automatisierter Journalismus ist kein neues Phänomen
Automatisierte Textproduktion wird im Journalismus bereits seit Jahren eingesetzt. Besonders verbreitet ist sie im sogenannten Automated Journalism, etwa bei Sportberichten, Finanzmeldungen oder Wahlresultaten.
Die Nachrichtenagentur Associated Press nutzt automatisierte Systeme, um Tausende Unternehmensberichte pro Quartal zu veröffentlichen.
Ein Vertreter der Agentur erklärte dazu:
„Automatisierung ermöglicht es uns, deutlich mehr Meldungen zu produzieren und Reporter für komplexere Berichterstattung freizumachen.“
In dieser Perspektive dient Automatisierung nicht dazu, Journalisten zu ersetzen, sondern ihre Arbeit zu erweitern. Befürworter argumentieren entsprechend, dass KI journalistische Qualität sogar verbessern könne. Sie könne große Datenmengen analysieren, umfangreiche Dokumente schneller auswerten und Rechercheprozesse beschleunigen. Gerade im Datenjournalismus eröffnen solche Technologien neue Möglichkeiten.
Doch Kritiker weisen darauf hin, dass Effizienzgewinne selten automatisch zu Qualitätsgewinnen führen. Die Geschichte der Medienproduktion zeigt vielmehr ein anderes Muster: Wenn Technologien Arbeit beschleunigen, wird die gewonnene Zeit häufig nicht in tiefere Recherche investiert, sondern in mehr Output.
Gerade im digitalen Journalismus ist diese Entwicklung deutlich sichtbar. Redaktionen sind vielerorts kleiner geworden, während gleichzeitig der Veröffentlichungsrhythmus schneller geworden ist. Einzelne Journalisten produzieren heute oft deutlich mehr Texte als noch vor wenigen Jahrzehnten.
Technologische Effizienz führt unter diesen Bedingungen nicht unbedingt zu Entlastung, sondern häufig zu einer Verdichtung der Arbeit. Der Medienhistoriker Jay Rosen beschreibt diese Dynamik so:
„Jede neue Effizienz im Journalismus wird am Ende vom Bedarf nach noch mehr Inhalt aufgezehrt.“
Mit anderen Worten: Effizienz wird selten in Ruhe oder Reflexion übersetzt – sondern in zusätzliche Produktion.
Wenn Werkzeuge zu Normen werden
Ein weiteres Problem besteht darin, dass Technologien selten optional bleiben.
Sobald eine Redaktion mithilfe von KI effizienter arbeitet, entsteht ein Wettbewerbsdruck für andere Medienhäuser. Wer langsamer produziert oder auf Automatisierung verzichtet, könnte im digitalen Nachrichtenstrom an Sichtbarkeit verlieren.
Damit verwandelt sich ein Werkzeug schleichend in eine neue Norm der Produktion.
Die Entscheidung über den KI-Einsatz wird dann nicht mehr primär journalistisch oder ethisch getroffen, sondern wirtschaftlich.
Eine weitere Gefahr: die Glättung des Diskurses
Die Debatte über KI im Journalismus konzentriert sich häufig auf Arbeitsplätze, Effizienz oder redaktionelle Abläufe. Doch damit ist ein möglicher Effekt noch nicht erfasst: die Veränderung der Sprache selbst.
Neben dem Risiko eines Verlusts individueller Denk- und Schreibpraxis könnte KI langfristig auch den öffentlichen Diskurs verändern.
Große Sprachmodelle erzeugen Texte nicht aus eigener Erfahrung oder Überzeugung, sondern aus statistischen Mustern. Sie analysieren, welche Formulierungen häufig zusammen auftreten, und berechnen daraus wahrscheinliche sprachliche Fortsetzungen. Das Ergebnis wirkt oft überraschend kohärent, ausgewogen und professionell.
Gerade darin liegt jedoch eine mögliche Gefahr: Solche Systeme tendieren dazu, sprachliche Mittelwerte zu reproduzieren. Ungewöhnliche Formulierungen, radikale Perspektiven oder stilistische Eigenheiten werden tendenziell geglättet. Die Sprache wird konsensfähiger, neutraler, berechenbarer.
Hinzu kommt ein möglicher Rückkopplungseffekt. Sprachmodelle werden mit bereits existierenden Texten trainiert. Wenn künftig immer mehr Texte mithilfe solcher Systeme entstehen, fließen diese wiederum in neue Trainingsdaten ein. Der Diskurs beginnt dann gewissermaßen, sich selbst zu spiegeln.
Der Philosoph Byung-Chul Han hat eine ähnliche Dynamik bereits lange vor der aktuellen KI-Debatte beschrieben. In seinen Analysen digitaler Kommunikationsräume argumentiert er, dass diese zur Nivellierung von Differenz tendieren.
„Die Transparenzgesellschaft ist eine Gesellschaft der Gleichheit“, schreibt Byung-Chul Han.
Gemeint ist damit nicht soziale Gleichheit, sondern eine Öffentlichkeit, in der Unterschiede, Fremdheit und Widerspruch zunehmend verschwinden.
Digitale Öffentlichkeit begünstigt Formen der Kommunikation, die möglichst anschlussfähig, transparent und konfliktarm sind.
Überträgt man diesen Gedanken auf KI-generierte Sprache, könnte eine neue Form der Harmonisierung entstehen: Der Diskurs wird nicht offen zensiert, sondern statistisch geglättet. Unterschiede verschwinden nicht abrupt, sondern verlieren langsam ihre sprachliche Schärfe.
„Das Positive glättet den Diskurs“, so Byung-Chul Han treffend.
Gerade für den Journalismus wäre das eine paradoxe Entwicklung. Denn eine lebendige Öffentlichkeit lebt nicht nur von Information, sondern auch von Reibung, Perspektivvielfalt und sprachlicher Eigenständigkeit.
Die Frage der Autorschaft
Ein weiterer Aspekt, der in der Debatte oft unterschätzt wird, betrifft die Autorschaft journalistischer Texte.
Journalismus lebt von individueller Verantwortung. Ein Artikel trägt den Namen eines Autors, der für seine Aussagen einsteht.
Wenn Texte jedoch teilweise von Maschinen erzeugt werden, wird diese Zuordnung komplizierter.
Wer ist der Autor eines Textes, der von einem Journalisten recherchiert, von einer KI strukturiert und anschließend redigiert wurde?
Die Philosophin Hannah Arendt schrieb einmal:
„Denken und Schreiben sind Tätigkeiten, die Verantwortung erzeugen.“
Wenn Schreiben zunehmend automatisiert wird, könnte sich auch das Verhältnis zwischen Text und Verantwortung verändern.
Die eigentliche Erkenntnis
An diesem Punkt zeigt sich, warum die KI-Debatte im Journalismus nicht allein technisch geführt werden kann.
Ob KI die Qualität des Journalismus verbessert oder schwächt, hängt weniger von der Technologie selbst ab als von den institutionellen Bedingungen ihres Einsatzes.
Die entscheidenden Fragen lauten daher: Wofür wird die durch KI entstehende Effizienz genutzt? Wird sie in Recherche und Qualität investiert oder in Produktionssteigerung? Stabilisiert sie journalistische Arbeit – oder ersetzt sie sie?
Zwischen Kulturkritik und Technikoptimismus
Die Debatte um KI im Journalismus bewegt sich damit zwischen zwei Polen.
Auf der einen Seite steht eine kulturkritische Position wie die von Michael Andrick, die vor der Aushöhlung geistiger Arbeit warnt.
Auf der anderen Seite steht ein technikoptimistischer Ansatz, der KI als unvermeidliches Werkzeug betrachtet.
Beide Perspektiven enthalten wichtige Einsichten – und beide greifen allein genommen zu kurz.
Fazit
Die KI-Debatte im Journalismus berührt damit zwei unterschiedliche Risiken.
Das erste betrifft die Praxis des Schreibens selbst: Wenn Maschinen zentrale Formulierungsarbeit übernehmen, könnten Journalisten jene Denk- und Sprachfähigkeiten weniger trainieren, die ihren Beruf ausmachen – eine Sorge, die Michael Andrick formuliert hat.
Das zweite betrifft die Struktur des Diskurses: Wenn immer mehr Texte aus statistischen Sprachmustern entstehen, könnte die öffentliche Sprache selbst homogener, vorsichtiger und berechenbarer werden – eine Entwicklung, die sich mit den Analysen von Byung-Chul Han über digitale Öffentlichkeit verbinden lässt.
Beide Risiken weisen letztlich in dieselbe Richtung. Die entscheidende Frage lautet nicht nur, was künstliche Intelligenz kann, sondern wie Institutionen mit ihr umgehen.
Ob KI zu besseren Recherchen und stärkerem Journalismus führt – oder zu standardisierter Sprache und wachsendem Produktionsdruck –, entscheidet sich nicht im Algorithmus. Es entscheidet sich in den Redaktionen.
Quellen
Michael Andrick: „Künstliche Intelligenz im Journalismus – Sollte der Einsatz von KI ein Tabu sein?“ – Beitrag bei Deutschlandfunk Kultur. https://www.deutschlandfunkkultur.de/kuenstliche-intelligenz-im-journalismus-sollte-der-einsatz-von-ki-ein-tabu-sein-100.html
Charlie Beckett: JournalismAI-Projekt, London School of Economics. https://www.journalismai.info
Associated Press: Einführung automatisierter Unternehmensberichte mit der Software Wordsmith (Automated Insights). https://www.ap.org/
Jay Rosen: Medienwissenschaftler an der New York University, Analysen zur Transformation des digitalen Journalismus. https://journalism.nyu.edu/faculty/jay-rosen/
Berichte über automatisierten Journalismus u. a. bei Nieman Lab (Harvard University) und The Verge. https://niemanlab.org/ https://www.theverge.com/
Byung-Chul Han: Transparenzgesellschaft. Berlin: Matthes & Seitz, 2012.
Byung-Chul Han: Psychopolitik: Neoliberalismus und die neuen Machttechniken. S. Fischer, Frankfurt am Main 2014.



Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.