KI in der Justiz: Der stille Umbau eines Grundpfeilers des Rechtsstaats

Wie Justizverwaltungen, Politik und Berater KI vorantreiben – und warum zentrale rechtsstaatliche Fragen noch ungeklärt sind:

Ein System unter Druck

Die Diagnose ist seit Jahren bekannt, doch sie bleibt unbequem: Die deutsche Justiz arbeitet am Limit. Gerichte und Staatsanwaltschaften kämpfen mit überlasteten Geschäftsstellen, langen Verfahrensdauern, dauerhaften Vakanzen und einer Infrastruktur, die vielerorts nicht einmal grundlegenden digitalen Anforderungen genügt. Eine Analyse von Strategy& (PwC) beschreibt die Lage als einen Zustand zahlreicher „Medienbrüche“, manueller Bearbeitungswege und fehlender digitaler Schnittstellen, die zusammen die Funktionsfähigkeit der Justiz gefährden.

Die Hoffnung auf Entlastung verlagert sich immer stärker auf eine Technologie, die ihre Leistungsfähigkeit bereits in anderen Bereichen bewiesen hat: künstliche Intelligenz. Akten sollen vorsortiert, Metadaten extrahiert und Dokumente automatisch klassifiziert werden. Doch je tiefer die Technik in die Abläufe eindringt, desto deutlicher zeigt sich: Die entscheidenden Fragen sind nicht technischer Natur – sie sind rechtsstaatlich.

Die neue politische Leitlinie: „Chancen nutzen, Verantwortung übernehmen, Transparenz gewährleisten“

Im Juni 2025 verabschiedeten die Justizministerinnen und Justizminister des Bundes und der Länder die „Gemeinsame Erklärung zum Einsatz von Künstlicher Intelligenz in der Justiz“. Darin verpflichten sich die Behörden zu einem „menschenzentrierten, verantwortungsvollen und transparenten“ Einsatz von KI-Systemen. Zugleich wird betont, dass richterliche Entscheidungen nicht automatisiert getroffen werden dürfen und die Verantwortung immer beim Menschen bleibt.

Dieser Grundsatz ist eindeutig – aber seine Umsetzung komplex. Denn die Praxis zeigt, dass Arbeitsabläufe sich schon heute an digitale Systeme anlehnen. Wenn eine KI entscheidet, welche Akte zuerst erscheint, welche Passage als „relevant“ markiert wird oder welcher Schriftsatz Priorität erhält, entsteht faktisch Einfluss auf das Verfahren, lange bevor jemand eine Entscheidung trifft.

Pilotprojekte: Mehr als nur digitale Assistenten

Die wissenschaftlichen Dienste des Bundestags dokumentierten bereits 2021, dass KI-Anwendungen in mehreren Bundesländern erprobt werden – angefangen bei der automatisierten Klassifikation von Dokumenten über die Extraktion von Metadaten bis hin zu Tools, die Massendaten strukturieren sollen. In der Legal-Tech-Fachliteratur finden sich Hinweise auf Systeme zur Aktenvorstrukturierung, Mustererkennung und Anonymisierung von Gerichtsentscheidungen.

Offiziell wird stets betont, dass diese Systeme nur „assistieren“ sollen. Doch in der Praxis zeigt sich ein Graubereich: Wenn ein Algorithmus bestimmte Dokumente hervorhebt, andere ausblendet oder nach eigenen Kriterien sortiert, beeinflusst dies zwangsläufig die menschliche Wahrnehmung. Eine Filterung kann so leise zur Vorentscheidung werden.

Das Transparenzproblem: Die Blackbox im Gerichtssaal

Rechtsprechung verlangt Transparenz und Nachvollziehbarkeit. KI-Systeme hingegen operieren häufig als Blackbox. Selbst Fachleute können die internen Berechnungsschritte lernender Modelle oft nicht vollständig rekonstruieren.

Die Europäische Grundrechteagentur warnt deshalb ausdrücklich, dass der Einsatz algorithmischer Systeme nur auf Grundlage gründlich geprüfter Daten erfolgen dürfe. Denn fehlerhafte oder verzerrte Trainingsdaten können zu Entscheidungen führen, die Betroffene kaum anfechten können – weil der Weg zum Ergebnis nicht offenliegt.

Ein zusätzliches Problem: Viele KI-Lösungen stammen von privaten Anbietern. Deren Algorithmen stehen unter Geschäftsgeheimnissen, was unabhängige Audits erschwert. In einem sensiblen Bereich wie der Justiz ist das ein grundlegendes Dilemma.

Algorithmischer Bias: Ungleichheit als Datenbasis

KI lernt aus historischen Daten – und diese sind nie neutral. In der Vergangenheit getroffene strafrechtliche Entscheidungen, polizeiliche Fallzahlen oder regionale Besonderheiten können Verzerrungen enthalten, die ein Algorithmus reproduziert. Das Alexander von Humboldt Institut für Internet und Gesellschaft betont, dass viele Modelle „hauptsächlich das Vergangene vorhersagen“ und dadurch bestehende Ungleichheiten verstärken können.

Für die Justiz ist das brisant: Wenn historische Urteile oder Ermittlungsdaten als Grundlage dienen, kann ein Algorithmus fehlerhafte Muster verstetigen. Eine Prognose, die scheinbar objektiv wirkt, kann in Wahrheit ein algorithmisch reproduzierter Bias sein.

Verantwortung: Theorie und Praxis auseinander

Die politische Leitlinie behauptet, die Verantwortung bleibe beim Menschen. Doch die Forschung zeigt, dass sogenannte Automation Biases dazu führen, dass Menschen algorithmischen Vorschlägen oft mehr Vertrauen schenken als ihrer eigenen Einschätzung. Ein digitales System, das täglich Vorschläge erzeugt, kann so schleichend zur faktischen Autorität werden.

Zudem ist ungeklärt, wie sich Verantwortlichkeit verteilt, wenn ein Fehler geschieht:

  • Wer haftet, wenn eine KI eine Akte falsch vorpriorisiert?
  • Wer trägt die Verantwortung, wenn eine algorithmische Prognose Einfluss auf die Entscheidung nimmt?
  • Welche Dokumentationspflichten gelten bei KI-gestützten Empfehlungen?

Weder der deutsche Gesetzgeber noch die europäische Regulierung haben diese Fragen abschließend beantwortet.

Infrastruktur: Moderner Anspruch, veraltete Realität

Parallel dazu ist die digitale Infrastruktur der Justiz vielerorts veraltet. Strategie- und Beratungsberichte zeigen, dass es an einheitlichen Datenstandards, verlässlichen Schnittstellen und leistungsfähigen Systemen fehlt. Die Gefahr ist offensichtlich: KI wird in ein System eingebaut, das technisch kaum in der Lage ist, ihre Ergebnisse zuverlässig aufzunehmen und zu prüfen.

Dieser Widerspruch führt zu einer paradoxen Situation: Während KI als Lösung präsentiert wird, fehlt vielerorts das Fundament, auf dem sie rechtsstaatlich betrieben werden könnte.

Der internationale Blick: Frühere Fehler, spätere Lehren

Andere Länder sind bei der KI-Nutzung in der Justiz weiter – und liefern mahnende Beispiele. In den USA gerieten Risiko-Score-Systeme wie COMPAS wegen intransparenter Berechnungen und rassistischer Biases in die Kritik. Auch in Großbritannien und Australien lösten algorithmische Entscheidungshilfen Debatten über Diskriminierung und fehlerhafte Prognosen aus.

Die wissenschaftlichen Dienste des Bundestages dokumentieren diese internationalen Entwicklungen und empfehlen, künftige Anwendungen in Deutschland strikt an rechtsstaatliche Anforderungen zu koppeln – insbesondere im Strafrecht.

Fazit: Modernisierung mit Augenmaß, nicht mit Blindflug

Künstliche Intelligenz kann der Justiz helfen. Sie kann entlasten, beschleunigen und Struktur schaffen. Aber Effizienz ist kein rechtsstaatlicher Wert an sich. Wo Transparenz fehlt, Daten verzerrt sind, Verantwortung unklar bleibt und technische Grundlagen wackeln, droht ein Justizsystem, das moderner wirkt, aber weniger überprüfbar ist.

Die entscheidende Frage lautet deshalb nicht, ob KI in der Justiz eingesetzt werden soll. Sie lautet:
Unter welchen Bedingungen – und wer kontrolliert diese Bedingungen?

Ein Rechtsstaat, der sich algorithmischer Unterstützung bedient, muss gleichzeitig seine demokratischen Kontrollmechanismen stärken. Sonst riskiert er nicht nur technische Fehlentwicklungen, sondern das Vertrauen in die Gerechtigkeit seiner Entscheidungen.

Quellen

  • Wissenschaftliche Dienste des Deutschen Bundestages (2021): Künstliche Intelligenz in der Justiz – Internationaler Überblick, WD 7-017/21.
  • Strategy& / PwC (2025): Ein Zukunftsprogramm für die Digitalisierung der Justiz.
  • Gemeinsame Erklärung zum Einsatz von Künstlicher Intelligenz in der Justiz (Bund und Länder), Bad Schandau, Juni 2025.
  • Legal-Tech.de (2024/2025): Beiträge zu Einsatzfeldern und Digitalstrategien in der Justiz.
  • European Union Agency for Fundamental Rights (2022): Bias in Algorithms – Artificial Intelligence and Discrimination.
  • Alexander von Humboldt Institut für Internet und Gesellschaft (2024): Analyse zu algorithmischen Verzerrungen.
  • Fachliteratur zu „Trustworthy AI“ (u. a. Hirsch-Kreinsen, 2024).

Beitrag veröffentlicht

in

von

Schreibe einen Kommentar

Kommentare