Wie die „Washington Post“ [1] zuletzt berichtete, ist in den Vereinigten Statten die KI bereits im Arbeitsalltag vieler Richter angekommen. Sie unterstützt bei Analyse und Entwurf, ersetzt aber nicht die Entscheidung. Gleichzeitig bestehen erhebliche Risiken durch Fehler und mangelnde Verlässlichkeit.
Zunehmende Nutzung von KI durch Richter
Eine Untersuchung der Northwestern University belegt eine deutliche Entwicklung: Mehr als 60 % der befragten US-Bundesrichter nutzen bereits KI-gestützte Werkzeuge, rund 22 % sogar regelmäßig im Wochen- oder Tagesrhythmus. Richter setzen KI gezielt zur Effizienzsteigerung ein. Typische Anwendungsfälle sind die automatisierte Erstellung von Fallchronologien, die Analyse umfangreicher Schriftsätze sowie die Identifikation relevanter Argumentationslinien.
Der zentrale Mehrwert liegt in der massiven Zeitersparnis bei Routineaufgaben. Tätigkeiten, die bislang durch wissenschaftliche Mitarbeiter durchgeführt wurden, können in Sekunden automatisiert erfolgen.
Einsatz entlang des gesamten richterlichen Workflows
Die Nutzung beschränkt sich nicht auf Einzelfälle, sondern erstreckt sich über den gesamten Arbeitsprozess:
- Analyse eingereichter Schriftsätze
- Identifikation rechtlicher Schwachstellen
- Vorbereitung von Anhörungen
- Generierung von Entscheidungsentwürfen
Werkzeuge etablierter Anbieter wie Thomson Reuters und LexisNexis sowie spezialisierte Legal-Tech-Lösungen wie Learned Hand werden bereits in Pilotprojekten eingesetzt.
Wesentlich ist: KI dient als Assistenzsystem, nicht als Entscheidungsinstanz. Die finale rechtliche Bewertung verbleibt beim Richter. Gleiches gilt für Sachverständige, deren Verantwortung für das Gutachten unverändert aufrecht bleibt.
Effizienzgewinne versus strukturelle Risiken
Der Einsatz von KI adressiert ein strukturelles Problem vieler Justizsysteme, welches auch in Österreich nicht unbekannt sein dürfte: steigende Verfahrenszahlen bei begrenzten personellen Ressourcen.
Richter berichten von deutlichen Produktivitätssteigerungen, insbesondere bei der Verarbeitung umfangreicher Beweismittel oder komplexer Sachverhalte. Gleichzeitig sind die Risiken nicht trivial. Studien zeigen weiterhin signifikante Fehlerquoten bei juristischen KI-Systemen. Halluzinationen – also das Erfinden von Quellen oder Zitaten – stellen ein erhebliches Problem dar, insbesondere im rechtlichen Kontext, wo Präzision zwingend erforderlich ist.
Der Rechtswissenschaftler Eric Posner warnt daher vor einem unkritischen Einsatz: Technologien, deren Funktionsweise nicht vollständig verstanden ist, dürfen nicht zur Grundlage gerichtlicher Entscheidungen werden.
Praktische Vorfälle und deren Konsequenzen
Konkrete Fehlanwendungen haben bereits zu erheblichen Problemen geführt. In mehreren Fällen wurden durch KI generierte, nicht existierende Gerichtsurteile in Schriftsätzen verwendet.
Solche Vorfälle hatten unmittelbare Konsequenzen:
- Korrekturen unter Zeitdruck
- Reputationsschäden für Gerichte
- interne Nutzungsbeschränkungen oder Verbote
Diese Entwicklungen zeigen, dass der Einsatz von KI nicht nur eine technische, sondern vor allem eine rechtlich relevante Fragestellung ist.
Menschliche Kontrolle als unverzichtbare Instanz
Ein zentraler Konsens innerhalb der Justiz besteht darin, dass KI keine autonome Rolle übernehmen darf. Richter verstehen KI als „zweites Paar Augen“, nicht als Ersatz für juristische Bewertung. Die Verantwortung für Entscheidungen bleibt vollständig beim Menschen. Auch laufende Pilotprojekte – etwa in US-Bundesstaaten – verfolgen einen kontrollierten Ansatz mit klaren Einschränkungen und kontinuierlicher Evaluation.
Einordnung aus Datenschutz- und Compliance-Sicht
Der Einsatz von KI in der Justiz berührt zentrale Anforderungen der DSGVO (Datenschutz-Grundverordnung):
- Transparenz der Verarbeitung (Art. 12–14 DSGVO)
- Nachvollziehbarkeit automatisierter Analysen
- Minimierung von Risiken durch fehlerhafte Verarbeitung
- Sicherstellung menschlicher Entscheidungsgewalt
Insbesondere bei der Verarbeitung sensibler personenbezogener Daten in Gerichtsverfahren ist eine strikte Kontrolle der eingesetzten Systeme erforderlich.
[1] Seite „Judges are increasingly using AI to draft rulings and prepare for hearings„, Erschienen in der Washington Post (03.04.2026), URL: https://www.washingtonpost.com/nation/2026/04/02/judges-ai-hearings-rulings/


Schreibe einen Kommentar