KI und Ethik

In mehreren Rechtsordnungen wird derzeit geprüft, in welchem Umfang KI-gestützte Anwendungen gerichtliche Entscheidungen unterstützen können. In den USA kommen hierzu seit Jahren Risikobewertungssysteme wie COMPAS zum Einsatz, die jedoch kein KI-Modell im technischen Sinn darstellen, sondern auf regelbasierten und statistischen Verfahren beruhen. Die Software bewertet anhand von Faktoren wie Alter, Vorstrafen oder sozialem Umfeld das Rückfallrisiko einer Person und beeinflusst insbesondere Bewährungs- und Rehabilitationsentscheidungen. Empirische Analysen belegen, dass COMPAS bestehende soziale Verzerrungen reproduzieren kann, da historisch disproportional kriminalisierte Gruppen aufgrund der Datengrundlage häufiger als risikobehaftet eingestuft werden. In föderalen Rechtsordnungen verschärft sich dies zusätzlich, weil unterschiedliche Bundesländer unterschiedliche Modelle oder Datensätze nutzen können, was regionale Ungleichheiten verstärkt und mit dem Gleichheitssatz schwer vereinbar ist.

Parallel dazu werden komplexere KI-Modelle entwickelt, etwa das in Südkorea eingesetzte TRACS-LLM. Dieses System wertet umfangreiche gerichtliche Entscheidungen zu Verkehrsunfällen aus und prognostiziert etwa Strafdauer, Bewährungswahrscheinlichkeit und Geldstrafenhöhe. Studien zeigen konsistentere Ergebnisse als bei einfachen statistischen Verfahren und teilweise auch im Vergleich zu menschlichen Entscheidungsträgern, ohne dass das Modell die richterliche Entscheidung ersetzen soll.

Dem Einsatz solcher Systeme stehen jedoch erhebliche rechtsstaatliche Anforderungen entgegen. Moderne KI-Modelle können ihre internen Entscheidungsprozesse vielfach nicht in einer Weise offenlegen, die den verfassungsrechtlichen Vorgaben an Begründung, Nachvollziehbarkeit und gerichtliche Kontrolle genügt. Zugleich birgt die algorithmische Klassifizierung das Risiko der Stigmatisierung, da eine hohe Risikoeinstufung faktisch prozessuale Nachteile nach sich ziehen kann. Ebenfalls relevant ist die Frage der demokratischen Steuerbarkeit, wenn KI-Komponenten von privaten Anbietern entwickelt und fortlaufend optimiert werden.

Befürworter verweisen darauf, dass KI-Systeme zu einer konsistenteren Rechtsprechung beitragen könnten. Untersuchungen zeigen, dass Strafurteile von situativen Faktoren wie Tageszeit oder Belastungsniveau abhängen. Ein KI-Modell könnte solchen Schwankungen entgegenwirken und so zur Qualitätssicherung beitragen.

Fazit: Der Einsatz von KI in der Strafjustiz bietet potenzielle Vorteile, verlangt jedoch eine sorgfältige verfassungsrechtliche Einbettung, klare Transparenzanforderungen und eine enge empirische Begleitforschung. Ob die bestehenden gesetzlichen Rahmenbedingungen ausreichen, ist weiterhin Gegenstand der rechtspolitischen Diskussion.

Quellen: 

Berk, R. (2019). Machine Learning Risk Assessment in Criminal Justice Settings. Springer.https://doi.org/10.1007/978- 3- 030- 02272- 3

Danziger, S./ Levav, J. (2011). Extraneous factors in judicial decisions. Princeton University, Princeton, NJ. https://doi.org/10.1073/pnas.101803310.

Min, H./ Noh, B. (2025). TRACS-LLM: LLM-based traffic accident criminal sentencing prediction focusing on imprisonment, probation, and fines. Soonchunhyang University. South Korea. Springer.. https://doi.org/10.1007/s10506-025-09472-8

Räz, T. (2022). COMPAS: Zu einer wegweisenden Debatte über algorithmische Risikobeurteilung, In: Forensische Psychiatrie, Psychologie, Kriminologie, 04/ 2022. 300-306.