KI und automatisierte Entscheidungsfindung im Strafprozess – Fair Trials
Die Nichtregierungsorganisation Fair Trials setzt sich in einer Studie mit den Auswirkungen des Einsatzes von KI-Anwendungen im Strafprozess auseinander. Unter dem Titel „Automating Injustice“ warnt diese vor gravierenden Folgen für das Recht auf ein faires Verfahren.
Die Studie gibt eingangs einen Überblick über Systeme, die bereits im Einsatz sind, darunter die RADAR-iTE der Bundespolizei und SKALA der nordrheinwestfälischen Strafverfolgungsbehörden, welche Individuen bzw. Orte einer Einstufung mittels „predictive policing“ unterziehen. Die Studie warnt vor Diskriminierungsrisiken, insbesondere im Zusammenhang mit Inhaftierungen. Zudem sei durch datenbasierte Vorhersagen, Profilerstellungen und Risikobewertungen eine Beeinträchtigung der Unschuldsvermutung zu erwarten.
Darüber hinaus bestehe auch die Gefahr nicht-strafrechtlicher Sanktionen, wie der unbegründeten Entfernung von Kindern aus ihren Familien. Fair Trials kommt zu dem Schluss, dass diesen Risiken auch nicht durch eine entsprechende technologische Ausgestaltung der Anwendungen begegnet werden könne.
Weiterführende Links:
- Studie von Fair Trials (EN) (September 2021)
- Siehe hierzu auch Nachrichten aus Brüssel 03/2021, 10/2020