Nadja Capus, Prof. Dr. iur., Inhaberin der SNF-Förderprofessur für Strafrecht und Kriminologie an der Universität Basel und Leiterin des vierjährigen Forschungs-Projekts "Strafverfahren im Wandel"
Markus Faber, 32 Jahre alt, ist zum wiederholten Mal angetrunken Auto gefahren und deshalb verurteilt worden. Bei einer früheren Alkoholkontrolle im Strassenverkehr war er auch noch ausfällig gegenüber dem Polizisten und sein Strafregister enthält deshalb zusätzlich einen Eintrag wegen Drohung gegenüber Beamten. Nach der aktuellen Verurteilung wegen Trunkenheit am Steuer erhält er einen Brief vom Amt für Strafvollzug: Im Rahmen des gesetzlichen Auftrages, Rückfallprävention bei Verurteilten zu betreiben, seien Abklärungen vorgenommen worden. Diese Abklärungen zeigen, dass bei ihm ein erhöhtes Rückfallrisiko bestehe, weshalb die Risikoanalyse vertieft werden soll. Er erhält einen Termin beim Psychiatrischen Dienst des Strafvollzugsamtes.
Software für Fall-Screenings im Einsatz
Markus Faber ist erfunden, aber gäbe es ihn, wäre er einer von rund 1500 Straftätern, die allein im Kanton Zürich jährlich einer solchen Abklärung unterzogen werden. Das erhöhte Risikoprofil wird dabei nicht von einem Menschen festgestellt, sondern von einem Algorithmus. Er ist wesentlicher Bestandteil eines Vollzugsmodells in der Schweiz, das seit 2013 in mehreren Kantonen in Betrieb ist: Riskioorientierter Sanktionenvollzug (ROS).
Im Kanton Zürich werden seit der Einführung des ROS nicht mehr nur schwere Gewalt- und Sexualdelikte einem Screening unterzogen, sondern alle Straftaten. Und zwar mit dem sogenannten Fall-Screening-Tool (FaST). Sachbearbeiter lesen die Fallakte, streichen in einer Checkliste an, welche der vorgegebenen Punkte zutreffen, zum Beispiel welche Delikte begangen wurden oder ob es Vorstrafen und soziale Auffälligkeiten gab. Die Software weist Punkte zu, zählt zusammen und schlägt jeden Fall einer Kategorie zu: „geringer Abklärungsbedarf“ (A), „erhöhter Abklärungsbedarf bezüglich allgemeiner Delinquenz“ (B) oder „erhöhter Abklärungsbedarf bezüglich Gewalt- und Sexualdelikten“ (C).
Neuro Science und Big Data befeuern Phantasien
Man muss hier den Blick auf den weiteren Kontext des Strafvollzugs werfen. Er dient zweifellos der Rückfallprävention und sozialen Rehabilitierung des Täters. Nun wecken allerdings neue Technologien und vor allem die Hirnforschung neue Begehrlichkeiten: den Transparenztraum. So gab zum Beispiel der Neurowissenschafter John-Dylan Haynes 2009 in einem Interview zu Protokoll: „In einigen Jahren wird man an Hirnscans ablesen können, ob jemand zum Beispiel in einem Al-Kaida-Ausbildungscamp gewesen ist oder ob er schon einmal eine Bombenbau-Anleitung studiert hat.“
Selbst wenn solche wissenschaftlich kaum haltbaren – im Grunde albernen – Gedankenlesevisionen vor allem ein Medienfrass sind, so treffen sie doch einen Nerv unserer Zeit, die gebannt ist von der Big Data Science. Der Mensch ist ein Gewohnheitstier, und die „Predictive Analytics“ hat sich in der Durchleuchtung des Konsumenten – das heisst: seines Datenprofils – schon beeindruckend bestätigt. Warum sollte die Forensik hier abseits stehen?
Stillschweigend drängelt sich dabei ein ökonomisches Motiv vor: Kosteneffizienz. Zum Beispiel in der Frage der Bestrafung und Verwahrung von Straftätern. 2013 schätzte der Bundesrat in einem Bericht die jährlichen Kosten für Gefangene in der Schweiz auf fast eine Milliarde Franken. Wenn also der Strafvollzug immer mehr kostet, lohnt es sich dann nicht, in die Technik zu investieren, also Teile des Strafvollzugs zu automatisieren? Bleibt das Hirnscannen eine wissenschaftliche Vision, so ist die Idee zumindest betriebsökonomisch attraktiv, das Innere eines Täters – heute mit „lernenden“ Algorithmen – „lesen“ zu können. Ziel: Das zuverlässige Aussortieren – die Triage – der „Risikoträger“. Ein Algorithmus zieht wie ein Schleppnetz durch das forensische Gewässer, zieht die wirklich „bösen Fische“ heraus und sperrt sie weg.
Algorithmen: weder sozialkompetent noch neutral
Schon in den 1980er Jahren entwickelten Forscher der amerikanischen RAND Corporation ein Instrument, das rückfällige Straftäter identifizieren sollte. Die Massnahme wurde als „selective incapacitation“ – gezielte Unschädlichmachung – bezeichnet. Sie griff nicht. Die Prognosen erwiesen sich als äusserst unzuverlässig. Man verschlimmbesserte die gezielte Unschädlichmachung, indem man sie weniger gezielt machte. Das heisst, die Kriterien der Kategorie „gefährlicher Gewalttäter“ wurden auf Gebiete relativ harmloser Kriminalität übertragen, zum Beispiel Drogenkonsum in der Jugend oder Arbeitslosigkeit. Die Zahl der Inhaftierungen nahm erwartungsgemäss zu. Gezielte Unschädlichmachung wirkte damit dem ursprünglichen Ziel der Kostensenkung diametral entgegen.
Auch wenn die Instrumente der Kriminalitätsprognose sich seither ständig verfeinert haben, so bleibt das Grundproblem natürlich bestehen: Die Sortier-Algorithmen sind nicht neutral, sie tragen die Signatur ihrer Designer und der Fachleute, welche die Strategien der Prävention definieren. Die Kategorisierung ist immer „voreingenommen“. Hinzu kommt, dass statistische Methoden standardisieren und kategorisieren und so die Einzelfallabklärung in den Hintergrund drängen. Algorithmen brauchen, wenn sie zuverlässig arbeiten und vor allem wenn sie „lernen“ wollen, meist möglichst viele Daten, deshalb erweitert man den Daten-Pool.
Das bedeutet in der strafrechtlichen Prognostik, dass man die Kategorie des Risikos weiter fasst. Ins Visier des risiko-orientierten Blicks geraten nun nicht bloss die Gefährlichen unter den Straftätern, sondern auch jene, deren Anlassdelikt zum Beispiel in einem Internetbetrug, einer sexuellen Belästigung oder Beamtenbeleidigung besteht. Das ist natürlich die innere Logik von Big Data: Mehr ist besser. Im Idealfall wird eine ganze Bevölkerung zum „Algorithmenfutter“. Ein solcher Generalverdacht war bisher nur bei Geheim- und Sicherheitsagenturen zu beobachten.
Kategorisierung wird zur Prognostik
In der Kategorisierung liegt zudem die altbekannte Gefahr der Stigmatisierung. Das Testresultat führt zu einem entsprechenden Programm für den riskanten Straffälligen. Das bedeutet, dass man ihm quasi eine Delinquenz-Zukunft prognostiziert. Die Risikoorientierung behandelt ihn nicht nur auf der Basis begangener, sondern probabilistisch erwartbarer Taten. Sie sagt zum Beispiel: Du bist C-Kategorie.
Wer kennt nicht das Unbehagen, wenn andere Menschen über uns „Bescheid wissen“, uns in typisierende Schablonen pressen, unsere Handlungen angeblich voraussagen. Ein Straftäter kann sich nicht gegen seine Kategorisierung wehren. Einmal Kategorie C, immer Kategorie C, zumindest bis zur Freilassung. Vollzieht sich hier nicht eine implizite Entmündigung? Und: Könnte ein solcherart in seiner Kategorie Verwahrter sich nicht gerade aus Trotz dazu verleitet fühlen, die Verantwortung für sein Handeln abzugeben?
Den Täter als Person sehen
Es erscheint in diesem Zusammenhang übrigens aufschlussreich, dass das Schweizer Strafgesetzbuch dem Täter diese Verantwortung als „Friedensbürgschaft“ (Art.66 Abs.1) ja zumutet: „Besteht die Gefahr, dass jemand ein Verbrechen oder Vergehen ausführen wird, mit dem er gedroht hat, oder legt jemand, der wegen eines Verbrechens oder eines Vergehens verurteilt wird, die bestimmte Absicht an den Tag, die Tat zu wiederholen, so kann ihm das Gericht auf Antrag des Bedrohten das Versprechen abnehmen, die Tat nicht auszuführen, und ihn anhalten, angemessene Sicherheit dafür zu leisten.“ Man höre: da wird von einer „friedensbürgenden“ Person gesprochen, nicht von einer Risikokategorie.
Richter und Forensiker haben es mit persönlichen Geschichten zu tun, nicht mit Quasi-Naturereignissen. Das markiert letztlich den fundamentalen Unterschied zu den Naturwissenschaften. Gerade weil ein naturwissenschaftliches Objekt – Elektron, Peptid, Neuron – durch eine kleine Zahl von Eigenschaften eindeutig kategorisiert werden kann, „gehorcht“ es gewissen Gesetzmässigkeiten. Das normale menschliche Individuum ist kein solches Objekt. Es ist – mit Nietzsche gesprochen – „nicht festgestellt“; selbst wenn andere – zumal forensische Psychiater – es „feststellen“ wollen.
Natürlich lassen sich in den Humanwissenschaften Erklärungs- und Prognose-Erfolge verbuchen, wenn man Individuen einer bestimmten Kategorie zuschlägt und über diese bestimmte allgemeine – meist statistische – Aussagen macht, etwa von der Art: Ein Täter mit dieser persönlichen Disposition wird mit grosser Wahrscheinlichkeit eine sadistische Gewalttat begehen. Wie „gesetzesmässig“ und voraussagbar das deliktische Verhalten einer Person aber auch sein mag, so erschöpft sich ihre Geschichte nicht in diesem Verhalten. Und damit nimmt hier ein Dilemma Gestalt an: Risikoeinschätzungen sollten auf ein Individuum bezogen sein; aber sie sind immer Wahrscheinlichkeitsaussagen; und solche Aussagen beziehen sich nicht auf ein Individuum. Die Kriminologen müssen wohl mit diesem Dilemma leben.
Auflösung des Subjektbegriffs
Man befleissigt sich zwar, zu betonen, dass die auf Algorithmen gestütze Beurteilung der Fälle ja „nur“ zur Vorabklärung für die individuelle Behandlung diene. Dennoch spielt sich hier eine versteckte Umgewichtung ab: risiko-orientierte Programme visieren primär nicht ein gegebenes Individuum an, vielmehr ordnen sie das Individuum einem gegebenen Raster zu.
Wir befinden uns, wie dies der französische Soziologe Robert Castel bezeichnet, im „Übergang von der Gefährlichkeit zum Risiko“: „Die neuen Strategien lösen den Begriff eines Subjekts oder eines konkreten Individuums auf und installieren an ihrer Stelle eine Kombinatorik von Faktoren, den Risikofaktoren.“ Das früher als gefährlich eingestufte Individuum wird jetzt zum quantifizierten Risiko-Datenprofil. Dieses Profil übernimmt quasi die alte Rolle des Charakters, mit dem man den Straftäter „abstempelte“. Wie Castel schreibt: „Um verdächtig zu sein, ist es nicht länger nötig, Symptome der Gefährlichkeit (...) zu zeigen, es reicht aus, eine der Eigenschaften aufzuweisen, welche die Experten, die für die Definition der präventiven Politik verantwortlich sind, als Risikofaktoren ausgemacht haben.“
Der Beweis, dass mit ROS und anderen Massnahmen mehr Rückfälle verhindert werden können, steht noch aus. Damit ist nota bene nichts gegen quantitative und algorithmische Verbesserungen der Prävention gesagt. Sie sollten bloss, gerade in einer Zeit, da immer entwickeltere Technologien der Früherkennung, Überwachung und Sicherheit unsere Gesellschaft durchsetzen, mit der nötigen rechtsstaatlichen und demokratischen Vigilanz verfolgt werden. Im Interesse von Täter und Opfer.