Technische Artefakte sind nicht neutral, sie sind von einprogrammierten Voreingenommenheiten bestimmt. Die technologischen Errungenschaften erweitern unsere Handlungsspielräume und begrenzen sie paradoxerweise gleichzeitig.
«Do artifacts have politics?», «Machen Artefakte Politik?» – diese Frage stellte der amerikanische Philosoph Langdon Winner 1980, vor dem Siegeszug der digitalen Technologie. Sie klang damals höchst seltsam, ja dissonant in der Technikdiskussion, galt doch die Technik nach vorherrschender Meinung als «neutral» – als Mittel zum Zweck.
Dass das technische Mittel selbst normativ wirken und das Verhalten des Menschen steuern könnte, war ein ziemlich unorthodoxer Gedanke. Denn man argumentierte vorzugsweise «anthropozentrisch»: Der Mensch bestimmt, das Gerät gehorcht. Wie nun aber Winner schrieb: «In unserer Zeit sind die Menschen oft bereit, ihre Lebensgewohnheiten zu ändern, nur um sich technischen Innovationen anzupassen; indes würden sie ähnliche Änderungen ablehnen, begründete man sie politisch.» Genau dies lässt sich von der neuen digitalen Technologie sagen. Denken wir nur an die Smartphones. Wir haben unser Verhalten spielend ihrer «Politik» angepasst. Soziale Medien wie Twitter sind soziale Geräte. Das Gerät bestimmt, der Mensch gehorcht.
Soziale Medien wie Twitter sind soziale Geräte. Das Gerät bestimmt, der Mensch gehorcht.
Politik der Algorithmen beschäftigt sich also nicht mit der Frage, was politische Akteure mit Algorithmen anstellen, sondern wie die Maschinen selbst als politische «Akteure» operieren. Ein zentrales Problem liegt darin, dass lernende Maschinen die impliziten Vorurteile der eingegebenen Trainingsdaten übernehmen. In der KI-Forschung spricht man von «voreingenommener KI» oder «KI-Bias» («AI bias»).
Im Fokus stehen etwa Algorithmen des «Predictive Policing», der vorhersagenden Polizeiarbeit. Man füttert die lernenden Maschinen mit Daten über Delikthäufigkeit. Sie erweisen sich oft als nicht neutral. Zum Beispiel kann man in einer sozialen Randgruppe mit überproportionaler Polizeipräsenz – «overpolicing» – erwarten, dass mehr Delikte entdeckt und mehr Verhaftungen vorgenommen werden. Das verzerrt die Statistik zu Ungunsten der Randgruppe. Die Maschine fragt nicht nach der Legitimität der polizeilichen Intervention, sie nimmt die «schiefen» Daten einfach auf und dementsprechend erscheint die Gruppe verzerrt «deliktprominent».
Perspektiven ex post und ex ante
Die einschlägigen Technologiekreise sind sich dieses Problems durchaus bewusst. Und sie suchen nach Tools des Bias-Testens, IBM etwa mit Watson OpenScale, Google mit What-If. Microsoft gibt eine Liste kritischer Algorithmusstudien heraus. Es existiert ein neues spezielles Computerforschungsfeld namens «fairness, accountability and transparency in machine learning (FATML)». Dass man «Gerechtigkeit», «Verantwortlichkeit», «Transparenz» von Maschinen und ihren Algorithmen einfordert, lässt sich durchaus als ein ethisches Erwachen der Computerwissenschafter deuten, die sich allmählich der sozialen und politischen Folgen ihrer KI-Systeme bewusst werden.
Dass man «Gerechtigkeit», «Verantwortlichkeit», «Transparenz» einfordert, lässt sich durchaus als ein ethisches Erwachen der Computerwissenschafter deuten.
Nur betrifft das nicht das eigentliche «politische» Problem. Eine Kritik, die sich der Gerechtigkeit und Verantwortlichkeit von Algorithmen verschreibt, braucht zwei Perspektiven. Eine Perspektive im Nachhinein – ex post –, die bekannte Technikfolgenabschätzung. Ich habe sie kurz am Beispiel des Predictive Policing konkretisiert. Es existiert eine Vielzahl solcher Probleme. Ihnen entspricht die wichtige Aufgabe, demokratische Institutionen zu schaffen, die solchem Missbrauch entgegentreten. Die EU formulierte 2021 einen regulatorischen Rahmen für den Einsatz von Algorithmen.
Wir brauchen aber mehr, nämlich eine Perspektive im Vornhinein – ex ante –, die Szenarien des gesellschaftlichen Computereinsatzes analysiert. Hier gilt es in erster Linie nicht die neuen technischen Applikationen ins Visier zu nehmen, sondern die generelle Tendenz, soziale und politische Probleme ingenieural zu definieren, was sich letztlich genau als Kernproblem erweist: Kann man fehlerhafte Algorithmen stets mit noch mehr und besseren Algorithmen flicken? Gerechtigkeit, Verantwortlichkeit, Transparenz sind ja nicht primär technische Begriffe, sondern politische. Sie lassen sich also nicht optimieren wie eine Maschinenfunktion. Ein derartiger Technozentrismus nimmt leicht technokratische Züge an. Und in der Technokratie lauert immer die Autokratie.
Algorithmendesigner sind «mitschuldig»
Besonders die Transparenz der KI-Systeme erweist sich aus der Perspektive ex ante als Problem. Wer Algorithmen entwickelt, die potenziell eine gesellschaftliche und politische Funktion ausüben, macht sich a priori «mitschuldig». Das heisst, Entwickler trainieren Algorithmen auf massiven Datenmengen, und hier bedienen sie sich spezifischer, prädefinierter Schlüsselbegriffe wie «Hochrisiko-Person», «kreditwürdig» oder «krankheitsanfällig».
Der Algorithmus definiert diese Begriffe nicht. Die Entwickler erteilen sich dabei gern selbst Absolution, indem sie auf die Unergründlichkeit ihrer Artefakte hinweisen. Aber Unergründlichkeit ist ein Feigenblattausdruck für die Machtdynamik zwischen Designern und Usern von KI-Systemen. Ohnehin trägt sie heute zum Blackbox-Nimbus der KI-Systeme bei. Und gefährlich daran ist gerade ihre Entschuldigungsfunktion – als könne man nichts dafür, was das autonome Artefakt so alles anstellt.
Die angebliche Unergründlichkeit von KI-Systemen trägt heute zu deren Blackbox-Nimbus bei. Das algorithmische Innenleben von Facebook bleibt Firmengeheimnis.
Exemplarisch hat sich das beim Facebook-Algorithmus EdgeRank gezeigt. Er steuert und sortiert den ununterbrochenen Nachrichtenstrom zwischen Usern. Er wird immer wieder neu justiert. Obwohl Facebook gelegentlich den Anschein eines Willens zur Transparenz suggeriert, das heisst, partielle Einblicke in das algorithmische Innenleben gewährt, bleibt dieses ein Firmengeheimnis. Eine «esoterische» Clique von Algorithmenwärtern hütet es, doktert am Code herum und übt Kontrolle über die Hauptkanäle heutiger Kommunikation aus.
Je aktiver ein Nutzer, desto mehr füttert er den Algorithmus mit seinen bevorzugten Daten und trainiert ihm so fortlaufend seine Eigenheiten und Voreingenommenheiten an. Die Gelehrigkeit des Algorithmus dressiert heimlich den Nutzer. Der Algorithmus richte sich doch nur nach dem Verhalten des Nutzers, also trage dieser allein die Verantwortung. So «entschuldigt» sich Facebook.
Demokratie braucht realen Konsens
Natürlich entspricht solche Scheinheiligkeit der üblichen Politik grosser Unternehmen, auch wenn sie Verantwortung auf die Forschungsagenda setzen. Das Problem liegt darin, dass dem Computer – wie es der amerikanische Philosoph John Haugeland einmal zuspitzte – die Welt scheissegal ist («they don’t give a damn»). In diesem Sinn kann man sagen: Den Algorithmen ist die Demokratie scheissegal.
Umso weniger scheissegal sollte sie uns sein. Das ruft zuallererst nach einem inneren Ruck: Die Realität der Demokratie braucht einen robusten Konsens, basierend auf den realen gemeinsamen Handlungsoptionen, die wir Bürgerinnen und Bürger offline pflegen. Auch wenn wahrscheinlich nicht intendiert, zielt die Politik der Algorithmen auf die Reduktion solcher Optionen ab, also im Grunde auf Entpolitisierung, sprich Entdemokratisierung.
Die Politik der Algorithmen zielt auf die Reduktion sozialer Handlungsoptionen ab, also im Grunde auf Entpolitisierung, sprich Entdemokratisierung.
Die Kooperation zwischen Mensch und KI-System ist bereits Alltag. Und sie eröffnet neue Handlungsspielräume. Das heisst aber auch: Immer mehr «definiert» Technologie diese Räume, bestimmt deren Horizont. Und gerade den Horizont des Demokratischen müssen wir im Auge behalten. Er kann sich verkleinern. Dann erhalten auch Begriffe wie «Partizipation», «Meinungsäusserungsfreiheit», «Privatheit» oder «Kompetenz» eine von den KI-Systemen prädefinierte Bedeutung – möglicherweise eine «verkleinerte».
Techno-Totalitarismus
Was zur Anfangsfrage zurückführt: Wie können Artefakte überhaupt als «Akteure» wirken? Mein Antwortvorschlag: Das «Akteurhafte» der Artefakte ist Symptom dafür, dass wir uns selbst als Akteure immer mehr «zurücknehmen». Wir bekommen es mit einer tiefen Technologie zu tun. Sie webt sich derart fest ins soziale Leben ein, dass sie in diesem tendenziell verschwindet. Unter ihrer oberflächlichen Handhabung entgleitet sie unserer Kontrolle, unserem Verständnis.
Die tiefe Technologie webt sich derart fest ins soziale Leben ein, dass sie in diesem tendenziell verschwindet.
Die schleichende Anpassung an die Geräte ist kaum aufzuhalten. Das wissen die Technounternehmen. Man halte sich nur vor Augen, wie Twitter den politischen Meinungsaustausch beeinflussen kann. Eine solche Technologie setzt sich in der Regel nicht demokratisch durch, sie bürgert sich ein, ohne dass Bürgerinnen und Bürger ein Wort mitreden können. Wir spielen mit den Artefakten das Spiel bereits dann, wenn erst einmal das Plebiszit ansteht, ob wir es spielen wollen.
Und genau das ist das Ideal des «Metaversums». Man kann das «meta» so deuten: «über» der Demokratie, «über» unseren Entscheiden stehend. Im Klartext: Techno-Totalitarismus à la Silicon Valley.