Gewöhnlich bescheinigt man dem Menschen einen Willen zum Wissen. Aristoteles hat ihn in seiner „Metaphysik“ klassisch festgeschrieben: „Alle Menschen haben von Natur ein Verlangen nach Wissen.“ Heute könnte man diesen Satz zeitadaptiert so formulieren: „Alle Menschen haben von Natur ein Verlangen nach Information.“ Einer der Pioniere der Kognitionspsychologie, George Miller, bezeichnete den Menschen kurzerhand als „Informavoren“, als Informationsfresser.
Homo smartphoniensis
Das führt bekanntlich zu Problemen. Eines hat zu tun mit dem Wissen, das man besitzt, und dem Wissen, das andere über einen besitzen. Dieser Unterschied verwischt sich zusehends. Der Mensch ist nicht nur ein Informationsfresser, er ist auch eine Informationsschleuder. Die tragbare Technologie, die uns ständig bis in die intimsten Nischen hinein begleitet, bestärkt Letzteres. Wir senden durch den Gebrauch der smarten Geräte permanent Informationen in die Cloud, welche irgendwo, von irgendwem aufgelesen, gesammelt, und in diesem Sinn als „Wissen über uns“ verwendet werden können.
Die Technologien der Datenanalyse entwickeln sich dabei zu immer raffinierteren Lese- und Deutungsinstrumenten unserer elektronischen Spuren. Algorithmen werden entwickelt oder bereits verwendet, die mit hoher Wahrscheinlichkeit herausfinden, welche Rasse, welches Gender, welchen Beruf, welche Delinquenzanfälligkeit, Lebenserwartung oder Krankheitsdisposition eine Person hat. Der Effizienzsteigerung solcher „seherischen“ Systeme sind kaum Grenzen gesetzt, und sie korrelieren mit der riskanten Neigung des Homo smartphoniensis, immer mehr Daten über sich selbst in den digitalen Äther zu versprühen.
Kommunikation ist menschlich. Und Kommunikation hat sich schon immer neuer Technologien bedient: der Schrift, des Buchdrucks, der Telegrafie und Telefonie, nun des Internets. Wenn wir bei Letzterem von einer riskanten Neigung sprechen, dann vor allem deshalb, weil die ganze mobile Technologie – Smartphones, Bankkarten, Wearables usw. – unsere Kommunikation immer mehr vom ursprünglichen menschlichen Zweck entfremdet und einem monströsen inkontinenten Datenproduktionsprozess einverleibt.
Algorithmen-Audit
Es gibt heute zwei Hauptstrategien, personenbezogene Daten gegen den Zugriff der künstlich intelligenten Systeme – gegen den „Blick von aussen“ – zu verteidigen. Die erste setzt bei den Algorithmen an: beim Algorithmen-Audit. Man verbietet, bestimmte diskriminierende oder inkriminierende Paramer in die Programme einzubauen; Parameter also, die auf Rasse, soziale Klasse, Gender, Alter, Krankheitsgeschichte oder sonst auf irgendeine sensible Gruppenzugehörigkeit schliessen lassen. Das wäre quasi der Imperativ der Unparteilichkeit. So sollte im Allgemeinen bei einer Bewerbung das Geschlecht einer Person kein ausschlaggebender Parameter sein. Auch ist es Versicherungen in vielen Ländern nicht erlaubt, alle Details über den Zustand ihrer Kunden vor deren Immatrikulation einzuholen; sie dürfen sich höchsten über spezifische Risikofaktoren in Kenntnis setzen.
Aber eine solche Strategie verlangt von technologischen Unternehmen und Regierungsstellen, dass sie ihre Software ständig für eine Überprüfung auf Voreingenommenheit bereithalten. Das dürfte sich als technisch schwierig, kostspielig und vor allem politisch kaum durchsetzbar erweisen. Algorithmen sind häufig gut gehütete Geschäftsgeheimnisse. Wer würde zudem solche Audits durchführen und wie wären sie einer ungeschulten Öffentlichkeit verständlich zu machen?
Europäische Datenschutz-Grundverordnung
Die zweite Strategie setzt deshalb bei den Daten selbst an. Es gibt seit kurzem eine Europäische Datenschutz-Grundverordnung. Artikel 5 statuiert unter anderem ausdrücklich die „Zweckgebundenheit“ und „Minimiertheit“ personenbezogener Daten. Das heisst, sie müssen „für festgelegte, eindeutige und legitime Zwecke erhoben werden und dürfen nicht in einer mit diesen Zwecken nicht zu vereinbarenden Weise weiterverarbeitet werden“; und sie müssen „dem Zweck angemessen und erheblich sowie auf das für die Zwecke der Verarbeitung notwendige Mass beschränkt sein“.
Nun verrät eigentlich schon die Formulierung, wo der Hase im Pfeffer liegt. Kriterien wie Zweckgebundenheit erlauben das Sammeln von Daten, wenn es sich als irgendwie nützlich erweist, und es ist relativ leicht, sich irgendeinen Nutzen aus den Fingern zu saugen. Firmen im Datengeschäft können ihre Zwecke breit und lax formulieren. Das berüchtigte, inzwischen insolvente Unternehmen Cambridge Analytica gab als Ziel das Assessment von Personen an. Darunter lässt sich ziemlich viel subsumieren, insbesondere das Sammeln von kontroversen Daten. Ja, man kann geradezu einen Sport – oder einen Beruf – daraus machen, das Sammeln von kontroversen und dubiosen Daten mit Verordnungen abzugleichen.
Dazu gehört auch das inzwischen zum Usus gewordene Einholen der Nutzerzustimmung. Algorithmendesigner sind Experten der Zustimmungs-Fabrikation. Wer von uns Nutzern weiss schon, welch weiteren Gebrauch seiner Daten er billigt, wenn er die Bedingungen einer Website akzeptiert? Datenschutzverordnungen schaffen den Anreiz, umgangen zu werden. Und Nutzer sind dazu da, beobachtet zu werden. Sie sind Algorithmenfutter.
Eine Radikallösung: Sammelverbot
Überspitzt gesagt, bedeutet der Gebrauch digitaler Technologie die Einwilligung ins Überwachtwerden. „Die Überwachung, die uns aufgedrängt wird, übertrifft heute jene der Sowjetunion bei weitem“, schreibt der Software-Aktivist Richard Stallman: „Es gibt so viele Methoden, Leuten mittels Daten Schaden zuzufügen, dass die einzige sichere Datenbank jene ist, die nicht gesammelt wurde.“ Datenschutzverordnungen regulieren den Gebrauch von Daten, aber die Wurzel des Problems heisst personenbezogenes Datensammeln.
Stallman fordert daher künstlich intelligente Systeme, die ohne den „Treibstoff“ solcher Daten funktionieren. In der Tat beobachten wir ja bei den portablen Geräten die Tendenz zur Multifunktionalität: Handy oder Kreditkarte liefern alle nur denkbaren Dienste. Eine Kreditkarte ist längst nicht mehr blosses Zahlungsmittel. Das Bargeld „weiss“ nichts über den Bezahler, die Kreditkarte dagegen schon.
Wenn etwa Städte für ihr Verkehrsnetz ein automatisiertes digitales Zahlsystem mittels Karten einführen, dann bedeutet dies, dass der Benutzer des öffentlichen Verkehrs auch automatisch zum Lieferanten seiner Mobilitätsdaten wird, die sich unter Umständen für weitere Zwecke verwenden lassen. Ein Algorithmus kann daraus Schlüsse über seinen Arbeitsort, seine alltäglichen Gewohnheiten, seine bevorzugten Adressen, sein Freizeitverhalten und weiteres ziehen. Er kann diese Schlüsse mit jenen aus anderen Algorithmen vergleichen und „weiss“ so immer mehr über den Verkehrsbenutzer – und all das nur, weil der Benutzer mit seiner Karte zahlt. Die multifunktionale Karte oder das multifunktionale portable Gerät macht ihn zum idealen Objekt der Beobachtung. Der Journalist Reto Stauffacher hat kürzlich den Selbstversuch unternommen, einen Tag im Leben eines Handybenutzers aufzuzeichnen: „Ein Tag in meinem Leben. Erzählt von der Google-Datenspur“; NZZ, 21.6.2018.
Der Mensch als Ausbeutungsware
Nicht dass den Big-Data-Unternehmen die ganze Schuld zuzuschieben wäre. Dadurch dämonisieren wir sie und lenken vom anderen Mitschuldigen ab: von uns selbst. Ich komme damit noch einmal zurück auf den Unterschied zwischen dem Wissen, das ich selbst und über mich selbst besitze, und dem Wissen, das andere über mich besitzen. Zur Verwischung dieses Unterschieds tragen wir Nutzer natürlich erheblich bei.
Technische, juristische, politische Massnahmen sind zweifellos nötig und dringend, um die personenbezogene Datenernte einzudämmen. Auf dem Spiel steht aber mehr, nämlich, um es pathetisch auszudrücken, die Erosion der menschlichen Würde unter den Bedingungen des ständigen Beobachtet-, Beurteilt- und Eingeordnetwerdens. Wir scheinen uns bereits an diese allgegenwärtige Exponiertheit zu gewöhnen, ja, nicht wenige geniessen sie geradezu. Der Exhibitionismus in den Social Media grassiert bis ins Pornografische. Wir mutieren dadurch zu Zielscheiben des Mikrotargetings, im Kommerz wie in der Politik – Ausbeutungsware, der es Spass bereitet, ausgebeutet zu werden.
Eine subversive Trivialität
Gewiss, Menschenwürde ist ein grosses Wort. Es erhält aber speziell unter den genannten Bedingungen eine neue, eine geschärfte Kontur. Ich behaupte, dass darin nun das Nichtwissen eine zentrale Rolle spielt. Die Würde der Person ist unantastbar – fordern wir. Aber persönliche Daten sind antastbar – wissen wir. Dabei geht freilich leicht die Trivialität vergessen: Die Person ist nicht identisch mit persönlichen Daten. Oder, etwas mehr ins Philosophische gewendet: Die Person ist immer mehr als die Summe dessen, was über sie gewusst werden kann.
Das ist eine subversive Trivialität. Sie richtet sich gegen Auswüchse eines „Absolutismus der Transparenz“. Der Wille zum Nichtwissen bedeutet nicht Ignoranz, Geheimnistuerei, totale Netzabstinenz oder Gegenaufklärung. In ihm steckt vielmehr ein aufklärerisches Moment, sofern er sich dem unersättlichen und anmassenden Blick „von aussen“ verweigert, der in Wissenschaft, Politik, Wirtschaft – immer mehr auch im Privatleben – zur Hegemonie drängt und den Menschen allenthalben auf seine Durchsichtigkeit reduziert.
Das Spurenelement Undurchsichtigkeit
Man sollte Undurchsichtigkeit als ein unveräusserliches Gut betrachten. Wie Privatheit, die am Ende des 19. Jahrhunderts gefordert wurde. Das heisst nicht, dass man sich dem anderen Menschen nicht zu erkennen geben sollte, sondern, dass sich in diesem Rest von Intransparenz die Würde der Person äussert. Kant nannte die Person „heilig“. Das wird in einem Zeitalter der machtvollen Durchleuchtungsmaschinen eminent wichtig. Man könnte sagen: Das Spurenelement Undurchsichtigkeit macht dich erst richtig zur eigenständigen, unabhängigen Person. Wer sie total transparent zu machen sucht, „entheiligt“ sie.
Oder geben wir Nietzsche das letzte Wort: „Heute gilt es uns als eine Sache der Schicklichkeit, dass man nicht alles nackt sehen, nicht bei allem dabei sein, nicht alles verstehen und ‚wissen’ wolle. Tout comprendre c’est tout mépriser ...“