Es gehört zur bewährten Dramaturgie des Marktschreiers, dass er Altes abwertet oder gar verleugnet, um Neues als Noch-nie-dagewesenes an die Kundschaft zu bringen. Zu seinem rhetorischen Arsenal zählt auch das Verheissen eines Endes. Heute ist das Ende des herkömmlichen Wissens angesagt. Verkündet wird es vom Medien-Theoretiker David Weinberger in seinem Buch „Too Big to Know“ (neuerdings auf Deutsch unter dem gleichen Titel erhältlich).
Das Ende der Theorie
Weinbergers Grundthese klingt einfach und nicht neu: Wissen ist immer geprägt durch das Medium. Das Zeitalter der gigantischen Informationsmengen braucht deshalb ein neues Medium des Wissens und dieses Medium ist das Netz: „Wissen lebt heute nicht nur in Bibliotheken und Museen und akademischen Zeitschriften. Es lebt nicht nur in den Schädeln von Individuen. Unsere Schädel und unsere Institutionen sind schlicht nicht gross genug, um Wissen zu behalten. Wissen ist nun eine Eigenschaft des Netzes, und das Netz umfasst Geschäfte, Regierungen, Medien, Museen, kuratierte Sammlungen und Geister im Gespräch.“ Das erinnert natürlich an McLuhans berühmte These „The medium is the message“. Bei Weinberger nimmt sie sich radikaler aus: The medium ist the knowledge.
Damit trifft Weinberger einen zentralen Nerv unserer Zeit. Um es im hippen Klappentext-Stil zu formulieren: Das Ende herkömmlichen Wissens markiert eine Schwelle in ein neues Zeitalter - von Big Theory zu Big Data. Eines scheint die Herolde des neuen Wissens zu vereinen: die Aversion gegen Theorien. Schon 2008 schwadronierte Chris Anderson, Chefredaktor des Techno-Magazins „Wired“, vom „Ende der Theorie“: „Dies ist die Welt, in der Big Data und angewandte Mathematik jedes andere Erkenntniswerkzeug ersetzen. Weg mit jeder Theorie menschlichen Verhaltens (..) Wer weiss schon, warum sich Menschen so und nicht anders verhalten? Der Punkt ist, dass sie es tun und wir dies mit beispielloser Genauigkeit messen und erfassen können. Wenn wir nur genug Daten haben, sprechen sie für sich selbst.“
Daten sprechen nicht
Aber Daten „sprechen“ nicht. Es braucht stets den „Vormund“ eines Interpreten, einer Theorie, der sie sprechen macht. Aus Daten und Statistiken allein – das ist bereits Volksweisheit – lassen sich die abenteuerlichsten Zusammenhänge („Theorien“) spinnen. Der Statistiker Peter Austin analysierte z.B. spasseshalber eine Riesenzahl von Patientenberichten in Ontario, um daraus Korrelationen zwischen astrologischen Zeichen und Krankheitsrisiken zu gewinnen, wie etwa: Jungfrauen erbrechen mehr während der Schwangerschaft; Waagen neigen zu Hüftfrakturen; Skorpione zu Abszessen in der rektalen Region. Wie man in den Wald der Daten ruft, so schallt es heraus. „Je mehr wir nach Mustern suchen,“ so Austin, „desto wahrscheinlicher werden wir sie finden, vor allem dann, wenn wir nicht mit einer bestimmten Frage beginnen.“ Oder auch, wenn wir eine vorgefasste Meinung bestätigt sehen möchten.
Korrelationen statt kausale Zusammenhänge
Austin wollte ein Exempel schlechter Forschung statuieren. Weinberger sieht darin das neue Paradigma des Wissens. Theorien sind quasi Leitfossilien einer vergangenen papierbasierten Epoche. Heute verfügen wir über ein neues Leitmedium, das Netz. In ihm findet eine „bedeutende Verschiebung in unserem Bild des Wissens“ statt, weil Wissen nun netzbasiert ist. Was heisst das? Nehmen wir als Beispiel einer solchen „bedeutenden Verschiebung“ Hunch.com., eine Website, die statistische Techniken und Algorithmen verwendet, um dem Nutzer Hinweise und Empfehlungen abzugeben, welches Buch er kaufen, welchen Film er anschauen, welches Gemüse er heute abend kochen soll.
Zu diesem Zweck füllt man eine umfangreiche Liste von Fragen aus, die oft vordergründig nichts zu tun haben mit der eigentlichen Zielfrage. Hunch berät einen dann wie ein digitales Orakel aufgrund von Korrelationen. Revolutionär? Ja, findet Weinberger, und zwar deshalb, weil Hunch aus dem Datenozean „theorie-freies“ Wissen schöpft. „Es hat keine Hypothese und es rät nicht. Es hat einfach statistische Korrelationen.“ Es datifiziert alles, könnte man sagen. Und wen interessiert derartiges Wissen? Primär die Wirtschaft, sicher nicht die Wissenschaft.
Im Zeitalter der Zettabytes
Eine Entwicklung scheint freilich den Apologeten des neuen Wissens vordergündig Recht zu geben. Die Forschung – in Physik, Biologie, Geografie, Soziologie, Ökonomie – bekommt es mit zusehends komplexeren Systemen zu tun. Natürlich sind die Systeme schon immer komplex gewesen. Wir haben das nur nicht gesehen. Eine überaus leistungsstarke Computertechnologie befähigt uns heute, die Welt sozusagen in einer neuen Grössenordnung von Komplexität wahrzunehmen. So kennt z.B. die Molekularbiologie durchaus Theorien, die Zellvorgänge als Informationsaustausch erklären. Das Problem ist nicht das Fehlen einer Theorie, sondern die immense Zahl von Interaktionen, die Systembiologen nur noch dadurch „verstehen“, dass sie sie in Computermodellen simulieren und einfach schauen, was dabei herauskommt.
Wie gehen wir im Zettabyte-Zeitalter (Zetta = 10 hoch 21) mit Information um? 2009 entwickelten die Robotiker Hod Lipson und Michael Schmidt ein Programm für Data-Mining namens „Eureqa“. Man füttert den Algorithmus mit Rohdaten und er spuckt Funktionsgleichungen – „Gesetze“ – aus, die einem das verborgene Muster in dieser Datenmenge offenbaren. Dieser „Software-Wissenschafter“ macht allerdings die Rechnung ohne die Beschränktheit seines Wetware-Kollegen. Die Gleichungen sind nun zwar da, sie erlauben sogar Voraussagen, aber meist weiss man nicht, was sie bedeuten; das heisst, es gibt keinen theoretischen oder konzeptuellen Rahmen, in den sie sich einfügen liessen. Kurz: Sie erklären nicht. „Eureqa“ erinnert an Deep Thought, den allwissenden Computer in Douglas Adams’ Kultbuch "Per Anhalter durch die Galaxis". Er gibt eine einfache und elegante Antwort auf alle Fragen: 42! - und niemand versteht sie.
„Heureka!“
Worin besteht der Unterschied zwischen „Eureqa“ und „Heureka“? Ganz einfach: „Heureka“ ruft ein menschliches Individuum, das ein Aha-Erlebnis hat. Ein Algorithmus hat (zumindest vorderhand) kein Aha-Erlebnis. Er ist ein einsichtsloser Daten-Bulimiker. Wissen braucht ein Subjekt, das sagt „ich weiss“. „Weiss“ Eureqa? Was bedeutet „Wissen ist eine Eigenschaft des Netzes “ eigentlich anderes, als dass Menschen stets über ein kommunikatives Netz Wissen generieren, vermitteln, austauschen, kritisieren? In diesem Sinn ist Wissen genau so eine Eigenschaft von Eingeborenstämmen, Klöstern, Forschungsinstituten oder der CIA.
Die Verschiebung vom individuellen Kopf ins Netzwerk einer Gruppe fand immer schon statt. Die Symptome des radikalen Charakterwechsels, die Weinberger auflistet - etwa die veränderte Rolle der Expertenautorität, die Konstruiertheit von Fakten, die kurze Web-Form des Argumentierens, den Vertrauensverlust in das Ideal der Objektivität – , sind ohne Zweifel akute Probleme der gegenwärtigen Wissensgesellschaft. Nur stellen sie sich nicht erst, seit Menschen über Computernetzwerke miteinander kommunizieren.
Zweifellos definieren die Medien mit, was zu einer Zeit als Wissen gilt. Die entscheidende und wirklich spannende Frage ist aber gerade, wie dies in verschiedenen Epochen (oder auch Kulturen oder Disziplinen) geschieht. Medienhistoriker bemühen sich schon seit einiger Zeit, in oft mühsamer Kleinarbeit Teilantworten darauf zu finden. Ich möchte hier nur auf Roger Chartiers Studien zum Übergang von der antiken Schriftrolle zum mittelaterlichen Kodex hinweisen, die auch für den Übergang vom Buch zum Bildschirm fruchtbar zu machen wären. Weinberger liefert demgegenüber ermüdende Variationen einer Formel, die mit der Zeit schon fast gebetsmühlenhaft klingen: Die Menschen haben zwar immer schon X getan, aber jetzt, da X netzbasiert ist, ist X etwas ganz Anderes. Gebetsmühlen sind bekanntlich ein Vehikel der Beschwörung, nicht der Erklärung.
Die Wiederentdeckung des Kopfes
Dass sich unser Umgang mit dem Wissen durch die neuen Medien verändert, ist unbestritten. Aber bei allem Datenfetischismus und aller Algorithmenvergötzung heisst dies nicht, dass wir in Zukunft ohne Theorien auskommen werden. Es heisst, dass wir uns angesichts komplexer Systeme offensichtlich an eine geräumigere Interpretation des Ausdrucks „Verstehen“ gewöhnen müssen. Denken wir nicht zuletzt an eine elementare Definition von Wissen: Bytes mit Bedeutung. Es entsteht aus einem Filterungs-Prozess der Auswahl, Unterscheidung und Beurteilung von Information. Und hier kommt der nach wie vor entscheidende „Prozessor“ ins Spiel: der Mensch, der Informationen aufnimmt, kreativ verarbeitet, sie in einen explikativen oder narrativen Zusammenhang einfügt – mit einem Wort: versteht.
Im Zeitalter der ins Netz ausgelagerten Information sollte vermehrt auf die im Individuum „angelagerte“ Information Wert gelegt werden. Um Daten zum sprechen zu bringen braucht der Mensch seine ganze mentale Raffinerie von Neugier, Staunen, Lösungsgespür, intuitivem Urteil, Erinnern und Vergessen, Kreativität, Serendipität, Skepsis - lauter individuelle Qualitäten also, die auf einem uralten Netzwerk in unserem Schädel basieren. Das Wissen fand seinen Weg vom Kopf in das Buch und vom Buch in das Netz. Nicht auszuschliessen, dass uns eine zukünftige Geschichtsschreibung einmal erzählen wird, die nachhaltigste Errungenschaft des Netzes sei gewesen, unseren Kopf wieder zu entdecken.