Damit ist Folgendes gemeint: Wenn ich zum Beispiel im Ungewissen bin, welcher Wochentag heute ist, dann habe ich die Wahl zwischen sieben Möglichkeiten. Informiert bin ich, wenn diese Palette von Alternativen auf eine einzige reduziert ist. Jemand sagt mir zum Beispiel: „Mittwoch“. In diesem Sinn kann man ganz allgemein festhalten: Information ist die Reduktion der Alternativen auf idealerweise eine. Je mehr Alternativen, desto höher der Informiertheitsgrad. Wenn nur zwei Alternativen existieren, kann diese Reduktion durch eine einzige Frage erfolgen: „Ist heute Mittwoch oder nicht?“ „Ist der Schalter ein oder aus?“, „Zeigt die Münze Kopf oder Zahl?“, „Stehst du links oder rechts?“ Eine Antwort genügt und ich bin informiert. Eine solche Antwort ist quasi das „Atom“ der Information: das Bit.
Information ist modellabhängig
So weit, so einleuchtend. Aber die Definition hat ihre Tücke. Wenn ich informiert bin, dass heute Mittwoch ist, dann bedeutet dies noch nicht, dass tatsächlich Mittwoch ist. Meine Ungewissheit über die sieben möglichen Alternativen ist einfach beseitigt. Aber der Informant könnte sich getäuscht haben oder lügen. Das heisst, die scheinbar einfache Ein-Bit-Antwort ist im Grunde eingebettet in ein Modell, das gewisse Annahmen trifft, eben zum Beispiel, dass mein Informant wahrheitsgetreu antwortet. Das Atom der Information existiert also nicht „an sich“, sondern immer nur relativ zu einem Modell. Die Frage „Ist der Schalter ein oder aus?“ geht vom Modell einer elektrischen Vorrichtung aus, die genau zwei Zustände kennt. Das ist der Transistor. Leicht denkbar wäre eine Vorrichtung mit kontinuierlichem Übergang von Ein zu Aus. Dann genügte eine Antwort – ein Bit – nicht mehr.
Information bedeutet nicht Wahrheit
Daraus folgt sogleich eine zweite Tücke. Das Modell ist nicht die Realität, die es modelliert; die Karte ist nicht das Gelände. Wir müssen also Information und Wahrheit auseinanderhalten. Bin ich darüber informiert, dass heute Mittwoch ist, dann weiss ich noch nicht, ob die Information stimmt. Meine anfängliche Ungewissheit, die darin bestand, dass ich die Wahl zwischen sieben Alternativen hatte, ist jetzt einfach beseitigt. In diesem Sinn bedeutet Informiertheit als beseitigte Ungewissheit nicht Wahrheit. Die Situation könnte komplizierter sein. Zum Beispiel könnte es nicht genügen zu fragen „Ist heute Mittwoch?“, sondern vielleicht auch „Kenne ich meinen Informanten?“, „Hält er sich an die Fakten?“, „Weiss er überhaupt, dass eine Woche sieben Tage zählt?“ ... Dieses skeptische Spiel liesse sich ins paranoide Extrem treiben. Ich möchte damit nicht nur auf die Modellabhängigkeit der Information, sondern zugleich auch darauf hinweisen, dass wir, soll die Information uns etwas über die Wirklichkeit sagen, irgendwann einmal mit diesem skeptischen Regress aufhören müssen. Anders gesagt: Der Wirklichkeitsbezug unserer Informationen basiert auf dem Vertrauen in ein Modell, auf einem oft impliziten Hintergrundwissen.
Das Ein-Bit-Denken
Eine dritte Tücke ist jene des Ein-Bit-Denkens. Je simpler das Modell, desto geringer der Informationsgehalt, man könnte auch sagen: desto schneller ist man informiert – und trotzdem ignorant. Auch Falschinformation ist Information, und in einem medialen Universum, wie wir es heute kennen, hat Information Priorität, ungeachtet, ob sie wahr oder falsch ist. Das heisst, die Ungewissheit ist beseitigt, man kann sich komfortabel in Gewissheit einmauern und weiss nichts über die Welt.
Das Ein-Bit-Denken zeitigt also das paradoxe Resultat, dass Informiertheit Ignoranz verstärken kann. Und zwar geschieht dies genau dann, wenn wir unserem Denken sozusagen die binäre Kappe überstülpen, unsere Weltsicht in zwei gegensätzliche Raster aufteilen: Einheimische oder Fremde, Freunde oder Feinde, Linke oder Rechte, Gläubige oder Ungläubige. Wer diese binäre Kappe trägt, ist schnell informiert: 1 Bit genügt. Das Merkmal für ignorante Informiertheit.
Verstärkt wird diese Ignoranz überdies durch einseitige Diät. Dafür sorgt primär die Informationstechnologie. Die Algorithmen der Nachrichtenbeschaffung – der Newsfeed – sind so konzipiert, dass sie mir „persönliche“ Informationen liefern, und das heisst dann häufig: Sie liefern Nachrichten, die in meinen Raster passen, die mein Bescheidwissen und meine Gewissheit verstärken. Information aber, wir erinnern uns, setzt Ungewissheit voraus. Wo keine Ungewissheit ist, gibt es keine Information.
Bestätigungs-Bias
Noch ein anderer kontinuierlicher Wandel zeichnet sich hier ab. In den frühen Tagen des Netzes „surfte“ man primär. Man suchte also aktiv nach anderen Websites und entsprechenden Informationen. Der Nutzer bewegte sich auf die Information zu. Heute kommt die Information zum Nutzer. Er wird „gefüttert“. Das liegt grösstenteils an der zunehmenden Raffinesse der Algorithmen, die aus dem „lernen“, was der Nutzer mit ihnen tut.
Die Psychologie bezeichnet dies als Bestätigungs-Bias. Menschliche Kollektive – kleine oder grosse – können ein „Wissen“ kultivieren, das man sich gegenseitig immer wieder bestätigt; dem man huldigt wie einer Devotionalie. Man lebt dann sozusagen in einer Gewissheitsblase. Man weiss im Grunde schon, was man zu hören bekommt. Die News sind nichts Neues. Man braucht gar nicht mehr informiert zu werden, weil man sich schon im Zustand gemästeter Gewissheit befindet. Verschwörungstheorien sind ein typisches Beispiel für diesen Zustand.
Überinformiertheit und kritische Selbsteinschätzung
Und hier lauert eine vierte Tücke: Überfütterung an Information, die erst noch auf die persönlichen Vorlieben des Nutzers abgestimmt ist, vermindert die kritische Selbsteinschätzung und damit den Wirklicheitsbezug. In ihrem Buch „Wir denken, also bin ich: Über Wissen und Wissensillusionen“ (2019, englisches Original 2017) berichten die Kognitionswissenschaftler Steven Sloman und Philip Fernbach über ein aufschlussreiches Experiment. Sie baten zunächst die Probanden, ihren Wissensstand über Politik selbst einzuschätzen. Sodann befragten sie sie – zum Beispiel über den Emissionshandel von Treibhausgasen. Die meisten Befragten sahen sich dabei gezwungen, ihre anfängliche Einstufung nach unten zu korrigieren. Sie sahen also ihre Ignoranz ein.
Das leuchtet ein. Das Erklären eines politischen Mechanismus wie etwa des Emissionshandels kann zur Einsicht in die Begrenztheit eigener Kenntnis führen. In einem zweiten Experiment stellten nun Sloman und Fernbach die Probanden vor die Aufgabe, nicht eine Politik und ihre Folgen zu erklären, sondern ihre eigene Position zu dieser Politik zu begründen. Das Resultat unterschied sich deutlich vom ersten. Die Befragten stuften sich nun in ihrer Beurteilung keineswegs herunter, wurden nicht moderater. Seine eigenen Gründe für die Position zu einer Politik zu nennen ist viel leichter als die detaillierte Erklärung dieser Politik und ihrer Folgen. Wer versteht schon den vertrackten Emissionshandel, wer kennt schon seine Konsequenzen? Aber persönliche Gründe für oder dagegen lassen sich vertreten, ohne dass man viel versteht. Und solche Gründe lassen sich durch die Newsfeed-Maschinerie verstärken.
Vom Informationszeitalter zum Reputationszeitalter
Wir bekommen es heute mit einem Informationswettrüsten zu tun, das die Frage nach der Wahrheit immer mehr ins Hintertreffen geraten lässt. Bei strittigen Themen – zum Beispiel über die Risikolosigkeit von Drogen, die Schädlichkeit von Impfstoffen, die Realität des Klimawandels oder die Gefährlichkeit von 5G-Strahlung – ist häufig eine Pattsituation zu konstatieren. Die eine Seite bezichtigt die andere der Falschinformation, und umgekehrt. Keine gewinnt, weil es in den sozialen Netzwerken immer schwieriger wird, wahre und falsche Informationen, Fakten und Fake zu unterscheiden
Wichtig in einer solchen Situation wird nun die Verlässlichkeitsquelle, aus der man die Informationen bezieht: die Reputation des Informanten. Die Leitfrage lautet jetzt nicht nur „Was sagt mir diese Information?“, sondern auch „Woher stammt diese Information?“ Die Doppelfrage sollte unser intellektuelles Navigationsinstrument im Informationsuniversum sein. Wir Bürger hochtechnisierter Gesellschaften sind sensibel und vital auf „reputierte“ Informationsquellen angewiesen, um zum Beispiel unsere gewählten politischen Repräsentanten zu beurteilen und wenn möglich in die Wüste zu schicken. Längst haben Schlauberger und Schlitzohren mitgekriegt, dass die Beurteilung erschwert wird, wenn man solche Quellen mit System diskreditiert.
Wie Friedrich von Hayek schrieb, beruht „Zivilisation (...) auf der Tatsache, dass wir alle von einem Wissen profitieren, das wir nicht besitzen.“ Ohne Vertrauensbasis lässt sich das prekäre Kollektivgut Wissen mit blosser Information zerstören. In den Meinungskloaken von Facebook und Twitter ist informierte Ignoranz bereits endemisch. Wir müssen das kleine Einmaleins des Vertrauens neu lernen.