Wälder sind ökologische Systeme, in denen Flora, Fauna und Menschen miteinander netzartig verbunden sind. Und wo immer solche Netze existieren, treten auch typische Netzphänomene auf. Zum Beispiel Waldbrände. An ihnen interessiert natürlich primär die Ausbreitung.
Komplexitätsforscher studieren diese Dynamik anhand von Modellen, indem sie den Wald in kleine Parzellen unterteilen (ähnlich gehen Klimamodelle mit der Atmosphäre vor). Jede Modellparzelle ist bewachsen oder leer. Bewachsene Parzellen sind entflammbar, sie können benachbarte bewachsene Parzellen anzünden. Stellen wir uns vor, an einigen Stellen im Wald entsteht ein Feuer zufällig. Nach einer bestimmten Zeit brennen die Parzellen aus, können nicht mehr entflammt werden. Brennt eine Parzelle so schnell aus, dass sie die benachbarte nicht anzünden kann, bleibt das Feuer lokal. Die Ausbreitung erfolgt gemäss einer Dynamik, die von einer einzigen kritischen Grösse abhängt: der Walddichte. Wie viele Prozent der Fläche sind bewachsen und wie viele leer?
Kritische Grössen von Systemen
Selbstverständlich ist das eine sehr vereinfachende Optik. Trotzdem vermittelt sie uns eine erstaunliche Einsicht. Angenommen, die Verteilung der bewachsenen und leeren Parzellen sei zufällig. Nun entsteht im Waldzentrum ein Feuer. Ist die Walddichte hoch, kann diese Initialzündung sich schnell konzentrisch über die ganze Fläche ausbreiten. Ist die Dichte niedrig, verkümmert das Feuer. Dazwischen liegt eine kritische Dichte. In Computersimulationen ist bei dieser Dichte ein interessantes Muster zu beobachten. Die Ausbreitung «zerbricht» in Cluster, zwischen den Feuern bilden sich Inseln, die nicht brennen. Das Muster ähnelt einer fraktalen Struktur. Die Simulationsbilder weisen eine hohe Übereinstimmung mit Satellitenaufnahmen realer Grossbrände auf. Woraus sich ganz praktische Erkenntnisse ableiten lassen: Löschaktionen sollten sich auf die Bereiche eines Brandes konzentrieren, wo fraktales Wachstum – die Ausbreitung des Feuers – effektiver gestoppt werden als durch einen Löschversuch des Herdes.
Ein Epidemie-Modell
Epidemien sind Krankheits-«Brände». Die Komplexitätsforschung entwickelt auch hier Modelle. Eines der ältesten ist das sogenannte S-I-R-Modell, ein Kürzel für «susceptible-infectious-recovered», deutsch: ansteckbar-infektiös/infiziert-genesen. Dem Parameter der Walddichte entspricht die Reproduktionszahl R, die durchschnittliche Anzahl von Infektionen, die eine infizierte Personen verursacht. Immune Personen entsprechen den nicht brennenden Waldparzellen. Der typische quantitative Verlauf einer Epidemie zeigt für jeden R-Wert eine glockenartige Kurve, die ansteigt, irgendwann ihr Maximum erreicht und wieder absteigt. Der kritische R-Wert ist 1. Um diesen Wert herum entscheidet sich, ob die Epidemie wächst oder abklingt. Kritisch nennt man den Wert, weil die Ansteckungshäufigkeit – die Inzidenz – nur schon bei kleinen Schwankungen der Infektionsanzahl sprunghaft ansteigen kann. Wir lesen jetzt wiederholt vom «plötzlichen» Anstieg der Inzidenz. Sie hängt natürlich von der Art des Erregers ab, aber der «plötzliche» – disruptive – Charakter eines Verlaufs ist letztlich eine Systemeigenschaft. Ähnliches lässt sich vom Abwärtstrend des Kurvenverlaufs sagen.
Knoten und Kanten
Eine Analogie zum Waldbrand ergibt sich auch hier. Man stelle sich statt der Parzellierung ein Netz vor. Personen sind Knotenpunkte und ihre Kontakte mögliche Infektionswege («Kanten» oder «Links»). Das Netz hängt als Ganzes zusammen, von einem Knoten führen durchschnittlich gleich viele Kanten zu jedem beliebigen anderen. Ein Erreger kann sich hier schnell und ungehindert ausbreiten. Indem man nun zufällig Knoten impft, eignen sie sich nicht mehr zur Übertragung, Kanten fallen weg, das Netz wird löcherig, zerfällt in Cluster. Das Erreger-«Feuer» kann gezielter lokal bekämpft werden. Es wird endemisch. Das gilt allerdings nur für Netze mit einer bestimmten Systemeigenschaft, leider nicht für die Art, wie sie die Epidemie darstellt. Hier haben die Knoten nicht durchschnittlich gleich viele Kanten. Es gibt wenige mit sehr vielen Kanten – Superspreader, nicht nur von Viren, sondern etwa auch von Fake News – und sehr viele mit wenigen Kanten. Zufälliges Impfen nützt nichts. Man muss vielmehr die Superspreader ausfindig machen oder die Population breit durchimpfen. Natürlich ist diese Aufgabe alles andere als leicht.
Kompliziert heisst nicht komplex
Es geht nicht primär um Waldbrände oder Epidemien. Die beiden Beispiele führen vielmehr einen wahrscheinlich epochalen Wandel in der Wissenschaft vor Augen. Sie bekommt es zunehmend mit komplexen Systemen zu tun, in der Natur, Medizin, Wirtschaft, Technik, Gesellschaft, Politik. Nicht dass man erst jetzt die Komplexität der Welt entdeckt hätte, aber es findet in einem bestimmten Sinn eine Blickumkehr statt: nicht von den Teilen auf das Ganze, sondern vom Ganzen auf die Teile. Die klassische Vorgehensweise, exemplarisch demonstriert durch die Physik, erklärt das Verhalten eines Systems aus den Gesetzmässigkeiten seiner Komponenten. Das funktioniert bestens bei relativ einfachen Systemen, etwa bei Uhren oder auch bei Kühlschränken. Bei Autos oder Computern wird’s schon komplizierter. Aber kompliziert heisst nicht komplex. Ein Puzzle mit tausend Stücken ist kompliziert, nicht komplex. Zehn miteinander verknüpfte Bojen im Dock sind nicht kompliziert; aber auf dem See zeigen sie ein komplexes Verhalten. Im ersten Fall sind die Randbedingungen, unter denen ich das Puzzle zusammensetze, fest. Im zweiten Fall, mit den Schwankungen der Wasseroberfläche, ändern sie sich ständig. Die Bojen bilden ein – wie man sagt – nichtlineares System, in dem die Teile einander wechselseitig beeinflussen.
Der Blick vom Ganzen auf die Teile – ein neuer Forschungsstil
Ständig schwankende Randbedingungen und kritische Parameterwerte kennzeichnen komplexe Systeme wie Waldbrände und Epidemien. Bei ihnen kann man also den Blick nie vom Ganzen abwenden. Eine menschliche Gemeinschaft besteht aus Individuen, deren Vehalten oft erratisch ist. Nebenbei bemerkt, haben Theoretiker des Liberalismus aus diesem Sachverhalt wiederholt das Argument gedrechselt, ein Staat oder irgend eine planende Instanz könnten gar nicht genug über das Verhalten der Bürger oder Konsumenten wissen. Das trifft nur partiell zu. Wenn man nämlich das ganze Individuum «reduziert» auf ein paar ausgewählte systemrelevante Merkmale – es zum «Dividuum» macht –, beobachtet man in Simulationen häufig, dass das Kollektivverhalten durchaus prognostizierbar ist. Es hängt von Parametern ab, die nur im Systemganzen einen Sinn haben. Nicht das Virus ist die Ursache der Epidemie, sondern das System Mensch-Virus mit seiner spezifischen Netzstruktur und seinem netzkritischen R-Wert, letzlich also auch staatliche Massnahmen. Es ist zudem klar, dass die Vorstellung einer einfachen linearen Kausalität zu kurz greift.
Netze halten die Welt zusammen
Hier konstatieren wir einen weiteren Unterschied zum klassischen Wissenschaftsstil. Er beruft sich auf die Universalität von fundamentalen Gesetzen. Sie sind es, die Verbindungen zwischen völlig verschiedenen Phänomenbereichen stiften: das Gravitationsgesetz zwischen dem fallenden Apfel und dem schwarzen Loch; die Elektrodynamik zwischen Licht und Magnetismus; die Relativitätstheorie zwischen Materie und Energie; die Quantentheorie zwischen Teilchen- und Wellenstruktur der Materie. Das Verbindende sind jetzt vermehrt die Eigenschaften komplexer Systeme. Solche Systeme können aus völlig unterschiedlichen Komponenten und ihren Wechselwirkungen bestehen – Wassermolekülen, Zellen, Vögeln oder Websites – und dennoch ein universelles Systemmuster mit Gesetzmässigkeiten «emergieren» lassen.
Das Dilemma der Modellbauer
Komplexitätsforschung ist die Wissenschaft des 21. Jahrhunderts. Das heisst nicht, dass die Welt zunehmend komplexer wird. Sie war es immer schon. Nur haben wir jetzt bessere, ausgetüfteltere Werkzeuge, damit umzugehen: numerische, statistische, algorithmische. Im gleichen Atemzug, in dem man das sagt, sollte man freilich einen Vorbehalt anfügen. Komplexität ist nicht der Schlüssel zu allem. Die Forschung stellt Modelle auf, die sich mehr oder weniger verlässlich für Prognosen eignen. Modelle sind immer «falsch», weil sie per se Details vernachlässigen – es kommt darauf an, dass sie brauchbar «falsch» sind. Modellbau erweist sich deshalb als inhärent dilemmatisch. Berücksichtigen Modelle zuwenige Details, sind sie unbrauchbar, weil sie das reale Geschehen nicht repräsentieren. Berücksichtigen sie zuviele Details, sind sie auch unbrauchbar, weil sie fast so unverständlich sind wie das reale Geschehen. Die Kunst des Modellbaus besteht im Navigieren dazwischen. Es gilt die Maxime: Im Bild zu sein, ist nicht so schwer – drauszukommen schon viel mehr.
* Dieser Text wurde inspiriert von Dirk Brockmanns «Im Wald vor lauter Bäumen» (dtv, München, 2021). Es handelt sich hier nicht um eine Rezension. Immerhin sei gesagt: Das Buch gibt einen instruktiven Einblick in die Komplexitätsforschung.