Vielleicht haben wir aufgrund unseres eigenen Endes einen eschatologischen Sinn, das bedeutet: sind wir anfällig für die Vorstellung eines Endes der Welt. Jedenfalls gab es immer schon apokalyptische Szenarien. Und seit der Mitte des letzten Jahrhunderts gibt es ihrer mehr denn je. Die meisten zeichnen den Weltuntergang als anthropogen.
Wahrscheinlichkeitskalkül mit dem Ende der Welt
Die ersten beiden Dekaden des 21. Jahrhunderts blicken auf eine Proliferation von Worst-Case-Szenarien, in denen über die Abschaffung der Menschheit spekuliert wird – oft hat man fast den Eindruck: mit einer gewissen kalkulatorischen Lust an der Parametrisierung des Untergangs. Bill Joy, damals Chefprogrammierer von Sun Microsystems, begann den Reigen im Jahre 2000 im amerikanischen Magazin Wired mit einem Artikel des Titels „Why the Future doesn’t need us“. Im Jahr 2006 sorgte der Report des Ökonomen Nicholas Stern mit seinen Prognosen über die wirtschaftlichen Folgen der globalen Erwärmung für Aufsehen: Er sah mit einer Wahrscheinlichkeit von 9.5 % die Auslöschung der Menschheit in diesem Jahrhundert voraus; eine andere Studie, jene des Future of Humanity Institute (Oxford), kam 2008 auf 19 %.
Nick Bostrom, Mitverfasser der Studie und gegenwärtig hoch gehandelter Philosoph der existenziellen Risiken, schrieb schon 2002, dass eine Wahrscheinlichkeit kleiner als 25 % „irreführend“ sei; die „besten Schätzungen können deutlich höher sein“. Der britische Astrophysiker Martin Rees schreibt in seinem Buch mit dem nicht gerade aufmuternden Titel „Our Final Century“ (2004), unsere Spezies habe eine Chance von 50 %, das Jahrhundert zu überstehen. Um in die Zukunft zu schauen, liesse sich daraus schliessen, muss man keine Sachkenntnis haben, sondern kann bloss eine Münze werfen.
Was steht eigentlich auf dem Spiel?
In besorgter Verwirrung fragt sich natürlich der Laie angesichts dieser Katastrophen-Lotterie, was er von solchen Wahrscheinlichkeiten zu halten habe. Und die Antwort darauf lautet: Nicht viel. Zunächst sollte man die wachsende Zahl von Risikostudien nicht als Indiz wachsender Risiken missdeuten. Das kann zu Angstmacherei und reaktivem Nichtwissenwollen führen, also genau zum entgegengesetzten Ziel einer seriösen Studie. Was einen nicht davon dispensiert, sich über den Verlauf der Zukunft „der“ Menschheit Gedanken zu machen, das heisst, über die Frage: Was genau steht eigentlich auf dem Spiel?
Die bereits erwähnte Studie des Future of Humanity Institutei listet die acht grössten existenziellen Risiken auf, das heisst, die Auslöschwahrscheinlichkeit der menschlichen Spezies, falls bestimmte, als riskant erachtete Ereignisse einträfen. Experten wurden nach ihrer Einschätzung der Risikofolgen bis zum Jahr 2100 gefragt. Zuoberst rangiert Nanotech-Terrorismus, darunter künstliche Superintelligenz, Kriege (generell), künstliche Pandemien, nukleare Konflikte, Unfälle in der Nanotechnologie, natürliche Pandemien, nuklearer Terrorismus.
Existenzielles Risiko oder globale Katastrophe?
Selbstverständlich müssen solche Einschätzungen mit einigen Körnern Salz gewürzt werden. Zu viele persönliche, statistische und spekulative Unwägbarkeiten sind in sie eingewoben. Nichtsdestoweniger zeigen sie ein bemerkenswertes Resultat. In der Befragung der Experten wurde neben dem existenziellen Risiko ein zweites Kriterium berücksichtigt: die globale Katastrophe. Sie bemisst sich an der Wahrscheinlichkeit, dass das riskante Ereignis mindestens eine Million Tote verursachen würde (andere Szenarien rechnen auch mit einer Milliarde). Die Rangierung fällt dann anders aus: zuoberst Kriege (generell), dann natürliche Pandemien, künstliche Pandemien, nukleare Konflikte, Nanotech-Terror, nuklearer Terror, Superintelligenz, Unfälle in der Nanotechnologie
Wie man sieht, sind existenzielles Risiko und globale Katastrophe nicht identisch. Machtübernahme durch Superintelligenz muss keine globale Katastrophe sein, könnte sich aber langfristig als verheerendes existenzielles Risiko herausstellen. Klimawandel dagegen ist eine globale Katastrophe, aber nicht zwingend ein existenzielles Risiko für die ganze Spezies: ein „privilegierter“ Teil würde wahrscheinlich überleben. Zyniker – es gibt sie durchaus – könnten sich zum Argument verleitet fühlen, dass der Preis der Erhaltung der Spezies nun halt ein paar globale Katastrophen erfordere.
Superintelligenz: Supergefahr?
Was man von solchen Szenarien auch halten mag, sie führen uns unweigerlich in die höchst unbehagliche Zwickmühle des Prioritätensetzens. Wissenschafter wie Stephen Hawking, Unternehmer wie Elon Musk und Bill Gates, Philosophen wie Nick Bostrom, Politiker wie Barak Obama legen grosses Gewicht auf die zukünftige Entwicklung der künstlichen Intelligenz. (2) Und dementsprechend plädieren sie auch für die Förderung einer „freundlichen“ künstlichen Intelligenz. Theoretisch ist es möglich, dass sich eine solche Intelligenz selbst verbessert, und falls sie dies tut, ist anzunehmen, dass sie es schnell tut. Man kann immer Hoffnung in die Freundlichkeit der Maschinen setzen, aber deren Algorithmen werden sich wahrscheinlich einem vollständigen menschlichen Verständnis entziehen und sie könnten sich als entsprechend unkontrollierbar und anfällig für einen Amoklauf herausstellen.
Nicht wenige glauben, dass dieses Kontrollproblem unlösbar ist. Abgesehen davon denken wir hier viel zu anthropozentrisch. Wie wollen wir wissen, ob sich die Intelligenz in den Maschinen überhaupt um uns kümmert? Womöglich entwickelt sie ganz andere Kategorien des Weltverstehens. Womöglich ist sie nur am menschlichen Rohstoff interessiert. Mit grosser Wahrscheinlichkeit ist sie überhaupt nicht „interessiert“, wie wir Menschen es sind. Mit den Worten des Autors Eliezer Yudkowsky, „liebt dich die künstliche Intelligenz nicht, sie hasst dich auch nicht, aber du bestehst aus Atomen, die vielleicht für etwas anderes verwendet werden können.“
Die Erwarter der Apokalypse
Nun handelt es sich hier um Risiken auf spekulativ hohem Risiko. Andere Risiken sind realistischer, etwa jene der Biotechnologie, die sich durch die neuen Eingriffs- und Manipulationsmöglichkeiten ins Erbmaterial, ergo durch Bio-Terrorismus ergeben. Aber der Risikofaktor Technologie sollte uns nicht vom Risikofaktor Mensch ablenken. Hier erweist sich ein anderes Phänomen immer mehr als geradezu unheimlich: Es gibt nicht nur die Warner vor der Apokalypse, es gibt auch die Erwarter – jenen Menschenschlag, dem das Weltende seelische Höchsterregung bereitet. Das apokalyptische Fieber speist sich quasi aus der Energie eines Kernkonflikts zwischen Glaubenssystemen, deren Unverträglichkeit gerade in ihren Vorstellungen über die Endzeit liegt. Der Risikologe Phil Torres spricht in seinem Buch „The End“ (2016) – in Anlehnung an Samuel Huntington – denn auch vom „Clash der Eschatologien“. (3) Ihn müssen wir durchaus fürchten.
(1) Anders Sandberg, Nick Bostrom: Global Catastrophic Risks Survey, Future of Humanity Institute, 2008; www.fhi.ox.ac.ik/grc-report.pdf
(2) Bostroms Buch bietet die gegenwärtig solideste Darstellung der Lage; Nick Bostrom: Superintelligenz, Frankfurt a. Main, 2014.
(3) Phil Torres: The End. What Science and Religion Tell Us about the Apocalypse; North Carolina, 2016, S. 191f.