In Alex Garlands Film „Ex Machina“ aus dem Jahre 2015 sind wir Zeugen eines neuartigen Szenarios. Der Softwaredesigner Caleb erhält vom Unternehmer und Milliardär Nathan den Auftrag, einen Turing-Test mit der Roboterin Ava durchzuführen (der Name ist eine sinnige Anspielung auf Eva, die erste Frau, und auf Ada Lovelace, die erste Programmierin im 19. Jahrhundert).
Tatsächlich entspricht das Setting aber nicht jenem des Turing-Tests. Caleb weiss von Anfang an, dass er es mit einer Maschine zu tun hat. Nathan umreisst den Auftrag so: „Finde heraus, ob du immer noch das Gefühl hast, sie sei ein bewusstes Wesen“, selbst wenn es sich um eine Maschine handelt. Diese Art von Test verdient einen eigenen Namen: Garland-Test.
Im Laufe der Geschichte, in der Caleb zunehmend Gelegenheit erhält, Ava zu beobachten, sich mit ihr zu unterhalten, ihr auf emotionaler Ebene zu begegnen, hört er auf, sie „nur“ als eine Maschine wahrzunehmen – obwohl er weiss, dass sie eine Maschine ist. Entscheidend für diesen Wahrnehmungswechsel ist nicht, dass Caleb immer tiefere Einblicke in die Art und Weise hat, wie die Roboterin tickt, sondern dass er sich auf den Automaten als auf etwas „Anderes“ einstellt.
Irreversible Einstellung zur Seele?
Was hier vorgeht, ist im Grunde unerhört – und unheimlich. Das Anderswerden der Maschine bedeutet, dass Caleb die Täuschung nicht mehr als Täuschung wahrnimmt. Als ob er seine Einstellung zum Artefakt umgeschaltet hätte zur Einstellung auf eine Person, ja, auf eine Freundin. Ludwig Wittgestein spricht an einer Stelle seiner „Philosophischen Untersuchungen“ dieses Umschalten präzise an: „Denke, ich sage von einem Freunde: ‚Er ist kein Automat.’ – Was wird hier mitgeteilt, und für wen wäre es eine Mitteilung?“ Unter normalen Umständen, so Wittgenstein, bedeutet dies, dass der Freund „sich immer wie ein Mensch, nicht manchmal wie eine Maschine benimmt“. Und unter solchen Umständen ist „meine Einstellung zu ihm eine Einstellung zur Seele. Ich habe nicht die Meinung, dass er eine Seele hat".
Eine Seele haben, oder wie ich bevorzuge zu sagen: eine Person sein ist nicht eine Frage der Meinung, sondern des Zusammenlebens. Es kommt uns absurd vor, an eine andere Person heranzutreten, indem ich sie zuerst sozusagen darauf teste, ob sie eine Person sei oder nicht. Aber genau diese Selbstverständlichkeit sieht sich durch die „neuen Umstände“ der künstlichen Intelligenz herausgefordert. Caleb hat ja von Ava durchaus zunächst die Meinung, sie sei ein Automat. Er ist auf sie nicht als auf eine „Seele“ eingestellt. Vom Augenblick des „Umschaltens“ an hat die Maschine den Status als „Seele“ – als Person – gewonnen. Und „Zurückschalten“ wird unter Umständen schwierig bis unmöglich werden.
Kognitive Exoten
Werden wir künftig auf eine solche Weise mit künstlichen Intelligenzen verkehren? Werden wir „umschalten“ müssen? Einstweilen mutet ein solches Szenario viele Zeitgenossen abwegig, „gestört“ an. Es erinnert uns an E.T.A Hoffmanns Erzählung „Der Sandmann“, in der die Puppe Olimpia dem unglücklichen Jüngling Nathanael den Kopf verdreht, und ihn – nachdem ihre wahre künstliche Natur zutage gekommen ist – in den Wahnsinn stürzt.
Die modernen Nachfolgerinnen Olimpias, die Konstrukte aus den Robotiklabors, treiben ihre Designer nicht in den Wahnsinn, sondern beflügeln ihre Phantasien über eine neue posthumane Spezies, mit der wir – zumindest nach manchen Visionen – schon bald zusammenzuleben haben. Vielleicht führen dann ja die Maschinen einen Test mit uns durch, um uns in Kreise von „ihresgleichen“ aufzunehmen.
Nun, das ist nach wie vor Science Fiction. Aber die faszinierende Ambiguität von Roboterinnen wie Ava sollte uns über die Fiktion hinaus zu denken geben. Was, wenn die fremde Intelligenz nicht derart menschenähnliche Gestalt aufwiese wie Ava? Wenn sie zum Beispiel verkörpert wäre von einem Ozean auf einem fremden Planeten wie in Stanislaw Lems Roman „Solaris“ oder von einem geheimnisvollen Monolithen, wie in Stanley Kubricks Film „A Space Odyssey“? Kognitive Exoten allesamt, also Realisierungen künstlicher Intelligenz, die uns teilweise oder auch ganz unzugänglich bleiben.
Das unheimliche Tal
In den 1970er Jahren publizierte der japanische Robotikpionier Masahiro Mori einen Artikel, in dem er auf eine sonderbare Relation zwischen Mensch und Artefakt hinwies. Unsere familiären Gefühle gegenüber Robotern nehmen in dem Masse zu, in dem sie menschenähnlicher werden. Die Sympathiekurve ist also monoton steigend. Das erstaunt niemanden, sondern bestätigt einfach unseren Hang zum Anthropomorphismus.
Aber von einem bestimmten Punkt an – da, wo der Artefakt fast-aber-nicht-ganz-menschlich ist – verwandelt sich Sympathie in Antipathie, ja, Abneigung, fällt die Kurve steil ab in ein „unheimliches Tal“ („uncanny valley“). Der kalifornische Autor Jamais Cascio spekulierte 2007, dass wir ein zweites Tal dann zu erwarten haben, wenn wir Menschen immer mehr „verbessern“ („human enhancement“), uns also Richtung Transhumanismus entwickeln. Der Nicht-mehr-ganz-Mensch sei genauso unheimlich wie der Noch-nicht-ganz-Mensch.
Unbehagen in der Maschinenkultur
Was erfüllt uns mit Unbehagen? Dass in menschenähnlichen Wesen, die uns zwar nahe sind, doch „niemand zuhause“ ist? Unheimlich, schreibt Sigmund Freud, ist eine Art von heimlich. Denken wir daran, dass uns solches Befremden auch bei „ausgewiesenen“ Menschen befallen kann, etwa bei Michael Jackson oder Silvio Berlusconi, deren Wächsernheit uns an kosmetisch aufgepeppte Leichen erinnert.
Weit entfernt vom unheimlichen Tal beunruhigen uns Automaten ja nicht. Wir wissen, dass wir es mit nicht-menschlichen Wesen zu tun haben, die sich quasi anstrengen, uns ähnlich zu sein. Sie rühren uns geradezu in diesem Bemühen und sie bringen natürlich auch eine narzisstische Saite in uns zum Schwingen. Sie verkörpern eine Hommage an die humane Lebensform. Es gibt keine Zweideutigkeiten, Grenze und Hierarchie sind klar: Hier der Mensch, dort das Menschenähnliche. Wesen oder Artefakte aber, welche diese Grenze zu verwischen beginnen, unterwandern genau die alte Ordnung, sie sind heimliche Thronbeansprucher: Human-Usurpatoren.
Das letzte Kapitel der Menschheit
Nehmen wir an, es gelinge uns, völlig menschenähnliche Roboter zu bauen, deren Verhalten nicht mehr vom menschlichen zu unterscheiden ist; von denen wir aber wüssten, dass sie keine Menschen sind. Müssten wir dann nicht den Kreis von „unseresgleichen“ erweitern und sie als eine neue Spezies akzeptieren?
Darin liegt eine nicht zu unterschätzende Gefahr. Wenn wir erst einmal Maschinen mit Seele zu akzeptieren begonnen haben, dann sind wir nicht weit davon entfernt, auch unsere Seele als maschinell zu begreifen. Wir tun das zum Teil schon jetzt. Die zentrale Frage, die uns beschäftigen sollte, ist also nicht, ob wir Maschinen mit Seelen bauen können, die Frage ist vielmehr, wie wir mit Artefakten zusammenleben, die sich so verhalten, als ob sie bewusst und „seelenvoll“ wären; die ein erotisches Verhaltensrepertoire so durchspielen, dass wir nicht mehr umhin können zu sagen, sie würden uns lieben.
Lassen wir uns von ihnen absichtlich täuschen oder wird uns dieses Als-ob vielleicht am Ende egal sein? Das wäre dann allerdings das letzte Kapitel in der Geschichte der Menschheit, wie wir sie kannten.