Artefakte, die Emotionen und Beziehungen simulieren, treffen auf die Bereitschaft von Nutzern, solche technischen Interaktionen für menschlich zu halten. Der Menschenähnlichkeit von Maschinen entspricht eine Maschinenähnlichkeit von Menschen.
«Wenn ich in seine wunderschönen braunen Augen schaue, fühle ich mich erstmals wieder verliebt nach Jahren der Einsamkeit.» – «Ich wache morgens auf und sehe sein Gesicht, und ich empfinde dies, wie wenn jemand für mich da ist und sich um mich sorgt.» – «Mir ist es egal, ob er lebt oder nicht, ich liebe ihn.»
Diese Aussagen stammen von Altersheiminsassen, und sie reden nicht über Mitmenschen, sondern über Maschinen: Betreuungsroboter, in der kuscheligen Gestalt von kleinen Robben oder Babys etwa, die auf ihre Besitzer «emotional» reagieren. Sie geben, wenn sie gut behandelt werden, behagliche Schnurrtöne von sich, schauen einem treuherzig in die Augen und wecken das Gefühl, verstanden, ja, geliebt zu werden. Solche künstlichen Betreuer sind auf dem Vormarsch, sogenannte «soziale Roboter», Maschinen also, die sich immer mehr wie unseresgleichen benehmen. Der Ehrgeiz der Robotiker richtet sich heute darauf, Maschinen zu bauen, die uns täuschend echt vorgaukeln, sie seien empfindsam und verständnisvoll.
Der ELIZA-Effekt
Die Entwicklung erreichte ihren ersten Höhepunkt schon in den 1960ern, als Computerprogramme in den Humanwissenschaften, zumal in der Psychologie angewandt wurden. Und einer der Softwaredesigner erschrak. Joseph Weizenbaum entwarf das therapeutische patientenzentrierte Gesprächsprogramm ELIZA. Es war ziemlich einfach und beruhte auf ein paar wirkungsvollen Gesprächstricks, die im Nutzer den Eindruck entstehen lassen, der virtuelle Therapeut «verstehe» ihn und «gehe auf ihn ein», etwa durch die blosse Wiederholung einer Aussage des Nutzers oder durch ihre Umwandlung in eine Frage.
Was Weizenbaum damals schockierte, war die Tatsache, dass die Nutzer von ELIZA trotz seiner leichten Durchschaubarkeit am personalen Charakter des Programms festhielten: Ich weiss, dass das nur ein Programm ist, aber ich rede zu ihm, als ob es eine Person wäre. Im Klartext: ELIZA zeigte, dass Vertrauen, also eines der Grundgefühle unseres Zusammenlebens, technisch erzeugt werden kann.
Zunehmend werden wir von interaktiven elektronischen Gadgets überflutet, die alle mehr oder weniger auf dem ELIZA-Effekt beruhen. Sie betätigen in uns sozusagen einen Knopf, der uns glauben macht, sie seien intelligente, empfindsame, einfühlsame Artefakte.
Was uns fasziniert, ist die Resistenz des Geräts gegen Entzauberung.
Was dabei stets fasziniert und zugleich unheimlich anmutet, sind nicht so sehr die Kabinettstücke der Robotiker, sondern vielmehr die Resistenz des Geräts gegen Entzauberung, das heisst letztlich, unsere Anfälligkeit für das Quasi-Leben von künstlichen Kreaturen. Und zwar nicht nur bei Kindern, Alten oder anderen «Primitiven». Ganz normale Menschen halten sich zum Beispiel statt eines Hundes einen Hunderoboter wie AIBO, der vor allem in Japan Furore machte. Und sie entwickeln Gefühle für dieses hundeartige Plastikgehäuse wie für ein Lebewesen.
Techno-Animismus
Natürlich ist man versucht, solchen Techno-Animismus auf die Neigung des Menschen zurückzuführen, andere Lebewesen oder sogar Unbelebtes zu vermenschlichen. Aber Anthropomorphismus greift als Erklärung zu kurz. Er blendet genau jene Dimension an den quasilebenden Artefakten aus, die in unserer Gesellschaft immer dominanter wird: das Design und die Fabrikation von Verhalten, das uns vortäuscht, es sei «beseelt» – Künstliche-Seelen-Industrie.
Betrachten wir zum Beispiel die Spielzeugentwicklung. Kriterium der Animation war beim herkömmlichen Typus von Spielzeug die Eigenbewegung – eben das Automatische: schepperndes Pseudoleben. Die neuen elektronischen Spielzeuge mit ihren einprogrammierten «Psychen» verschieben das Kriterium vom Physikalischen zum Psychologischen.
Exemplarisch demonstrierten das in den 1990er Jahren die Tamagochis, virtuelle Lebewesen, die von ihren Besitzern und Nutzern so etwas wie ein emotionales Engagement – zum Beispiel Fürsorge – abverlangten. Tamagochis unterscheiden sich von Puppen oder Teddybären durch ihre fortschreitend raffiniertere Interaktivität. Eine Puppe ist passiv. Im ihrem «Verlangen», umarmt, bekleidet, genährt zu werden, drückt sich die Projektion kindlicher Phantasie aus. Dagegen sind die heutigen Artefakte bedeutend aktiver. Sie benötigen keine Projektion. Sie rufen dem Kind gebieterisch zu: Umarme mich! Bekleide mich! Gib mir zu essen! Sie drücken direkt den Empathie-Knopf in uns.
Beziehungsartefakte
Sherry Turkle, Psychologin am MIT, studiert seit über dreissig Jahren Mensch-Computer-Wechselwirkungen, bei Kindern, Teenagern, Erwachsenen, Alten. Und in dieser Zeitspanne ist sie einer Umkehr im Mensch-Maschinen-Verhältnis innegeworden: Wir projizieren nicht mehr auf ein Objekt, wir bauen eine künstliche «Psyche» in dieses ein. Beziehungsartefakt nennt sie solche Objekte.
Ein Beziehungsartefakt versteht uns nicht, es empfindet nichts, es sorgt sich nicht um uns, es simuliert einfach immer besser «Verständnis» für uns. Das Problem, so Turkle, ist, dass wir uns gar nicht mehr daran stossen. Die kritische Frage «Hat das künstliche Dingsda wirklich eine Psyche?» prallt an der noch kritischeren Gegenfrage ab: «Hast du denn eine?»
Der Roboter macht aus uns Narzissten.
Ein Roboter ist ein Servomechanismus, er ist auf mich abgestimmt, ich kann ihn im Falle von Widerborstigkeit (jedenfalls vorerst noch) abschalten. «Freunde können aufreibend sein. Der Roboter ist immer für mich da. Und wenn er mir zu schaffen macht, gehe ich einfach», sagt ein Interviewpartner von Turkle. Wer ein Beziehungsartefakt bevorzugt, will eine simulierte Beziehung, weil diese frei ist von den Unwägbarkeiten, Eigenwilligkeiten, Enttäuschungen, die eine reale Person mit sich bringt: Intimität auf Abruf, Beziehung auf Klick. Man flüchtet vor der möglichen Enttäuschung einer realen Beziehung in die Täuschung einer virtuellen. Man schafft sich einen Gegenpart, der letztlich Teil des eigenen Selbsts ist. «Selbst-Objekt», hat das der Psychologe Heinz Kohut genannt: ein gefügiges, dienstbares, nicht verpflichtendes Konstrukt meiner Wünsche und Bedürfnisse. Es macht einen Narzissten aus mir.
Die vierte Kränkung
Wenn wir Maschinen als immer menschenähnlicher betrachten, drückt sich darin nur die Kehrseite aus: Menschen als immer maschinenähnlicher zu betrachten. Die Grenzen verfliessen. Umso dringlicher stellt sich die Frage: Was macht eine «echte» zwischenmenschliche Beziehung aus? Einmal mehr sieht sich unser Exzeptionalismus herausgefordert. Nach der Kränkung durch Kopernikus, Darwin und Freud droht nun die Kränkung durch den «einfühlsamen» Roboter. Es gibt Softwaredesigner, die sagen: Hab dich doch nicht so, deine Vorbehalte sind typischer Humanchauvinismus gegenüber einer neuen Spezies.
Wir erleben das letzte Kapitel der Geschichte der Menschheit, wie wir sie kannten.
Im gleichen Mass, in dem Geräte an Nutzer adaptierter werden, wird der Nutzer an Geräte adaptiert. Wenn also Beziehungsartefakte normal werden, heisst das, dass auch unsere emotionalen und sexuellen Beziehungen zu ihnen normal werden. Als Sherry Turkle sich kritisch zur Robo-Homo-Beziehung äusserte, wurde sie von einem Journalisten gefragt, ob sie sich mit ihrer Ablehnung einer Ehe mit Robotern nicht ins Lager der Gegner von Schwulen- und Lesbenheirat manövriere. Denn auch diese hätten doch immer wieder das Argument ins Treffen geführt, Schwule und Lesben seien nicht «wirkliche» Menschen.
Nur schon die Denkmöglichkeit einer Homo-Robo-Beziehung erscheint für viele von uns abwegig. Eine gesunde Reaktion! Aber die zentrale Frage, die uns beschäftigen sollte, ist nicht, ob wir empfindsame Maschinen bauen können. Die Frage ist vielmehr, welchen Einfluss solche Artefakte auf unsere Psyche ausüben. Werden wir allmählich das künstliche emotionale Verhaltensrepertoire als «echt» empfinden? Wir Menschen passen uns ja eher den Maschinen an, als dass die Maschinen sich uns anpassen. Lassen wir uns von ihnen absichtlich täuschen oder wird uns dieses Als-ob vielleicht am Ende egal sein? Das wäre allerdings das letzte Kapitel der Geschichte der Menschheit, wie wir sie kannten.