„Wenn ich in seine wunderschönen braunen Augen schaue, fühle ich mich erstmals wieder verliebt nach Jahren der Einsamkeit“ ... „Ich wache morgens auf und sehe sein Gesicht, und ich empfinde dies, wie wenn jemand für mich da ist und sich um mich sorgt“... „Mir ist es egal, ob er lebt oder nicht, ich liebe ihn...“
Maschinen, die sich immer mehr wie Menschen benehmen
Diese Aussagen stammen von Altersheiminsassen, und sie reden nicht über Mitmenschen, sondern über Maschinen: Betreuungsroboter, in der kuscheligen Gestalt von kleinen Robben oder Babys etwa, die auf ihre Besitzer „emotional“ reagieren. Sie geben, wenn sie gut behandelt werden, behagliche Schnurrtöne von sich, schauen einem treuherzig in die Augen und wecken das Gefühl, verstanden, ja, geliebt zu werden.
Solche künstlichen Betreuer sind auf dem Vormarsch, sogenannte „soziale Roboter“, Maschinen also, die sich immer mehr wie unseresgleichen benehmen. Die Robotiker richten heute ihren Ehrgeiz darauf, Maschinen zu bauen, die uns täuschend echt vorgaukeln, sie seien intelligent, empfindsam, verständnisvoll. Bleibe ihr vermeintliches Bewusstsein, wo es will.
Ich betrachte diese Entwicklung als die entscheidenste in der zweiten Hälfte des letzten Jahrhunderts - nicht für die Technik, sondern für unser Selbstverständnis. Sie erreichte ihren ersten Höhepunkt schon in den 1960ern, als Computerprogramme in den Humanwissenschaften, zumal in der Psychologie angewandt wurden. Hierfür steht emblematisch ELIZA, ein therapeutisches patientenzentriertes Gesprächsprogramm à la Carl Rogers, entworfen von Joseph Weizenbaum.
Flut von interaktiven Gadgets
Das Programm war ziemlich einfach und beruhte auf ein paar wirkungsvollen Gesprächstricks, die beim Nutzer den Eindruck entstehen lassen, der virtuelle Therapeut „verstehe“ ihn und „gehe auf ihn ein“ (z.B. durch die blosse Wiederholung einer Aussage des Nutzers oder durch ihre Umwandlung in eine Frage). Weizenbaum schockierte damals die Tatsache, dass die Nutzer von ELIZA trotz seiner leichten Durchschaubarkeit am personalen Charakter des Programms festhielten: Ich weiss, dass das nur ein Programm ist, aber ich rede zu ihm, als ob es eine Person wäre. Im Klartext: ELIZA zeigte, dass Vertrauen, also eines der Grundgefühle unseres Zusammenlebens, technisch erzeugt werden kann.
Zunehmend werden wir von interaktiven elektronischen Gadgets überflutet, die alle mehr oder weniger auf dem ELIZA-Effekt beruhen. Sie betätigen in uns sozusagen einen Knopf, der uns glauben macht, sie seien intelligente, empfindsame, einfühlsame Artefakte. Was mich dabei stets wieder fasziniert und zugleich unheimlich anmutet, sind nicht so sehr die Kabinettstücke der Robotiker, sondern vielmehr die Resistenz des Geräts gegen Entzauberung, das heisst letztlich, unsere Anfälligkeit für das Quasi-Leben von künstlichen Kreaturen.
Und dies nicht nur bei Kindern, Alten oder anderen „Primitiven“. Ganz normale Menschen halten sich z.B. statt eines Hundes einen Hunderoboter wie AIBO, der bis Mitte des letzten Jahrzehnts vor allem in Japan Furore machte. Und sie entwickeln Gefühle für dieses hundeartige Plastikgehäuse wie für ein Lebewesen.
Eine Künstliche-Seelen-Industrie
Natürlich ist man versucht, solchen Techno-Animismus zu entdramatisieren, indem man ihn auf die Neigung des Menschen zurückführt, andere Lebewesen oder sogar Unbelebtes zu vermenschlichen. Aber Anthropomorphismus greift zu kurz als Erklärung. Er blendet genau jene Dimension an den quasilebenden Artefakten aus, die in unserer Gesellschaft immer dominanter wird: das Design und die Fabrikation von Verhalten, das uns vortäuscht, es sei „beseelt“ - Künstliche-Seelen-Industrie.
Betrachten wir zum Beispiel die Spielzeugentwicklung. Kriterium der Animation war beim herkömmlichen Typus von Spielzeug die Eigenbewegung – eben das Automatische: schepperndes Pseudoleben. Die neuen elektronischen Spielzeuge mit ihren einprogrammierten „Psychen“ verschieben das Kriterium vom Physikalischen zum Psychologischen.
Wir bauen eine "künstliche Psyche"
Exemplarisch demonstrierten das in den 1990er Jahren die Tamagochis, virtuelle Lebewesen, die von ihren Besitzern und Nutzern so etwas wie ein emotionales Engagement – z.B. Fürsorge - abverlangten. Tamagochis unterscheiden sich von Puppen oder Teddybären durch ihre fortschreitend raffiniertere Interaktivität. Eine Puppe ist passiv. In ihrem „Verlangen“, umarmt, bekleidet, genährt zu werden, drückt sich die Projektion kindlicher Phantasie aus. Dagegen sind die heutigen Artefakte bedeutend aktiver. Sie benötigen keine Projektion. Sie rufen dem Kind gebieterisch zu: Umarme mich! Bekleide mich! Gib mir zu essen! Sie drücken direkt den empathischen Knopf in uns.
Sherry Turkle, Psychologin am MIT, studiert Mensch-Computer-Wechselwirkungen seit über dreissig Jahren, bei Kindern, Teenagern, Erwachsenen, Alten. Und in dieser Zeitspanne ist sie einer Umkehr im Mensch-Maschinen-Verhältnis innegeworden: Wir projizieren nicht mehr auf ein Objekt, wir bauen eine künstliche „Psyche“ in es ein. Beziehungsartefakt nennt sie solche Objekte.
Intimität auf Abruf
Ein Beziehungsartefakt versteht uns nicht, es empfindet nichts, es sorgt sich nicht um uns, es simuliert einfach immer besser „Verständnis“ für uns. Das Problem, so Turkle, ist, dass wir uns gar nicht mehr daran stossen. Die kritische Frage „Hat das künstliche Dingsda wirklich eine Psyche?“ prallt an der noch kritischeren Gegenfrage ab: „Hast du denn eine?“
Ein Roboter ist pflegeleicht, er ist auf mich abgestimmt, ich kann ihn im Falle von Widerborstigkeit (jedenfalls vorerst noch) abschalten. „Ich ziehe es vor, mit einem Roboter zu reden. Freunde können aufreibend sein. Der Roboter ist immer für mich da. Und wenn er mir zu schaffen macht, gehe ich einfach,“ sagt ein Interviewpartner von Turkle. Wer ein Beziehungsartefakt bevorzugt, will eine simulierte Beziehung, weil diese frei ist von den Unwägbarkeiten, Eigenwilligkeiten, Enttäuschungen, die eine reale Person mit sich bringt: Intimität auf Abruf, Beziehung auf Klick.
Simulierte Freunde - ähnlich wie bei Facebook
Man flüchtet vor der möglichen Enttäuschung einer realen Beziehung in die Täuschung einer virtuellen. Man schafft sich einen Gegen-Part, der letztlich Teil des eigenen Selbsts ist. „Selbst-Objekt“, hat das der Psychologe Heinz Kohut genannt: ein gefügiges, dienstbares, nicht verpflichtendes Konstrukt meiner Wünsche und Bedürfnisse. Es bestärkt meinen Narzissmus. Sind nicht ein Grossteil von Facebook-„Freundschaften“ genau das: eine Parade von Selbst-Objekten, in denen ich mich beliebig spiegeln kann. Seltsame Welt, in der die besten Freunde simulierte Freunde sind: aber es ist die unsere.
Wenn wir in einer Homo-Robo-Mischgesellschaft Maschinen als immer menschenähnlicher betrachten, warum dann nicht auch Menschen als immer maschinenähnlicher? Was macht dann eine „echte“ zwischenmenschliche Beziehung aus? Einmal mehr scheint mit dieser Hinterfragung der Authentizität unsere Einzigartigkeit auf dem Spiel zu stehen - nach der Kränkung von Kopernikus, Darwin und Freud droht nun die Kränkung durch den „einfühlenden“ Roboter.
"Love and Sex with Robots"
Es gibt Softwaredesigner, die sagen: Hab dich doch nicht so, deine Vorbehalte sind typischer Humanchauvinismus gegenüber einer neuen Spezies. Sherry Turkle wurde von einem Journalisten gefragt, ob sie sich mit ihrer Ablehnung einer Ehe mit Robotern nicht ins Lager der Gegner von Schwulen- und Lesbenheirat manövriere. Denn auch diese hätten doch immer wieder das Argument ins Treffen geführt, Schwule und Lesben seien nicht „wirkliche“ Menschen. Haben denn nicht auch Roboter das Recht auf „wirkliches“ Leben?
So verwunderte es eigentlich nicht, dass 2007 ein Buch mit dem Titel „Love and Sex with Robots“ erschien, geschrieben vom Computerwissenschafter David Levy. „Ich bin überzeugt, dass Sex mit Robotern für einige Teile der Bevölkerung die einzige Art von Sex sein wird,“ schreibt er, „für Aussenseiter, sehr, sehr Schüchterne und sexuell nicht Angepasste – und ich glaube, dass für die übrige Bevölkerung Sex mit Robotern etwas wird, das man sich gönnt – wenn der Partner lange von zu Hause weg ist, beispielsweise –, und zu einer Aktivität wird, die das normale Sexleben ergänzen wird.“
Auch Menschen können Gefühle vortäuschen
Vorausgesetzt, es gibt das normale Sexleben dann noch. Meist bleibt eine Symmetrie in der Symbiose von Mensch und Technik unbeachtet. Im gleichen Mass, in dem Geräte Nutzer-adaptierter werden, wird der Nutzer Geräte-adaptierter. Etabliert sich eine Technologie als Massenphänomen, beginnt sie die „Normalität“ umzudefinieren. Wenn also Beziehungsartefakte normal werden, heisst das, dass unsere Beziehungen immer „artefaktischer“ werden: roboterhaft, leer, instrumentell. Prostituierte, so argumentiert Levy, würden schliesslich auch nur Gefühle simulieren. Warum dann nicht gleich eine Freundin oder ein Freund aus Metall und Latex mit implementiertem venerischem Repertoire?
Ein 59-jähriger Interviewpartner von Sherry Turkle vertraute ihr an: „Meine erste Frau täuschte über fünfundzwanzig Jahre hinweg Orgasmen vor .. Wie soll man da einen Roboter unecht nennen? Sie setzte die Messlatte ziemlich tief an.“ Er bringt es auf den Punkt: Die Messlatte höher ansetzen – das würde heissen, dass wir uns vermehrt darauf besinnen, was es heisst, einer menschlichen Person zu begegnen. Tun wir es, solange wir es noch können.