„Er“ oder „es“ täuschte einem Drittel seiner Gesprächspartner vor, ein Mensch zu sein, nämlich ein ukrainischer Teenager mit der Vorliebe für Eminem und dürftigen Englischkenntnissen. Eugene steht in einer langen Reihe von Versuchen, Computer mit Intelligenz und sogar Persönlichkeit zu konstruieren. Dabei ist das eigentliche Problem gar nicht so sehr eines der Konstruktion, sondern vielmehr der Anerkennung von künstlichen System als „unseresgleichen“. Ein Faszinosum geht aus von ihnen: die Aura eines von uns geschaffenen Wesens, das Leben und Geist nachahmt; die Idee, jemand könnte darin „zu Hause“ sein. Wenn ja, was? Wer? -
Turing und die simulierte Frau
Um die Frage zu beantworten, ob eine menschenähnliche Intelligenz in einer Maschine residieren kann, ersann Alan Turing 1951 ein sogenanntes „Imitationsspiel“. Vorlage war ein bekanntes Gesellschaftsspiel, in dem ein Teilnehmer das Geschlecht zweier verborgener Gesprächspartner über einfache Fragen erraten muss. Da es sich um Menschen handelt, besteht der Reiz des Spiels darin, einander auszutricksen, den Fragesteller auf die falsche Fährte zu führen. Turing ersetzte einen menschlichen Partner durch einen künstlichen. Eine nicht unbedeutende Marginalie ist, dass es Turing im ursprünglichen Spiel darum ging, eine Frau zu simulieren. Sein Setting bestand aus einem Fragesteller, einer Frau und einem Computer, der eine Frau simuliert. Er schlug vor, eine Maschine darauf zu prüfen, ob sie in der Lage wäre, weibliche Sensibilität und Intelligenz vorzutäuschen. Das Szenario hat etwas Pikantes, wenn man sich daran erinnert, dass es von einem Logiker erdacht wurde, der seine Homosexualität – seine Weiblichkeit? – im England seiner Zeit verbergen, also eigentlich Männlichkeit simulieren musste. Er ging darob zugrunde.
Das unendliche Spiel
Über dieses – tragische – biographische Detail hinaus stellt uns der Turing-Test vor eine fundamentale Frage. Wir Menschen können fast alles simulieren: Liebe, Empathie, Angst, Krankheit, die Identität einer Frau oder eines ukrainischen Teenagers; warum also sollte dies nicht auch eine Maschine können? Der Turing-Test ist ein Spiel um Sein und Schein, ein unendlliches Spiel. Die Logik dahinter: Wenn die Maschine gemäss bestimmter Kriterien den Anschein erweckt, sie sei intelligent, dann ist sie intelligent. Nun ist das ein klassischer Fehlschluss, den gewisse Roboterbauer allerdings geradezu in ihr Herz geschlossen haben. Etwa David Levy, der im Besonderen für die Ausweitung der Sexzone auf künstliche Partner plädiert: „Wenn ein Roboter wie ein Tamagochi nach Aufmerksamkeit ‚schreit’, dann drückt er seine eigene Form von Emotion aus wie ein Baby, das nach seiner Mutter schreit.“
Die Sozialisierung der Maschine
Einmal abgesehen von der brüchigen Analogie bewegen wir uns hier nicht mehr auf dem Terrain der Computeringenieure, Softwaredesigner oder Kognitionswissenschafter. Es geht nicht um Bau und Funktionsweise von menschenähnlichen Artefakten, sondern quasi um ihre Sozialisierung. Man vergegenwärtige sich nur, dass uns Turings Problem allenthalben in Games und sozialen Netzwerken begegnet. Wir stossen hier Klick um Klick auf künstliche oder hybride Identitäten, auf weibliche Avatare oder Chatbots, die vorgeben, eine Frau zu sein. Und viele Robotiker drehen den Spiess um und fragen: Ist denn Intelligenz ein menschliches Monopol? Findet sie sich nicht auch im Tier-, ja, im Pflanzenreich, in unzähligen artspezifischen Varianten? Warum nicht auch im wachsenden neuen Reich künstlicher Spezies? Müssten wir dann Computern nicht auch eine gewisse persönliche Schutzwürdigkeit zugestehen?
Können Roboter leiden?
Der Philosoph Jeremy Bentham hatte im 19. Jahrhundert ein berühmt gewordenes Kriterium für die Schutzwürdigkeit von Tieren formuliert, das auch für Roboter relevant werden könnte: „Die Frage ist nicht: Können sie denken? Auch nicht: Können sie sprechen? Sondern: Können sie leiden?“ Nehmen wir einmal an, Neuro- und Computerwissenschafter – zum Beispiel die Leute vom Blue Brain Project - hätten nach dem aktuellsten Wissensstand der Neurobiolologie einen „schmerzfähigen“ Androiden gebaut, dessen Ausdrucks- und Vehaltensrepertoire Schmerzen simulieren. Hat er Schmerzen? Leidet er, wenn ich bestimmte Module entferne? Wir sollten uns hier – zumindest für den Augenblick – von der Vorstellung lösen, ein denkendes und leidendes Wesen habe wie wir gebaut zu sein. Wir spielen vielmehr mit der Idee eines leidenden Wesens, dessen „Nervensystem“ aus Elektronik und Software besteht und nicht aus Neuronen und Hormonen. Die Science Fiction variiert diese Vorstellung schon längst in dramatischen Entlarvungs-Szenarien. Der Roboter Ash in „Alien“, wird am Ende in seine Bestandteile zerschlagen, aus ihm sickert hochkonzetrierte Säure als „Blut“, und er haucht seine „Seele“ in elektrischen Funkenentladungen und Rauchentwicklung aus.
Eine „gleichgültige“ Homo-Robo-Mischgesellschaft
Um zu ermessen, was hier auf dem Spiel steht, ist eine Unterscheidung nötig. Wenn wir den simulierenden Androiden entlarvt haben, dann ist die Illusion, die zerstört wird, eine andere als beim Menschen. Beim Menschen sagen wir „Was für ein Simulant“; beim Androiden dagegen „Was für ein trickreicher Mechanismus“. Mit andern Worten: Der Android hat nicht Schmerzen vorgetäuscht, sondern ein Personsein. Man stelle sich nun vor, wir quittierten die zwei Aussagen mit dem Zusatz: „Aber das ist im Grunde einerlei.“ Genau dies wäre das Szenario einer „gleichgültigen“ Gesellschaft, in welcher der Unterschied zwischen Schmerzen haben und Schmerzen simulieren immer hinfälliger wird. Das Gewicht, das gewisse Programmdesigner der Täuschung beimessen, gibt zur Vermutung Anlass: Bewegen wir uns auf eine solche Gesellschaft des Bluffs zu?
Unsere Anfälligkeit für Vortäuschungen von Intelligenz
Die einzig verlässliche Lektion von Software-Agenten wie Eugene Goostman ist unsere Anfälligkeit für Vortäuschungen von Intelligenz. Als Haupttrick solcher Programme erweist sich das Konfabulieren, also Ausflüchte und Irreführungen. Das kann sogar zu humorvollen Effekten führen. Hier ein kleines Beispiel.
Fragesteller: Du erinnerst mich an Sarah Palin.
Eugene: Täusche ich mich, aber ist Sarah nicht ein Roboter, wie viele andere „Leute“ auch? Wir sollten die Pläne für solche schwatzenden Abfallkübel endlich entsorgen.[1]
Naive Fragensteller mögen den Witz dem Programm zuschreiben und genau mit dieser Neigung – dem anthropomorphen Fehlschluss - rechnen die Programmdesigner. Wie der Kognitionswissenschafter Gary Marcus schreibt, sind die Gewinner-Programme des Turing-Tests „fast von Natur aus hinterlistig“. Und ziemlich gnadenlos hat ein anderer Kognitionswissenschafter, Hector Levesque, den Turing-Test kommentiert: „Um ihn zu bestehen, muss ein Programm entweder ausweichend sein (sich vor der Frage drücken) oder eine Art von falscher Identität fabrizieren (darauf vorbereitet sein, überzeugend zu lügen) (..) Die Chatbots beruhen massiv auf Wortspielen, Witzen, Zitaten, emotionalen Ausbrüchen, Appellen an die Einhaltung der Vorgehensordnung usw. Also auf allem, so scheint es, ausser klaren und direkten Antworten!“ Gewiss, es gibt Fortschritte im Design von Gesprächsprogrammen. Eugene wirkt intelligenter als Weizenbaums Therapieprogramm Eliza aus den 1960er Jahren. Es gibt erweiterte, verfeinerte Fragestellungen. Aber damit sind die entscheidenden Fragen noch gar nicht erst gestellt.
Wenn die Roboter eingebürgert sind...
Sie kommen dann auf uns zu, wenn man Roboter oder Software-Agenten nach bestandenem Test „eingebürgert“ haben wird. Wie stellen wir uns zu ihnen? Wie zu gewöhnlichen Personen? Zu Personoiden? Turing ging es um eine flexible, intelligente Alltagskompetenz, wie sie Menschen in unzähligen Situationen ihres täglichen Lebens demonstrieren, vom Schuhebinden über das Einschalten der Kaffeemaschine bis zum Lösen von quadratischen Gleichungen. Die wesentliche Frage ist genau die, ob sich eine solche Kompetenz überhaupt algorithmisch übersetzen und damit in eine Maschine einbauen lässt, wie „lernfähig“ sie auch sein mag. In der Zeit seit Turing haben Programme ja erstaunliche „Intelligenz“ demonstriert, vor allem in Spielen wie Schach oder Jeopardy. Aber diese Stärken beruhen auf ihrem spezifischen Aufgabenbereich. Selbst unter Menschen ist bekanntlich umstritten, was als Intelliegnz gelten soll. Jedenfalls beurteilen wir sie normalerweise nicht anhand derart eingeschränkter behavioristischer Kriterien wie sie der Turing-Test festlegt. Wir achten auf anderes als bloss auf ihr „Chat-Verhalten“ – auf Ironie, Gespür für Ambivalenzen und Finessen, implizites Wissen - ; vielleicht sollte man im Twitter-Zeitalter sagen: zumindest jetzt noch. Denn hier manifestiert sich ein Phänomen, das viel ernster genommen werden müsste: Die schleichende Anpassung unseres sozialen und kommunikativen Verhaltens an die Geräte, die teilweise schon zu Zusatzorganen geworden sind.
Die heimliche Tücke des Artefaktes
Was schwerer wiegt, ist also eine Politik der Simulation, mit der all die schönen neuen Gadgets unseren Alltag infiltrieren. Ihr Design zielt geradezu darauf ab, uns in einen Schlummer einzulullen, in dem uns der Unterschied zwischen menschlichem und maschinellem Verhalten tendenziell „einerlei“ wird. Das ist das Heimtückische an der ganzen Entwicklung. Wir alle sind Eugene Goostmans - bis zu einem gewissen Grad. Wir wissen nur nicht, bis zu welchem. Das nutzen die Robotiker aus: Hab dich doch nicht so, „im Prinzip“ bist du auch nur ein Programm! Wir tun gut daran, vor dieser Logik der Trickster auf der Hut zu sein.
[1] Einen Strauss von Müsterchen finden man hier: http://www.theguardian.com/technology/2014/jun/09/eugene-person-human-computer-robot-chat-turing-test/print