Roboter sind angesagt. Man braucht sich nur Schlagzeilen anzuschauen: Roboter imitiert Känguru; Roboter soll in Oper singen; Roboter mit Gedächtnis faltet sich selber zusammen; Roboter als Nachrichtensprecherin; Roboter arbeiten im chinesischen Restaurant; Merkel trifft Roboter in Tokio. Wie es scheint, können Roboter alles, was auch wir Menschen können – und noch viel mehr.
Vom Roboterbauer zum Robotererzieher
Dahinter verbirgt sich natürlich die Frage: Kann man dem Roboter Intelligenz, Bewusstsein einbauen? Die Frage gilt in einschlägigen Kreisen als notorisch schwierig und wird entsprechend als das «harte Problem» etikettiert; schwierig vor allem deshalb, weil es so aussieht, als wollte man der Maschine etwas implantieren, über das man selbst beim Menschen nicht klar Bescheid weiss.
Seit einiger Zeit suchen die Robotiker das Problem mit einem neuen Ansatz zu umgehen, der sich an der Erziehung orientiert. Wir «bauen» unseren Kindern ja nicht Intelligenz und Bewusstsein ein. Intelligenz und Bewusstsein entwickeln sich vielmehr, indem das Kind ins soziale Leben integriert wird. Der herkömmliche «befehlende» Ansatz des Programmierens war, zu sagen, was getan werden soll. Im neuen Ansatz lernt die Maschine selber das zu tun, was wir von ihr wollen. Voraussetzung ist natürlich die nötige Hardware. Und die meisten Robotiker sind überzeugt, dass die Anlage für solches Lernen durchaus herstellbar ist. Kindeserziehung wird so ausgeweitet auf Maschinenerziehung. Aufgabe der Robotik ist nicht mehr bloss die komplexe Architektur von sensomotorischen Modulen, sondern auch, diesen Komplex Mores zu lehren: Maschinenpädagogik.
Kismet, das Maschinenkind
Pionierarbeit leistete in den 1990er Jahren die Computeringenieurin Cynthia Breazeal vom Massachusets Institute of Technology (MIT) mit ihrem Roboter Kismet. Er ist ausdrücklich daraufhin konzipiert, vermenschlicht zu werden. Seine Verhaltensmodule sind lernfähig im Umgang mit Menschen. Kismet, ein Roboterkopf ohne Rumpf, rührend rehäugig, grossohrig, wie E.T. auf Kindchenschema angelegt, weckt in uns sorgende Instinkte. Wie Cynthia Breazeal selbst sagt: «Menschen entwickeln sich zu sozial intelligenten Wesen, und wir glauben, dass Roboter davon profitieren können.» Im Klartext: Kismet ist ein Maschinenkind.
Rodney Brooks, der damalige Leiter des MIT-Robotiklabors, sprach es aus: «Denken Sie an Mütter, die ihre Kinder Verhalten lehren. Die Mutter führt Dinge vor, welche die Kleinen noch nicht selber tun können. Aber die Mutter sagt nicht ‚Oh, die Kleine kann es nicht’. Stattdessen, spielen beide zusammen ein Spiel. Und aus diesem Spiel heraus sieht sich das Kind Dingen ausgesetzt, von denen es lernen kann.» Wie das Kind, so der Roboter. Die elektrischen Schaltkreise wollen nicht einfach gebaut und gewartet, sie wollen umsorgt und aufgezogen werden. «Altricial robotics» nennt man das in Anlehnung an die Ornithologie: «Nesthocker-Robotik». Nun verlassen die Maschinenküken ihr Nest.
Ultraintelligenz
Jüngstes Kind aus dieser Aufzucht ist Myon, Prototyp eines Roboters, den das Team um den Berliner Neuro-Robotiker Manfred Hild zu sozialem Umgang erziehen will. Computertechnisch bedeutet dies einen Wandel von der zentral programmgesteuerten zur dezentral selbstorganisierenden, lernenden Maschine. Myon sind nur einfache Grundregeln einprogrammiert, die ihm ein adaptives Verhalten ermöglichen sollen. Er ist dadurch viel flexibler als ein fest programmierter Roboter, er gewinnt an humanoider Individualität, ja er hat eine «Biografie». Wird er zu einem Quasi-Menschen, den wir allmählich als «unseresgleichen» akzeptieren müssen?
In der Frage schwingt meist die Besorgnis mit, wie denn mit zunehmender «Eigenwilligkeit» des Artefakts auch seine Gutwilligkeit zu gewährleisten sei. Man könnte – um hier einem Begriff des Philosophen Ivan Illich wieder zu Bedeutung zu verhelfen – vom Problem der Konvivialität der Maschinen sprechen.
Das Problem wurde schon vor fünfzig Jahren erkannt. Der britische Mathematiker Irving John Good (Mitarbeiter von Alan Turing bei der Entzifferung der deutschen Enigma-Verschlüsselungsmaschine im zweiten Weltkrieg) brachte 1965 die Idee einer ultraintelligenten Maschine auf, die nicht nur dem intelligentesten Menschen überlegen ist, sondern nun selbst intelligentere Maschinen entwerfen kann, die ihrerseits wiederum intelligentere Maschinen entwerfen, ad infinitum – eine «Intelligenzexplosion». «Deshalb,» so Good, «ist die erste ultraintelligente Maschine die letzte Erfindung, die der Mensch (...) machen muss, vorausgesetzt, die Maschine ist gutmütig genug, uns mitzuteilen, wie sie unter Kontrolle gehalten werden kann.»
Der Roboter: die Transzendenz-Maschine
Das ist in der Tat ein Problem. Der Roboter ist ja die Transzendenz-Maschine schlechthin. In ihm eröffnet sich die Aussicht, wie wir das Humane «überschreiten» (transzendieren) können. Das macht ihn zu etwas Numinosem: anziehend und unheimlich zugleich. Das Problem sehen auch die Roboterkindergärtner von Myon. Auf die Standardfrage, ob uns dereinst die Nachkommen von Myon «übertrumpfen» würden, gibt Hild den Standardtrost: «Ich glaube nicht, dass wir Angst zu haben brauchen, wenn wir es schaffen, (Robotern) unsere Werte zu vermitteln.»
«Wenn wir es schaffen...» – das ist ein Konditional von geradezu epochalem Ausmass. Denn was sind «unsere» Werte? Jene der Robotiker? Ihrer Investoren, der globalen Digitalunternehmen, des «Westens»? Man stelle sich das unwahrscheinliche Szenario vor, ein muslimisches Robotikerteam baue einen Roboter, der zur islamischen Werteordnung erzogen wird (unwahrscheinlich deshalb, weil ja der Roboterbau eine islamische Ketzerei darstellt; er unterliegt dem Verbot, Gottes Werke zu imitieren).
Die Philosophin Susan L. Anderson und der Computerwissenschafter Michael Anderson, die einen Roboter zur Krankenpflege entworfen haben, forderten unlängst in einem Artikel im Scientific American eine «ethische» Künstliche Intelligenz; insbesondere appellierten sie an die einschlägigen Kreise, keine moralischen Maschinen zu verwenden, wo kein ethischer Konsens über Handlungen besteht.
Aber gibt es diesen ethischen Konsens überhaupt unter Menschen? Ist es nicht gerade die Crux moralischen Verhaltens, dass sich ein universelles Kriterium schwer – wenn überhaupt – finden lässt? Menschliche Moralität stellt ja selbst ein permanentes «Labor» dar. Abtreibung, Euthanasie, kulturelle Diversität, Umgang mit Tieren: Auf solchen ethischen Minenfeldern herrscht unter humanen moralischen Agenten alles andere als Konsens. Bedeutete es dann nicht eine Ausweitung der Kampfzone, wenn wir nun diese Konsenslosigkeit auf künstliche moralische Agenten übertrügen?
Menschenbild ohne Menschen
Gewiss, es gibt die überspannte Besorgniserregung. Zu denken geben sollte aber die professionelle Sorglosigkeit der Robotererzieher. Ihre puerile Naivität wäre zum Schiessen, würde sie nicht von der Industrie ernst genommen. Als ob es bloss eine Frage der Technik (und der Zeit) wäre, den Artefakten Werte einzupflanzen und womöglich moralische Konflikte aus der Welt zu schaffen. Zuerst bauen, und dann schauen.
Ich glaube nicht einen Augenblick an eine solch übergeschnappte technologische Vision, aber die Zuversicht, die sich darin ausdrückt, verrät noch etwas anderes, etwas, mit dem wir uns wirklich ernsthafter beschäftigen müssten: ein Menschenbild ohne Menschen. In dem Masse, in dem wir ein Roboterverhalten unserem eigenen Verhalten angleichen, in dem Masse unterwirft der Mensch sich dem Gesichtspunkt der Technologie. Der «Humanfaktor» wird zum – womöglich defizienten – maschinellen Qualitätsmerkmal unter anderen.
Rodney Brooks bringt dies deutlich zum Ausdruck: «Im Kern sind Roboter nicht so sehr verschieden von lebenden Dingen. Es ist alles Mechanik. Menschen bestehen aus Biomolekülen, die nach den Gesetzen der Physik und Chemie funktionieren. Wir möchten gern Kontrolle darüber haben, aber wir haben sie nicht. Wir alle sind, Menschen und menschenähnliche Roboter, ob aus Fleisch oder Metall gemacht, im Grunde nur sozialiserbare Maschinen.»
Moratorium in der Robotik
Bevor wir die Roboter erziehen, sollten wir also kritisch fragen, wie und zu welcher Ideologie ihre Designer erzogen worden sind. 1969 fand – ausgerechnet – am MIT eine Art Moratorium statt, ein «Arbeitsstreik» unter Lehrenden und Studierenden, dem sich dreissig andere US-Lehrinstitute anschlossen. Man veranstaltete Teach-ins über das Thema des Missbrauchs der Technologie, des wissenschaftlich-industriellen Establishments, generell der Entwicklung der Technik seit dem Manhattan-Projekt im Zweiten Weltkrieg. Der bekannte Schriftsteller und Gesellschaftskritiker Paul Goodman schrieb einen heute noch lesenswerten Essay in The New York Review of Books: «Can Technology Be Humane?» – Die Frage ist angebrachter denn je, das heisst: Wir brauchen ein Moratorium über Robotik.
Möglicherweise blüht den Roboterkindern ohnehin das Schicksal Kismets: das Robotermuseum – und ihren Erziehern der Kinderspielplatz.