Im März 2018 dürfte sich – Irrtum vorbehalten – die erste tödliche Kollision eines selbstfahrenden Autos mit einem Menschen ereignet haben. Ein Uber-Volvo raste spätabends in Tempe, Arizona, ungebremst in die 49-jährige Elaine Herzberg, die mit einem Velo die Strasse überquerte. Im Auto sass eine „Sicherheitsfahrerin“, die im Notfall einzugreifen hätte, aber das Videomaterial zeigt, dass sie dies weder tat noch wahrscheinlich tun konnte.
Der Unfall rief verständlicherweise eine starke öffentliche Reaktion hervor. Wird man die „intelligenten“ Vehikel von der Strasse nehmen müssen, weil sie doch nicht so intelligent sind, wie uns dies die Designer fortwährend einreden? Platzt der Hype der Künstlichen Intelligenz schon bald, mit smarten Artefakten auf Augenhöhe zu leben? Oder handelt es sich hier um typische – leider manchmal fatale – Kinderkrankheiten der neuen Generation smarter Artefakte? Müssen wir sogar künftig vermehrt mit solchen Mensch-Maschine-Zusammenstössen rechnen?
Gesunder Maschinenverstand
Das sind alles berechtigte und drängende Fragen. Als Erstes darf man bezweifeln, dass es gegenwärtig eine wirklich neutrale kritische Überprüfung der künstlich intelligenten Systeme gibt. Meistens handelt es sich sogar um kaum mehr als um Promoting und Marketing der einschlägigen Branche. Die Versprechen und Beteuerungen der Designer bewegen sich fast ausnahmslos auf technischem Niveau, und genau das ist das schwelende Paradox: Technik als das Problem, für dessen Lösung sie sich hält.
Widersprüchliches zeigt sich ja schon in den Anpreisungen selbstfahrender Autos. Sie sollen sicherer sein als menschengesteuerte, und dennoch sitzt in ihnen ein Mensch als „Notnagel“ – und sei dies auch nur, um ihm im Ernstfall Verantwortung und Schuld aufzuhalsen. Als am weitaus fahrlässigsten in der ganzen Diskussion um selbstfahrende Autos erweist sich aber unser Vertrauen in solche Vehikel. Wir neigen zur Annahme: Wenn ein Algorithmus fähig ist, x zu tun, dann ist er gleich intelligent wie ein Mensch, der x tut. Er kann ihn im Extremfall sogar ersetzen. Das ist fatal falsch. Wenn Computer echte künstliche Intelligenz erlangen sollen, genügt es nicht, dass sie einfach mehr Daten schneller als der Mensch verarbeiten. Dann brauchen sie etwas Analoges zum gesunden Menschenverstand: einen gesunden Maschinenverstand.
Das wirklich „harte“ Problem des Geistes
Nun ist die jüngste Geschichte künstlich intelligenter Systeme zweifellos beeindruckend. Mit den neuronalen Netzwerken und dem Maschinenlernen hat die KI-Forschung einen entscheidenden Schritt in Richtung eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-, Mustererkennungssysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend hochgeschraubt sind die Erwartungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont der Softwareträume die sogenannte Allgemeine Künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine Maschine mit „gesundem künstlichen Verstand“.
Bevor man freilich eine solche Maschine baut, sollte man sich eine naheliegendere Frage vorknöpfen: Was ist eigentlich der gesunde Menschenverstand? Diese Frage formuliert das wirklich „harte Problem“ des Geistes, welches heute Computerdesigner, Informatiker, Kognitionsforscher, Neurowissenschaftler und Philosophen umtreibt. Softwaredesigner verkürzen das Problem in der Regel zu einem ingenieuralen, sie fragen: Wie lässt sich Alltagswissen in künstlichen Systemen implementieren? Und die wenigsten begreifen, dass es sich primär um eine philosophische Frage handelt: Wie repräsentiert man Alltagswissen? Wie ist es in Menschen repräsentiert?
„Katastrophisches“ Verhalten ist eingebaut
Ein selbstfahrendes Auto lernt, Alltagssituationen zu bewältigen, indem man seinen Algorithmus mit einer Unmenge von bestenfalls bereits vorstrukturierten Daten aus der Verkehrswelt füttert. Anhand von Korrelationen solcher Daten trainiert man es zu einem verkehrs-adaptierten Verhalten, das von vielen Umwelt-Parametern abhängt: pünktliches Abliefern der Passagiere an der richtigen Destination, Befolgen der Verkehrsregeln, Berücksichtigen von Wetterverhältnissen und Strassenzuständen, bis zu Unwägbarkeiten wie unerlaubten Strassenüberquerungen von Fussgängern, Staus oder Unfällen usw.
Der Algorithmus durchläuft also im Training eine Serie von solchen Eventualitäten, aber damit wird er noch nicht alltagstauglich. Das grosse Hindernis liegt im Charakter der Alltagssituation selbst. Sie ist ein nie vollständig „berechenbares“ Geflecht von Normalitäten und Abweichungen. Ein Autofahrer lernt in seinem Trainung, Fehler zu erkennen und zu korrigieren. Insofern dieses Verhalten einem generalisierbaren Muster folgt, könnte es auch im Training selbstfahrender Autos operativ werden. Wie weit die Technologie der Selbstkorrektur avanciert ist, entzieht sich meinem Wissen. Bekannt ist indes, dass künstlich intelligente Systeme oft eine seltsame „Gestörtheit“ an den Tag legen, ein unvorhersehbares bizarres Verhalten. So kann schon eine geringfügige Änderung in einer Pixelmenge dazu führen, dass der Mustererkennungsalgorithmus eine völlig falsche Kategorisierung vornimmt. Im Bild eines Schwarzen sieht er dann einen „Gorilla“; oder im Eingangstor zu Auschwitz ein „Klettergerüst“. Man stelle sich etwa vor, unter ungewöhnlichen Lichtverhältnissen „interpretiere“ ein selbstfahrendes Auto eine Frau, welche die Strasse zu Fuss mit einem Velo überquert, als einen Schatten. Der Hang zum „katastrophischen“ Verhalten ist in die künstlich intelligenten Systeme eingebaut, und man hört, dass gerade die neusten lernfähigen neuronalen Netze ihren Designern selbst als intransparent erscheinen.
Der gesunde Menschenverstand ist inkorporiert, nicht enkodiert
Hier tritt der essentielle Unterschied zwischen menschlicher und maschineller Intelligenz zutage. Vieles von dem, was wir lernen, sedimentiert sozusagen in unserem Körper, hat eine „einverleibte“ Struktur. Das zeigt sich vor allem gerade in Situationen, in denen wirklicher Commonsense nötig wird. Wir halten uns dann vielleicht an unscheinbare Hinweise und Ahnungen, an Erfahrung und Bauchentscheidung, wir filtern eine Unmenge an Information augenblicklich weg, wir schöpfen dafür aus einem stillen Reservoir an Informationen, die sich nicht so leicht ans Licht expliziter Handlungsanweisungen heben lassen. Der Körper „überlegt“ nicht, er reagiert.
Oder in einer Formel: Der gesunde Menschenverstand ist nicht niedergeschrieben, enkodiert, sondern verkörpert, inkorporiert. Der menschliche Körper verarbeitet Informationen auf seine eigene spezifische Weise. Und um mehr über diesen Modus zu erfahren, muss man seine Biologie studieren. Die Daten, die unser Körper empfängt, sind nie „roh“, vielmehr immer schon eingebettet in einen ständig ändernen Erwartungshorizont, den der Körper in ständig ändernden Umgebungen aufspannt, und dieser Horizont verleiht den Daten ihre situative Bedeutung.
Embodied Intelligence
Das scheint den Kognitions- und Computerforschern allmählich zu dämmern. So staunt zum Beispiel Josh Tenenbaum vom MIT: „Ich frage mich gerne: ‚Wie gewinnen wir Menschen so viel aus so wenig?’, und damit meine ich, wie wir zu einem Commonsense-Verständnis der Welt gelangen, in Anbetracht, dass der Mensch über so wenig Daten, Zeit und Energie verfügt, gemessen am Standard heutigen Computerbaus. Man schaue nur einmal, wie sogar junge Kinder anhand weniger relevanter Erfahrungen die Bedeutung eines Wortes lernen, die verborgenen Eigenschaften eines Objekts, einen neuen Kausalzusammenhang oder eine soziale Regel. Dieses Folgern übersteigt die gegebenen Daten: nachdem ein Zweijähriger drei oder vier Beispiele von ‚Pferd’ gesehen hat, wird er eine neue Entität sicher als ein Pferd identifizieren, mit Ausnahme von gelegentlichen Zweifelsfällen wie einem Esel oder Kamel.“
Und kein Geringerer als die Robotik-Koryphäe Rodney Brooks – ebenfalls MIT – zog kürzlich eine Kernannahme des ganzen KI-Projekts in Zweifel: Die Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen habe. Das Rätsel des Geistes ist seine „Inkarniertheit“. Deshalb sprechen die Computerwissenschafter seit einiger Zeit schon von „embodied intelligence“.
Von subschlauen Menschen
Hüten wir uns allerdings, voreilig ein Zukunftsszenario mit smarten Geräten aus organischem Material auszumalen. Fassen wir vielmehr das wirkliche Problem ins Auge. Künstliche Intelligenz ist uns zutiefst fremd. Wir schaffen mit ihr im Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller Bemühungen, nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an, gut beobachtbar am Homo smartphoniensis, der sein Denken und seine Entscheide zunehmend an die Apps abtritt. „Enhancement“ nennen wir das – „Verbesserung“ –, ohne zu bemerken, dass wir uns auf eine Kümmerform des Humanen zubewegen. Denn das wirkliche Problem sind nicht superschlaue Maschinen, sondern subschlaue Menschen.