
Künstliche Intelligenz scheint der menschlichen dicht auf den Fersen zu sein. Doch ausgerechnet die einfachen Denkleistungen des Menschen sind Knacknüsse für die lernenden Maschinen. Diese müssen nicht mehr nur programmiert, sondern vermehrt auch erzogen werden.
Eine Wassermelone kann man in Stücke schneiden. Kann man sie auch falten? Die Frage hat der amerikanische Computerwissenschafter Ernest Davis im Jahr 2016 in einem Aufsatz gestellt. Kein Scherz. Davis beschäftigt sich seit langem ausgiebig mit dem «Benchmarking» künstlicher Intelligenz (KI), mit der Frage also, wie man die Leistung von Computern einschätzen kann.
Kognitive Asymmetrie
Dabei interessiert ihn vor allem eine kognitive Asymmetrie: Was für Menschen ein leichtes Problem ist, stellt sich für die Maschine oft als schwierig heraus – und umgekehrt. Davis schreibt: «Computer (führen) wissenschaftliche Berechnungen von atemberaubender Komplexität durch, und sie jagen durch gewaltige Heuhaufen von Daten auf der Suche nach winzigen Nadeln oder subtilen Korrelationen. Meines Wissens beantwortet aber kein existierendes Programm die Frage ‘Kann man Wassermelonen falten?’».
Das war 2016. Heute haben wir den Textgenerator ChatGPT. Ich gab ihm die Frage ein, und er «antwortete»:
«Nein, als ein Sprachmodell bin ich nicht fähig, etwas physisch zu falten, einschliesslich eine Wassermelone.»
Klingt abgeklärt. ChatGPT scheint Davis’ Behauptung zu widerlegen.
Gesunder Maschinenverstand?
So simpel ist der Fall nicht. Zunächst einmal: Warum stellt man KI-Systemen alberne Fragen, wenn sie ihr «Wissen» schon auf weit höherer Stufe eindrücklich unter Beweis gestellt haben? Eine kurze Antwort lautet: Weil menschliche Intelligenz sich nicht bloss in solch intellektueller Akrobatik manifestiert, sondern in viel «bodenständigeren» Fragen, die jedes Kind beantworten kann, aufgrund von Commonsense, gesundem Menschenverstand. Kann man KI-Systemen «gesunden Maschinenverstand» beibringen?
Die Frage visiert sowohl ein technisches als auch ein soziales Problem an. Wir delegieren immer mehr kognitive Fähigkeiten an KI-Systeme. Heisst das, dass diese Systeme nun diese Fähigkeiten «haben»? Heute lernt der Textgenerator mit seinen Sprachmodellen, Wörter statistisch zu verknüpfen. Sein «Wissen», dass man Wassermelonen nicht falten kann, gewinnt er aus der Durchforstung gigantischer Text(bit)mengen. Bemerkenswert altklug spukt er aus:
«Wassermelonen sind grosse, runde Früchte mit einer harten Schale und einem saftigen Inneren. Sie sind nicht entworfen, um gefaltet zu werden, und der Versuch würde wahrscheinlich dazu führen, dass man sie zerquetscht. Zudem ist die Schale einer Wassermelone dick und schwer zu biegen, was es noch unwahrscheinlicher macht, sie zu falten.»
Wie lernen Menschen so viel aus wenig?
Klingt alles eine Spur zu formell und beflissen. Eine Person würde nicht bloss auf die Wassermelonen-Frage reagieren, sondern auch auf den Kontext. Das versteht sich doch von selbst, was soll die Frage? Will man mich veräppeln?
Wir lernen das Wort «Wassermelone» nicht nach Sprachmodell. Wir haben mit der physischen Frucht Bekanntschaft gemacht und dabei auch entdeckt, dass man sie nicht falten kann. Der Kognitionsforscher Josh Tenebaum vom MIT verdichtete das Problem einmal in der Frage: «Wie gewinnen wir Menschen so viel aus so wenig?» Damit meinte er, wie wir zu einem Commonsense-Verständnis der Welt gelangen, wo doch der Mensch über so wenig Daten, Zeit und Energie verfügt, gemessen am Standard heutigen Computerbaus. Kinder lernen anhand weniger relevanter Erfahrungen die Bedeutung eines Wortes, die verborgenen Eigenschaften eines Objekts, einen neuen Kausalzusammenhang oder eine soziale Regel. Sie brauchen dazu nicht massenweise Daten.
Wir wissen vieles stillschweigend, ohne verbale Explikation, aufgrund einer Mischung aus Erfahrung, Intention und Knowhow: Commonsense. Sprechen heisst, sich linguistisch zu sozialisieren. Wir lernen Wörter im Kontext ihres Gebrauchs, und dieser Kontext ist physisch und sozial. Und gerade im Ereignishorizont der nahen und alltäglichen Welt «gesundet» der Verstand.
«Dunkle Materie» der KI-Forschung
Will man Computer linguistisch sozialisieren, muss man sie die Alltagssprache lehren. Und dazu braucht es Alltagsverstand. Seit den Anfängen der KI versuchen Forscher, eine Maschine mit Commonsense zu bauen. Der Microsoft-Mitbegründer Paul Allen gründete 2014 das renommierte Allen Institute of Artificial Intelligence. Er brachte das Problem auf den Punkt: «Der KI fehlt, was Zehnjährige haben: gewöhnlicher Commonsense.» Allen lancierte 2018 das 125-Millionen-Projekt, Maschinen Commonsense beizubringen. Mit mässigem Erfolg. Man stösst schnell auf Hindernisse, die immer mit Nuancen und Unschärfen – der «fuzzyness» – von banalen Lebenslagen zu tun haben. Commonsense wurde auch schon als die «dunkle Materie» der KI-Forschung bezeichnet.
Aber warum braucht man denn Programme mit Commonsense? Weil man die neuen KI-Systeme nicht nur optimal den Daten anzupassen versucht, sondern auch dem sozialen Kontext, in dem wir sie verwenden. Sie bürgern sich ein, werden zu «Mitgliedern» der hochtechnisierten Gesellschaft. Immer sensibler sind wir auf ihre «Urteile» angewiesen, und das Problem stellt sich unweigerlich, ob darauf Verlass sei. Fragen vom Typus der Wassermelone testen die Ausgeklügeltheit des KI-Systems, aber ebenso den Grad seiner sozialen Integrierbarkeit.
Maschinenpädagogik
Und hier spielt ein spezifischer Unterschied eine immer wichtigere Rolle. Wir kennen ihn aus der Linguistik: den Unterschied zwischen Können (Kompetenz) und seiner Ausführung (Performanz). Ich schreibe einen Text und führe damit ein Können aus. Der Computer generiert einen Text und führt ein Können aus – aber was für eines? Kann der ChatGPT wirklich schreiben? Liegt seine Kompetenz nicht schlicht darin, aus einer Bitfolge mittels eines Transformer-Algorithmus eine neue Bitfolge zu generieren?
Die Frage hat heute hochaktuelle Bedeutung in einem Kernbereich menschlicher Kultur: in der Bildung. Wir stehen auf der Schwelle zum Zeitalter der sozialen Maschine. Der Computerbau wird zur Maschinenpädagogik. Davis nähert sich der Maschine nicht als Ingenieur, sondern als Erzieher. Er möchte Aufschluss haben über den Fortschritt ihrer Kompetenzen. Das will auch der Lehrer vom Schüler. Dieser soll Kompetenzen lernen. Nun begleiten ihn ständig Artefakte, die ebenfalls lernen können und vielleicht sogar gelehriger sind als Menschen. Sie «emanzipieren» sich vom Hilfsmittel zum künstlichen Schüler. Womöglich wird in absehbarer Zeit die Grundeinheit des Unterrichtens Schüler-plus-Chatbot sein – ein Hybrid aus Mensch und Maschine. In der neuen Bildungskonstellation prüft man eigentlich dieses Hybrid: Von wem stammt der geschriebene Text, vom Schüler oder vom Chatbot? Wem attestieren wir welche Kompetenzen? Wie unterscheiden und verteilen wir sie?
Commonsense-Forschung
Die neuen KI-Systeme stellen den Unterricht auf eine harte Probe. Wir haben kaum einen Begriff, was es bedeutet, mit Algorithmen zu verkehren, die so wirkungsvoll kognitive Kompetenzen performen, ohne sie – dies meine These – tatsächlich zu haben.
ChatGPT besteht den Wassermelonen-Test mit Bravour. Das ist erst der Beginn dessen, was sich als «Commonsense-Forschung» bezeichnen liesse. Es handelt sich um die Disziplin der Stunde. Sie ist die Anstrengung des Menschen, das, was er kann, in der «Kommunikation» mit der Maschine neu kennenzulernen oder vielleicht erst zu entdecken. Unsere Testverfahren werden mit dem Bau neuer, immer raffinierteter Maschinen mithalten müssen. Aber wenn wir KI-Systeme wie ChatGPT nicht «entlarven» können, bedeutet das nicht, dass sie unsere kognitiven Kompetenzen übernommen haben. Wir sollten darin vielmehr einen Anreiz sehen, diesen Kompetenzen beim Menschen vertiefte Aufmerksamkeit zu schenken.
Über James Joyce las ich einmal die folgende Anekdote. Ein Freund traf ihn in seinem Arbeitszimmer, den Kopf auf die Schreibtischplatte gelegt. Was los sei, fragte der Freund. Er käme mit der Arbeit nicht voran, antwortete Joyce. Wie viel er denn geschrieben habe, fragte der Freund. «Zwei Wörter», sagte Joyce. «Aber James», meinte der Freund, «da kannst du doch zufrieden sein – gemessen an deinem Arbeitstempo!» «Ja, schon», erwiderte Joyce schon fast verzweifelt, «aber ich weiss nicht, in welcher Reihenfolge ich sie schreiben soll.»