Wir schauen auf einen sauber gemähten Rasen. Wer mähte ihn, Ambrogio oder Annemarie? Ambrogio ist ein kabelloser Rasenroboter, Annemarie ist eine Person. Sie unterscheiden sich in nahezu allem, physisch, verhaltensmässig, kognitiv. Und trotzdem ist es nahezu unmöglich, allein aus der Begutachtung des Rasens darauf zu schliessen, ob ihn Ambrogio oder Annemarie gemäht hat. Diese Ununterscheidbarkeit entpuppt sich als ein tiefes philosophisches Problem.
Leibniz formulierte es zuerst. Die Ununterscheidbarkeit trägt denn auch den Namen «Leibniz-Gesetz», bekannt auch als Prinzip der Identität des Ununterscheidbaren: Wenn A und B insgesamt die gleichen Eigenschaften haben, sind sie identisch. Nun haben Ambrogio und Annemarie selbstverständlich kaum Eigenschaften gemeinsam. Wenn man sie aber aus einer äusserst eingeschränkten Perspektive betrachtet, nämlich aus der Perspektive ihres «Leistungs-Outputs», dann sind sie «identisch». Wir können Annemarie und Ambrogio vertauschen – der Rasen wird sauber gemäht.
Schreibt der Computer Texte?
Genau diese enge Perspektive charakterisiert die KI-Forschung. Hier steht gegenwärtig nicht der Rasenmäher im Fokus, sondern der Textgenerator, speziell seine aktuellste Version GPT-3 («generative pretrained transformator 3»), worauf der ChatGPT beruht. Seine Performance ist oberflächlich beeindruckend, was genügt, dass die Medien ihn in einem Klima aufgeblähter Erwartung unkritisch als Hype-Maschine zelebrieren, im Sinne von «Der Computer holt uns ein». Auch bei ihm stellt sich das Rasenmäherproblem: Angenommen ChatGPT und eine Autorin liefern uns den gleichen Text – können wir, allein auf der Textbasis, feststellen, was oder wer ihn geschrieben hat?
Die Frage ist nicht nur vordergündig von Bedeutung, etwa im rechtlichen Sinne von Urheberschaft, sondern auch hintergründig: Inwieweit kann man dem Artefakt künstliche Autorschaft attestieren? Natürlich kommt es uns oft und immer öfter so vor, als «schreibe» der Computer Text. Aber dieses Als-ob ist doch stets vom Verdacht der Simulation imprägniert – Simulation im Sinne von Täuschung. Der Computer imitiert nur Schreiben, er schreibt nicht wirklich. Was genau bedeutet jedoch dieses «nicht wirklich»?
Was testet der Turing-Test?
Die Frage hat eine etwa 70-jährige Tradition in den Computerwissenschaften. Ursprünglich stellte sie der Mathematiker Alan Turing in seinem berühmten Imitationsspiel. Darin steht das Problem der Differenz von Mensch und Computer im Zentrum. Eine Jury hat die Aufgabe, die Antworten eines Computers und einer Person zu unterscheiden. Je weniger ihr dies gelingt, desto mehr gleicht sich das künstliche «Denkvermögen» dem menschlichen an. Wohlgemerkt, es handelt sich um eine Hypothese. Der Turing-Test prüft nicht die mutmassliche «Intelligenz» der Maschine, sondern die menschliche Schwäche, sich täuschen zu lassen. Viele Fragen erweisen sich allerdings als unentscheidbar im Sinne des Rasenmäherproblems. Von den Antworten oder Ergebnissen her lässt sich nicht darauf schliessen, ob sie vom Computer oder vom Menschen stammen.
Sind Texte ebenfalls so etwas wie gemähte Rasen? Und was bedeutet es, wenn wir hier nicht mehr zwischen Ambrogio und Annemarie zu unterscheiden vermögen? Der Textgenerator schreibt schon heute bessere Texte als viele Menschen, inklusive Journalisten. Und er tut dies ohne Intelligenz, sprich: ohne menschliche Intelligenz. So what? Braucht es überhaupt Intelligenz, um Texte zu schreiben? Die Frage muss sich – Ironie beiseite – auch der Mensch gefallen lassen.
Faking it, not making it
Ich halte sie für das Kernproblem der KI, weil ihr Leitmotto «faking it, not making it» lautet. Wir verwechseln leicht die Leistungsfähigkeit – die Performanz – der KI-Systeme mit deren kognitiven Vermögen – der Kompetenz: Weil der Computer diese und jene Leistung vollbringt, hat er dieses und jenes kognitive Vermögen. Weil der Computer gute Prosa schreibt, hat er das Vermögen eines guten Schriftstellers. Weil er ein schwieriges mathematisches Theorem beweist, ist er ein Mathematikgenie. Weil Ambrogio den Rasen wie Annemarie mäht, ist er eine gleichwertige Annemarie. Das ist im Grunde neoprimitive Technomagie.
Deshalb müssen wir zur Entzauberung zwei Fragetypen entkoppeln. Ist der Computer intelligent, bewusst, selbstbewusst, sensitiv, kreativ? Das ist die kognitive Frage nach der Herausbildung von Intelligenz in KI-Systemen. Kann der Computer Leistungen erbringen, die beim Menschen Intelligenz voraussetzen? Das ist die ingenieurale Fage nach dem Design von KI-Systemen. Der KI-Forschung geht es darum, problemlösende Systeme zu bauen, die im Idealfall die gleichen Resultate liefern wie der Mensch, nur ohne menschliche Intelligenz. Sie sind die Fortsetzung menschlicher Intelligenz mit anderen – ich sage jetzt nicht: unintelligenten – Mitteln.
Was ist Intelligenz?
Verglichen mit dem Rasen ist das Rasenmäherproblem bei den heutigen KI-Systemen keineswegs einfach. Es hat vielmehr die Tendenz zu wachsender Vertracktheit – zum «Rabbit Hole». Die Systeme erweisen sich auf vielen Gebieten als erfolgreich im Lösen von Problemen, die bisher menschliche Intelligenz beanspruchten. Was dazu verführt, den Erfolg der KI-Systeme mit maschineller Intelligenz gleichzusetzen.
Das Rasenmäherproblem führt deshalb zurück zur Grundfrage: Was ist Intelligenz? Darauf gibt es keine eindeutige Antwort. Die Urväter der KI – Marvin Minsky, John Mc Carthy, Claude Shannon und Nathaniel Rochester – formulierten 1955 eine recht akzeptable breite Arbeitsdefinition, die sinngemäss lautet: Wenn die Maschine eine Aufgabe löst, die beim Menschen Intelligenz voraussetzen würde, dann kann ihr Verhalten als intelligent bezeichnet werden.[1] Die Definition steht nota bene im Konjunktiv. Wenn GPT-3 einen Text generiert, den zu schreiben von einem Menschen Intelligenz erfordern würde, dann sagt dies nichts über eine vermeintliche Intelligenz der Maschine aus. Sie macht schlicht ihr Ding, und vergleicht man ihr Erzeugnis mit dem, was der Mensch tut, stellen wir fest, dass wir dazu Intelligenz brauchen. Das erinnert an den berühmten Kommentar des holländischen Algorithmendesigners Edsgar Dijkstra: «Die Frage, ob ein Computer denken kann, ist etwa so relevant wie die, ob ein U-Boot schwimmen kann.»[2]
Die Maschinenfreundlichkeit des Benutzers
Eine andere Frage ist dagegen höchst relevant. In der «Symbiose» zwischen Menschen und KI-Systemen passt sich wahrscheinlich nicht die Maschine dem Menschen an, sondern der Mensch der Maschine. Wir sprechen von der Benutzerfreundlichkeit der Maschine. Angemesser wäre Maschinenfreundlichkeit des Benutzers. Wir trainieren nicht nur die neuronalen Netze, die neuronalen Netze trainieren auch uns. Zunehmend verhalten wir uns algorithmenkonformer.
Der Park der «intelligenten» Geräte wächst und wächst: Rasenmäher, Staubsauger, Kühlschrank – nun Textgenerator, Bildgenerator, Apps für alle Lebenslagen. Bis wir Ambrogio und Annemarie nicht mehr unterscheiden können?
[1] https://doi.org/10.1609/aimag.v27i4.1904
[2] https://www.cs.utexas.edu/~EWD/transcriptions/EWD08xx/EWD898.html