Die Vorstellung einer Hierarchie von schwacher Intelligenz, starker Intelligenz und Superintelligenz wird der Komplexität des Phänomens Intelligenz bei Weitem nicht gerecht. Überhaupt führt der Hype um die angeblich intelligenten Maschinen in die Sackgasse.
Eine Idee elektrisiert die Köpfe: «Foom AI». Der Begriff bezeichnet lautmalerisch den raketenhaften Start einer künstlichen allgemeinen Intelligenz (AGI: «artificial general intelligence»), die sich stetig selber verbessert und in ihrer Entwicklung so schnell abhebt, dass sie die Intelligenz des Menschen hinter sich lässt: «FOOM»! Einige sagen, dass OpenAI bereits «foome». Was ist davon zu halten? Zum Verständnis einer Idee hilft oft, sie in ihre Prämissen zu zerlegen. Ich nehme mir kurz deren fünf vor.
Was bedeutet Maschinenintelligenz?
Die erste Prämisse betrifft die Intelligenz selbst. Wenn wir Maschinen als künstlich intelligent bezeichnen, meinen wir, dass sie Leistungen erbringen, die bei uns Menschen Intelligenz erfordern. Eigentlich reden wir nicht über Maschinenintelligenz, sondern über Maschinen, die Intelligenz simulieren. Aber sind sie deswegen wirklich intelligent? Was bedeutet das überhaupt?
Es handelt sich im Grunde um eine Erwartung an die künstlichen neuronalen Netzwerke. Bei hinreichendem Komplexitätsgrad – so die Vermutung – würde etwas Homologes zur menschlichen Intelligenz auftauchen, «emergieren». Die Vermutung beruht auf einer allzu simplen Analogie: Weil wir Menschen «Input» aus unseren Sinnesorganen beziehen, und «Output» in Form von Rede und Handlung liefern, genügt es, dieses Input-Output-Verhalten nachzuahmen, um Intelligenz in Computern zu realisieren.
Aber das menschliche Gehirn ist ein extrem komplexes Ding, die Erklärung, wie Geist aus der Zusammenschaltung von Neuronen entsteht, notorisch schwierig. Ohnehin erweist sich nicht das Gehirn allein als Sitz der Intelligenz, sondern der ganze Körper in seiner natürlichen und kulturellen Umwelt. Solange also nicht klar ist, wie mentale Phänomene aus dem materiellen Substrat entstehen, erscheint es doch eher voreilig, KI-Systemen Eigenschaften wie Intelligenz zuzuschreiben. Der Wunsch ist hier Vater des Gedankens.
Commonsense als Problem
Mit dem «super» sprechen wir die zweite Prämisse an: das Entwicklungsschema der KI. Es beruht auf der gängigen Steigerungsform: schwach («narrow»), stark («general»), super. Schwache KI ist die herkömmliche, auf bestimmte Problemlösungen beschränkte. Sie entspricht der Stufe des «Idiot savant». Hier übertrifft uns der Computer in vielen Anwendungsfällen.
Starke KI ist das Bestreben, den Systemen eine «generelle» Fähigkeit beizubringen, die ihnen ermöglicht, sich ändernden Erfordernissen anzupassen – quasi eine Maschine mit Apps für alle Eventualitäten. Unter Menschen nennen wir das praktischen Verstand oder Commonsense. Auf dieser Stufe befinden wir uns gegenwärtig mit den lernenden Maschinen, zumal den Textgeneratoren und ihrem «Verständnis» der natürlichen Sprache.
Kann man den Maschinen ein solches Verständnis allein auf der Basis von statistischen Datenanalysen beibringen? Die Frage ist nicht beantwortet, sie stellt sich als knifflig und mehrbödig genug heraus, um eine neue Disziplin zu begründen. Man könnte sie Commonsense-Forschung nennen. Commonsense wurde auch schon als die «dunkle Materie» der KI bezeichnet.
Eindimensionalität
Damit hängt eine dritte Prämisse zusammen: die Eindimensionalität der Entwicklung. Immer mehr vom Gleichen. Nur genügend Speicherkapazität, Rechenleistung, Algorithmenkomplexität, Datenqualität, und irgendwann ereignet sich der «qualitative Sprung» vom Bisherigen zu etwas Neuem, von der schwachen zur starken, von der starken zur Superintelligenz.
Diese Idee ist höchst umstritten. Ich erwähne hier zwei Punkte. Erstens laufen grosse Sprachmodelle auf einer Hardware mit enormem Energiehunger. Wachsender Energiekonsum bedeutet zu einem grossen Teil wachsende Emissionen von Kohlendioxid. Deshalb führt das eindimensionale Hochskalieren tendeziell zu einem grösseren ökologischen Fussabdruck. Wie ein KI-Forscher bemerkt: «Die Revolution der generativen KI geht mit planetarischen Kosten einher, die uns völlig unbekannt sind.»
Zweitens scheint sich die Idee der Superintelligenz von einem falschen Evolutionismus inspirieren zu lassen. In der Natur gibt es keine eindimensionale Leiter, die von «niedriger» zu «höherer» Intelligenz führt. Der Mensch lebt neben Hunden, Würmern, Kakteen, Pilzen, Bakterien. Alle diese Lebewesen haben ihre artspezifischen kognitiven Fähigkeiten entwickelt, nur nicht in der Richtung des Menschen. Sind sie weniger intelligent als Menschen?
Und warum zieht man eigentlich immer den Menschen als Vergleichsmassstab bei? Die kognitiven Ethologen überraschen uns laufend mit Entdeckungen über die Vielfalt und Differenzierung von intelligentem Verhalten im Tier- und Pflanzenreich. Neuerdings nehmen KI-Designer sogar Organismen wie den Fadenwurm oder den Schleimpilz zum Modell für den Entwurf von Algorithmen.
Effizienz als Knacknuss
Was zwangsläufig zur vierten Prämisse führt, zur Frage nach der Hardware, auf der Intelligenz basiert. Mathematiker und theoretische Computerforscher fokussieren sich von Berufs wegen auf den abstrakten Aspekt der Intelligenz, auf ihr formales Destillat in Software. Aber Rechnen ist immer auch ein physikalischer Vorgang. Jede reale Maschine – selbst eine Supermaschine – hat ein endliches Gedächtnis und eine endliche Prozessdauer. Und hier spielen die Details ihre sprichwörtlich teuflische Rolle. Das materielle Medium übt einen entscheidenden Einfluss auf die Effizienz des Rechenvorgangs aus. Der Mathematiker kann darüber hinwegsehen, der Computerbauer nicht.
Zudem stellt die Effizienz eine theoretische Knacknuss in der Informatik dar. Es gibt eine Fülle von Problemen, die selbst den leistungsstärksten (heutigen) Computern eine unrealistisch lange Rechenzeit abfordern. Ganz zu schweigen von der Mutter aller Komplexitätsfragen: Gibt es Probleme, die selbst ein Supercomputer nicht lösen kann? Ich möchte damit nicht die KI-Forschung in Misskredit bringen, sondern lediglich darauf hinweisen, dass mit den aktuellen KI-Systemen noch lange kein Advent einer Superintelligenz angebrochen ist.
Womit wir bei der fünften Prämisse landen. Die KI-Forschung erweckt oft den Eindruck, als wirke in der ganzen Entwicklung ein verborgener Determinismus. Aber der Weg ist gepflastert mit Details, und wer kennt sie alle? Das bringt den bereits angesprochenen Punkt auf den Plan: die Biologie. Müsste man sie zum Bau einer echt intelligenten Maschine mehr berücksichtigen als bisher? Wie der Neurogenetiker Peter Robin Hiesinger schreibt: «Die Geschichte der Künstlichen Intelligenz ist eine Geschichte des Bestrebens, unnötiges biologisches Detail zu vermeiden.» Dieses Vermeiden könnte sich als Sackgasse in der Weiterentwicklung der KI herausstellen.
Hören wir auf, von «intelligenten» Maschinen zu sprechen
Die fünf Prämissen (es gibt mehr) erlauben ein kleines nüchternes Fazit. Generell gesehen ist Technik das Delegieren von menschlichem Vermögen an Artefakte. Maschinen haben seit alters Fähigkeiten, die bei Mensch und Tier nicht vorkommen. So auch «intelligente» Maschinen. Der Pluspunkt von KI-Systemen besteht in der Regel darin, dass sie Probleme anders lösen als wir. Das kann sich als effizienter erweisen, je nach Aufgabe, die man stellt. Ein KI-System, das alle Wörter aus Wikipedia memorieren kann, ist besser als wir. Ein KI-System, das erst 10’000 Bilder analysieren muss, um eine Katze von einem Hund zu unterscheiden, ist schlechter als wir.
Aber «besser geeignet zu» bedeutet nicht generell «besser als». Ohnehin sollten wir aufhören, von intelligenten Maschinen zu sprechen. Es handelt sich einfach um eine Gattung von Tools, die fähig sind, Probleme erfolgreich zu lösen, ohne dafür menschliche Intelligenz zu benötigen. Und es dürfte vorteilhaft sein, sich zweimal zu überlegen, welche Entscheidungen und Kompetenzen wir an solche Tools abtreten wollen. Gerade im Jahr von Kants dreihundertstem Geburtstag kommt sein Slogan wie gerufen: «Sapere aude» – wage, deine eigene Intelligenz zu gebrauchen!