Vor Galilei - von Aristoteles über Paracelsus bis Leonardo da Vinci - wurde Technik als Nachahmung der Natur aufgefasst, als Fortführung der Natur mit künstlichen Mitteln. Der Hammer verstärkt die Schlagkraft der Faust. Die Schaufel die Hebelwirkung der Arme. Teleskop und Mikroskop erweitern die Linse des Auges.
Falsche Analogien
Aber die Nachahmung kann auch zu Misserfolgen führen. Flugmaschinen sind den Vögeln abgeschaut, verfrühte Bionik. Leonardo war der Meinung, dass dem Menschen nur die lebendige Kraft des Vogels (die „anima”) fehlt, um fliegen zu können. Und das war der grosse Irrtum. Man könnte vom Fehlschluss der natürlichen Analogie sprechen. Da Vincis künstliche Vögel funktionierten deshalb nicht, weil sie - zu natürlich sind. Sie brauchen nicht „anima” des Tiers, sondern Können – „techne“ - des Menschen. Erst wenn die Technik sich losgelöst hat vom natürlichen Vorbild, hebt sie ab vom Boden.
Heute lässt sich die Künstliche-Intelligenz-Forschung (im Folgenden mit „KI“ abgekürzt) - ganz ähnlich - vom Vorbild des Gehirns inspirieren, in der Erwartung, aus ihm die Bauanleitung zu einem neuromorphen Computer herauszulesen. Denn was, wenn nicht das natürliche Gehirn, könnte ein geeigneteres Vorbild für das künstliche sein? Und würde man die „anima“ des Gehirns kennen, liesse sie sich dann nicht in Schaltkreise integrieren? Dies zumindest ist die plausible Idee. Aber sie hat ihre Tücken, wie schon die „anima“ der Vögel bei Leonardo.
Deep Learning
Ein Hotspot der KI ist das sogenannte „Deep Learning“, also lernfähige Maschinen. Sie sind auch ökonomisch von einigem Interesse, deshalb unterhalten heute Internetgiganten wie Facebook, Google, Apple oder Microsoft ihre eigenen Forschungslabors. Man verzeichnet bemerkenswerte neue Einsichten, die erlauben, Maschinen zu lehren, etwa selbständig visuelle Muster aus einer Masse von Daten zu erkennen. Vor kurzem gelang es einem Google-Forscherteam um Andrew Y. Ng, ein lernfähiges neuronales Netz aus 16´000 Computerprozessoren zu basteln. Um es zu testen, liess man es auf 10 Millionen Stills von Youtube-Videos los. Das heisst, es durchforstete zunächst Pixelmaterial während dreier Tage nach wiedererkennbaren Mustern.
Und was war das auffälligste Muster: Katzen! Das Netz lernte zuerst, helle von dunkeln Pixeln zu unterscheiden; dann Pixel zu Linien zu verbinden. Über eine Stufenfolge von immer allgemeineren Merkmalen hochsteigend, brachte es sich selbständig die Katzenerkennung bei. Nach der Lernphase liess man das System auf Testdaten los, aus denen er mit einiger Verlässlichkeit Katzen aussortierte. Kann man also sagen, man habe ein primitives Hirn konstruiert, das Katzen zu erkennen vermag?
Neuronale Netzwerke sind keine Gehirne
Vorsicht mit Naturanalogien ist geboten. Man weiss nur rudimentär, wie das Gehirn beim Lernen funktioniert. Das heben vor allem Wissenschafter hervor, die sich in der Grenzzone zwischen Neurophysiologie und Künstlicher Intelligenz aufhalten. Die erfolgreichsten Mechanismen erweisen sich als sehr Gehirn-unähnlich. Ein künstliches neuronales System ist im Wesentlichen ein dichtes Netz von Verarbeitungseinheiten, die Informationen mit einer bestimmten Wahrscheinlichkeit („gewichtet“) weiterleiten. Man kann ein solches System lehren, sich selber zu korrigieren. Das geschieht etwa dadurch, dass man ihm einen Input eingibt und beobachtet, ob ein gewünschtes Resultat als Output erzielt wird.
Ist das nicht der Fall, geht man vom gewünschten Resultat aus und sendet es rückwärts durch das System, und einer von mehreren möglichen Lerneffekten liegt darin, dass die Gewichte bei den Verarbeitungseinheiten entsprechend geändert werden. Diese Art von Lernen – „Backpropagation“ genannt - kennt man aber beim Hirn nicht, sie ist, wie es in einem Lehrbuch heisst „biologisch nicht immer plausibel, aber exorbitant zielgerichtet“. Der Erfolg künstlicher Hirne beruht also - wie der Erfolg des künstlichen Vogelflugs – gerade darauf, dass man sich vom natürlichen Vorbild entfernt.
Die Tücke biologischer Analogien
Das heisst nicht, dass man auf biologische Metaphern verzichten soll, sondern nur, sich ihrer heuristischen Begrenztheit bewusst zu sein. Michael I. Jordan von der University of California, Berkeley, eine Koryphäe auf dem Gebiet des Maschinenlernens, weist ausdrücklich auf das Risiko hin, Nichtwissen über Gehirnvorgänge dadurch zu kaschieren, dass man einfach biologische Metaphern auf künstliche Systeme übertrage. So sprechen die Designer neuronaler Netzwerke gerne von „Neuronen“ und „Synapsen“ auf ihren Chips, als ob es schon ausgemacht wäre, dass es sich bei Silikonschaltkreisen um künstliche Gehirne handelte. „Das Problem,“ so Jordan, „liegt darin, dass unsere Forschung nicht an das Verständnis der Algorithmen gekoppelt ist, die im Gehirn ablaufen (..) Was wir haben, ist ein Stück Architektur von neuronalen Netzen, in das wir die Hoffnung setzen, irgendwann würde es sich als brauchbar für das Verständnis des Lernens erweisen. Es gibt aber keinen klaren Grund dafür, dass diese Hoffnung bestätigt würde. Sie beruht meiner Meinung nach auf einem Glauben: Wenn man das Hirn simuliert, versteht man auch, was das Hirn tut.“
Cargo-Kult-Wissenschaft
Zu meinen, etwas zu verstehen und im Griff zu haben, wenn man es imitiert oder simuliert, hat in der Ethnologie einen Namen: Cargo-Kult. Nach dem Zweiten Weltkrieg beobachtete man auf einigen Inseln des Südwestpazifiks ein seltsames Verhalten unter den Indigenen. Die Japaner und nach ihnen die Amerikaner hatten Luftstützpunkte errichtet. Tief beeindruckt von den technischen Wunderwerken und vor allem auch von den Gütern – der Cargo -, die sie brachten, suchten die Eingeborenen nach Abzug der Amerikaner, den Flugverkehr nachzuahmen. Sie bauten Landeplätze aus Stroh, Kontrolltürme aus Bambus, setzen sich hölzerne Headsets auf den Kopf und simulierten auf den „Landebahnen“ das Einweisen von Flugzeugen. Sie hatten also ein Verhaltensmuster bei den Fremden beobachtet, von dem sie glaubten, es nur nachahmen zu können, ohne die realen kausalen Zusammenhänge zu kennen. Genau das, was einen Kult ausmacht.
Das Phänomen gibt es auch in der Wissenschaft. Der Physiker Richard Feynman prägte den Begriff der „Cargo Cult Science“ in einer berühmt gewordenen Rede zur Abschlussfeier 1974 am Caltech. Es komme auch in der Forschung nicht selten vor, so Feynman, dass man Zusammenhänge postuliere, ohne die kausalen Hintergründe zu kennen. Feynman ging es vor allem um einen Forschungsimperativ: Don’t fool yourself - betrüge dich nicht selbst! Unterdrücke nicht Daten, die gegen deine Hypothese sprechen! Erwäge auch andere Erklärungsmöglichkeiten! Meine nicht, eine Korrelation sei auch schon eine Kausalität!
Das Human-Brain-Project eine Cargo-Kult-Wissenschaft?
Deep Learning ist Big-Data-Science par excellence. Aus gigantischen Datenmassen lassen sich mit immer leistungsfähigeren Algorithmen x-beliebige Zusammenhänge herauslesen. Im Hintergrund lauert der Cargo-Kult. Er besteht, so Yann LeCun, ein anderer führender Forscher im Deep Learning, „darin, jedes Detail unseres Wissens über Neuronen und Synapsen zu kopieren, es dann in das neuronale Netz einer gigantische Simulation in einem Supercomputer einzubauen und zu hoffen, dass künstliche Intelligenz daraus emergiert. Das ist Cargo-Kult-Wissenschaft. Es gibt seriöse Leute, die nahe daran sind, so etwas zu glauben, und sie heimsen dafür riesige Forschungsgelder ein (..) Ich werde jetzt die Gemüter erhitzen, aber im Grunde beruht das Human-Brain-Project auf der Idee, wir sollten Chips (..), welche die Funktionen von Neuronen so passgenau wie möglich reproduzieren, (..) zum Bau eines gigantischen Computers verwenden, der (..) mit irgendeinem Lernalgorithmus künstliche Intelligenz erzeugt. Meiner Meinung nach ist das Quatsch.“
Hype und „Big Data Winter“
Das Ganze tendiert, ins Irrationale zu kippen, weil gemäss LeCun „dieses Gebiet ein enormes Hype-Potenzial hat“. Ein Merkmal des Hype ist, dass er der wirklichen Entwicklung vorauseilt und Verheissungen in die Welt setzt, die sich womöglich nicht verwirklichen lassen. Michael I. Jordan warnt zudem vor einem Rückschlag in einen „Big Data Winter“: „Wenn den Leuten und den Unternehmen ohne eingehende Analyse zu viel versprochen wird, ist das Risiko hoch, dass die Blase platzt. Und bald danach, schätzungsweise in einer Zeitspanne von zwei bis fünf Jahren, wird man sagen: ‚Das ganze Big-Data-Ding kam und ging. Es starb. Es war falsch.’ Ich sage das voraus. Genau das geschieht mit Zyklen, in denen zu viel Hype steckt, das heisst, Behauptungen, die nicht auf dem Verständnis der wirklichen Probleme beruhen oder die unterschlagen, dass das Lösen dieser Probleme Jahrzehnte beanspruchen wird. Gewiss, wir machen kontinuierliche Fortschritte, aber keine Sprünge.“ Der Hype aber will Sprünge, Durchbrüche, „Singularitäten“. Und genau das ist das Gefährliche: Ein Rückschlag wird nicht nur die Grossmäuler zum Schweigen bringen, sondern auch eine Vielzahl von seriösen Projekten der Datenanalyse beerdigen.
Big-Data-Science ist Naturgeschichte
Die renommierte Kognitionswissenschafterin Margaret Boden sagte kürzlich in einem Interview über den Stand der Hirnforschung: „Das Meiste bei den bildgebenden Techniken ist nicht von wissenschaftlichem Wert. Man schaut nach Korrelationen zwischen Verhalten und Gehirnaktivitäten, aber lässt sich selten von theoretischen Fragen leiten. Vielleicht wird sich das alles in hundert Jahren in eine neurowissenschaftliche Theorie fügen. Zur Zeit aber betrachte ich die Forschung eher als Naturgeschichte und nicht als Naturwissenschaft; in dem Sinne, in dem Darwin mit dem „Ursprung der Arten“ die Naturgeschichte in eine theoretische Biologie verwandelte.“ Big-Data-Science ist Naturgeschichte. Wir tragen immer mehr Puzzlestücke zusammen, ohne ein Bild zu erhalten. - Vielleicht ist das Gehirn tatsächlich ein paar Nummern zu gross für seinen Benutzer. Das kann auch ein Trost sein.