Mensch und Werkzeug bilden seit dem Faustkeil ein symbiotisches System, das heute aber – mit der Entwicklung autonomer Werkzeuge - immer mehr dazu tendiert, zu einem subtilen Herrschaftsmittel über den Menschen zu werden.
Gerne intonieren die Promotoren dieser Entwicklung das verführerische Mantra einer Leichtigkeit des Seins, in der all unsere Probleme mit noch mehr Technik – will sagen: mit noch mehr Automatisierung - gelöst werden. Hier erscheint die Redeweise von den Computern, die das „Kommando übernehmen“, ja durchaus angebracht. Nur sollte man sie nicht als anonyme technische Macht missdeuten, sondern bedenken, dass letztlich Menschen dahinter stehen; zuvorderst der Nutzer, dann der Designer, im Hintergrund aber die Plutokraten des digitalen Zeitalters samt Schranzen in Wissenschaft, Kommunikation, Politik.
***
Neuerdings scheinen sie wie Zauberlehrlinge aufgewacht zu sein und treten nun als besorgte Warner vor das Volk. Unter Federführung des Grossinvestors Elon Musk veröffentlichten kürzlich über hundert Wissenschafter, Techniker und Firmenmogule – vorwiegend aus dem Umkreis der Künstlichen-Intelligenz-Forschung - einen „offenen Brief“[i]: Die Künstliche Intelligenz könnte sich als nicht so „freundlich“ herausstellen, wie dies die Designer der ersten Stunde von ihr erwarteten. Die Automatisierung habe auch ihre Schattenseiten. Hier ein Ausschnitt:
„Die Künstliche Intelligenz verzeichnet bemerkenswerte Erfolge auf zahlreichen Aufgabenfeldern: Sprach- und Bilderkennung, autonome Fahrzeuge, maschinelle Übersetzung, prothesenunterstützte Fortbewegung, Expertensysteme. Da nun solche künstlichen Fähigkeiten die Schwelle von der Laborforschung zur ökonomisch verwertbaren Technologie überschreiten, setzt sich ein positiver Kreislauf („virtuos circle“) durch, in dem nur schon kleine Leistungsverbesserungen grosse Geldsummen wert sind, die wiederum noch grössere Investitionen in die Forschung verlangen (..) Der Fortschritt der Künstlichen Intelligenz lässt es als zeitgemäss erscheinen, die Forschung nicht nur darauf zu richten, Systeme leistungsfähiger zu machen, sondern auch den gesellschaftlichen Nutzen zu maximieren (..) Bisher hat sich die Forschung vor allem mit zweckneutralen Techniken beschäftigt. Wir empfehlen, das Studium der Künstlichen Intelligenz auf die Frage auszuweiten, inwieweit die zunehmend potenteren Systeme robust und nutzbringend sind: Sie müssen das tun, was wir wollen, dass sie es tun.“
***
Besonders am letzten Satz bleibt man hängen. Er besticht durch seine Doppeldeutigkeit, oder sollte man sagen: Doppelzüngigkeit. Wer ist denn dieses „Wir“, das sicherstellt, dass Roboter, Algorithmen und künstliche Systeme im öffentlichen Interesse handeln? Die grossen Tech-Firmen, ihre Manager, Investoren, Software-Designer? Das Pentagon? Die NSA? Man darf daran zweifeln, dass Musk die gleichen Interessen hat wie der Normalbürger. Musks Investition von 10 Millionen Dollar in eine Forschung, welche die „Freundlichkeit“ der smarten Systeme gewährleisten soll, ist pures Geschäftsinteresse. Tesla Motors, als deren CEO er amtet, möchte ganz einfach Marktleader auf dem Gebiet autonomer, mit Software bestückter Fahrzeuge werden - ein heiss umkämpftes neues Segment, um das sich auch Google und Apple reissen. Da ist es nur naheliegend, die smarten Autos mit „robuster und nutzbringender“ künstlicher Intelligenz zu versehen. Die Priorität der Forschung liegt dabei in der Verifikation (wurde das System richtig gebaut?), der Validierung (Wurde das richtige System gebaut?), Sicherheit (Ist das System vor unautorisiertem Zugriff geschützt?) und Kontrolle (Wir haben das System falsch gebaut, aber wir können es reparieren)[ii]. Ist es zynisch, zu vermuten, Musks Sorge sei vor allem die Sorge um das Product Placement und nicht um die Sicherheit der Menschheit vor wild gewordenen Maschinen? Das muss sich ja nicht notwendig ausschliessen. Dennoch, das philanthropische Eiapopeia des Risikokapitalisten wiegt primär eine potenzielle Kundschaft im Seelenfrieden, dass die Forschung ihr Bestes tue, um das smarte Auto zu einem niedlichen gutmütigen Vehikel zu machen.
***
Gewiss, es gibt Bill Gates oder Tim Cook, deren Philanthropismus lauthals genug – meist von Wirtschaftsjournalisten - an ihren Millionenspenden gemessen wird. Man spricht ja auch schon von „venture philanthropism“. Das genügt nicht. Es wäre ein eigenes Forschungsprojekt wert, zu studieren, wie diese Tech-Maniacs eigentlich ticken. „Es ist schwierig, die Werte der Künstlichen Intelligenz auf eine Linie mit unseren eigenen Werten und Präferenzen zu bringen,“ heisst es im Brief. Aber wie pflegt Daniel Düsentrieb zu bemerken: „Dem Inscheniör ist nichts zu schwör“. Das Problem könnte gelöst werden, sagen die neuen Düsentriebs von Silicon Valley, dadurch, „dass wir Systeme bauen, die Werte in Laufzeit erlernen.“ Laufzeit bedeutet in der Informatik die Zeitspanne, die ein Programm benötigt, um eine bestimmte Aufgabe zu bewältigen. Man stelle sich dies einmal vor: Was wir Menschen uns in jahrelanger „Laufzeit“, im mühsamen Prozess des Heranwachsens und Hineinwachsens in eine Gemeinschaft aneignen, sollen plötzlich die Maschinen im Nu lernen, während sie ein Programm abschnurren! Was für Werte denn eigentlich? Unsere (und was sind „unsere“?) oder jene der globalen Digitalunternehmen? „Sie müssen das tun, was wir wollen, dass sie es tun“ hat plötzlich einen ganz anderen Klang.
[i] http://futureoflife.org/misc/open_letter
[ii] http://futureoflife.org/static/data/documents/research_priorities.pdf