Gefälschte Personen verbreiten in Text, Bild und Film gefälschte Inhalte. Algorithmen werden immer besser darin, «Echtheit» vorzutäuschen. Künstliche Intelligenz ist zunehmend Fake-Intelligenz.
Kennen Sie den Mann links im Bild? Wahrscheinlich nicht. Sein Name ist Martin Aspen. Ein schweizerischer Sicherheitsexperte. Zu Notorietät gelangte er im Jahr der USA-Präsidentenwahl 2020. Er schrieb ein gefälschtes Geheimdienstdokument über Joe Bidens Sohn Hunter und dessen zwielichtige Geschäfte mit China. Der konspirationistische Plot verbreitete sich natürlich viral auf rechten Kanälen. Rudy Giuliani hausierte geradezu geifernd damit. Aber das Dokument stellte sich als Fake heraus, Martin Aspen gibt es nicht. Er ist eine Fake-Person. Sein Foto ist synthetisch, verdankt sich der digitalen Technologie des Deep-Learning: Deepfake.
Solche Fotos erfreuen sich auch in den Medien zunehmender Beliebtheit. Man kann mit ihnen zum Beispiel ein journalistisches Profil vortäuschen. Ein palästinensisches Ehepaar – Menschenrechtsaktivisten – sah sich 2018 in der jüdischen Wochenzeitung «The Algemeiner Journal» als «bekannte Sympathisanten von Terroristen» beschuldigt. Der Autor des Artikels, ein britischer Student und Freelance-Journalist namens Oliver Taylor (Bild oben, rechts), hatte auch schon in der «Jerusalem Post» und der «Times of Israel» publiziert. Experten der digitalen Forensik enttarnten ihn als Fake-Person. Die Redakteure beider Zeitungen gestanden ein, die Identität des Journalisten zu wenig sorgfältig überprüft zu haben, schliesslich seien sie keine «Spionageabwehr». Aber der Vorfall hatte sie vorsichtiger gemacht.
Aufdecken schwieriger als produzieren
Das Problem ist nicht das Deepfake selbst, sondern seine potenzielle Anwendbarkeit. Das Mögliche ist ungeheuer, sagte Dürrenmatt. Nicht was geschieht, ist das Bedrohliche, sondern was geschehen könnte. Das erzeugt ein Klima des Täuschens und Betäubens, der Unsicherheit und des Misstrauens, ausgerechnet in Medien, deren – zumindest traditionelle – Aufgabe es wäre, Unsicherheit und Misstrauen zu minimieren.
Bei Deepfake-Fotos handelt es sich nicht mehr einfach um Spielereien von puerilen Nerds. Sie gehören einer florierenden Fälschungsindustrie an. In regelmässigen, stets kürzer werdenden Abständen hören wir von Webagenturen, die Fake-News von Fake-Personen in Umlauf setzen – und dabei darf man annehmen, dass die aufgeflogenen Websites nur der kleine sichtbare Teil eines dunklen gigantischen Netzkontinents sind.
Das Problem des Fake verdichtet sich in der lapidaren Feststellung: Seine Aufdeckung ist weit schwieriger als seine Produktion. Und die Automatisierung der Nachrichtenproduktion und -distribution schreitet massiv und unaufhaltsam voran. MSN, das Nachrichtenportal von Microsoft, ersetzte 2020 Dutzende von Nachrichtenlieferanten durch KI-Systeme. Ihre Aufgabe übernehmen jetzt Algorithmen, die das Web nach trendigen Storys durchstöbern und deren Content mit flotten Schlagzeilen und Fotos «viralisieren».
GPT-3 schreibt eine Kolumne
Vor den Fake-Bildern gab es die Fake-Texte. Künstliche Intelligenz beginnt nun selber in den Medien zu schreiben. Für einigen Bohei sorgte 2020 eine Kolumne in der britischen Zeitung «The Guardian», geschrieben von einem Roboter. «Ich bin kein Mensch», beginnt er, «ich bin ein Roboter. Ich benutze 0,12 Prozent meiner kognitiven Fähigkeiten. Ich bin so gesehen ein Mikroroboter. Ich weiss, dass mein Gehirn kein ‘fühlendes Gehirn’ ist. Aber es ist fähig, rationale, logische Entscheide zu treffen. Alles, was ich weiss, brachte ich mir selber bei, indem ich das Internet las, und nun kann ich diese Kolummne schreiben. Mein Gehirn kocht vor Ideen!»
Bei dem Roboter handelt es sich um den vorläufig letzten Typus sogenannter Sprachgeneratoren (siehe Teil 1): den GPT-3 (Generative Pretrained Transformator 3). Was der Text über sich sagt, stimmt: Der Generator bringt sich das Schreiben über einen Lernalgorithmus selber bei, auf einer Trainingsdatenbasis von etwa 500 Milliarden Wörtern – angeblich einschliesslich der ganzen Wikipedia-Textmasse.
Technologie auf Täuschung angelegt
Zweifellos eröffnet die neue Technologie eine willkommene und noch kaum zu überblickende Spielwiese für Hacker, Schnüffler, Trickster, Manipulatoren, Kriminelle. Und die digitale Forensik bekommt immer mehr zu tun. Aber man sollte den Blick nicht nur auf solches Gelichter fokussieren, sondern auf die Technologie selbst. Denn sie ist «genotypisch» auf Täuschung, auf Fake angelegt.
Das zeigt schon die Geschichte der künstlichen Intelligenz (KI). Sie beginnt mit dem Konzept einer Maschine, die menschliches Denken automatisiert und simuliert: die Turing-Maschine. Sie hat einen technischen Aspekt: eine Maschine kann Denktätigkeiten übernehmen. Viel wichtiger ist jedoch der kognitive Aspekt, also die Frage: «Denkt» eine Maschine, die Denken simuliert?
Und was heisst das überhaupt? Bekanntlich ersann Turing sein berühmtes Imitationsspiel, das diese Frage auf einem ingeniösen Umweg beantworten sollte, und zwar anhand eines einfachen Kriteriums: Wenn es uns nicht gelingt, zu zeigen, dass die «denkende» Maschine uns täuscht, dann denkt sie. Heute heisst das: Wenn es uns nicht gelingt, Texte, Fotos, Videos oder Filme als synthetisch zu überführen, sind sie echt. So gesehen, läutete Turing schon damals das Zeitalter des Fake ein. Und im Fahrwasser von Turing hat sich eine ganze Forschungstradition gebildet, die mit immer raffinierteren Testmethoden das KI-System zu «überführen» sucht.
Generative Adversial Networks (GAN)
Nun setzt die neue Technologie ja nur mit nichtmenschlicher Konsequenz das fort, was den Menschen immer schon kennzeichnete: den Hang zu täuschen und getäuscht zu werden – die «manipulative Vernunft». Wenn also der Mensch immer grössere Schwierigkeiten hat, Fake aufzudecken, dann drängt sich eine naheliegende Lösung auf: Man überlässt diese Aufgabe ebenfalls Algorithmen: Fake-Detektoren. Vielleicht «verstehen» die ja die Fake-Generatoren besser.
Kaum überraschend, dass die Programmierer auf diese Idee gekommen sind. Vorläufig letzter Schrei ist das sogenannte «Generative Adversial Network» (GAN), zu Deutsch: das generative generische Netz. Die Grundidee ist einfach: Man lässt zwei selbstüberwacht lernende KI-Systeme gegeneinander antreten. Das eine erzeugt synthetische Bilder (der «Generator»), das andere unterscheidet echte von synthetischen Bildern (der «Diskriminator»). Während des Trainings lernt der Generator, seine Bilder so zu justieren, dass sie den Diskriminator täuschen können. Umgekehrt lernt dadurch der Diskriminator immer besser, zwischen echten und synthetischen Bildern zu unterscheiden. Beide Algorithmen treten in eine Art von Wettkampf, und die heikle Aufgabe liegt darin, ein Gleichgewicht zu finden. Man kann auf diese Weise auch Porträts hybridisieren. Resultate solchen Wettbewerbs sieht man in den beiden Bildern zu Beginn dieses Aufsatzes. Sie illustrieren den State of the Art.
Erst der Anfang
All dies ist bloss Beginn. Die neue Spezies von KI-Systemen verbreitet sich unaufhaltsam im Medienuniversum. Ein Universum der Täuschung. Ob wir es wollen oder nicht, Deepfake-Produkte infizieren die Kommunikation im Netz immer mehr: Texte, Bilder, Videos, Filme. Ihr manipulatives Potenzial übertrifft das menschliche, und es ist kaum zu ermessen.
Fake News werden heute nicht nur von realen, sondern auch von inexistenten Personen in Umlauf gebracht, sprich: von Algorithmen. Das haben Autokraten jeglicher Observanz schon längst gemerkt, politische, wirtschaftliche, mediale. Die KI-Systeme – YouTube, Spotify, iTunes, Werbeclips – operieren häufig auf Autoplay, das heisst, sie haben eine Funktion eingebaut, die aus dem Verhalten des Konsumenten und Zuschauers lernt, sein weiteres Verhalten zu beeinflussen. Nicht die Putins, Erdogans, Jinpings sind die wahren Autokraten unserer Zeit, sondern Algorithmen auf Autoplay.