Diese sind bevölkert von natürlichen und künstlichen Existenzen, Personen und Bots. Twitter zum Beispiel ist ein Spieluniversum – ein „Twitterversum“, wie es der Wissenschaftsautor James Gleick nennt -, in dem sich Millionen von Wesen tummeln, die meist Menschen ähneln, die oft sogar Menschen sein können. Zunehmend gibt es aber auch Akteure, die eigentlich Bots sind, aber vorgeben, Menschen zu sein. Bots sind in der Regel winzige rudimentäre Programme, quasi Skelette aus ein bisschen Code.
Im Twitterversum werden Kurznachrichten ausgetauscht, Texte also, die auch ein primitives Programm schreiben und lesen kann. Es gibt – nach Twitters eigener Einschätzung - Millionen solcher Texte lesender uhd schreibender Bots. Zum Beispiel die Kreatur namens „@ComposedOf“ („zusammengesetzt aus“), deren Aufgabe sich darauf beschränkt, nach Tweets zu suchen, in denen das Wort „comprised of“ („enthält“) vorkommt. Wenn der Bot ein solches Tweet findet, sendet er: „’comprised of’ ist schlechte Grammatik, verwende stattdessen ‚composed of’.“ Warum handelt es sich hier um einen Bot, und nicht um eine menschliche Person? Ganz einfach: Die Antwort ist die immergleiche, eben roboterhaft. Ein Technikjournalist von der New York Times, Farhad Manjoo, machte die Probe aufs Exempel und twitterte: „Check out the worst bot ever: @ComposedOf. It is comprised of Christ what an asshole.“ Der Bot erwiderte ungerührt – na, was wohl: ‚Comprised of’ is poor grammar. Consider using ‚composed of’ instead.“ Ein anderer Twitterer versandte an seine Follower (so zumindest glaubte er) die Botschaft, der Islamische Staat sei ein Kult, der Pädophile, Fans von Bestialität, Frauenhasser, Mörder und übel riechende Mitglieder „enthalte“ („is comprised of“). Das Tweet entging nicht dem unbestechlichen Blick von @ComposedOf. Prompt erhielt es die Korrektur: ‚Comprised of’ is poor grammar. Consider using ‚composed of’ instead.“ -
Bots sind nicht bloss blöd, sie können mitunter richtig nett und aufbauend sein. James Gleick schrieb in einem Tweet das Wort „deprimiert“ und erhielt von einem „Love Bot@hereissomelove“ die Antwort: „Sie twitterten das Wort ‚deprimiert’. Wir wollten Ihnen mitteilen, dass wir uns um Sie sorgen und Sie lieben.“ Wie tröstlich. Wir sind umsorgt von ein paar Zeilen Computercode. Obwohl die meisten Bots die Komplexität von mechanischen Aufzieh-Affen haben, ist das Erstaunliche, ja, das Unheimliche daran, wie leicht sie uns täuschen können; wie gutgläubig wir sie aufnehmen in unser gemeinsames Gespräch. Oder – der Gedanke lässt sich nicht verscheuchen – ist unser Gespräch bereits derart „vertweetet“ dass uns der Unterschied egal ist? In einer 140-Zeichen-Kommunikation ist er ohnehin kaum noch auszumachen.
Dennoch - Computerwissenschafter an der Indiana University arbeiten an einem Projekt, das sich „Bot or Not“ nennt: eine Art von Internet-Detektei, die herausfinden soll, ob es sich bei gewissen Mitteillungen um solche von Androiden handelt (man erinnert sich an den Replikanten-Aufspürer Rick Deckard in „Blade Runner“). Sie schreiben: „Die Grenze zwischen menschenähnlichem und botähnlichem Verhalten verwischt sich. (..) Wir glauben, dass ein Bedürfnis für Menschen und Bots (sic) besteht, fähig zu sein, einander zu erkennen, und bizarre, wenn nicht gar gefährliche Situationen zu vermeiden, die auf falschen Annahmen beruhen.“
Fürwahr. - Man spricht immer von künstlicher Intelligenz, die uns in Zukunft auf Schritt und Tritt begleiten werde. Das Twitterversum suggeriert eine andere Aussicht, nämlich auf eine Pandemie künstlicher Dummheit, wie sie sich in den Millionen von Bots und Tweets manifestiert. Und wenn man sagt, Menschen und Roboter würden sich immer weniger unterscheiden, kann man daraus einen Rückschluss ziehen, der sich nicht unbedingt schmeichelhaft für uns anhört.