Als 1985 eine Sammlung kleiner politischer Schriften von Jürgen Habermas bei Suhrkamp unter dem Titel «Die neue Unübersichtlichkeit» herauskam, war eine griffige Chiffre geprägt, in der viele die Gegenwart treffend charakterisiert sahen. «Neu» war der so bezeichnete Zustand nicht deshalb, weil es ihn etwa schon einmal in einer älteren Form gegeben hätte, sondern weil Unübersichtlichkeit als eine in früheren Zeiten so nicht erlebte Totalität der Welterfahrung erschien. Das wurde offenbar als etwas beunruhigend Neues empfunden. Die Komplexität der Zustände, so Habermas damals, habe die grundsätzliche Unvorhersehbarkeit gesellschaftlicher Entwicklungen zur Folge.
Enzyklopädien und Suchbäume
In den drei Jahrzehnten seit die Habermassche Universalchiffre in Umlauf kam, ist die Welt gewiss nicht übersichtlicher geworden. Der Umbruch von 1989 mit dem Übergang von der bi- zur multipolaren Welt, die technisch-wirtschaftlichen Umbrüche durch Informatisierung und Internet, eine globalisierte Wirtschaft bis ins hinterste Tal, multikulturell geprägte Lebenswelten als Normalfall, das Nebeneinander von Turbokapitalismus und neuer Armut, religiös-politische Konfliktlinien und Eruptionen: Diese Stichwörter verdeutlichen die ungeheure Dynamik, mit der sich in der Zeitspanne einer Generation die Welt verändert hat.
Die wachsende Unübersichtlichkeit der wirtschaftlich-gesellschaftlich-kulturellen Lebenswirklichkeiten ruft nach Instrumenten, welche Übersicht schaffen. Das klassische Mittel der alphabetischen Ordnung, auf der Enzyklopädien und Kataloge beruhen, hielt mit der explosionsartigen Zunahme der Informationsmengen nicht mehr Schritt. Bei den Internet-Vorläufern Bildschirmtext (D), Videotex (CH) und Minitel (F) benützte man Suchbäume, um das vorerst überschaubare Informationsangebot zu strukturieren. Sie leiteten Informationssuchende von Allgemeinbegriffen über immer feinere Verästelungen schliesslich (im besten Fall) zum gefragten Inhalt.
Allgemeines Prinzip der Suchmaschine
Beim Internet, in welchem es keine hierarchische Netztopologie mehr gibt, wurde die Baumstruktur obsolet. Als adäquates Instrument zur Schaffung von Übersicht wurde die Suchmaschine entwickelt. Diese liest in einem programmierten Vorgang die Netzinhalte und indiziert sie mit dem Zweck, spezifizierte Abfragen mittels Trefferlisten zu beantworten, wobei die Rangfolgen sich aus dem Grad der Übereinstimmung mit den Fragekriterien ergeben.
Das programmierte Lesen und Indizieren verstreuter Inhalte ist das Verfahren, um in einer unüberschaubaren, komplexen und sich dynamisch verändernden Informationsumwelt praktisch verwendbare Übersichten zu erzeugen. Suchmaschinen wie Google sind nur eine von vielen Realisationen dieses Prinzips. Eine andere sind die Rankings, die sich seit wenigen Jahrzehnten in zahlreichen Feldern durchgesetzt haben – exemplarisch bei den Universitäten.
Ähnlich funktionieren auch die jüngst stark ins Kreuzfeuer der Kritik geratenen Rating-Agenturen Moody’s, Standard&Poor’s und Fitch Ratings welche die Bonität von Staaten, Finanzinstituten und Unternehmen prüfen – mit dem Unterschied allerdings, dass sie einfache Noten erteilen, die sich dann unmittelbar wirtschaftlich auswirken. (Dieses weite Feld soll hier nicht Thema sein).
Geheimhaltung und Transparenz
Wie sehr die Methoden und Verfahren von Internet-Suchmaschinen und Rankings sich ähneln, verdeutlicht Google mit der Benennung seiner Suchtechnologie. Das von der Firma entwickelte Programm heisst «PageRank» und ist eines der bestgehüteten Geheimnisse. Bekannt ist, dass die Besuchsfrequenz einer Website sowie die Links anderer Sites, die auf sie verweisen, wichtige Kriterien für die Indizierung sind. Die Einzelheiten des Such- und Indizierung-Algorithmus werden von Google ständig überprüft und optimiert. So soll einerseits verhindert werden, dass die Heerscharen von SEO-Anbietern (SEO für Search Engine Optimization) die Suchresultate manipulieren können. Andererseits geht es aber auch darum, den technologischen Vorsprung gegenüber Konkurrenten zu verteidigen.
Sind Suchmaschinen wie Google weitgehend Black Boxes, so herrscht bei Ranking-Agenturen zumeist mehr, wenn auch nicht volle Transparenz. Zumindest bei so gewichtigen Angelegenheiten wie Uni-Rankings werden die Kriterien und ihre prozentuale Gewichtung für die Gesamtwertungen publiziert. Was zumindest für Aussenstehende nicht durchschaubar ist, sind die Verfahren zur Datenermittlung.
Kontroversen um Uni-Rankings
Anfang Mai wurde bekannt, dass die ETH Zürich im renommierten QS World University Ranking 2013 eine Top-Wertung erzielt hat. In elf Disziplinen ist sie unter den zehn weltbesten Unis, in zweien davon sogar fünftbeste, was in einem Fall – Umweltwissenschaften – die europäische Spitzenstellung bedeutet. Hochschul-Rankings sehen regelmässig die berühmtesten amerikanischen und britischen Institute auf den vordersten Rängen. Diese jährlich vorgenommenen Wertungen sind für das Renommee und die Erfolgschancen der Hochschulen wichtig – und werden entsprechend kontrovers beurteilt.
Universitäten stehen in einem globalisierten Wettbewerb um die besten Lehrkräfte und Studierenden sowie um Drittmittel seitens der Wirtschaft. Bei solchen Zuschüssen wird geklotzt statt gekleckert: Das Lehrstuhl-Sponsoring der UBS für ein wirtschaftswissenschaftliches Forschungsprojekt der Universität Zürich beispielsweise beläuft sich auf stolze 100 Mio. Franken. Allerdings beschert es der Uni nicht eitel Freude, da sich um die teilweise Geheimhaltung des Sponsoringvertrags eine forschungspolitische Kontroverse entsponnen hat, die nicht ausgestanden ist.
Gute Rankings zahlen sich für die Hochschulen aus. Schlechte setzen sie unter Erklärungszwang. Diese direkten Wirkungen sind, wie man wohl annehmen darf, einer der Gründe, weshalb solche Bewertungen bei vielen Universitäten auf Widerstand stossen. Die Uni Hamburg hat beispielsweise erklärt, sie werde auf Befragungen von Ranking-Instituten nicht mehr antworten. Die österreichischen Unis sind gleich gesamthaft ausgestiegen. Vielerorts sind akademische und hochschulpolitische Diskussionen über Sinn und Aussagekraft von Rankings im Gang. Die ETH Zürich hat daraus die Konsequenz gezogen, ihre ruhmreichen Platzierungen auf internationalen Ranglisten in der eigenen Kommunikation nicht zu verwenden (auf ihrer Website erwähnt sie die guten Platzierungen in den Rankings nur pauschal).
Diskutable und für Unis aufwendige Verfahren
In der Tat sind die Methoden, auf denen die Rankings beruhen, diskutabel. Als Kriterien dienen bezifferbare Variablen, die für eine Gesamtwertung gewichtet werden. Jedes Ranking verfährt etwas anders. Das THE Ranking (Times Higher Education World University Ranking) der in London erscheinenden Zeitschrift Times Higher Education gewichtet hauptsächlich die Zitierung von Publikationen, die in einer Uni entstehen, sowie Reputationswerte, die in der weltweiten Academic Community erhoben werden. Ähnlich verfährt das bereits genannte QS World University Ranking der britischen Beratungsfirma für Bildung/Ausbildung Quacquarelli Symonds, das aus einer Abspaltung vom THE Ranking stammt und heute in der angelsächsischen Welt tonangebend ist. Das Shanghai Ranking (von der Jiaotong-Universität bzw. einem aus ihr hervorgegangenen Institut durchgeführt) gibt Nobel- und anderen Preisen, gewonnen von Alumni oder gegenwärtigen Universitätsangehörigen, einen hohen Stellenwert und misst die Präsenz einer Bildungseinrichtung in wissenschaftlichen Publikationen durch Zählung von Artikeln und Zitierungen.
Ob dies die besten Variablen seien, um die Qualität von Bildungs- und Forschungsstätten zu messen, und welcher Kriterien-Mix das stimmigste Gesamtbild ergibt, dürfte schwierig zu entscheiden sein. Manche Kritiker gehen soweit, den quantifizierenden Ansatz samt dem Ansinnen, Ranglisten zu erstellen, grundsätzlich abzulehnen.
Die angewandten Methoden sind nicht nur diskutabel; sie sind auch enorm aufwendig. Es müssen Befragungen gemacht, Daten erhoben, Recherchen durchgeführt, Fragebogen abgearbeitet, Korrespondenzen geführt, Besprechungen abgehalten werden – und dies alles unter Termindruck neben notorisch überladenen Arbeitspensen. Es ist vorstellbar, dass die gut dotierten Spitzen-Unis eher bereit und in der Lage sind, hierfür Manpower einzusetzen als die grosse Masse der knapp gehaltenen Hochschulen. Die Champions dürften daher Startvorteile haben; gleiches wird von Kritikern oft für die im englischen Sprachraum angesiedelten Unis behauptet.
Kluft zwischen Quantitäten und Qualitäten
Google-Suchresultate und Hochschulbewertungen haben vieles gemeinsam: Sie werden kritisiert wegen ungenügender Transparenz und methodischen Unzulänglichkeiten, und sie werden rege benützt. PageRank und Rankings werden diskutiert, evaluiert, optimiert, doch sie kommen nie über die Klippe hinweg, dass sie Eigenschaften nur als quantifizierte Variablen erfassen und verarbeiten können. Ihre Qualitätsversprechen – die beste Universität, das am besten zutreffende Suchergebnis – können sie nur als numerische Ergebnisse eines Rechenvorgangs einlösen.
Übersicht in der unübersichtlichen Welt lässt sich mit technisch-administrativen Mitteln zwar erzeugen, aber nur um den Preis des Verzichts auf Qualitätsurteile. Rankings, Quotenmessungen, Auflagenstatistiken, Umfragen haben eines gemeinsam, unabhängig davon, wie grob oder differenziert sie vorgehen: Sie urteilen nicht; sie zählen. Die Ergebnisse sind zweifellos für vieles brauchbar (auch für diesen Artikel hat Google wertvolle Dienste geleistet). Nur werden sie leider fast immer unter falscher Etikette verwendet, nämlich als angebliche Qualitätsaussagen. Die verbreitete Redewendung, wonach Quantität – wie es jeweils heisst – «in Qualität umschlägt», ist als Regel nicht zu gebrauchen, da sie ja immer auf ganz besondere Fälle gemünzt ist, die man nicht so richtig erklären kann und daher mit der Metapher eines «Umschlagens» von einer Kategorie in die andere umschreibt. Genau betrachtet erweist sich die Kluft zwischen Quantitäten und Qualitäten eben doch als unüberbrückbar.