Google: Ein Werkzeug des Wissens, eine technokratische Macht
Bei der Analyse des Phänomens Google zeigt sich schnell, dass die Ökonomie der Suche nur ein Element in einem wesentlich größeren und komplexeren Bild ist. Mountain View ist dabei – und Eric Schmidt sagt es selbst – eine globale Unternehmung in der Informationstechnologie voranzutreiben, einen Hundert-Milliarden-Dollar-Betrieb, der weit über eine bloße Suchmaschinen-Firma hinausgeht.
In der Tat verkörpert Google eher ein alles durchdringendes Wissensmanagement-System, das unter anderem folgende Entwicklungen und Methoden einschließt:
- Strategien, die aggressives Marketing und clevere Imagepflege verbinden,
- die Verbreitung umfassend konfigurierbarer, dennoch stets wiedererkennbarer Schnittstellen,
- Instrumente, mit denen Nutzer und Entwickler Inhalte nach Google-Standards erstellen,
- die Übernahme von kooperativen Entwicklungsmodellen aus dem Lehrbuch der freien und Open-Source-Software,
- die Nutzung neuester Datenerhebungs- und -archivierungssysteme,
- die Verbindung von Information Retrieval mit Profiling-Techniken, und last but not least:
- die ausgefeilte und hochentwickelte Personalisierung von Anzeigen.
Aus der wissenschaftlichen Forschung hervorgegangen, ist Google heute ebenso zum allgemeinen Werkzeug der Wissensverwaltung wie zur technologischen Macht geworden; man kann sagen: zum direkten Ausdruck von Technokratie.
Die Autorität der Maschinen
Natürlich können wir alles im Internet veröffentlichen, was wir wollen, und Google wird es indexieren. Doch wir dürfen nicht erwähnen, dass Googles Akkumulationsstrategie perfekt zum System der Marktwirtschaft passt, das auf unendlichem Wachstum basiert. Insofern ist das Pagerank-Verfahren mehr als ein Algorithmus: Es wird zu einem kulturellen Prisma, durch das Google uns die Welt wahrnehmen lässt. In einem gewissen Sinn forciert es die Ausdehnung des Peer-Review-Systems – das innerhalb der akademischen Welt seine Berechtigung hat – auf die gesamte Skala des menschlichen Wissens.
Die traditionellen religiösen und politischen Autoritäten sind mit ihrer Glaubwürdigkeit am Tiefpunkt angelangt. Nun steht ihnen die Autorität der Maschinen gegenüber. Sie zeigt sich vor allem in den Suchergebnissen, die der wohlhabenden Klasse der ‚Prosumer’ geliefert werden; gespeist von einer Datenbasis, die die Hohepriester der Technologie, die Experten, bereitgestellt haben.
Charakteristisch für solche Verfahren, die vorgeben, aus der verfügbaren und vermeintlich grenzenlosen Menge an Daten „die Wahrheit” zu extrahieren, ist eine extreme Form des Relativismus. Schon an der Vielzahl von Algorithmen und Filtern, die Google verwendet, um diese Wahrheit zu gewinnen, lässt sich das erahnen. Die eigentliche Bedeutung der passenden Antwort auf eine Suchanfrage aber liegt darin, dass sie für jeden Konsumenten ein fertiges, personalisiertes Produkt liefert.
Technikhass und Technikeuphorie
Wo uns auf diese Weise die Erzeugung, Verwaltung und Anwendung von Wissen aus den Händen genommen wird, scheinen nur zwei Optionen übrig: Entweder die Ablehnung der Wissenschaftskultur überhaupt als Wurzel allen Übels; oder – im direkten Gegensatz dazu – das blinde und enthusiastische Akzeptieren jeglicher durch Technologie hervorgebrachter Innovation.
Doch zwischen diesen beiden Extrempositionen – Technikhass hier, Technikeuphorie dort – lässt sich eine Position entwickeln, die jene Neugier befördert, die wir aus der Hackerethik kennen. Sie steht ebenso für das Teilen von Wissen, die kritische Haltung gegenüber „Wahrheiten” wie für das rigorose Prüfen von Quellen und den freien Fluss von Information.
Ein fundamental wichtiges Thema in diesem Zusammenhang ist Bildung, doch es fehlen die Mittel, um Wissen in großem Maßstab zu verbreiten. Die Bildungsstrukturen in Europa und in Nordamerika sind nur darauf ausgerichtet, Spezialisten zu produzieren. Und ein pädagogisches Modell, das sich am Bedürfnis nach einer Art „dilettantischem” wissenschaftlichen Zugang zu Wissen orientiert, ist im Moment nicht in Sicht.
Die Logik der Informationstechnologie
Der Aufstieg der Informationstechnologie zum Motor technischer Innovation überhaupt hat neue Szenarien eröffnet: Informationstechnologie ist nicht nur ein Verfahren, um den Umgang mit Informationen zu automatisieren. Sie besitzt eine eigene Logik, die darin besteht, kontinuierlich ihre eigene Basis zu verändern. Informationstechnologie ist gleichzeitig physikalisch-materiell und experimentelle Theorie. Sie befasst sich mit der Formalisierung der Sprache, bringt diese mit physischen Komponenten der Elektronik zur Wirkung, woraus wiederum neue Sprachen entstehen, die erneut die Theorien des Wissens beeinflussen.
Vor zehn Jahren geschriebene Software unterscheidet sich strukturell von Software für einen heutigen Computer. Wir wissen, dass das, was wir gestern für wahr hielten, morgen nicht mehr stimmen wird, wenn wir stärkere Maschinen haben und mit ihnen völlig neue Dinge tun können.
Wunder der Technologie: Von subjektiven Meinungen zur objektiven Wahrheit
In dieser gigantischen Datenwelt nun taucht der gute Riese Google auf und erklärt uns, dass wir alle Teil einer großen, bislang nicht gekannten globalen elektronischen Demokratie seien. Und so seien auch die Ergebnisse von Pagerank korrekt, entspringen sie doch der direkten Demokratie der Links, die durch Googles Algorithmen validiert werden – und uns in gewisser Weise unser Recht zurückgeben, für uns selbst zu sprechen.
Epistemologisch betrachtet kann Popularität jedoch nie als Beleg für objektive Qualität gelten. Dann würde das Konzept der Objektivität auf der unausgesprochenen Annahme beruhen, dass eine Masse subjektiver Ideen – die Meinungen, die über Links ausgedrückt werden – sich scheinbar magisch in ihr exaktes Gegenteil verwandeln kann: in die aufscheinende objektive Wahrheit in dem Moment, da sie eine bestimmte Zahl überschreiten und zur Mehrheit werden. So wird das Ranking zum Ausweis von Qualität, weil es augenscheinlich das Ergebnis informationsverarbeitender Technologien darstellt.
Algorithmen und der Schein der Objektivität
Dennoch: Wie kann Quantität zu Qualität werden? Man geht davon aus – ohne es allzu offen zuzugeben – dass die technische Vermittlung durch den Algorithmus selbst bereits eine Garantie für „Objektivität” ist und assoziiert diese Objektivität mit „gut”, „besser” und schließlich mit „wahr”. Dieser Mechanismus der Konsensbildung, den Google als Manifestation direkter Demokratie betrachtet, da er über die Voten der User funktioniert, überzeugt aber aus zwei wesentlichen Gründen nicht: Erstens unterstellt er, dass die Mehrheit immer recht hat. Zweitens impliziert er, dass Meinungen mehrheitlich und notwendig eine technologische Vermittlung durchlaufen müssen, um dem User wirklich zu nutzen. Wie das genau funktioniert, wird aber nie erläutert.
Die Dichotomie zwischen dem Objektiven und dem Subjektiven und die Gegenüberstellung von Wahrheit und Meinung ist in der Welt der Netzwerke aber selbst völlig deplaziert. Bei genauerer Betrachtung hat die Wissenschaft, wenn sie Techniken erfunden und Technologien gefördert hat, immer Hybride aus Natur und Kultur erzeugt.
Die Technologie hinter den Netzwerken ist nur die gegenwärtige Anwendung der wissenschaftlichen Methode, die ‚Natur-Kultur-Hybride’ erschafft und zu unzähligen wissenschaftlichen Objekten führt, die sich – anstelle der Menschen – als brauchbarere Zeichen für die Wirklichkeit präsentieren. Der Algorithmus von Pagerank und sein Urteil gilt nunmehr als vertrauenswürdiger als die Meinung eines Individuums, selbst als die eines fachlichen Experten – und sei es, weil Pageranks Empfehlung immer nur einen Klick entfernt ist, im Gegensatz zu der des Experten.
Was ist für wen relevant?
Ein anderer möglicher Gesichtspunkt auf das Thema „Subjektivität vs. Objektivität” bezieht sich auf das Modell der Entscheidungsfindung: Wie entscheidet man, was relevant ist? In einem relativistischen Kontext kann man eher davon ausgehen, dass eine Information ‚objektiv’ ist, wenn sie von einer Website (oder einem Blog oder Google oder einer offiziellen Quelle) stammt, deren Bewertungskriterien auf klare Vorgaben, transparente Prozesse und eine begrenzte, lokale Perspektive zurückgehen.
Ein Netzwerk, das auf Vertrauen basiert – also eine Gruppe von Leuten, die untereinander Informationen, Meinungen und ganz allgemein Wissen teilen – kann problemlos seine Arbeitsweisen offenlegen, ebenso seine Hierarchie, wenn es eine hat; auch die Voraussetzungen, um Mitglied des Netzwerks oder des Projekts zu werden.
Opake Entscheidungsmechanismen
Wenn man die Antworten prüft, die von einem solchen Vertrauensnetzwerk gegeben werden, kann man diese immer als ‚objektiv’ betrachten: in dem Sinne, dass sie für und in diesem Netzwerk wahr und relevant in Bezug auf dessen Erfahrungen sind. Diese Objektivität und Relevanz ist das Ergebnis vieler verschiedener Subjektivitäten und des Austauschs zwischen den Mitgliedern dieses Netzwerks. Wenn man sich mit seiner Gemeinschaft in Übereinstimmung sieht, kann die jeweilige Information für einen von Interesse sein, oder man kann sie zugunsten anderer Netzwerke des Vertrauens verwerfen.
Folgt man diesem Ansatz, und wäre Google bereit, seine Entscheidungsmechanismen offenzulegen und damit die Internetuser in der Lage, sie nachzuvollziehen, dann könnte man das Problem „objektiv vs. subjektiv” leicht überwinden. Man würde sich nicht nur Schritt für Schritt, Suche für Suche in das jeweils bevorzugte Netzwerk hineinversetzen können, sondern wäre auch in der Lage, es direkt zu beeinflussen und es im Rahmen unserer Geschmäcker und unserer Vorlieben, unserer Ideen und Eigenheiten zu halten – oder kurz: in Übereinstimmung mit uns selbst.
Dieser Artikel ist ein gekürzter Auszug aus „Luci e ombre di Google/ The Dark Side of Google”. Zuerst auf Italienisch 2007 veröffentlicht, ist die Schrift jetzt in der Reihe „Theory on Demand” des Amsterdamer Institute of Network Cultures in neuer Fassung erschienen.
Übersetzung: Andreas Kallfelz. Lizenz: CC BY-NC-SA 2.5 IT
Was sagen Sie dazu?