Mrz 242013
 

[Zuerst erschienen in der Zeitschrift »Pop. Kultur und Kritik«, Heft 2, Frühling 2013, S. 41-47]

Im Mai 2012 fand im kalifornischen Rancho Palos Verdes die Konferenz »AllThingsDigital«, ein alljährliches Treffen der US-amerikanischen Internetbranche, statt. Wo normalerweise gegenseitiges Schulterklopfen auf der Tagesordnung steht, kam es diesmal zum Eklat. Als Ari Emanuel, einer der wichtigsten Agenten Hollywoods, zum Verhältnis von Film- und Internetbranche befragt wurde, fiel die Auskunft eindeutig aus: Solange aus Plattformen wie hulu oder netflix Geld an Hollywood zurückfließt, ist alles in bester Ordnung. Wer jedoch, wie Google, Werkzeuge bereitstellt, mit denen sich auch ›illegale‹ Downloads finden lassen, macht sich der Piraterie mitschuldig. Wenn Google wolle, so Emanuel, läge die technische Lösung auf der Hand: »Look, Google can filter and does filter for child pornography. They do that already. So stealing is a bad thing, and child pornography is a bad thing.«

Von der zwingenden Logik dieser Argumentation ließen sich zwar weder die anwesenden Google-Repräsentantinnen und -Repräsentanten noch das restliche Publikum beeindrucken. Dennoch scheint die Vehemenz, mit der die Forderung vorgetragen wurde, Früchte zu tragen: Einige Monate später passte Google seine Kriterien so an, dass Websites, auf denen ›illegale‹ Downloads vermutet werden, ein schlechteres Ranking erhalten. Wird nun über eine Filesharing-Plattform eine Vielzahl von Audio- oder Videodateien verbreitet, die aus der Sicht von Google Urheberrechtsverletzungen beinhalten, trifft in Zukunft eine Herabstufung unvermeidlich die gesamte Plattform.

Das Beispiel macht deutlich, dass Vorstellungen des Web als allumfassendes (pop-)kulturelles Archiv der Revision bedürfen. Stand Google schon lange als Inbegriff massiver technischer und ökonomischer Zentralisierungstendenzen, zeichnet sich nun auch bei den Zugangsformen zum Archiv ab, wohin die Reise geht: Google braucht sich um Konkurrenz im Suchmaschinenbereich gegenwärtig keine Sorgen zu machen, sehr wohl aber im Bereich des Social Networking und bei der Distribution von Inhalten. Darum wiegt die Notwendigkeit, strategische Allianzen mit anderen Unternehmen zu schmieden, schwerer als die Gunst der Userinnen und User. Die Sichtbarkeit von Inhalten wird zur Verhandlungsmasse.

Das Kernprinzip des Google-Rankings dürfte inzwischen bekannt sein: Eine Seite, die viele Links von anderen Seiten aufweist, erhält einen hohen PageRank; ein hoher PageRank besitzt wiederum einen positiven Einfluss auf die von dieser Seite verlinkten Seiten. Entlehnt ist dieses Prinzip der Bibliometrie, die sich mit der Analyse von Verweisstrukturen in akademischen Texten befasst. Auch hier gelten diejenigen Texte als besonders relevant, die besonders häufig zitiert werden; zusätzlich würde beim PageRank jedoch berücksichtigt, ob ein Zitat aus einem Text stammt, der selbst bereits als besonders relevant eingestuft wurde. Es handelt sich also um ein rekursives Verfahren, das erst zu einem Ergebnis kommt, wenn die Topologie aller gespeicherten Links ausgewertet ist.

Wenn Google dieses Verfahren in seinen Blogs als ›demokratisch‹ bezeichnet, weil bei der Auswertung jeder Link wie die Stimme bei einer Wahl gezählt würde, kann man dies getrost als PR-Strategie abtun. Trotzdem ist nicht von der Hand zu weisen, dass der PageRank eine populäre, wenn nicht gar populistische Schlagseite hat: Populäre Seiten haben bessere Chancen auf prominente Plätze in den Suchergebnissen, damit auch bessere Chancen, verlinkt zu werden – und dadurch wiederum bessere Chancen auf prominente Plätze. Mit der Zeit führt diese Dynamik, dies haben die Netzwerktheoretiker vorgerechnet, zu Kumulationseffekten, so dass einige wenige Seiten den größten Teil der Aufmerksamkeit für sich verbuchen können.

Die dem PageRank eingeschriebene Gleichsetzung von populär und relevant wird gemeinhin als Problem betrachtet, das es zu beheben gilt. Man kann die Blickrichtung aber auch umdrehen und fragen: Wenn dieses Prinzip einen zentralen Aspekt des Erfolgs von Google ausmacht, welchen Anlass gibt es dann, davon abzuweichen? Ein erster Hinweis darauf, dass es mit dem Vertrauen in den ›demokratischen‹ Prozess noch nie weit her war, lässt sich in Googles Maßnahmen zur Spam-Bekämpfung finden. In besonderer Erinnerung ist der Suchmaschinenbranche ein Update der Google-Algorithmen im November 2003 geblieben, das eine ganze Reihe neuer Spam-Kriterien einführte. Die Reihenfolge der Ergebnisse wurde dadurch dermaßen durcheinandergebracht, dass das Update nach einem Hurrikan benannt wurde, der im gleichen Jahr den US-Staat Florida verwüstet hatte.

Derart umwälzende Änderungen der Ranking-Kriterien sind inzwischen kaum noch zu verzeichnen, auch wenn der als »Google Dance« bekannte Reigen der Ergebnisse die Branche der Suchmaschinenoptimierer weiterhin regelmäßig in Aufregung versetzt. Suchmaschinenoptimierer, also diejenigen, die im Auftrag ihrer Kunden dafür sorgen, das bestimmte Inhalte weiter oben in den Ergebnislisten auftauchen, werden oft manipulativ gescholten, gleichzeitig ist es jedoch gerade diese Branche, die durch die Offenlegung ihrer Kenntnisse zumindest einen rudimentären Einblick in die Rankingkriterien erlaubt. So weiß man, dass in die erste große Aktualisierung des vergangenen Jahres, genannt »Panda«, zahlreiche Kriterien für die Qualität von Websites einflossen, die aus den Berichten menschlicher Testpersonen zusammengestellt wurden. Das darauffolgende »Penguin-Update« galt ein weiteres Mal der Spambekämpfung, die Folgen für die Reihenfolge der Ergebnisse blieben diesmal jedoch überschaubar.

Für Schlagzeilen jenseits des Spezialdiskurses sorgte erst wieder die Aktualisierung Mitte August, von Kennern der Branche zunächst als »Emanuel-« und später als »Pirates-Update« bezeichnet. Technisch wird die Identifizierung ›illegaler‹ Inhalte hierbei umgesetzt, indem die Anzahl der für legitim befundenen »takedown requests« berücksichtigt wird. Der »takedown request« ist ein Instrument, das im Rahmen des US-amerikanischen Digital Millenium Copyright Act eingeführt wurde und Rechteinhabern die Möglichkeit gibt, z.B. bei Suchmaschinen eine Beschwerde über die Verletzung ihrer Urheberrechte einzureichen (was allein bei Google inzwischen vier Millionen Mal pro Monat geschieht). Wird vom Betreiber der entsprechenden Seite kein Widerspruch eingelegt, stuft Google die Beschwerde als legitim ein und löscht die Inhalte aus dem Index. Häufen sich nun auf einer Website die Fälle der als legitim befundenen »takedown requests«, wird in Zukunft die komplette Website im Google-Ranking heruntergestuft. Erschwert wird damit jedoch auch der Zugang zu Material, das aus urheberrechtlicher Sicht völlig unproblematisch ist.

Mit dem Pirates-Update passt Google seine Ranking-Kriterien offen an die Interessen anderer Unternehmen (und nicht nur, wie bisher, an die jeweilige nationale Rechtsprechung) an und gibt damit seine (zumindest behauptete) ausschließliche Ausrichtung an der Popularität von Inhalten auf. Man kann darüber streiten, ob dies bereits unter die Rubrik einer »Zensur light« fällt, wie der Internettheoretiker Felix Stalder das Pirates-Update im Online-Magazin irights.org bezeichnet hat. Auffällig ist in jedem Fall, dass es sich nicht um ein Einzelphänomen handelt. Sei es das berüchtigte Muhammed-Video, GEMA-Meldungen bei YouTube oder Ai Weiweis Gangnam-Tanz – im vergangenen Jahr häuften sich die Beispiele für Möglichkeiten der großen Online-Akteure, den Zugang zu bestimmten Inhalten zu sperren oder zumindest zu erschweren.

Interessant zu beobachten ist allerdings, dass sich das Prinzip des Populären, ungeachtet solcher einschränkenden Versuche, oftmals doch seinen Weg bahnt. Der Spruch »The internet treats censorship as a malfunction and routes around it« ist zwar eher zu den Mythen der kalifornischen Ideologie zu rechnen, als dass er technisch jemals Realität war. Dennoch lassen sich in ganz bestimmten Fällen in den Praktiken der User Beispiele für ein solches ›Herumrouten‹ um Blockierversuche finden, nämlich dann, wenn der Versuch selbst zum Thema wird.

Der Ärger darüber, dass Inhalte gesperrt werden sollen, oder auch einfach nur das Interesse an diesem Faktum, scheint oft Anlass genug, um entsprechende Text-, Bild- oder Videomitteilungen zu verfassen und zu posten. Unterstützt durch die automatisierte Aggregation von Tags und Links bildet sich spontan eine Art kollektive Dynamik heraus, die in einer langen Kette von Remixes, Re-Inszenierungen und assoziativen Kommentaren mündet und so die ursprüngliche Intention, bestimmte Inhalte dem Diskurs zu entziehen, untergräbt. Im Internet-Jargon als ›Streisand-Effekt‹ bekannt geworden, verkehrt diese Dynamik die Agenda-Setting-Versuche verschiedenster Akteure in ihr Gegenteil – am Ende reicht schon der Verweis auf ein Pferd, um die Kette der Assoziationen zu Ai Weiwei und der chinesischen Online-Politik in Gang zu setzen. Die Frage ist dann, wer schneller ist – die Dynamik der Kettenbildung oder die Versuche, diese wieder einzufangen.

Eine Voraussetzung für die Entwicklung derartiger Reaktionen ist jedoch, dass der Versuch, Inhalte zu unterbinden, überhaupt wahrgenommen wird. Erst die Sichtbarkeit der versuchten Blockade gibt einen Anlass für die Entwicklung der beschriebenen kollektiven Dynamiken. Zudem scheint die Möglichkeit, einen klaren Gegner oder zumindest eine klare Interessenkonstellation hinter den Blockierungsversuchen benennen zu können, eine wichtige Antriebskraft. Im Fall des Pirates-Updates wären zwar die Interessen der beteiligten Akteure benennbar, allerdings dürfte das Fehlen der Inhalte selbst den wenigsten Usern auffallen. Anders als die GEMA-Meldung bei YouTube, die einem offensichtlich den Weg zum gewünschten Inhalt versperrt, lässt sich aus einer Ergebnisliste von Google kaum schließen, welche Inhalte dort fehlen. Auch wenn es Alternativen gibt – bei einem Marktanteil von über 90 Prozent existiert bei den meisten Usern schlicht keine Erwartungsstruktur, mit der ein Google-Ergebnis abgeglichen werden kann.

Das Problem der Sichtbarkeit verschärft sich im Zuge der zunehmenden Personalisierung von Suchergebnissen. Während PageRank ursprünglich eine überschaubare Anzahl von Faktoren in die Berechnungen einbezogen hat (wobei der Verlinkungsstruktur das größte Gewicht zukam) fließen inzwischen weit über 200 Faktoren in das Ranking ein. Das individuelle Profil, inklusive früherer Suchanfragen sowie Angaben im Social Network Google+, erhält dabei ein immer größeres Gewicht. Dadurch geht einerseits eine weitere Möglichkeit des Vergleichs verloren – ob Inhalte aufgrund von Personalisierung oder Zensur nicht angezeigt werden, lässt sich schlicht nicht feststellen –, andererseits zeichnet sich eine Verschiebung vom identifizierbaren Gatekeeper zur Black Box ab, deren Zuordnungen und Kategorisierungen zwar gleichermaßen diskursmächtig sind, sich aber nur noch äußerst vage erahnen lassen.

Diese Entwicklung wirft auch die Frage auf, wie technische Prozesse, die der Wahrnehmung entzogen sind, Gegenstand von Aushandlungsprozessen oder gar widerständigen Praktiken werden können. Die personalisierten Kategorisierungsverfahren lösen zunehmend die konnektivistische Logik der Hyperlinks und die populistische Logik des PageRank ab. Ihrer Orientierung an bereits rezipierten Inhalten wohnt ein konservatives Moment inne: Die »Filter Bubble«, wie sie Eli Pariser nennt, vermeidet generell die Konfrontation mit dem Ungewohnten. Für einen Popdiskurs, der sich, mit Nadja Geer gesprochen, einem »Denken der Zukunft« widmet, sind dies schlechte Voraussetzungen. Zwar befördert die Logik der »Filter Bubble« die Bildung von Nischen, z.B. auch subkulturellen oder alternativen, allerdings treten diese Nischen nie mit einer verbindlichen Ordnung in Konkurrenz. Die Möglichkeit, zwischen einer vorherrschenden und einer alternativen Ordnung zu unterscheiden, wird untergraben durch die Schaffung immer neuer Parallelwelten. Damit geraten jedoch auch Begriffe wie Utopie und Heterotopie in die Krise, die auf eine ebensolche Möglichkeit der Unterscheidung abheben.

Vielleicht muss man daher die räumliche Ausrichtung der Metaphorik – Blasen, Welten, Nischen – generell überdenken. Eli Parisers Vorschlag, den Programmiererinnen und Programmierern die ›ausgewogene‹ Gestaltung der digitalen Umgebungen zu überantworten, wäre dann Jean-Luc Nancys Auffassung von einem Ende der »Hypertrophie der Konstruktion« entgegenzusetzen. Unter dem Begriff der »Struktion« fasst dieser dagegen Anhäufungen, die gerade ohne Koordinationsprinzip auskommen: »das schlichte reine Nebeneinander, das keinen Sinn ergibt«, wie es im Text »Von der Struktion« heißt. Vielleicht liegt hier, in der Überbietung technischer Konnektivität, das aktuell noch plausibelste Versprechen, den sinnzuschreibenden Kategorisierungsversuchen der Algorithmen zu entkommen.

MENU