Deep Search

Das Tor zur Information

Google ist weltweit Marktführer unter den Suchmaschinen. Darüberhinaus ist Google ein Unternehmen, das eine Vielzahl von Internet-Diensten, -programmen und -plattformen anbietet. Viele Forscher beschäftigen sich mit Fragen nach der Macht von Google.

Suchmaschinen bilden in der digitalen Welt einen der häufigsten Zugänge zu Informationen. Wer in den Anfängen des Internets auf Seiten oder Dokumente zugreifen wollte, musste deren genaue Adresse wissen. Mit der Entwicklung von Suchmaschinen wurde das Auffinden von Informationen im World Wide Web wesentlich erleichtert.

Das bedeutet aber auch, dass sie mitbestimmen, auf welche Informationen man zugreift, zumindest, wenn man nicht gezielt nach einer Website sucht oder wenn man nicht besonders versiert ist in Suchanfragen.

Network-Gatekeeper?

Suchmaschinen wurde deshalb schon die Rolle des Gatekeepers im digitalen Zeitalter zugesprochen. Das Gatekeeper-Konzept stammt aus der Kommunikationswissenschaft, konkret aus der Nachrichtenforschung, und wurde 1950 von David White begründet.

Es geht dabei darum, welche Eigenschaften des einzelnen Journalisten die Nachrichtenauswahl beeinflussen. Es sei versucht worden, das Gatekeeper-Konzept neu aufzurollen und auf digitale Medien zu übertragen, so der an der Universität Hamburg tätige Kommunikationsforscher Theo Röhle. Daraus ist dann der Begriff Network-Gatekeeper entstanden.

Theo Röhle meint jedoch, dass diese Metapher nicht einfach auf die Suchmaschinen-Forschung übertragen werden könne, weil nicht ein einzelner Redakteur - wie beim Gatekeeper-Konzept - sondern viele Mitspieler beeinflussen würden, welche Informationen durchgelassen werden, und welche nicht.

Diese Mitspieler sind einerseits die Algorithmen von Google, dann die Menschen, die darüber entscheiden, ob bestimmte Domains aus den Suchergebnissen eliminiert werden, die Webmaster, die Websites auf die Suchmethoden von Google hin optimieren, und nicht zuletzt die Nutzer, die durch die mehr oder weniger detaillierte Eingabe von Suchbegriffen die Voraussetzungen für das Suchergebnis schaffen.

Suchmaschinen-Optimierung

Suchmaschinen-Optimierung ist heutzutage fast schon eine Wissenschaft für sich. Da werden die Suchmaschinen studiert und es wird versucht, ihre Methoden der Auffindung, Indexierung und Reihung von Suchergebnissen herauszufinden.

Durch bestimmte Keywords, eine höhere Aktualisierungsrate, viele Links und andere Methoden werden dann sozusagen Köder für die Suchmaschinen ausgelegt. Weil die Suchmaschinen-Betreiber ihrerseits nicht wollen, dass bestimmte Sites bei Suchergebnissen überrepräsentiert oder überbewertet sind, nur weil sie mehr Tricks beherrschen als die anderen, werden diese Tricks ausgeglichen oder die Sites blockiert.

Manche Websites werden ganz gezielt nicht angezeigt, weil sie unerwünschte Dinge enthalten, wie Pornografie, Neonazi-Pamphlete, politische Schriften oder illegal kopierte Musik, je nachdem, in welchem Land die Suche erfolgt.

Suchmaschinen-Recht

und welche Grauzonen hier auftauchen, damit beschäftigt sich Joris van Hoboken, Forscher am Institut für Informationsrecht an der Universität Amsterdam.

"Es gibt verschiedene Möglichkeiten, wie Suchergebnisse entfernt werden. Eine ist, dass Google das selbst macht, weil eine Website ihren Regeln bezüglich Spam widerspricht. Eine andere Möglichkeit ist, dass eine Regierung möchte, dass Inhalte zensuriert oder ganze Sites blockiert werden. Das beste Beispiel dafür ist China, wo von Suchmaschinen verlangt wird, dass sie ihre Suchergebnisse zensurieren. Ich schaue mir für meine Doktorarbeit das Thema freie Meinungsäußerung in Bezug auf Suchmaschinen an. Ich untersuche, welche Auswirkungen Suchmaschinen darauf haben und was das für Suchmaschinen-Rechte bedeuten könnte."

Suchmaschinen-Recht ist dabei ein Sammelbegriff für eine ganze Reihe von Gesetzen, die auf Suchmaschinen angewendet werden können. Dazu zählen zum Beispiel Haftpflichtgesetze, Deliktrechte, Vertragsrechte, Mediengesetze, Grundrechte und so weiter. Das bedeutet, ein eigenes, konkretes Suchmaschinen-Gesetz gibt es nicht - vielleicht noch nicht. Es könnte sein, dass die Gesetzgeber die Arbeit von Suchmaschinen in Zukunft viel genauer regeln möchten, weil diese bedeutende Auswirkungen auf den Umgang mit Informationen haben, so Joris van Hoboken.

"Ich denke, wir werden mehr Gesetze sehen, die auf Suchmaschinen angewendet werden können. Das kann sein, dass es Zusätze zu eher generellen Gesetzen gibt, die sich speziell auf Suchmaschinen beziehen. Es könnte aber auch sein, dass eigene Gesetze geschaffen werden, so, wie es zum Beispiel für den Rundfunk geschehen ist. In den USA gibt es einige Klauseln, die sich ganz konkret auf Suchmaschinen beziehen. In Europa gibt es das noch kaum. Aber ich denke, das wird in Zukunft mehr werden."

Die Schere im Kopf

Konkrete Regelungen werden vielleicht auch notwendig werden, weil die Suchmaschinen-Betreiber aus lauter Angst vor Haftungsproblemen übervorsichtig werden und damit erst recht Zensur üben.

"Es spricht viel dafür, Suchmaschinen juristisch als reines Transportmedium zu betrachten. Viele Richter entscheiden auch in diese Richtung. Das würde bedeuten, wenn bei Suchergebnissen irgendetwas Illegales auftaucht, muss man sich zuerst an den Betreiber der Website wenden. Ich denke aber, wenn es nicht möglich ist, das Material an der Quelle zu entfernen, sollte es eine Möglichkeit geben, sich an die Suchmaschine wenden zu können."

Die Muster der Suchergebnisse

Welche Links bei einer Suche mit Google auftauchen und in welcher Reihenfolge, das fasziniert den Amerikaner Richard Rogers, Leiter der Abteilung für neue Medien und digitale Kultur an der Universität Amsterdam, seit langem. Er hat es sich zur Aufgabe gemacht, tief in die Suchmaschine hineinzuschauen und das sichtbar zu machen, was normalerweise nur Inhalt von Vermutungen oder Ahnungen ist.

"Ich studiere seit vier oder fünf Jahren, welche Ergebnisse Google ausspuckt, und schaue, ob diese Ergebnisse vertraut aussehen oder ob sie verschiedene Seiten eines Themas darstellen. Im Jahr 2004 hatte ich begonnen, regelmäßig nach dem Wort Terrorismus zu suchen, was eine Reihe von bekannten Websites ergeben hat, wie FBI.gov, CIA.gov, whitehouse.gov, ein paar rechts der Mitte stehende Thinkthanks und einige News-Sites. Google begann, immer mehr solche Links anzuzeigen, die sehr bekannt waren, Quellen, die auch in den Abendnachrichten genannt wurden. Das Web als Nachrichtenquelle, die sich von klassischen Medien unterschied, erodierte also - zumindest für diese Suchanfrage. Ich begann deshalb, das genauer zu untersuchen."

Richard Rogers hat deshalb Programmierer engagiert, die dafür spezielle Software schrieben. Eines dieser Programme ist ein sogenannter Google-Scraper. Damit kann man regelmäßig in Google nach bestimmten Wörtern suchen, die Suchergebnisse speichern und dann analysieren.

"Wonach ich im Speziellen suche ist, ob Google-Ergebnisse stabil sind oder sprunghaft, das heißt, ob eine Suche jeden Tag die gleichen Ergebnisse liefert oder von Tag zu Tag unterschiedliche - und ob die Unterschiede gering oder extrem sind. Das Projekt haben wir 'Issue Dramaturg' genannt und eines der auffallendsten Ergebnisse war die Suche nach dem Begriff 9/11, die wir seit einigen Jahren durchführen. Wir haben damit zum ersten Mal die zeitweise Entfernung einer Site aus den Google-Suchergebnisse dokumentiert. Es handelt sich dabei um die Website 911truth.org, die mehr als ein Jahr lang bei der Suche nach 9/11 unter den ersten fünf Ergebnissen war und plötzlich für einige Wochen unter Platz 200 fiel, also nicht auffindbar war."

Google ist von der Forschung nicht angetan

Es stellte sich heraus, dass die Site nichts gemacht hatte, was den Geschäftsbedingungen oder Verhaltensregeln von Google widersprochen hätte. Aber 911truth.org ist eine Franchise-Organisation. Man kann damit Sites anlegen wie newyork.911truth.org, minneapolis.911truth.org, boston.911truth.org, atlanta und so weiter. Rund um den Jahrestag im Jahr 2007 wurden eine Reihe derartiger Sites angelegt und diese werden automatisch mit der Mutterwebsite 911truth.org verlinkt. Wenn eine Website in kurzer Zeit sehr viele Links erhält, schrillen bei Google die Alarmglocken - und das könnte erklären, warum die Website aus den Suchergebnissen verschwand, so Richard Rogers.

Die Firma Google ist von derlei Einsichten der Forscher offenbar nicht so besonders angetan. Eigentlich, sagt Richard Rogers, würde was sie tun den Geschäftsbedingungen von Google widersprechen. Demnach ist es nicht erlaubt, die Ergebnisse der Suchmaschine zu speichern oder gar damit irgendwelche Dinge anzustellen. Beides tun Richard Rogers und sein Team jedoch.

Google wehrt sich, indem es von Zeit zu Zeit die IP-Adressen der Gruppe blockiert, die Forscher weichen dann eben auf andere aus. Einen Brief von Googles Anwälten hat Richard Rogers aber noch nicht bekommen.

Übersicht