Screenshot Google
Collage aus Screenshots von Google

Die Angst der Suchmaschine vor den Folgeseiten

Waren Sie schon einmal auf Seite 15 der Suchergebnisse oder noch weiter hinten? Das ist eine abenteuerliche Gegend, man kommt nicht immer ganz leicht hin. Und gelegentlich erwarten einen schon auf dem Weg dorthin erstaunliche Überraschungen.

Wenn die eigene Webseite über Jahre hin unbetreut brachgelegen ist, dann ist vor der Reaktivierung eine Bestandsaufnahme angesagt: „Wo liege ich mit meinen Seiten in den Ergebnissen der Suchmaschine?“ Die Suchanalyse in der Google Search Console iefert dazu Listen mit Positionsangaben.

Höchstens charakterlich nicht so gefestigte Personen mit paranoidem Vertrauensdefizit würden diese Zahlen bezweifeln, also ab in die Suchmaschine und dort die Tatsachen überprüfen. Mit Abfragen nach dem Muster „Titel Film“ lässt sich leicht feststellen, wo die einst so gut gereihten Filmkritiken heute platziert sind. Die Ergebnisse waren ernüchternd. Da musste ich schon durch einige Seiten klicken, bevor meine Domain auftauchte.

Wie auch immer, derartige Suchanfragen mit nachfolgender Durchsicht mehrerer Ergebnisseiten gehen zwei- oder dreimal gut. Aber spätestens nach dem fünften Mal fühlt sich die Suchmaschine von meinem Verhalten bedroht und ergreift Gegenmaßnahmen.

Die Intervention der Suchmaschine

Das renitente Verweigern der erst gereihten Ergebnisse ist im System einfach nicht vorgesehen. Die Maschine kennt dein Geschlecht und dein Alter, sie kennt deine Interessen und weiß genau, was du willst und was du wirklich brauchst. Wenn dann jemand trotzdem so beharrlich wissen will, was weit hinter den perfekt ausgewählten Ergebnissen zu sehen ist, dann kann das nur ein bösartiger Angriff sein.

Ein Captcha unterbricht die frustrierende Nachschau, wo ich gereiht bin. Darunter die Begründung:

  • Es wird vermutet, dass ich kein menschliches Wesen sei, sondern ein Robot.
  • Auch von einer Verletzung der Nutzungsbedingungen ist die Rede
  • Auf einer Hilfeseite gibt es weitere Informationen, warum es sich hierbei nur um einen softwareunterstützten Angriff handeln kann.

Die Sache mit dem Robot ist offensichtlich nur vorgeschoben. Welcher Programmierer konzipiert schon so eine ineffiziente Software, die für eine Seite genauso lang benötigt wie ich beim Scrollen. Außerdem tritt das Captcha auch auf, wenn ich gleichzeitig bei Google angemeldet bin. Google weiß genau, dass ich hinter der Tastatur sitze.

Die Captcha mit den auszuwählenden PKW-Bildern arbeiten auch von Mal zu Mal immer langsamer – so ärgert man Menschen, keine Robots.

Von der Suchmaschine zur Zensurmaschine

Die Suchmaschine liefert für jede Anfrage zahllose Ergebnisse, was hat das mit Zensur zu tun? Allein die Auswahl der einen Information beeinträchtigt die Rezeptionschancen der nicht gewählten Informationen. Gemeinsam mit unseren bequemen Verhaltensmustern, sich gleich mit den ersten, offiziell besten Ergebnissen zu bescheiden führt das zwangsweise zu einer Verengung der Wahrnehmung unserer Welt. Dazu kommen dann noch solche aktiv gesetzten Hindernisse wie die Captcha, sobald jemand versucht, die vorgeplante Informationsblase zu durchbrechen.

Verstehen Sie mich bitte nicht falsch, das ist kein Vorwurf alleine an Google. Die sind deswegen Marktführer, weil sie am besten das liefern, was die User suchen.

Die Zensur liegt im System, bei Google und in uns. Diese Gedanken sind nur ein kleines Plädoyer für das gelegentliche Verlassen der vorgegebenen Informationsautobahnen. Ein bisschen subversives Suchverhalten bringt das Imperium Google nicht zum Einsturz, aber vielleicht entdecken Sie abseits der topgereihten Musterseiten ja alternative Perspektiven.