Skip to main content

Netzwerk und InternetHeute stelle ich ein paar Möglichkeiten vor, wie ihr dem Crawler von Google das Leben richtig schwer machen könnt. Wer will schon eine gut gecrawlte und indexierte Seite haben? Also, wie kann ich mein Crawling Budget so ineffektiv wie nur möglich – verschwenden.

Punkt 1
Gestalte deine Seitenarchitektur so kompliziert wie nur möglich. Lasse ein Labyrinth entstehen. Mit 404-Fallen, komischen Weiterleitungen und so weiter.

Punkt 2
Versuche ein und denselben Inhalt mehrmals auf deiner Webseite unterzubringen. Hast du einen schönen Text? Kopiere ihn und setze ihn auf jede Unterseite.

Punkt 2.1.
Versuche auf jede Seite so wenig wie möglich Inhalt zu bringen. Bastle „dünne“ Seiten. Der Crawler mag es nicht, wenn er zu viel auf einer Seite sieht – lieber springt er auf viele Unterseiten auf denen wenig zu finden ist, als auf wenige Seiten, die voll mit Infos sind.

Punkt 3.
Die Ladegeschwindigkeit deiner Seite. Wir haben in Deutschland ein gutes Netzwerk. Wenn der Nutzer mal paar Sekunden warten muss, macht das gar nichts. Und der Crawler ist ja ein Programm – den stört es nicht, wenn es mal etwas länger dauert.

Punkt 4.
XML-Sitemap: Niemals! Beschäftige dich am besten gar nicht damit!

Nagut, jetzt mal ernsthaft.

Also, wie kann ich mein Crawling Budget so effektiv wie nur möglich – verwenden.
Das Crawling Budget für jede Domain bestimmt Google selbst. Seiten mit hohem Rank, Trust oder PageRank bekommen tendenziell mehr von dem Crawl-Budget ab. Die Indexierung ist ebenfalls nicht unendlich ausgedehnt (zumindest noch nicht), sondern es gibt ein zum Crawl-Budget analoges Indexierungs-Budget. Da beides begrenzt ist, wollen wir das meiste aus diesem herausholen. Wie machen wir das? Erstmal tun wir das genaue Gegenteil von den obigen Punkten. Zusätzlich ist die richtige Verwendung von robots.txt wichtig, um den Fokus des Bots auf die wirklich wichtigen Seiten zu lenken. Mit „Noindex“ wird die URL zwar gecrawlt, aber nicht indexiert, spart also Indexierungs-Budget. Eine Sitemap per XML ist ebenfalls absolute Pflicht. Versuche, nicht allzu viele Links auf deinen wichtigen Seiten zu haben. Also eine kluge, intuitive und einfache Seitenarchitektur, Menüstruktur und interne Verlinkungen. Kein Duplicate-Content, keine 404-Fehlerseiten und keine „unnötigen“ Seiten auf einer Domain zu haben, ist eigentlich eine Selbstverständlichkeit. Wenn möglich, repariere 404-Seiten – Weiterleitungen nur im Notfall, eine Reparatur ist sinnvoller!

Die obigen Punkte müssen regelmäßig überwacht werden. Mit Google Analytics und den Google Webmastertools sowie mit den Logfiles des Servers kann man Schwachstellen entdecken oder sehen, an welchen Stellen der Bot „hängt“. Denkt daran: Eine Seite ist, was der Google Bot von ihr kennt und wie er sie kennenlernt!



Ähnliche Beiträge


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*

SEO-Küche Telefon: 0800/473288-33
Email: info@seo-kueche.de
Rufen Sie uns an, schreiben Sie uns eine E-Mail oder nutzen Sie das folgende Formular für eine kostenlose, unverbindliche Anfrage.
  • Dieses Feld dient zur Validierung und sollte nicht verändert werden.

NEWS

Email Adresse eingeben und nie wieder

spannende News aus der Welt

des Online-Marketing verpassen!

Alle News aus der

Online-Marketing-Welt

gibt es in unserem

Newsletter.

Ja, ich möchte den regelmässig erscheinenden Newsletter mit Informationen rund um die Produktpalette von SEO-Kueche.de erhalten. Dem Versand des Newsletters an meine Adresse kann ich jederzeit, z.B. per E-Mail oder Abmeldelink im Newsletter widersprechen.

IMMER AKTUELL INFORMIERT BLEIBEN!

VIELEN DANK