Skip to main content

Crawling Budget und 404 vs. 410

  • Geschrieben von SEO-Küche am 26.05.2014

PDF herunterladen

404 FehlerZum Wochenstart eine kleine Auffrischung in Sachen Crawling Budget und 404 vs. 410. Nicht die spannendste Schlagzeile (im Gegensatz zu Panda 4.0 in der letzten Woche) aber eine häufige Quelle für SEO-Fehler, die eigentlich sehr einfach ausgemerzt werden können.

Um was geht es? Um das Crawling Budget und dessen Verbindung mit 404 bzw. 410 Fehlercodes.

Das Crawling Budget
Googles Crawler indexieren alle deine Unterseiten – aber nicht alle Unterseiten sofort. Jede Domain bekommt, je nach PageRank, ein Crawling-Budget zugewiesen. Dieses legt fest, wie viele Unterseiten gecrawlt werden. Seiten mit einem hohem PageRank bekommen mehr Budget zugewiesen. Wichtig: Das Crawling-Budget ist nicht gleich dem Index-Budget. Dieses legt fest, wie viele Seiten indexiert werden können. Logisch ist das Index-Budget dem Crawling-Budget nachgestellt: erst wird gecrawlt, dann indexiert.

Bildlich gesprochen: Im Internetland gibt es viele viele Häuser (= Domains). Google entsendet Inspekteure (= Crawler) in diese Häuser um die einzelnen Zimmer (= Unterseiten) anzuschauen und zu indexieren. Die Inspekteure gehen aber nicht wahllos von Haus zu Haus, sondern bevorzugen die bekannten, tollen Häuser (= Seiten mit einem hohem PageRank). Weniger schöne Häuser bekommen auch weniger Besuch von den Inspekteuren und diese haben dann auch weniger Zeit alle Zimmer anzuschauen (= Crawling Budget). Und es ist natürlich unschön, wenn ein Inspekteur einen Raum anschauen will, dort aber nichts zu finden ist (= 404-Fehler). Seine Zeit hätte er auch für Räume benutzen können, in denen etwas steht. Steht an der Tür aber so etwas wie „Hier ist nichts drin“ (= 410-Code), wird der Inspekteur direkt zur nächsten Türe gehen ohne seine Zeit zu verschwenden.

410-Code und weitere Möglichkeiten Budget zu sparen.
Ok, genug der Bildsprache. Hat eine Domain eine 404-Fehlerseite, ist das einfach ärgerlich. Bleibt dieser 404-Code bestehen, wird der Crawler immer wieder auf die Seite kommen um nachzuschauen ob sich etwas auf der Seite geändert hat. Weiß man aber, dass die Seite permanent leer bleiben wird, dann zeichnet man die Seite mit einem 410-Code aus. In Zukunft wird sich der Crawler also nicht mehr die Mühe machen, diese Seite anzuschauen – sondern seine Zeit für tatsächlich existierende Seiten aufbrauchen.

Um das Crawling-Budget effektiv einzusetzen, ist es ratsam, unwichtige Seiten wie Kontaktformulare, das Impressum (meines Erachtens) etc. mit Hilfe der robots.txt auszuschließen. Seiten die unbedingt gecrawlt werden sollen, verlinkt man intern stark und versucht für diese, Backlinks zu generieren.

Welche Seiten gecrawlt werden sollen und welche eher nicht, ist von der Art der Webseite abhängig: Im B2B-Bereich ist das Impressum häufig gut besucht, ebenso wie Kontaktformulare: Eine Sperrung mit robots.txt wäre hier nicht sinnvoll, da diese Seiten häufig Leads generieren. Ein Online-Shop hingegen, hat andere URLs als das Impressum, mit denen er Konversionen erzielt: hier würde es Sinn machen, das Impressum einfach im Footer zu verlinken, aber ansonsten zu sperren.

Eine ordentliche XML-Sitemap, in der die wichtigsten Seiten ausgezeichnet werden sowie eine möglichst flache Seitenarchitektur helfen dem Crawler, sich schneller zurecht zu finden. Bleibt die eigene Seite dauerhaft konstant, wird also nicht regelmäßig neuer Content eingestellt, Stichwort “Freshness Update”, reduziert Google den Besuch von Crawlern auf der Seite.

P.S.: Es gibt Hinweise darauf, dass der Google Browser Chrome tatsächlich ein Google Crawler-Bot ist. Ein Hinweis findet ihr hier, einen anderen hier. Ich werde mal schauen, was da dran ist und halte euch auf dem Laufenden…

Kommentare

Servus Tilmann,

danke für deinen interessanten Beitrag. Insbesondere finde ich den Ansatz mit 410 statt 404 sehr interessant. Wo ich allerdings widersprechen muss ist der Punkt mit der Sperrung von Impressum, Kontaktformular, etc via robots.txt. Diese Seiten sind i.d.R. stark intern verlinkt und erhalten somit viel Linkjuice. Sperrt man diese nun über die robots.txt, kommt der Crawler dort natürlich immer noch hin, liest die Seiten aber nicht und folgt letztendlich auch nicht den dort befindlichen Links. Hierdurch wird Linkjuice verschwendet und auf das Crawlbudget hat es keinen Effekt.

Viele Grüße

Tobias

Tilmann Klosa

Servus Tobi,

danke für dein Kommentar. Du hast Recht, ich möchte aber einschränken: Ja, vor allem im B2B-Bereich sind Impressum o.ä. stark verlinkt und nützlich für die Kundenakquise. Bei Online-Shops mit mehreren hundert Artikeln, spielt das Impressum aber eine untergeordnete Rolle. Bei komplexeren Dienstleistungen, bspw. die Installation von Solarmodulen, spielt das Kontaktformular eine größere Rolle. Von daher kommt es auf die Art der Webseite und des Konversionsziel an, ob man Impressum/Kontakformular sperrt oder nicht.
Werde den Beitrag aber entsprechend anpassen, danke für den Hinweis!

Grüße
Tilmann


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Beiträge

contentbär

Contentbär – Der SEO Contest 2021

  • SEO-Küche Logo
  • von SEO-Küche
  • 10.05.2021

Contentbär. Ein Fantasiewort. Noch! Denn schon in wenigen Wochen wird Contentbär nicht nur SEOs, sondern vor allem auch Google ein Begriff sein. Beim jährlichen SEO-Contest von SEO-Vergleich.de erstellen und optimieren SEO-Junkies Websites, um genau für dieses Keyword zu ranken. Unser Ziel dabei ist klar: Position 1 für das Keyword Contentbär! […]

Social-Media-Marketing für die Hotellerie

Social-Media-Marketing für die Hotellerie

  • oliver lindner
  • von Oliver Lindner
  • 06.05.2021

In den letzten Jahren hat Social-Media-Marketing für die Hotellerie immer mehr an Bedeutung gewonnen. Zwei wichtige Social-Media-Kanäle für das Marketing in dieser Branche sind zum Beispiel Instagram und Facebook. Aber was macht Social-Media so interessant für die Hotellerie? Und ist es wirklich lohnenswert, wenn Hotelunternehmen in professionelles Social-Media-Marketing investieren? Anhand […]

social media recap januar 2021 titel

Social Media Rückblick April 2021

  • julia bartulovic
  • von Julia
  • 05.05.2021

Alle Socia Media News: Unser Social Media Rückblick für den April April, April, der macht was er will! Auch in der Social-Media-Welt kehrte im April keine Ruhe ein. Wie immer haben wir für euch alle wichtigen Änderungen und Ankündigungen rund um Facbook, Instagram, TikTok & Co. in unserem Social Media […]

google bewertungen stagebild

Bewertungen in Google My Business: Unsere Tipps

  • michael magura
  • von Michael
  • 04.05.2021

Online-Bewertungen sind ein wichtiger Faktor bei der Auswahl von Produkten und Dienstleistungen durch Nutzer im Internet.

Online Konferenz

Google Commerce Camp 2021- Unser Recap

  • Nina
  • von Nina Weller
  • 29.04.2021

Unser Eindruck vom Google Commerce Camp 2021  Auch 2021 veranstaltete der Händlerbund wieder das Google Commerce Camp. Eine Digitalkonferenz für alle Neulinge im Online-Geschäft, die sich in die Google–Produkte einarbeiten wollen oder solche, die Ihre Kenntnisse noch ausbauen möchten.  Also hieß es am 21. Und 22. April 2021: Lasst uns über Google sprechen! Zwei Tage, zwei Bühnen – […]

Online-Marketing in der Corona-Krise bietet große Chancen

Online-Marketing in der Corona-Krise bietet große Chancen

  • oliver lindner
  • von Oliver Lindner
  • 25.04.2021

Die Corona-Krise hält bereits über ein Jahr an und hinterlässt eine große wirtschaftliche Unsicherheit. Aber gerade jetzt können Sie Online-Marketing nutzen, um die negativen Effekte der Krise deutlich abzuschwächen, während andere Unternehmen möglicherweise versuchen, ihre Kosten oder Dienstleistungen zu senken. Mit Online-Marketing können Sie nachhaltiges Wachstum entwickeln. Wir unterstützen Sie […]