Skip to main content

Crawling Budget und 404 vs. 410

  • Geschrieben von SEO-Küche am 26.05.2014

PDF herunterladen

404 Fehler Zum Wochenstart eine kleine Auffrischung in Sachen Crawling Budget und 404 vs. 410. Nicht die spannendste Schlagzeile (im Gegensatz zu Panda 4.0 in der letzten Woche) aber eine häufige Quelle für SEO-Fehler, die eigentlich sehr einfach ausgemerzt werden können.

Um was geht es? Um das Crawling Budget und dessen Verbindung mit 404 bzw. 410 Fehlercodes.

Das Crawling Budget
Googles Crawler indexieren alle deine Unterseiten – aber nicht alle Unterseiten sofort. Jede Domain bekommt, je nach PageRank, ein Crawling-Budget zugewiesen. Dieses legt fest, wie viele Unterseiten gecrawlt werden. Seiten mit einem hohem PageRank bekommen mehr Budget zugewiesen. Wichtig: Das Crawling-Budget ist nicht gleich dem Index-Budget. Dieses legt fest, wie viele Seiten indexiert werden können. Logisch ist das Index-Budget dem Crawling-Budget nachgestellt: erst wird gecrawlt, dann indexiert.

Bildlich gesprochen: Im Internetland gibt es viele viele Häuser (= Domains). Google entsendet Inspekteure (= Crawler) in diese Häuser um die einzelnen Zimmer (= Unterseiten) anzuschauen und zu indexieren. Die Inspekteure gehen aber nicht wahllos von Haus zu Haus, sondern bevorzugen die bekannten, tollen Häuser (= Seiten mit einem hohem PageRank). Weniger schöne Häuser bekommen auch weniger Besuch von den Inspekteuren und diese haben dann auch weniger Zeit alle Zimmer anzuschauen (= Crawling Budget). Und es ist natürlich unschön, wenn ein Inspekteur einen Raum anschauen will, dort aber nichts zu finden ist (= 404-Fehler). Seine Zeit hätte er auch für Räume benutzen können, in denen etwas steht. Steht an der Tür aber so etwas wie „Hier ist nichts drin“ (= 410-Code), wird der Inspekteur direkt zur nächsten Türe gehen ohne seine Zeit zu verschwenden.

410-Code und weitere Möglichkeiten Budget zu sparen.
Ok, genug der Bildsprache. Hat eine Domain eine 404-Fehlerseite, ist das einfach ärgerlich. Bleibt dieser 404-Code bestehen, wird der Crawler immer wieder auf die Seite kommen um nachzuschauen ob sich etwas auf der Seite geändert hat. Weiß man aber, dass die Seite permanent leer bleiben wird, dann zeichnet man die Seite mit einem 410-Code aus. In Zukunft wird sich der Crawler also nicht mehr die Mühe machen, diese Seite anzuschauen – sondern seine Zeit für tatsächlich existierende Seiten aufbrauchen.

Um das Crawling-Budget effektiv einzusetzen, ist es ratsam, unwichtige Seiten wie Kontaktformulare, das Impressum (meines Erachtens) etc. mit Hilfe der robots.txt auszuschließen. Seiten die unbedingt gecrawlt werden sollen, verlinkt man intern stark und versucht für diese, Backlinks zu generieren.

Welche Seiten gecrawlt werden sollen und welche eher nicht, ist von der Art der Webseite abhängig: Im B2B-Bereich ist das Impressum häufig gut besucht, ebenso wie Kontaktformulare: Eine Sperrung mit robots.txt wäre hier nicht sinnvoll, da diese Seiten häufig Leads generieren. Ein Online-Shop hingegen, hat andere URLs als das Impressum, mit denen er Konversionen erzielt: hier würde es Sinn machen, das Impressum einfach im Footer zu verlinken, aber ansonsten zu sperren.

Eine ordentliche XML-Sitemap, in der die wichtigsten Seiten ausgezeichnet werden sowie eine möglichst flache Seitenarchitektur helfen dem Crawler, sich schneller zurecht zu finden. Bleibt die eigene Seite dauerhaft konstant, wird also nicht regelmäßig neuer Content eingestellt, Stichwort “Freshness Update”, reduziert Google den Besuch von Crawlern auf der Seite.

P.S.: Es gibt Hinweise darauf, dass der Google Browser Chrome tatsächlich ein Google Crawler-Bot ist. Ein Hinweis findet ihr hier, einen anderen hier. Ich werde mal schauen, was da dran ist und halte euch auf dem Laufenden…

Kommentare

Servus Tilmann,

danke für deinen interessanten Beitrag. Insbesondere finde ich den Ansatz mit 410 statt 404 sehr interessant. Wo ich allerdings widersprechen muss ist der Punkt mit der Sperrung von Impressum, Kontaktformular, etc via robots.txt. Diese Seiten sind i.d.R. stark intern verlinkt und erhalten somit viel Linkjuice. Sperrt man diese nun über die robots.txt, kommt der Crawler dort natürlich immer noch hin, liest die Seiten aber nicht und folgt letztendlich auch nicht den dort befindlichen Links. Hierdurch wird Linkjuice verschwendet und auf das Crawlbudget hat es keinen Effekt.

Viele Grüße

Tobias

Tilmann Klosa

Servus Tobi,

danke für dein Kommentar. Du hast Recht, ich möchte aber einschränken: Ja, vor allem im B2B-Bereich sind Impressum o.ä. stark verlinkt und nützlich für die Kundenakquise. Bei Online-Shops mit mehreren hundert Artikeln, spielt das Impressum aber eine untergeordnete Rolle. Bei komplexeren Dienstleistungen, bspw. die Installation von Solarmodulen, spielt das Kontaktformular eine größere Rolle. Von daher kommt es auf die Art der Webseite und des Konversionsziel an, ob man Impressum/Kontakformular sperrt oder nicht.
Werde den Beitrag aber entsprechend anpassen, danke für den Hinweis!

Grüße
Tilmann


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Beiträge

about this result beispielbild titel

About this result – Neuerungen in den SERPs

  • christoph pawletko
  • von Christoph
  • 30.07.2021

Mehr Transparenz bei Google dank erweiterter Suchergebnisse? Die Google Suchergebnisse (SERPs) ändern sich ständig. Mal werden mehr Informationen, mal weniger Elemente angezeigt. Anfang 2021 stellte Google die Funktion “about this result” vor, bei der man schon in den Suchergebnissen Informationen über die jeweilige Website abrufen konnte. Laut Google soll so […]

black friday abmahnung

Schwarzer Tag für Markeninhaber: Black Friday wird für Werbedienstleistungen gelöscht

  • Händlerbund
  • von Haendlerbund
  • 27.07.2021

Der „Black Friday“ gehört im Online-Handel längst zu den etablierten Begriffen und zu jenen Festivitäten, die Händlern steigende Umsätze versprechen. Nachdem der Schnäppchen-Tag vor einigen Jahren aus den USA auch auf den deutschen Markt geschwappt kam, nahmen in der Vergangenheit immer mehr große und kleine Händler teil und stellten eigene […]

website traffic verluste titelbild

Website Traffic Verluste: So reagiert Ihr laut Google

  • christoph pawletko
  • von Christoph
  • 23.07.2021

Bricht auf einmal der Traffic auf Eurer Website ein, kann dies schnell zu Umsatzeinbußen führen. Manchmal sind die Ursachen schnell gefunden, doch oft kommt der Trafficeinbruch überraschend und selbst erfahrene SEOs fragen sich nach den Gründen. Statt jetzt panisch zu werden, sollten Webmaster jetzt zunächst genau die Ursachen untersuchen, rät […]

Die wichtigsten SEO-Tools für Profis

Die wichtigsten SEO-Tools

  • oliver lindner
  • von Oliver Lindner
  • 23.07.2021

Als Spezialisten für Online-Marketing wissen wir genau, wie wichtige eine professionelle Suchmaschinenoptimierung (SEO) tatsächlich ist: Nur die Webseiten, die bei den relevanten Suchmaschinen optimal gerankt werden, sind auch für Ihre potenziellen Kunden sichtbar und werden aufgerufen. Doch SEO ist eine komplexe Angelegenheit, denn sie umfasst nicht nur die Erstellung der […]

online handel e commerce innenstädte

Online-Handel versus Innenstädte?

  • Händlerbund
  • von Haendlerbund
  • 20.07.2021

Soll der Online-Handel für die Innenstädte zahlen? Im September ist Bundestagswahl und ein Thema mit dem sich die neue Bundesregierung danach auseinandersetzen muss, ist die Krise der Innenstädte. Vielerorts wird über Verödung geklagt und das nicht erst seit Beginn der Coronakrise. Daran, dass diese Herausforderung angegangen werden muss, bestehen wenig […]

gendern seo stager tastatur

Gendern und SEO: Unsere Tipps

  • Alexandra
  • von Alexandra
  • 16.07.2021

Gendern und SEO – das solltet Ihr für ein erfolgreiches gendergerechtes SEO beachten Das Thema der genderneutralen Sprache pulsiert und gewinnt zunehmend an Bedeutung. So sind mittlerweile unterschiedlichste Branchen dazu übergegangen, die Inhalte ihres Internetauftritts gendersensibel zu formulieren. Gendern und SEO wird also ein Thema werden. Von dieser Entwicklung scheint […]