Skip to main content

Index/Indexierung


PDF herunterladen

Was ist ein Index?

Als „Index“ wird allgemein ein geordnetes Verzeichnis, auch Register, in einem Nachschlagewerk (bspw. Lexikon, Telefonbücher, etc..) bezeichnet. Der sogenannte „Google Index“ ist die Gesamtheit aller von Google erkannten, d.h. gecrawlten, und gespeicherten (=indexierten), Webseiten. Die SERPs sind ausschließlich mit Seiten aus dem Index gefüllt – eine Seite die nicht im Index ist, wird auch nicht in den SERPs stehen.

Der Google Index ist nicht, wie in einem Lexikon, statisch, sondern höchst dynamisch. Neue Webseiten kommen hinzu, manche werden entfernt. Durch Crawler, die von Link zu Link springen, werden neue Seite erfasst. Verstößt eine Webseite massiv gegen die Google Richtlinien, wird eine Webseite aus dem Index, und damit aus den SERPs, entfernt.

Zusätzlich ist der Google Index komplex gegliedert. Das bedeutet, er ist nicht nur alphabetisch aufgebaut, sondern es werden verschiedene Rankingkriterien über den Index gelegt, um für eine Suchanfrage ein bestimmtes Set an Webseiten in einer bestimmten Reihenfolge auszuliefern. Dies passiert ebenfalls dynamisch, da sich Webseiten und die Rankingkriterien beständig ändern. Wie dies genau funktioniert, ist Betriebsgeheimnis Googles.

Dies gilt analog für alle anderen Suchmaschinen. Oftmals wird im Netz der Ausdruck „indiziert“ für „indexiert“ verwendet, was aber falsch ist.

index indexierung
Die Indexierung einer Website erklärt.

Wie Google den Index füllt

Google reichert seinen Index mit Hilfe von Crawlern (auch Bots genannt), an. Ein Crawler springt von einem Link zu einem anderen und trifft in der Folge auf miteinander verlinkte Webseiten. Jede neue Webseite wird gecrawlt, d.h., der Quellcode wird ausgelesen und an den Index gesendet. Dort wird die Seite nach verschiedensten Rankingfaktoren und anderen Regeln einsortiert. Wer seine Webseite auf diese Weise indexieren lassen will, muss also dafür sorgen dass sie von einer anderen Webseite einen Link bekommt. Dann muss ein Crawler auf der fremden Webseite vorbeischauen und den Link zu unserer Seite entdecken. Diese Möglichkeit der Indexierung ist recht langwierig und unsicher.

Eine Webseite indexieren lassen

Um aktiv seine Seite indexieren zu lassen, kann man seine Webseite direkt an Google „schicken“. Dafür gibt es drei Möglichkeiten:

a) Unter http://www.google.de/addurl/ kann man einen Antrag auf Indexierung für eine Webseite stellen. Eine erfolgreiche Übermittlung der Daten ist aber keine Garantie auf eine Aufnahme. Zudem muss man ein Google Konto besitzen, um auf diesen Dienst zugreifen zu können. Wenn man schon ein Google Konto hat, ist es sinnvoller eine andere Möglichkeit zu nutzen:

b) In den Webmaster Tools (auch „Search Console“ genannt), kann man eine Sitemap direkt an Google schicken.

Lexikon_Index_I

Eine Sitemap kann man sich recht unkompliziert im .xml Format erstellen lassen, im Netz gibt es viele, kostenlose Dienste dazu. Diese .xml Datei fügt man in den Webmaster Tools unter „Sitemaps“ hinzu:

lexikon_index_II

Nach einiger Zeit, in der Regel in den nächsten 24 Stunden, wird Google die in der Sitemap angegeben URLs crawlen. Den Fortschritt der Indexierung kann man in den Webmaster Tools unter „Sitemaps“ verfolgen:

lexikon_index_III

c) Will man eine einzelne Seite indexieren lassen, bspw., weil sie nach der Erstellung der Sitemap hinzugekommen ist, hat man in den Webmaster Tools unter „Crawling“ → „Abruf wie durch Google“, die Möglichkeit eine einzelne URL an den Index zu senden.

lexikon_index_IV

Eigentlich ist diese Option dazu da, um zu überprüfen ob der Crawler alle Ressourcen auf einer Seite sehen und verstehen kann (Java-Script, etc.). Nachdem man aber die URL abgeschickt hat, bietet Google die Möglichkeit an, die URL „an den Index“ zu senden.

lexikon_index_V

Damit wird aber nur die eine URL und eventuell auf dieser URL verlinkte Seiten der Domain an den Index gesendet. Jedes Konto hat eine monatliches Kontingent von 10 URLs die an den Index gesendet werden können.

Eine Indexierung verhindern

Es kann mehrere Gründe geben, wieso ein Webmaster verhindern will, dass seine Seite in den SERPs auftaucht und damit im Google Index vorhanden ist.

– Die Seite ist noch nicht fertig oder befindet sich im Relaunch und soll bis zur Fertigstellung nicht gefunden werden.

– Es gibt urheber- oder datenschutzrechtliche Gründe die Seite nicht öffentlich verfügbar zu machen.

– Manchmal möchte ein Webmaster einzelne Unterseiten nicht öffentlich machen, bspw. Admin-Zugänge oder minderwertige Seiten.

– Die Webseite ist nur für den privaten Gebrauch bestimmt.

Es gibt mehrere Möglichkeiten eine Indexierung zu verhindern

a) Meta-Tag „noindex“

Mit dem Meta-Tag „noindex“ gibt man dem Crawler die Anweisung, die Seite nicht zu indexieren:

<meta name=”robots” content=”noindex”/>

Auch wenn sich die meisten Suchmaschinen-Crawler daran halten, ist der noindex-Tag nur eine Anweisung.

b) Crawler mit der robots.txt aussperren

In der robots.txt fügt man folgenden Code ein, um alle Seiten einer Domain für alle Zugriffe zu sperren:

User-agent: *

Disallow: /

Will man nur einzelne Unterordner ausschließen, sieht das Ganze so aus:

User-agent: *

Disallow: /unterordner1

Disallow: /unterordner2/unterordner/

c) Crawler per .htaccess ausschließen

Mit der .htaccess kann man ein Passwortschutz für die gesamte Webseite oder einzelne Bereiche der Seite festlegen. Diese Option wird auch von Google empfohlen: URLs durch passwortgeschützte Serververzeichnisse blockieren (https://support.google.com/webmasters/answer/93708?hl=de)

Einen automatischen .htaccess Generator findet man hier: http://www.homepage-kosten.de/htaccess.php

Eine detailiierte Anleitung findet man u.a. hier: http://www.grammiweb.de/anleitungen/ka_htaccess.shtml

Aus dem Index fliegen – und wieder reinkommen

Unfreiwillig aus dem Index fliegen ist sehr ärgerlich. Um wirklich de-indexiert zu werden, muss man sich aber schon einiges zu Schulden kommen lassen – etwa massives, auf breiter Basis angelegtes, Spam-Linkbuilding, oder groß angelegtes Cloaking. Aber auch negatives SEO, also wenn Konkurrenten oder Hacker SEO-Technisch gegen die eigene Seite Vorgehen, kann ein Grund sein aus dem Index zu fliegen.

– Als erstes richtet man einen Wiederaufnahmeantrag (Reinclusion Request oder auch Reconsideration Request) an Google.

– Wenn man selber Mist gebaut hat, muss man nachweisen dass man es wieder gut gemacht hat.

– Wenn man Opfer eines Angriffes wurde, sollte man auch das nachweisen können.

In den Webmaster Tools stellt man nun einen „Antrag auf erneute Überprüfung“ der in der Nachricht zur Abstrafung zu finden ist.

Nun kann es etwas dauern, erfahrungsgemäß zwischen 2 und 12 Wochen, bis die Seite wieder im Index ist.

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Artikel

Domain

Was ist eine Domain? Eine Domain ist ein einmaliger, eindeutiger Name, der den Zugriff auf Webseiten im Internet bereitstellt. Sie begegnet jedem Menschen, der eine Internetseite aufruft. Neben diesem Merkmal für die Identifizierung von Webseiten hat die Domain in der Suchmaschinenoptimierung ebenfalls eine kleine, aber womöglich relevante Bedeutung. Warum existieren […]

Broken Link

Was ist ein Broken Link? Ein Broken Link ist ein Hyperlink auf einer Webseite, der zu einer nicht oder nicht mehr erreichbaren Zielseite führt oder zu einer verlinkten Datei, die nicht mehr auf den Servern befindlich ist. Das Resultat eines Klicks auf einen Broken Link ist in der Regel die […]

ASCII Code

Was ist ASCII Code? ASCII Code ist ein Zeichensatz, der mit insgesamt 7 Bits die Darstellung der meisten Zeichen auf einer Computertastatur erlaubt. Da es sich um eine US-amerikanische Erfindung handelt, fehlen im Deutschen (und anderen Sprachen) vorkommende Zeichen wie Umlaute und das ß. Durch eine ASCII Code Tabelle lässt […]

Amazon Web Service

Was sind die Amazon Web Services? Amazon Web Services, auch als AWS bekannt, ist eine vom gleichnamigen Unternehmen angebotene Plattform für Cloud-Computing. Kunden können dort Anwendungen, Webseiten und Dienste hosten lassen, Ressourcen für rechenintensive Aufgaben mieten und vieles mehr. AWS existiert seit 2006 und ist einer der größten Cloud-Services der […]

410 Fehler-Code

Was ist der Fehler 410? Der 410 Statuscode oder 410 Fehler erscheint im Browser, wenn der Nutzer eine URL aufrufen wollte, die jedoch dauerhaft gelöscht ist. Die genaue Formulierung des Fehlercodes hängt vom Webseitenserver ab. Mögliche Varianten sind unter anderem “Error 410”, “Gone”, “HTTP Status 410” oder “410 Gone”. Auch […]

Dialogmarketing

Was ist Dialogmarketing? Das Dialogmarketing ist eine Art des Direktmarketings. Wie der Name es bereits verrät, geht es um den direkten Dialog zwischen Unternehmen und Kunden. Die Akquise der Neukunden sowie Bestandskundenerhaltung sind im Dialogmarketing enthalten. Die Definition Dialogmarketing Aufgrund der sich verändernden Rechtslage ist die Form des Marketings in […]