Skip to main content

Index/Indexierung


PDF herunterladen

Was ist ein Index?

Als „Index“ wird allgemein ein geordnetes Verzeichnis, auch Register, in einem Nachschlagewerk (bspw. Lexikon, Telefonbücher, etc..) bezeichnet. Der sogenannte „Google Index“ ist die Gesamtheit aller von Google erkannten, d.h. gecrawlten, und gespeicherten (=indexierten), Webseiten. Die SERPs sind ausschließlich mit Seiten aus dem Index gefüllt – eine Seite die nicht im Index ist, wird auch nicht in den SERPs stehen.

Der Google Index ist nicht, wie in einem Lexikon, statisch, sondern höchst dynamisch. Neue Webseiten kommen hinzu, manche werden entfernt. Durch Crawler, die von Link zu Link springen, werden neue Seite erfasst. Verstößt eine Webseite massiv gegen die Google Richtlinien, wird eine Webseite aus dem Index, und damit aus den SERPs, entfernt.

Zusätzlich ist der Google Index komplex gegliedert. Das bedeutet, er ist nicht nur alphabetisch aufgebaut, sondern es werden verschiedene Rankingkriterien über den Index gelegt, um für eine Suchanfrage ein bestimmtes Set an Webseiten in einer bestimmten Reihenfolge auszuliefern. Dies passiert ebenfalls dynamisch, da sich Webseiten und die Rankingkriterien beständig ändern. Wie dies genau funktioniert, ist Betriebsgeheimnis Googles.

Dies gilt analog für alle anderen Suchmaschinen. Oftmals wird im Netz der Ausdruck „indiziert“ für „indexiert“ verwendet, was aber falsch ist.

index indexierung
Die Indexierung einer Website erklärt.

Wie Google den Index füllt

Google reichert seinen Index mit Hilfe von Crawlern (auch Bots genannt), an. Ein Crawler springt von einem Link zu einem anderen und trifft in der Folge auf miteinander verlinkte Webseiten. Jede neue Webseite wird gecrawlt, d.h., der Quellcode wird ausgelesen und an den Index gesendet. Dort wird die Seite nach verschiedensten Rankingfaktoren und anderen Regeln einsortiert. Wer seine Webseite auf diese Weise indexieren lassen will, muss also dafür sorgen dass sie von einer anderen Webseite einen Link bekommt. Dann muss ein Crawler auf der fremden Webseite vorbeischauen und den Link zu unserer Seite entdecken. Diese Möglichkeit der Indexierung ist recht langwierig und unsicher.

Eine Webseite indexieren lassen

Um aktiv seine Seite indexieren zu lassen, kann man seine Webseite direkt an Google „schicken“. Dafür gibt es drei Möglichkeiten:

a) Unter http://www.google.de/addurl/ kann man einen Antrag auf Indexierung für eine Webseite stellen. Eine erfolgreiche Übermittlung der Daten ist aber keine Garantie auf eine Aufnahme. Zudem muss man ein Google Konto besitzen, um auf diesen Dienst zugreifen zu können. Wenn man schon ein Google Konto hat, ist es sinnvoller eine andere Möglichkeit zu nutzen:

b) In den Webmaster Tools (auch „Search Console“ genannt), kann man eine Sitemap direkt an Google schicken.

Lexikon_Index_I

Eine Sitemap kann man sich recht unkompliziert im .xml Format erstellen lassen, im Netz gibt es viele, kostenlose Dienste dazu. Diese .xml Datei fügt man in den Webmaster Tools unter „Sitemaps“ hinzu:

lexikon_index_II

Nach einiger Zeit, in der Regel in den nächsten 24 Stunden, wird Google die in der Sitemap angegeben URLs crawlen. Den Fortschritt der Indexierung kann man in den Webmaster Tools unter „Sitemaps“ verfolgen:

lexikon_index_III

c) Will man eine einzelne Seite indexieren lassen, bspw., weil sie nach der Erstellung der Sitemap hinzugekommen ist, hat man in den Webmaster Tools unter „Crawling“ → „Abruf wie durch Google“, die Möglichkeit eine einzelne URL an den Index zu senden.

lexikon_index_IV

Eigentlich ist diese Option dazu da, um zu überprüfen ob der Crawler alle Ressourcen auf einer Seite sehen und verstehen kann (JavaScript, etc.). Nachdem man aber die URL abgeschickt hat, bietet Google die Möglichkeit an, die URL „an den Index“ zu senden.

lexikon_index_V

Damit wird aber nur die eine URL und eventuell auf dieser URL verlinkte Seiten der Domain an den Index gesendet. Jedes Konto hat eine monatliches Kontingent von 10 URLs die an den Index gesendet werden können.

Eine Indexierung verhindern

Es kann mehrere Gründe geben, wieso ein Webmaster verhindern will, dass seine Seite in den SERPs auftaucht und damit im Google Index vorhanden ist.

– Die Seite ist noch nicht fertig oder befindet sich im Relaunch und soll bis zur Fertigstellung nicht gefunden werden.

– Es gibt urheber- oder datenschutzrechtliche Gründe die Seite nicht öffentlich verfügbar zu machen.

– Manchmal möchte ein Webmaster einzelne Unterseiten nicht öffentlich machen, bspw. Admin-Zugänge oder minderwertige Seiten.

– Die Webseite ist nur für den privaten Gebrauch bestimmt.

Es gibt mehrere Möglichkeiten eine Indexierung zu verhindern

a) Meta-Tag „noindex“

Mit dem Meta-Tag „noindex“ gibt man dem Crawler die Anweisung, die Seite nicht zu indexieren:

<meta name=”robots” content=”noindex”/>

Auch wenn sich die meisten Suchmaschinen-Crawler daran halten, ist der noindex-Tag nur eine Anweisung.

b) Crawler mit der robots.txt aussperren

In der robots.txt fügt man folgenden Code ein, um alle Seiten einer Domain für alle Zugriffe zu sperren:

User-agent: *

Disallow: /

Will man nur einzelne Unterordner ausschließen, sieht das Ganze so aus:

User-agent: *

Disallow: /unterordner1

Disallow: /unterordner2/unterordner/

c) Crawler per .htaccess ausschließen

Mit der .htaccess kann man ein Passwortschutz für die gesamte Webseite oder einzelne Bereiche der Seite festlegen. Diese Option wird auch von Google empfohlen: URLs durch passwortgeschützte Serververzeichnisse blockieren (https://support.google.com/webmasters/answer/93708?hl=de)

Eine detaillierte Anleitung findet man u.a. hier: http://www.grammiweb.de/anleitungen/ka_htaccess.shtml

Aus dem Index fliegen – und wieder reinkommen

Unfreiwillig aus dem Index fliegen ist sehr ärgerlich. Um wirklich de-indexiert zu werden, muss man sich aber schon einiges zu Schulden kommen lassen – etwa massives, auf breiter Basis angelegtes, SpamLinkbuilding, oder groß angelegtes Cloaking. Aber auch negatives SEO, also wenn Konkurrenten oder Hacker SEO-Technisch gegen die eigene Seite Vorgehen, kann ein Grund sein aus dem Index zu fliegen.

– Als erstes richtet man einen Wiederaufnahmeantrag (Reinclusion Request oder auch Reconsideration Request) an Google.

– Wenn man selber Mist gebaut hat, muss man nachweisen dass man es wieder gut gemacht hat.

– Wenn man Opfer eines Angriffes wurde, sollte man auch das nachweisen können.

In den Webmaster Tools stellt man nun einen „Antrag auf erneute Überprüfung“ der in der Nachricht zur Abstrafung zu finden ist.

Nun kann es etwas dauern, erfahrungsgemäß zwischen 2 und 12 Wochen, bis die Seite wieder im Index ist.

Siehe auch: Unsere Ratgeberartikel zum Thema

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Artikel

Black Friday

Black Friday ist ein aus den USA stammendes Phänomen, das sich zu einem globalen Ereignis entwickelt hat. Es handelt sich um den Freitag nach Thanksgiving, der in den USA traditionell als Beginn der Weihnachtseinkaufssaison gilt. An diesem Tag locken Einzelhändler und Online-Shops mit besonderen Angeboten und hohen Rabatten, um möglichst […]

Direct Marketing

Direct Marketing, oder Direktmarketing, ist eine Form des Marketings, bei der Unternehmen direkt mit potenziellen Kunden kommunizieren, um eine sofortige Reaktion oder Transaktion zu erzeugen. Im Gegensatz zu allgemeinen Werbemaßnahmen, die auf breite Zielgruppen abzielen, konzentriert sich Direct Marketing auf spezifische Personen oder Organisationen. Dies ermöglicht eine persönlichere und zielgerichtetere […]

Double-Opt-Out

Der Begriff Double-Opt-Out beschreibt ein Verfahren im E-Mail-Marketing, bei dem die Abmeldung von Newslettern oder anderen E-Mail-Kommunikationen durch zwei separate Bestätigungsschritte gesichert wird. Es stellt sicher, dass die Abmeldung vom Empfänger ausdrücklich gewünscht und autorisiert ist, was sowohl für den Empfänger als auch für den Absender Vorteile bietet. Funktionsweise des […]

Double-Opt-in

Der Begriff Double-Opt-in beschreibt ein Verfahren im Online-Marketing und E-Mail-Marketing, bei dem eine zweifache Bestätigung von Nutzern erforderlich ist, um deren Einwilligung zur Zusendung von Werbe-E-Mails oder Newslettern sicherzustellen. Dieses Verfahren erhöht die Sicherheit und Transparenz im Umgang mit personenbezogenen Daten und stellt sicher, dass nur interessierte und verifizierte Empfänger […]

Edge Rank

EdgeRank ist der Algorithmus, den Facebook früher verwendet hat, um die Sichtbarkeit und Platzierung von Beiträgen im News Feed der Nutzer zu bestimmen. Der Begriff „EdgeRank“ stammt von „Edge“, einem Begriff, der jede Aktion eines Nutzers auf Facebook beschreibt – sei es ein Like, ein Kommentar, ein Share oder ein […]

Engagement Rate

Die Engagement Rate ist eine Kennzahl im Online-Marketing, die das Ausmaß der Interaktion der Nutzer mit Inhalten auf einer Plattform, insbesondere in sozialen Medien, misst. Diese Interaktionen können Likes, Kommentare, Shares, Klicks und andere Formen der Nutzerbeteiligung umfassen. Die Engagement Rate wird verwendet, um den Erfolg und die Relevanz von […]