Skip to main content

Index/Indexierung


PDF herunterladen

Was ist ein Index?

Als „Index“ wird allgemein ein geordnetes Verzeichnis, auch Register, in einem Nachschlagewerk (bspw. Lexikon, Telefonbücher, etc..) bezeichnet. Der sogenannte „Google Index“ ist die Gesamtheit aller von Google erkannten, d.h. gecrawlten, und gespeicherten (=indexierten), Webseiten. Die SERPs sind ausschließlich mit Seiten aus dem Index gefüllt – eine Seite die nicht im Index ist, wird auch nicht in den SERPs stehen.

Der Google Index ist nicht, wie in einem Lexikon, statisch, sondern höchst dynamisch. Neue Webseiten kommen hinzu, manche werden entfernt. Durch Crawler, die von Link zu Link springen, werden neue Seite erfasst. Verstößt eine Webseite massiv gegen die Google Richtlinien, wird eine Webseite aus dem Index, und damit aus den SERPs, entfernt.

Zusätzlich ist der Google Index komplex gegliedert. Das bedeutet, er ist nicht nur alphabetisch aufgebaut, sondern es werden verschiedene Rankingkriterien über den Index gelegt, um für eine Suchanfrage ein bestimmtes Set an Webseiten in einer bestimmten Reihenfolge auszuliefern. Dies passiert ebenfalls dynamisch, da sich Webseiten und die Rankingkriterien beständig ändern. Wie dies genau funktioniert, ist Betriebsgeheimnis Googles.

Dies gilt analog für alle anderen Suchmaschinen. Oftmals wird im Netz der Ausdruck „indiziert“ für „indexiert“ verwendet, was aber falsch ist.

index indexierung
Die Indexierung einer Website erklärt.

Wie Google den Index füllt

Google reichert seinen Index mit Hilfe von Crawlern (auch Bots genannt), an. Ein Crawler springt von einem Link zu einem anderen und trifft in der Folge auf miteinander verlinkte Webseiten. Jede neue Webseite wird gecrawlt, d.h., der Quellcode wird ausgelesen und an den Index gesendet. Dort wird die Seite nach verschiedensten Rankingfaktoren und anderen Regeln einsortiert. Wer seine Webseite auf diese Weise indexieren lassen will, muss also dafür sorgen dass sie von einer anderen Webseite einen Link bekommt. Dann muss ein Crawler auf der fremden Webseite vorbeischauen und den Link zu unserer Seite entdecken. Diese Möglichkeit der Indexierung ist recht langwierig und unsicher.

Eine Webseite indexieren lassen

Um aktiv seine Seite indexieren zu lassen, kann man seine Webseite direkt an Google „schicken“. Dafür gibt es drei Möglichkeiten:

a) Unter http://www.google.de/addurl/ kann man einen Antrag auf Indexierung für eine Webseite stellen. Eine erfolgreiche Übermittlung der Daten ist aber keine Garantie auf eine Aufnahme. Zudem muss man ein Google Konto besitzen, um auf diesen Dienst zugreifen zu können. Wenn man schon ein Google Konto hat, ist es sinnvoller eine andere Möglichkeit zu nutzen:

b) In den Webmaster Tools (auch „Search Console“ genannt), kann man eine Sitemap direkt an Google schicken.

Lexikon_Index_I

Eine Sitemap kann man sich recht unkompliziert im .xml Format erstellen lassen, im Netz gibt es viele, kostenlose Dienste dazu. Diese .xml Datei fügt man in den Webmaster Tools unter „Sitemaps“ hinzu:

lexikon_index_II

Nach einiger Zeit, in der Regel in den nächsten 24 Stunden, wird Google die in der Sitemap angegeben URLs crawlen. Den Fortschritt der Indexierung kann man in den Webmaster Tools unter „Sitemaps“ verfolgen:

lexikon_index_III

c) Will man eine einzelne Seite indexieren lassen, bspw., weil sie nach der Erstellung der Sitemap hinzugekommen ist, hat man in den Webmaster Tools unter „Crawling“ → „Abruf wie durch Google“, die Möglichkeit eine einzelne URL an den Index zu senden.

lexikon_index_IV

Eigentlich ist diese Option dazu da, um zu überprüfen ob der Crawler alle Ressourcen auf einer Seite sehen und verstehen kann (JavaScript, etc.). Nachdem man aber die URL abgeschickt hat, bietet Google die Möglichkeit an, die URL „an den Index“ zu senden.

lexikon_index_V

Damit wird aber nur die eine URL und eventuell auf dieser URL verlinkte Seiten der Domain an den Index gesendet. Jedes Konto hat eine monatliches Kontingent von 10 URLs die an den Index gesendet werden können.

Eine Indexierung verhindern

Es kann mehrere Gründe geben, wieso ein Webmaster verhindern will, dass seine Seite in den SERPs auftaucht und damit im Google Index vorhanden ist.

– Die Seite ist noch nicht fertig oder befindet sich im Relaunch und soll bis zur Fertigstellung nicht gefunden werden.

– Es gibt urheber- oder datenschutzrechtliche Gründe die Seite nicht öffentlich verfügbar zu machen.

– Manchmal möchte ein Webmaster einzelne Unterseiten nicht öffentlich machen, bspw. Admin-Zugänge oder minderwertige Seiten.

– Die Webseite ist nur für den privaten Gebrauch bestimmt.

Es gibt mehrere Möglichkeiten eine Indexierung zu verhindern

a) Meta-Tag „noindex“

Mit dem Meta-Tag „noindex“ gibt man dem Crawler die Anweisung, die Seite nicht zu indexieren:

<meta name=”robots” content=”noindex”/>

Auch wenn sich die meisten Suchmaschinen-Crawler daran halten, ist der noindex-Tag nur eine Anweisung.

b) Crawler mit der robots.txt aussperren

In der robots.txt fügt man folgenden Code ein, um alle Seiten einer Domain für alle Zugriffe zu sperren:

User-agent: *

Disallow: /

Will man nur einzelne Unterordner ausschließen, sieht das Ganze so aus:

User-agent: *

Disallow: /unterordner1

Disallow: /unterordner2/unterordner/

c) Crawler per .htaccess ausschließen

Mit der .htaccess kann man ein Passwortschutz für die gesamte Webseite oder einzelne Bereiche der Seite festlegen. Diese Option wird auch von Google empfohlen: URLs durch passwortgeschützte Serververzeichnisse blockieren (https://support.google.com/webmasters/answer/93708?hl=de)

Eine detaillierte Anleitung findet man u.a. hier: http://www.grammiweb.de/anleitungen/ka_htaccess.shtml

Aus dem Index fliegen – und wieder reinkommen

Unfreiwillig aus dem Index fliegen ist sehr ärgerlich. Um wirklich de-indexiert zu werden, muss man sich aber schon einiges zu Schulden kommen lassen – etwa massives, auf breiter Basis angelegtes, SpamLinkbuilding, oder groß angelegtes Cloaking. Aber auch negatives SEO, also wenn Konkurrenten oder Hacker SEO-Technisch gegen die eigene Seite Vorgehen, kann ein Grund sein aus dem Index zu fliegen.

– Als erstes richtet man einen Wiederaufnahmeantrag (Reinclusion Request oder auch Reconsideration Request) an Google.

– Wenn man selber Mist gebaut hat, muss man nachweisen dass man es wieder gut gemacht hat.

– Wenn man Opfer eines Angriffes wurde, sollte man auch das nachweisen können.

In den Webmaster Tools stellt man nun einen „Antrag auf erneute Überprüfung“ der in der Nachricht zur Abstrafung zu finden ist.

Nun kann es etwas dauern, erfahrungsgemäß zwischen 2 und 12 Wochen, bis die Seite wieder im Index ist.

Siehe auch: Unsere Ratgeberartikel zum Thema

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Artikel

Digitale Strategie

Eine digitale Strategie ist ein umfassender Plan, der beschreibt, wie ein Unternehmen digitale Technologien und Kanäle nutzen wird, um seine Geschäftsziele zu erreichen. Diese Strategie umfasst die Nutzung von digitalen Plattformen, Tools und Techniken zur Optimierung von Geschäftsprozessen, zur Verbesserung des Kundenerlebnisses und zur Steigerung der Wettbewerbsfähigkeit. In einer zunehmend […]

Digital Disruption

Digital Disruption, oder digitale Disruption, bezeichnet den Wandel und die Umwälzung von Märkten und Geschäftsmodellen durch neue digitale Technologien und Innovationen. Diese Veränderungen führen oft zu radikalen Umbrüchen in traditionellen Branchen und schaffen neue Marktchancen und Wettbewerbslandschaften. Bedeutung Digitale Disruption ist ein wesentlicher Treiber des modernen wirtschaftlichen Wandels. Unternehmen, die […]

Datenfeed

Ein Datenfeed ist ein Mechanismus zur Übertragung von Daten von einer Quelle zu einem Empfänger, oft in einem standardisierten Format. Datenfeeds werden häufig im digitalen Marketing, E-Commerce und anderen Branchen verwendet, um Produktinformationen, Preise, Lagerbestände und andere relevante Daten automatisch zu aktualisieren. Bedeutung Datenfeeds sind entscheidend für die Automatisierung und […]

Data-Driven Marketing

Data-Driven Marketing bezeichnet den Einsatz von Daten und Analysen zur Optimierung und Personalisierung von Marketingstrategien und -kampagnen. Es nutzt Erkenntnisse aus Daten, um fundierte Entscheidungen zu treffen und die Effektivität der Marketingmaßnahmen zu steigern. Bedeutung Data-Driven Marketing ist entscheidend für den modernen Marketingansatz, da es Unternehmen ermöglicht, ihre Zielgruppen besser […]

Data Warehouse

Ein Data Warehouse ist eine zentrale Datenbank, die speziell für das Reporting und die Datenanalyse entwickelt wurde. Es sammelt und speichert große Mengen an Daten aus verschiedenen Quellen und ermöglicht es Unternehmen, diese Daten effizient zu analysieren und wertvolle Erkenntnisse zu gewinnen. Bedeutung Data Warehouses sind entscheidend für Business Intelligence […]

Data Processing Agreement (DPA)

Ein Data Processing Agreement (DPA), oder Datenverarbeitungsvertrag, ist ein rechtliches Dokument, das die Bedingungen regelt, unter denen personenbezogene Daten von einem Datenverarbeiter im Auftrag eines Datenverantwortlichen verarbeitet werden. Es ist ein wesentlicher Bestandteil der Datenschutz-Compliance, insbesondere in der Europäischen Union (EU) gemäß der Datenschutz-Grundverordnung (DSGVO). Bedeutung DPAs sind entscheidend für […]