Skip to main content

Warum ist meine Seite bei Google nicht zu finden?

  • SEO-Küche Logo


PDF herunterladen

Warum Eure Webseite bei Google nicht gefunden wird, kann viele verschiedene Gründe haben. Es kann beispielsweise Probleme mit der Indexierung, der Ladegeschwindigkeit oder dem Content geben. Unter Umständen habt Ihr die Webseite schlichtweg von den Suchmaschinen ausgeschlossen.

Warum Eure Seite in den Suchergebnissen bei Google nicht zu finden ist, möchte wir Euch nun erläutern, um den Fehler zu finden.

Webseite wird nicht bei Google in den Suchergebnissen angezeigt – Was bedeutet das?

Im folgenden Beitrag möchten wir prüfen, warum Eure Webseite bei Google überhaupt nicht angezeigt wird. Hier soll es also nicht darum gehen, warum Google Eure Seite nicht auf den ersten Suchergebnisseiten (SERP) anzeigt, sondern warum sie gänzlich in den Suchergebnissen fehlt. Um zu prüfen, ob dies der Fall ist, müssen wir einen Befehl in der Suchzeile bei Google eingeben. Dieser Befehl gibt Euch Aufschluss darüber, ob Eure Seite bei Google angezeigt wird.

site suche webseite sichtbarkeit google
Abb. 1: Den Befehl „site:“ vor der eigenen Domain mit oder ohne www eingeben.

Gibt man den Befehl „site:“ ein und tippt anschließend den Namen seiner Domain mit oder ohne www ein, sieht man nach Betätigung der Enter-Taste welche Seiten und indexierten Unterseiten der eigenen Webseite bei Google angezeigt werden. Erscheint die Seite nicht, wird sie bei Google nicht angezeigt.

site ergenisse suche
Abb. 2: In den Suchergebnissen werden nun alle indexierten Seiten Eurer Webseite angezeigt.

10 Gründe warum Google Eure Seite nicht findet

Die Gründe können vielfältig sein, warum Google Eure Seite nicht entdecken kann. In den meisten Fällen sind Webseite, Unterseite oder URL neu, sodass Google sie noch nicht kennt. Außerdem kann auch eine interne oder externe URL-Verlinkung fehlen, Google Probleme mit dem Crawling von neuen Seiten haben oder die Indexierung von Euch unterdrückt worden sein.

Des Weiteren kann ein Fehler in der Robots.txt vorliegen und es passiert sein, dass Ihr dem Crawler den Zugriff zu Eurer URL untersagt habt. Ebenso können Duplicate Content, Überoptimierung und qualitativ schlechter Content für Schwierigkeiten sorgen. Oder Eure Inhalte sind verfügbar, aber falsch kanonisiert worden (siehe auch Canonical Tag).

1. Indexierung wurde unterdrückt und Seite von Google ausgeschlossen

Wer das Content Management System (CMS) WordPress nutzt, kann dies durch einen Klick veranlassen und die Webseite von der Indexierung bei Google ausschließen. Die Suchmaschine hat somit keinen Zugriff auf Eure Webseite. Entweder dieser Haken war bereits gesetzt oder Ihr habt es selbst veranlasst.

Sobald Ihr dieses Häkchen unter „Einstellungen -> Lesen“ entfernt habt, wird Google Eure Seite in geraumer Zeit indexieren. Allerdings kann dies einige Zeit dauern, über die Search Console könnt Ihr nachhelfen und Google die Indexierung in die Wege leiten lassen.

indexierung wordpress erlauben
Abb. 3: Haken entfernen und Änderungen speichern, um die Webseite zu indexieren.

2. Google per noindex oder Robots.txt ausgesperrt

Unter Umständen kann das Meta-Tag „Robots“ den Wert „noindex“ tragen, wodurch Google an der Indexierung gehindert wird. Ihr müsst das Tag einfach entfernen; dies geht über das Content Management System oder manuell. Der noindex-Befehl ist im Head-Bereich der Webseite:

browseo noindex
Abb. 4: Mit Browseo prüfen, ob noindex als Wert gesetzt ist.

Ein weiterer Grund kann eine Datei namens Robots.txt sein, die sich in Eurem Root-Verzeichnis befindet.

werden die Crawler der Suchmaschinen ausgeschlossen. Das könnt Ihr einfach prüfen, indem Ihr hinter Eurer Domaine robots.txt eingebt: www.beispiel.de/robots.txt. Allerdings werden einige Seiten wie Duplicate Content, Paginierungsseiten und Chatseiten ausgeschlossen.

robotstxt datei indexierung
Abb. 5: Unsere Robots.txt-Datei mit den entsprechenden disallow- und allow-Angaben.

3. Google hat die Seite nicht indexiert

Nicht immer hat Google eine neue Webseite oder URL gleich indexiert, denn dies kann einige Zeit in Anspruch nehmen. Doch es gibt gute Neuigkeiten, denn man kann den Indexierungsprozess vorantreiben, indem man Google über die neue URL unterrichtet. Dies geht über die Search Console. Über die URL-Prüfung könnt Ihr sehen, ob die URL in den Suchergebnissen auf Google ist und die Indexierung beantragen.

So macht Ihr Google auf Eure URL aufmerksam:

  • intern von wichtigen Hauptseiten verlinken.
  • von einer externen Seite verlinken
  • über die XML-Sitemap einreichen
  • über das Tool in der Google Search Console übermitteln

4. Probleme mit der Kanonisierung (Canonical Tag)

Mit dem Canonical-Tag (rel=canonical) könnt Ihr veranlassen, dass bei mehreren Unterseiten mit gleichem oder ähnlichem Inhalt nur eine einzige URL indexiert wird. Somit kann man Duplicate Content vermeiden. Auch bei diesem Schritt müsst Ihr über die Search Console die richtige Indexierung veranlassen. Zunächst überprüft Ihr, ob sich die URL der Unterseite im Index befindet. Google weist dann daraufhin, dass die URL nicht bekannt ist: „URL ist nicht bekannt“.

search console indexierung
Abb. 6: Die URL ist Google nicht bekannt und konnte nicht indexiert werden.

War dies nicht beabsichtigt, müsst Ihr prüfen, ob in Eurem Content Management System (CMS), ob die URL mit dem Canonical Tag rel=canonical auf eine andere Seite versehen wurde. Entfernt es an der entsprechenden Stelle und crawle die Seite nochmal über Google Search Console.

canonical url wordpress
Abb. 7: Canonical URL in WordPress setzen.

5. Duplicate Content

Wie bereits erwähnt, kann Duplicate Content ein Grund für das Nichtvorhandensein der URL in den Google-Suchergebnissen sein. Wird Content mit dem gleichen Wortlaut oder ähnlich nochmals erstellt und findet sich entweder auf der eigenen oder einer externen Seite wieder, handelt es sich um Duplicate Content. Ihr benötigt auf allen Unterseiten eurer Domain Unique Content, damit hier keine Indexierungsprobleme entstehen.

Ein beliebter Fehler sind vervielfältigte Produktbeschreibungen in Online-Shops, bei welchen der gleiche Text nur mit wenigen Abänderungen von Farbe oder Größe nochmals verwendet wird. Ein hilfreiches Tool ist Copyscape, es hilft Euch den Duplicate Content auf eurer Website aufzuspüren. Es ist auch als Plugin für WordPress verfügbar.

6. Die Webseite wurde über die Search Console entfernt

Es ist auch möglich, eine URL direkt über die Google Search Console zu entfernen. Möglicherweise ist Euch dies versehentlich passiert, dann müsst Ihr den Fehler rückgängig machen. Prüft über die Console, ob Eure URL erscheint oder nicht. Klickt auf Index und dann auf „entfernen“, erscheint keine URL, wurde sie nicht entfernt und es liegt ein anderes Problem zugrunde.

7. Überoptimierte Inhalte

Nicht nur schlechter Content, sondern auch überoptimierter Content kann für eine fehlende Sichtbarkeit sorgen. Keyword Stuffing oder Black Hat SEO werden von Google nicht gerne gesehen und werden daher abgestraft. Wer die Keywords im Titel, den Zwischenüberschriften, in jedem Absatz und allen Bildunterschriften verwendet, sorgt eventuell dafür, dass die Keyword Density viel zu hoch ist. Ein hilfreiches WordPress-Plugin wie Yoast SEO kann Euch bei der Überprüfung behilflich sein.

8. Qualitativ minderwertiger Content

Handelt es sich um qualitativ minderwertigen Content straft Google dies ebenfalls ab und indexiert URLs eventuell nicht. Euer Inhalt muss informativ, suchmaschinenoptimiert, vollständig und relevant für den Nutzer sein. Die Länge des Textes sollte unbedingt über 300 bis 600 Wörter liegen, ansonsten spricht man von Thin Content. Auf Deutsch heißt dies so viel wie „dünner Inhalt“, d.h. für Google sind die Webinhalte nicht ausreichend, um dem User einen Mehrwert zu bieten.

Bei der Erstellung von gutem SEO-Content spielen neben Aufbau, Umfang und Satzstruktur viele Faktoren eine wichtige Rolle. Wie Ihr gute SEO-Texte verfasst, könnt Ihr in unserem Leitartikel zum Thema nachlesen.

Ändert Ihr die Permalinks, dann entstehen ebenfalls Probleme bei der Indexierung. Manchmal muss man den Permalink aus Gründen der Suchmaschinenoptimierung anpassen, jedoch muss darauf geachtet werden, dass die richtige Version indexiert wird und die alte entfernt. Durch 301-Weiterleitungen verschlechtert sich in gewisser Weise dein vorheriges Ranking, sofern die Seite bereits etabliert war.

10. Implementierung von SSL/HTTPS

Seit DSGVO ist die Verschlüsselung einer Internetseite besonders wichtig und zeigt dem Besucher, dass seine Daten vertrauliche behandelt werden.

ssl verschlüsselung
Abb. 8: SSL-Verschlüsselung ist seit DSGVO Pflicht.

Hier kann allerdings bei der Umstellung ein Problem entstehen, da Google die Version http:// und https:// als zwei verschiedene Domains betrachtet und indexiert. Ähnlich wie beim Wechsel der Permalinks ist auch hier ein Wechsel der URLs erfolgt. Deswegen müsst Ihr darauf achten, dass Google die richtige Version, d.h. die https:// indexiert und die andere Version http:// entfernt.


Häufig gestellte Fragen

Warum Eure Seite in den Suchergebnissen bei Google nicht auffindbar ist, kann mehrere Gründe haben. Zum einen können die Crawler Probleme beim Indexieren der Webseite haben oder Ihr habt explizit veranlasst, dass die Indexierung nicht stattfinden soll. Ein weiteres Problem kann die Ladegeschwindigkeit, fehlende Verlinkungen, neue und unbekannte URLs oder Duplicate Content sein.
Dies kann daran liegen, dass Google die URL noch nicht kennt, dann könnt Ihr über die Search Console die Indexierung veranlassen oder Ihr habt die Indexierung verboten (z.B. noindex, Robots.txt).
Damit Google die Seite findet, muss zunächst der Zugriff auf die URL gewährt werden. Anschließend könnt Ihr Google über die Search Console über die neue URL informieren und die Indexierung veranlassen.
Google kann Seiten auch abstrafen, das geschieht meist dann, wenn zu viele doppelte Inhalte vorhanden ist, die Seite überladen mit Affiliate-Links ist oder der Inhalt qualitativ minderwertig ist und mit Black Hat SEO gearbeitet wurde und auf betrügerischem Wege versucht wurde, besser zu ranken.

Weiterführende Informationen & Quellen

  • In der Google Search Console Hilfe erläutert Google nochmal, warum es zu Indexierungsfehlern und -problemen kommen kann.
  • Das Buch „Suchmaschinen verstehen“ von Dirk Lewandowski gibt nochmals Einblicke, warum Seiten nicht bei Google angezeigt werden.
  • Google Search Central erklärt nochmal, was bei der Indexierung zu beachten ist.
  • SEO Südwest und T3N behandeln nochmals die Probleme, die bei der Indexierung auftreten können.

Ähnliche Beiträge

ki und nachhaltigkeit im marketing und unternehmen

KI und Nachhaltigkeit im Marketing und Unternehmen

Kaum ein anderes Thema wird so kontrovers diskutiert, wie die Nutzung von Künstlicher Intelligenz (KI). Dabei übersehen Kritiker nicht selten die zahlreichen Vorteile, Chancen und Möglichkeiten, die KI und Nachhaltigkeit für eine bessere Zukunft bereithält. Künstliche Intelligenz kann nicht nur Arbeits- und Produktionsprozesse effizienter und ökonomischer gestalten, sondern auch Vorteile […]

datenschutzrechtliche aspekte beim einsatz von tracking tools

Datenschutzrechtliche Aspekte beim Einsatz von Tracking Tools

Die Einhaltung von Datenschutzvorgaben ist ein zentraler Aspekt beim Einsatz von Tracking Tools in Websites, Online Shops und Apps. Dieser Artikel erläutert die wichtigsten Anforderungen, die bei der Nutzung von Tools wie Google Analytics, Matomo oder dem Meta Pixel beachtet werden müssen. Zudem bietet er praxisnahe Tipps zur datenschutzkonformen Implementierung […]

umgang mit spam mails

Umgang mit Spam-Mails – Das können Sie unternehmen!

Im Jahr 2023 hatten die beiden größten Mailanbieter web.de und GMX bekannt gegeben, dass rund 1,5 Milliarden Spam-Mails pro Woche kursieren. Zudem hat sich gezeigt, dass vor allem Künstliche Intelligenz (KI) das Problem noch verschlimmert, da sie Spam-Server aufsetzen und gute Texte formulieren kann. In der Vergangenheit konnten User Spam-Mails […]

Google Suche

Zero-Click-Suchen und Featured Snippets

Im Bereich der Suchmaschinenoptimierung (SEO) verwendet man die Begriffe Zero-Click-Suchen und Featured Snippets meist in engem Zusammenhang. Das liegt daran, weil Featured Snippets für einen Großteil der Zero-Click-Suchen verantwortlich sind. Statistiken sowie eine Studie von Semrush zeigen, dass 57 % der mobilen Suchanfragen und etwa ein Viertel der Desktop-Suchen zu […]

10 Webdesign-Tipps für eine ausgezeichnete Webseite

Mithilfe unserer Tipps und Regeln könnt Ihr eine ausgezeichnete Webseite gestalten, deren Absprungrate niedrig und Konversionsrate hoch ist. Nicht selten sieht man Webseiten, die visuell überladen wirken oder ästhetisch überhaupt nichts hermachen. Wer eine Webseite gestaltet, kann sich schnell in grafischen Irrgärten verlieren. Dies ist häufig schlecht für die Performance […]

person bei der bildbearbeitung am laptop

Die 11 besten kostenlosen Bildbearbeitungsprogramme

Mit Bildbearbeitungsprogrammen könnt Ihr Eure Bilder und Grafiken optimieren. Möchte man eine optisch ansprechende Webseite erstellen, benötigt man meist Bilder. Fotos, Abbildungen und Grafiken werden mit entsprechenden Programmen bearbeitet, um Fehler zu korrigieren oder spezielle Elemente zu entfernen. Dank dieser Software können auch Laien schöne Bilder erschaffen. Sie hilft Euch […]