Skip to main content

Kein Noindex in der Robots.txt mehr?

  • SEO-Küche Logo


PDF herunterladen

Ab 01.09.: Google schafft Noindex und Nofollow in der Robots.txt ab

google-robots.txt-noindex-abgeschafftDie Robots.txt ist seit über zwei Jahrzehnten der inoffizielle Standard, der Suchmaschinen-Crawlern vorgibt, welche Teile einer Website durchsucht und welche ignoriert werden. Google kündigte nun an, das Robots-Exklusion-Standard-Protokoll (REP) zu einem richtigen Internet-Standard zu machen. Im Zuge dessen sollen nun aber auch bisher angewandte Regeln abgeschafft werden, weil diese laut Google extrem selten genutzt werden. Außerdem ist der Code der Robots.txt nun auch open source. Warum die Robots.txt so wichtig ist, erfahrt Ihr hier.

Folgende Befehle werden ab 01.09.19 keine Beachtung mehr finden:

  • Noindex
  • Nofollow
  • Crawl-delay

Grund für diese Änderung ist, dass diese Anweisungen nur in 0,001 Prozent aller Robots.txt-Dateien auch genutzt werden.

Google empfiehlt Alternativen für Noindex und co.

Für Webmaster gibt Google Alternativen an, zum Beispiel folgenden Vorgehensweisen:

  • Die Noindex-Anweisung kann auch in die Meta Robots-Tags oder in den X-Robots-Tag im http-Header eingebaut werden. Wenn Crawlen erlaubt ist, können so einzelne Unterseiten aus dem Google-Index rausgenommen werden.
  • Auch ein Passwortschutz, kann Inhalte aus dem Google-Index heraushalten.
  • Mit 404- oder 410-Status-Codes kann de Crawler vorgegaukelt werden, dass die Unterseiten nicht existieren und so vom Index geschützt sind.
  • Per Disallow-Befehl wird dem Crawler ein Stopp-Schild vorgesetzt. Das führt dazu, dass Seiten deutlich weniger in den SERP auftauchen, rät Google.
  • Das Tool „Remove URL“ in der Google Search Console lässt Webmaster URLs aus den Google Suchergebnissen entfernen.

Unser Tipp:

0,001 Prozent mag wenig klingen, jedoch wird gerade der Noindex-Befehl von SEOs recht häufig genutzt. Die Änderung sollte also jedem SEO bis September Anlass geben, seine Seiten gründlich zu überprüfen. Ansonsten landen Seiten auf dem Google Index, die dort nicht gewollt sind.

Titelbild © devenorr – stock.adobe.com

Beitragsbild © Alexander – stock.adobe.com

Kommentare

Schön, wenn noch jemand den Überblick behält. Google wird immer undurchsichtiger, unberechenbarer und einfach zu mächtig. Ein "Normalo-Webseitenbetreiber" hat doch keine Chance mehr, dort noch durchzublicken und nicht jeder Kleinunternehmer oder Beginnere hat das Geld, sich teure Agenturen leisten zu können oder sich wochenlang in SEO fortzubilden. Es nimmt einfach Überhand mit dem SEO.

Liebe Christine,
stimme Dir in fast allem zu, nur nicht mit Deiner Conclusio im letzten Satz.
Nicht SEO nimmt Überhand, sondern Google verunsichert durch die Algorithmus-Änderungen (Updates) viele Do-it-yourself und Möchtegern-SEOs so sehr, dass sie doch lieber zur vermeintlich sicheren Google Ads greifen.
Auch ein Kleinunternehmer sollte sich klar machen, dass es ohne Google nicht geht und sich die Frage stellen, ob er Google viel Geld bezahlen will für Klicks oder lieber sinnvolle/nützliche/unterhaltsame Inhalte auf seiner Website und die vernünftig gestalten und beschildern.
Wir sind uns doch sicher einig: Langfristig kommt SEO-Abstinenz teuer zu stehen…

ähhhm seid ihr euch echt sicher, dass ihre den Artikel weiterhin online haben wollt? Denn das ist mein heutiges Ergebnis mit dem Webmaster Tool 11.09.2020 "Abdeckung Durch "noindex"-Tag ausgeschlossen" und darunter "Indexierung zulässig?

Nein: "noindex" im Meta-Tag "robots" erkannt"
Das passt ja so gar nicht zu obiger Aussage.
BG Max


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Beiträge

Visualisierung eines technischen SEO-Checks mit Analyse, Optimierung und Prozessschritten

Technik-Check leicht gemacht ‒ Prioritätenliste für KMU

  • marie berauer seo
  • von Marie
  • 09.03.2026

Viele KMU investieren in Content, obwohl ihre Website technisch ausgebremst wird. In der Praxis wird technisches SEO meist vernachlässigt oder scheitert in der Umsetzung an einer Vielzahl von Problemen, die sich sogar gegenseitig verstärken. Doch wer die Performance seiner Webseite nachhaltig verbessern möchte, muss sowohl die inhaltlich-strukturelle Ebene (OnPage-Optimierung) als […]

Webdesign-Darstellung auf Desktop, Tablet und Smartphone mit Icons für Design- und Marketingservices

Webdesign-Hürden erkennen und beheben: Navigation, Ladezeit, Reaktionszeit

  • Benutzerbild von Anja Stahr
  • von Anja Stahr
  • 02.03.2026

Gutes Webdesign wird fälschlicherweise mit reiner Ästhetik gleichgesetzt, obwohl in der Praxis meist ganz andere Faktoren über den Erfolg einer Webseite entscheiden. Viele optisch ansprechende Webauftritte scheitern an Hürden, die für den Nutzer erst im Moment der Interaktion spürbar werden. Eine unlogische Navigation führt zu Orientierungsverlust, während lange Ladezeiten zum […]

Illustration eines Monitors mit Diagrammen, Nutzerprofilen und Datenübersicht zur Analyse von Marketing- und Kundendaten

Einwilligungen und saubere Listen ‒ einfach umgesetzt

  • michael magura
  • von Michael Magura
  • 23.02.2026

In unseren letzten Beiträgen haben wir analysiert, was noch ohne Cookies messbar ist. Da Datenschutzbestimmungen strikter sind und Browser Drittanbieter-Cookies heute standardmäßig blockieren, sollte man eigene Daten nutzen und Einwilligungen klug gestalten. Nur so kann man die Customer Journey noch präzise abbilden. Damit dies funktioniert muss die Datenbasis valide sein, […]

Person zeigt auf ein digitales Sicherheitssymbol, umgeben von Icons für Webanalyse und Tracking

Was ohne Cookies noch messbar ist und wie man es nutzt

  • michael magura
  • von Michael Magura
  • 16.02.2026

Die technischen Rahmenbedingungen für die Webanalyse haben sich im Laufe der letzten Jahre grundlegend geändert. Restriktive Browser-Einstellungen und strenge Datenschutzvorgaben sorgen dafür, dass klassische Analysen oft nur einen Bruchteil der tatsächlichen Customer Journey erfassen. Für KMU führt dieser Signalverlust zu einer verzerrten Datenbasis und fehlerhaften Budgetplanung, da erfolgreiche Kampagnen im […]

Person arbeitet an einem Laptop, während digitale Symbole für Datenanalyse und Marketingmetriken auf dem Bildschirm angezeigt werden

Eigene Daten nutzen: einfache Zielgruppen und Signale

  • michael magura
  • von Michael Magura
  • 09.02.2026

Wer 2026 Marketing-Entscheidungen trifft, verlässt sich meist auf lückenhafte Daten, denn Browser wie Safari oder Firefox löschen Tracking-IDs durch Mechanismen wie ITP (Intelligent Tracking Prevention). Gelangt ein Nutzer über eine Anzeige auf Ihre Webseite, wird die notwendige Verknüpfung (Click-ID) oft nach 24 Stunden gelöscht. Kurzum: Klickt Ihr Kunde heute, kauft […]

Roboter analysiert Markenimage mit Lupe, Social-Media-Symbolen und Dashboard zur digitalen Markenbewertung

Markenbild unter KI-Einfluss: So werden Sie von ChatGPT & Co. wahrgenommen

  • Stephanie
  • von Stephanie Göckeler
  • 02.02.2026

Wenn heute jemand Ihre Marke kennenlernen möchte, landet er immer seltener direkt auf Ihrer Website, sondern stellt seine Frage an ein KI-System wie ChatGPT, Copilot oder den KI-Modus von Google. Diese Systeme beantworten Fragen nicht mit einem einzelnen Link, sondern mit einem verdichteten Bild Ihrer Marke, das aus sehr vielen […]