Skip to main content

Robots.txt


PDF herunterladen

Was ist die robots.txt Datei?

Eine robots.txt Datei ist eine Textdatei, in der man hinterlegen kann, welche Verzeichnisse von den Suchmaschinen gelesen werden dürfen und welche nicht. Die robots.txt Datei ist sehr wichtig für die Crawler, diese suchen als Erstes die Datei und lesen diese aus. Wie eine Anleitung was Sie tun dürfen und was nicht.

In der robots.txt wird genau hinterlegt, welcher Crawler bestimmte Verzeichnisse, Unterverzeichnisse oder nur einzelne Dateien nicht durchsuchen darf und für ihn gesperrt sind. Sie können also hinterlegen, dass der googlebot bestimmte Seiten durchsuchen darf, aber der bingbot nicht, oder andersherum.

Wohin mit der robots.txt Datei?

Damit die Suchmaschinen die robots.txt finden, muss sich diese im Hauptverzeichnis der Domain befinden. Sollten Sie die Datei woanders speichern, wird diese von den Suchmaschinen nicht gefunden und beachtet.

Es kann pro Hauptdomain nur eine robots.txt Datei geben.

Aufbau und Inhalt einer robots.txt Datei

Die robots.txt Datei besteht aus zwei Elementen, die immer zusammengehören. Erst spricht man den User-Agenten an und nennt seinen Namen. Darunter kommt der Befehl mit dem Namen des Verzeichnisses, das gelesen werden soll oder nicht.

Sie können die Sitemap.xml Datei in der robots.txt Datei hinterlegen und somit sicher sein, dass der Crawler diese überhaupt aufruft.

Als Erstes nennt man den Befehl, der den Bot anspricht.  User-agent:

Dahinter kann man eine genaue Bezeichnung einfügen oder mit * kennzeichnen, dass man alle Bots ansprechen möchte.

Ein Befehl wie disallow: schließt alle betroffenen Dateien aus.

Der Befehl wie Allow: / schließt alle betroffenen Dateien ein.

Hier ein Beispiel einer robots.txt Datei:

Beispiel 1:

User-agent: seobot

Disallow: /noseobot/

Das heißt der User-Agent mit dem Namen „seobot“ soll den Ordner test.de/nosebot/ inklusive Unterverzeichnisse nicht crawlen.

Beispiel 2:

User-agent: *

Allow: /

Im Beispiel zwei wird gezeigt, dass alle User-Agents auf die gesamte Website zugreifen sollen. Diese Regel ist unnötig, da die Crawler automatisch alles crawlen, wenn kein anderer Befehl sie davon abhält.

Beispiel3:

User-agent: seobot

Disallow: /verzeichniss1/

Disallow: /verzeichniss6/

Hier haben wir dem seobot gesagt, dass das Verzeichnis 1 und 6 für ihn gesperrt sind und er diese nicht durchsuchen darf.

Hier eine Auswahl der wichtigsten User-Agenten Bezeichnungen:

Crawler User-agent
Google Googlebot
Bing Bingbot
Yahoo Slurp
MSN Msnbot

Kann ich der robots.txt Datei blind vertrauen?

Die robots.txt Datei ist nur eine Hilfe für die Crawler, es ist nicht sicher garantiert, dass die Websiten nicht gecrawlt werden. Auch ein Schutz vor Zugriffen anderer schützt die robots.txt Datei nicht, hier sollte man immer mit einem Passwortschutz des Webservers arbeiten. Goolge und Bing geben beide an, dass Sie die robots.txt Datei beachten, sie sind aber nicht verpflichtet dazu.

Wie rufe ich die robots.txt Datei auf?

Sie können die Datei in Ihrem Browser ganz einfach aufrufen. Tragen Sie oben in der URL Leiste einfach Ihre Domain ein und dahinter /robots.txt.

Beispiel: www.ihrdomainname.de/robots.txt

Die Datei soll nur mit der Hauptdomain aufgerufen werden können. Sollten Sie die Datei wie folgt aufrufen: www.ihredomain.de/verzeichnis/robots.txt, sollte hier ein 404 Fehler aufkommen. Wenn Sie mit dieser Eingabe aber auf die Startseite von Ihrer Website gelangen, überprüfen Sie Ihre Weiterleitungen. Dies führt zwar zu keinem Fehler, aber es ist nicht richtig. Eine Seite, die nicht erreichbar ist, sollte auch als solche ausgegeben werden.

Jetzt den SEO-Küche-Newsletter abonnieren

Keine Kommentare vorhanden


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Ähnliche Artikel

GEO (Generative Engine Optimization)

GEO steht für Generative Engine Optimization und beschreibt die Optimierung von Inhalten für generative Such- und Antwortsysteme, die Informationen nicht mehr nur verlinken, sondern eigenständig zusammenfassen und ausgeben. Dazu zählen unter anderem KI-Suchmaschinen, Chatbots und Antwortsysteme wie Google AI Overviews oder Perplexity. Im Fokus von GEO steht nicht das klassische […]

GAIO (Generative AI Optimization)

GAIO steht für Generative AI Optimization und beschreibt die Optimierung von Inhalten, Marken und Informationen für generative KI-Systeme. Ziel von GAIO ist es, in KI-gestützten Such- und Antwortsystemen wie ChatGPT, Google AI Overviews oder Perplexity korrekt verstanden, bevorzugt berücksichtigt und zitiert zu werden. GAIO geht damit über klassische Suchmaschinenoptimierung (SEO) […]

Google AI Overview

Google AI Overviews sind KI-generierte Antwortboxen in der Google-Suche, die Nutzenden zusammengefasste Antworten direkt oberhalb oder innerhalb der Suchergebnisse anzeigen. Sie basieren auf generativer KI und sollen komplexe Suchanfragen schneller und verständlicher beantworten, ohne dass zwingend einzelne Websites angeklickt werden müssen. Die Funktion ist Teil von Googles Weiterentwicklung der Suche […]

llms.txt

llms.txt ist eine spezielle Textdatei für Websites, die im Stammverzeichnis einer Domain liegt und großen Sprachmodellen (Large Language Models, LLMs) wie ChatGPT eine strukturierte Übersicht über die wichtigsten Inhalte, Themen und Zusammenhänge einer Website bereitstellt. Ziel ist es, das Verständnis, die Einordnung und das korrekte Zitieren von Inhalten durch KI-Systeme […]

Grounding Page

Definition: Was ist eine Grounding Page? Eine Grounding Page ist eine speziell erstellte Webseite, die eine Entität (z. B. Unternehmen, Marke, Person oder Produkt) faktenbasiert, eindeutig und strukturiert beschreibt, um Suchmaschinen und KI-Systemen eine verlässliche Referenzquelle bereitzustellen. Im Gegensatz zu klassischen Marketing- oder Leistungsseiten verfolgt eine Grounding Page keine werbliche […]

DIN SPEC 33461

Die DIN SPEC 33461 wurde von einem Konsortium aus SEO-Experten in Zusammenarbeit mit dem Deutschen Institut für Normung (DIN) entwickelt und im Juni 2025 veröffentlicht. Sie ist eine praxisorientierte Spezifikation, die als Leitfaden und Best Practice für die Suchmaschinenoptimierung (SEO) dient. Als erster offizieller Standard für professionelle Suchmaschinenoptimierung bietet sie […]