Skip to main content

Robot


PDF herunterladen

Was ist ein Robot?

Ein Robot ist ein Programm, dass für die Suchmaschinen selbstständig das Internet nach neuen Inhalten durchsucht und diese erfasst, bewertet und indexiert. Statt Robots wird häufig auch die Kurzform “Bot” genutzt. Alternative Bezeichnungen sind Spider oder Crawler. Heutzutage bestehen etwa 40 Prozent des weltweiten Web Traffics aus Robots.

Funktionsweise eines Robots

Der Robot durchsucht automatisiert Dokumente im Web und folgt dabei auch externen und internen Links. Dadurch kann er beispielsweise feststellen, welche Linkbeziehungen zwischen welchen Webseiten bestehen. Bevor er “loslegt” benötigt der Robot natürlich eine genau definierte Aufgabe. Dadurch kann er bspw. Informationen einer Kategorie zuordnen. Nach und nach werden so alle Seiten erfasst und katalogisiert. Da der Robot seine Aufgabe ständig wiederholt, werden auch neue Informationen mit aufgenommen und indexiert.

Es gibt jedoch auch Informationen/Seiten, die dem Robot verwehrt bleiben. Das passiert z.B. bei Seiten, die nur durch einen Login oder über eine Suchmaske erreichbar sind.

Einsatzmöglichkeiten für Robots

In der Regel werden Robots dazu genutzt, Indizes zu erstellen, die für Suchmaschinen die Basis für die Einordnung von Suchergebnissen liefern. Dabei werden die Robots so programmiert, dass sie ganz spezifisch suchen, z.B. nach aktuellen Nachrichten oder nur bestimmten thematisch relevanten Links folgen.

Beispiele für Robot-Typen:

Data-Mining: Robots suchen gezielt nach Daten wie E-Mail-Adressen oder Telefonnummern.

Webanalyse: Robots sammeln u.a. Daten zu Seitenaufrufen, Seiteneinstiegen usw.

Produktrecherche für Preisvergleiche: Robots sammeln Produktdaten und Produktpreise, damit sie der User auf den Portalen vergleichen kann.

Robot lenken über die Robots.txt

Sie als Website-Betreiber können Robots auf Ihrer Seite mithilfe einer Datei lenken und so deren Verhalten auf Ihrer Webseite regeln. Diese Datei trägt den Namen “Robots.txt” und ist in der Root Directory (Stammverzeichnis) Ihrer Webseite untergebracht. Das ist die erste Datei, die von den Robots gelesen wird und mit der Sie die Programme steuern können. Mit genauen Anweisungen können Sie den Robot, genauer gesagt den User Agent des Robots so lenken, dass er nur ganz bestimmte Wege geht bzw. nur ganz bestimmte Seiten aufsucht. Seiten zu sperren ist z.B. bei einem Webseitenumbau sinnvoll, um dem Robot keine ungewollten/falschen Daten zu liefern.

Auch wenn Sie über die Robots.txt vorgeben, was der Robot nicht durchsuchen darf, können diese Seiten trotzdem von der Suchmaschine indexiert werden. Um das zu verhindern, nutzen Sie in den Meta-Tags den Noindex-Tag oder den Canonical Tag.

Bsp. für eine Robots.txt:

User-agent: *

Disallow: /cgi-bin/

Disallow: /wp-admin/

Disallow: /trackback/

Disallow: /feed/

Disallow: /comments/

Disallow: /wp-content/uploads/

Disallow: */trackback/

Disallow: */feed/

Disallow: */comments/

Sitemap: https://www.seo-kueche.de/sitemap.xml

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Artikel

Digitale Strategie

Eine digitale Strategie ist ein umfassender Plan, der beschreibt, wie ein Unternehmen digitale Technologien und Kanäle nutzen wird, um seine Geschäftsziele zu erreichen. Diese Strategie umfasst die Nutzung von digitalen Plattformen, Tools und Techniken zur Optimierung von Geschäftsprozessen, zur Verbesserung des Kundenerlebnisses und zur Steigerung der Wettbewerbsfähigkeit. In einer zunehmend […]

Digital Disruption

Digital Disruption, oder digitale Disruption, bezeichnet den Wandel und die Umwälzung von Märkten und Geschäftsmodellen durch neue digitale Technologien und Innovationen. Diese Veränderungen führen oft zu radikalen Umbrüchen in traditionellen Branchen und schaffen neue Marktchancen und Wettbewerbslandschaften. Bedeutung Digitale Disruption ist ein wesentlicher Treiber des modernen wirtschaftlichen Wandels. Unternehmen, die […]

Datenfeed

Ein Datenfeed ist ein Mechanismus zur Übertragung von Daten von einer Quelle zu einem Empfänger, oft in einem standardisierten Format. Datenfeeds werden häufig im digitalen Marketing, E-Commerce und anderen Branchen verwendet, um Produktinformationen, Preise, Lagerbestände und andere relevante Daten automatisch zu aktualisieren. Bedeutung Datenfeeds sind entscheidend für die Automatisierung und […]

Data-Driven Marketing

Data-Driven Marketing bezeichnet den Einsatz von Daten und Analysen zur Optimierung und Personalisierung von Marketingstrategien und -kampagnen. Es nutzt Erkenntnisse aus Daten, um fundierte Entscheidungen zu treffen und die Effektivität der Marketingmaßnahmen zu steigern. Bedeutung Data-Driven Marketing ist entscheidend für den modernen Marketingansatz, da es Unternehmen ermöglicht, ihre Zielgruppen besser […]

Data Warehouse

Ein Data Warehouse ist eine zentrale Datenbank, die speziell für das Reporting und die Datenanalyse entwickelt wurde. Es sammelt und speichert große Mengen an Daten aus verschiedenen Quellen und ermöglicht es Unternehmen, diese Daten effizient zu analysieren und wertvolle Erkenntnisse zu gewinnen. Bedeutung Data Warehouses sind entscheidend für Business Intelligence […]

Data Processing Agreement (DPA)

Ein Data Processing Agreement (DPA), oder Datenverarbeitungsvertrag, ist ein rechtliches Dokument, das die Bedingungen regelt, unter denen personenbezogene Daten von einem Datenverarbeiter im Auftrag eines Datenverantwortlichen verarbeitet werden. Es ist ein wesentlicher Bestandteil der Datenschutz-Compliance, insbesondere in der Europäischen Union (EU) gemäß der Datenschutz-Grundverordnung (DSGVO). Bedeutung DPAs sind entscheidend für […]