Skip to main content

Cloaking


PDF herunterladen

Was ist Cloaking?

Man kann per Definition Cloaking als eine HTML-Technik aus dem Bereich der Suchmaschinenoptimierung bezeichnen. Bei der Optimierung mittels Cloaking steht die Verbesserung des Rankings einer Website innerhalb der Ergebnisliste von Suchmaschinen wie Google im Fokus. Dazu werden den Webcrawlern der Suchmaschine unter der gleichen URL andere Inhalte dargeboten als dem normalen Seitenbesucher. Das Ziel dabei ist, dem Besucher einer Webseite Content zu präsentieren, der attraktiv gestaltet wird und den Fokus nicht auf SEO-Kriterien wie z.B. Keywords setzt. Im Gegensatz dazu wird dem Crawler meist textbasierter Seiteninhalt dargeboten, der SEO-Methoden bestmöglich umsetzt, dafür aber gestalterische Attribute einbüßt.

Wie funktioniert Cloaking?

Wenn ein User mittels Suchmaschine nach einer Website sucht, wird ihm diese in den Suchmaschinenvorschlägen aus dem jeweiligen Index angezeigt. Das grundsätzliche Ziel des Cloakings ist allerdings, eine Seite für den Besucher und die Suchmaschinen unterschiedlich zu optimieren. Dabei kann die Seite für normale Besucher multimediale Inhalte enthalten, während sie für die Suchmaschinen als eine strukturell veränderte, textbasierte Version zur Verfügung gestellt wird. Suchmaschinen können Textinhalte wesentlich besser verarbeiten und indexieren, multimediale Inhalte wie beispielsweise Videos sind für sie schwieriger lesbar. Mithilfe von Cloaking kann eine Seite also besonders ansprechend für den User gestaltet werden, ohne dass der Domain-Inhaber befürchten muss, im Ranking zurückzufallen, weil die Crawler die medialen Komponenten nicht auslesen und somit auch nicht indexieren können.

Dabei muss man anmerken, dass Google & Co. mittlerweile einige Tools und Möglichkeiten entwickelt haben, um multimedialen Content besser verarbeiten und indexieren zu können, somit verringern sich auch die Optionen Cloaking anzuwenden.

Tarnung als Black Hat SEO-Methode

Cloaking zählt zu den Black Hat SEO-Methoden und wurde vermutlich nach den Bösewichten benannt, die in alten Filmen einen schwarzen Hut weit ins Gesicht gezogen tragen, um unerkannt zu bleiben. So kann man Cloaking als Tarnung oder Deckmantel übersetzen, da diese Technik die eigentliche Webseitenpräsenz verhüllt, um sie für die Suchmaschinen-Crawler wie Googlebots unsichtbar zu machen. Im Extremfall haben die Inhalte, die den Suchmaschinen präsentiert werden, nichts mit den Inhalten zu tun, die der normaler User vorfindet.

Cloaking ist ein Prozess, der den Richtlinien der meisten Suchmaschinen widerspricht und in einigen Fällen sogar als Marken- oder Wettbewerbsverletzung bewertet werden kann. Daher wird das Vorgehen entsprechend geahndet: Enttarnen Webcrawler das Cloaking einer Seite, führt das fast immer zu einem dauerhaften Ausschluss aus den Indices der Suchmaschinenbetreiber. Wer beispielsweise gegen die Webmaster Richtlinien von Google, die Google Webmaster Guidelines, verstößt, wird durch eine Google Penalty abgestraft. Die einzige Möglichkeit zur erneuten Indexierung ist dann der Erwerb einer neuen Domain.

Technische Varianten des Cloakings

Da Cloaking auf Server-Systematiken basiert, kann der Server anhand der IP oder der Kennung identifizieren, ob ein User bzw. Browser oder ein Robot auf die Daten zugreifen möchte, und somit die jeweilige optimierte oder reduzierte Website darstellen.

Es gibt zwei unterschiedliche Arten des Cloakings:

  • Beim IP Cloaking werden dem Besucher, abhängig von seiner IP-Adresse, verschiedene Varianten der Webseite präsentiert. So können auch die Suchmaschinen Crawler aufgrund Ihrer IP-Adresse, auf die für sie bestimmte Version der Seite umgeleitet werden.
  • Beim User Agent Cloaking, werden dem Besucher der Webseite, abhängig von seinem User Agent (meist Internetbrowser), unterschiedliche Versionen der Seite präsentiert. Aufgrund dessen, dass Crawler der Suchmaschinen wie Google sich meistens zu erkennen geben, können diese mit einem entsprechenden Programmcode auf eine andere Seite umgeleitet werden.

Wie kann die Maskerade enttarnt werden?

Es gibt auch Möglichkeiten, Cloaking zu entlarven. Dazu verwenden Suchmaschinen-Crawler übliche Browser-Kennungen, damit sie als normaler User identifiziert werden und die ihnen die optimierte Seite angezeigt wird. Außerdem versuchen Suchmaschinenbetreiber einige Ihrer Crawler geheim zu halten, damit diese ungehindert nach “gecloakten” Seiten suchen können. Zumindest User Agent Cloaking kann so leicht erkannt werden.

IP Cloaking ist bis dato zwar besonders schwierig zu enttarnen, allerdings entwickeln sich die Tools der Suchmaschinen, wie oben bereits erwähnt, ständig weiter, verwenden neutrale IP‘s und können so zunehmend auch das IP-Cloaking verhindern.

Jetzt den SEO-Küche-Newsletter abonnieren

Keine Kommentare vorhanden


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Ähnliche Artikel

GEO (Generative Engine Optimization)

GEO steht für Generative Engine Optimization und beschreibt die Optimierung von Inhalten für generative Such- und Antwortsysteme, die Informationen nicht mehr nur verlinken, sondern eigenständig zusammenfassen und ausgeben. Dazu zählen unter anderem KI-Suchmaschinen, Chatbots und Antwortsysteme wie Google AI Overviews oder Perplexity. Im Fokus von GEO steht nicht das klassische […]

GAIO (Generative AI Optimization)

GAIO steht für Generative AI Optimization und beschreibt die Optimierung von Inhalten, Marken und Informationen für generative KI-Systeme. Ziel von GAIO ist es, in KI-gestützten Such- und Antwortsystemen wie ChatGPT, Google AI Overviews oder Perplexity korrekt verstanden, bevorzugt berücksichtigt und zitiert zu werden. GAIO geht damit über klassische Suchmaschinenoptimierung (SEO) […]

Google AI Overview

Google AI Overviews sind KI-generierte Antwortboxen in der Google-Suche, die Nutzenden zusammengefasste Antworten direkt oberhalb oder innerhalb der Suchergebnisse anzeigen. Sie basieren auf generativer KI und sollen komplexe Suchanfragen schneller und verständlicher beantworten, ohne dass zwingend einzelne Websites angeklickt werden müssen. Die Funktion ist Teil von Googles Weiterentwicklung der Suche […]

llms.txt

llms.txt ist eine spezielle Textdatei für Websites, die im Stammverzeichnis einer Domain liegt und großen Sprachmodellen (Large Language Models, LLMs) wie ChatGPT eine strukturierte Übersicht über die wichtigsten Inhalte, Themen und Zusammenhänge einer Website bereitstellt. Ziel ist es, das Verständnis, die Einordnung und das korrekte Zitieren von Inhalten durch KI-Systeme […]

Grounding Page

Definition: Was ist eine Grounding Page? Eine Grounding Page ist eine speziell erstellte Webseite, die eine Entität (z. B. Unternehmen, Marke, Person oder Produkt) faktenbasiert, eindeutig und strukturiert beschreibt, um Suchmaschinen und KI-Systemen eine verlässliche Referenzquelle bereitzustellen. Im Gegensatz zu klassischen Marketing- oder Leistungsseiten verfolgt eine Grounding Page keine werbliche […]

DIN SPEC 33461

Die DIN SPEC 33461 wurde von einem Konsortium aus SEO-Experten in Zusammenarbeit mit dem Deutschen Institut für Normung (DIN) entwickelt und im Juni 2025 veröffentlicht. Sie ist eine praxisorientierte Spezifikation, die als Leitfaden und Best Practice für die Suchmaschinenoptimierung (SEO) dient. Als erster offizieller Standard für professionelle Suchmaschinenoptimierung bietet sie […]