Skip to main content

Backlinkanalyse – Disavow


PDF herunterladen

Was ist eine Backlinkanalyse – Disavow?

Mit einer Backlinkanalyse werden alle Links zu einer Domain auf ihre Tauglichkeit, Seriösität und Nutzen hin analysiert. Sogenannte „giftige Links“ oder „Spam-Links“ sollten nicht auftauchen – und wenn doch durch das Disavow-Tool entwertet werden.

Die Analyse der eigenen Backlinks ist ein extrem wichtiges und sensibles Vorhaben, gerade wenn man eine manuelle oder algorithmische Abstrafung bekommen hat. Von daher stellt dieser Artikel keine Beratung dar, sondern soll nur Hinweise geben, worauf geachtet werden kann, wenn man eine Backlinkanalyse selbstständig durchführt.

Schritt 1: Daten sammeln

Entweder man geht in die Google Webmaster Tools oder benutzt andere kostenfreie Tools, um sich eine möglichst komplette Übersicht über die gesamten Backlinks zu der eigenen Seite zu verschaffen.

Linkresearchtools bieten einen elegante Weg, giftige Backlinks zu identifizerien. Mit der Option Link Dtox, werden die Links automatisch kategorisiert und können direkt mit einer API in den Google Webmaster Tools entwertet werden.

Hat man möglichst alle Links zu eigenen Seite gesammelt, sucht man nach „giftigen“ Links, die der Grund für eine manuelle oder algorithmische Abstrafung sein könnten.

Auf folgende Dinge sollte man dabei achten: (Die Liste erhebt keinen Anspruch auf Vollständigkeit!)

  • – Hat die verlinkende Seite ein Impressum?
  • – Muss ein AdBlocker installiert werden, damit ich an den Content der Seite komme?
  • – Ist der Inhalt der Seite hochwertig?
  • – Würde man selber auf diese Seite verlinken wollen?
  • – Passt die Seite thematisch zu meiner Seite?
  • – Wie ist man selber verlinkt:
    • – Welcher Anker-Text wird verwendet?
    • – Steht der Link im Head, Body oder Footer Bereich?
    • – Ist der Link Sidewide?
    • – Bietet der Link einen Mehrwert für den Nutzer, ist er bspw., als Quelle oder weiterführende Information relevant?
    • – Wenn der Link in einem Text steht, mit welchen Wörtern ist man verlinkt, und ist diese verlinkung „natürlich“?
  • – Wie fühlt sich die Seite an? Wie ist das Bauchgefühl? Hat man den Eindruck, die Intention hinter dieser Seite ist ehrlich und ernsthaft? Oder fühlt sich die Seite nach „Fake“ an?
  • Wichtig: Gibt es bei der Beantwortung obiger Fragen einen signifikanten Unterschied zwischen der Seite auf der der Link steht und der gesamten Domain? Kann man bspw. der Domain vertrauen, der verlinkenden Seite aber nicht, muss das bei der Entwertung der Links berücksichtigt werden (Siehe: https://www.seo-kueche.de/faq/google-disavow-tool/)

Schritt 3. Kontrolle durch SEO

Hat man nun alle verlinkenden Seiten gesammelt, die einem „giftig“ oder „schädlich“ für das eigene Linkprofil vorkommen, lässt man diese Links von mindestens einer weiteren Person, die sich mit SEO auskennt, überprüfen.

Schritt 4. Disavow-Tool Benutzen

Ist man sich sicher, dass man alle giftigen Links identifiziert hat, lädt man diese in einer Datei mit .txt Format im Google Disavow Tool hoch. Ein Beispiel wie eine solche Liste aussehen könnte:

http://www.beispiel.de/unterseite1/unterseite2 ← Alle Backlinks auf /unterseite2 werden entwertet.
http://www.beispiel.de ← Alle Backlinks auf der Startseite werden entwertet.
domain: beispiel.com ← Die Links der gesamten Domain werden entwertet.

Wichtig! Das Disavow-Tool sollte nur mit Absprache eines erfahrenen SEOs benutzt werden! Weitere Infos zum Disavow-Tool finden Sie hier: Das Disavow-Tool von Google.

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Artikel

Ixquick

Ixquick war eine Metasuchmaschine, die freiwillig auf die Speicherung nutzerbezogener Daten verzichtete. Sie wurde 1998 in den USA entwickelt und ab dem Jahr 2000 von der Surfboard Holding B.V. betrieben. Im März 2016 wurde Ixquick mit der ebenfalls zur Surfboard Holding B.V. gehörenden Suchmaschine “Startpage” zusammengeführt. Zwei Jahre später wurde der Support für Ixquick eingestellt.[1] Geschichte Die […]

Crawl Budget

Der Begriff „Crawl Budget“ beschreibt den zeitlichen Rahmen, in welchem der Webcrawler von Google das Crawlen, Indizieren und Positionieren einer Website ansetzt. Crawl Budget – Schlüsselbegriffe Googlebot Der Googlebot (Webcrawler) ist für die Analyse aller Websites im WorldWideWeb verantwortlich. Täglich führt der Googlebot einen FreshCrawl und im Abstand von circa […]

Google MUM (Multitask Unified Model)

Das Multitask Unified Model (kurz MUM) bedeutet übersetzt: Das “vereinheitlichte Vielfachaufgaben Modell”) und ist eine Technologie innerhalb der Google Suche, die es ermöglichen soll, komplexe Themenbereiche durch die Anwendung von KI für Suchende besser zu bündeln. Mit MUM sollen künftig umfangreiche Recherchen mit weniger Suchanfragen ausgeführt werden können als bisher. […]

UTF-8

Was ist UTF-8? UTF-8 steht für Unicode Transformation Format – 8 Bits. Die „8“ bedeutet, dass zur Darstellung eines Zeichens 8-Bit-Blöcke verwendet werden. Die Anzahl der Blöcke, die zur Darstellung eines Zeichens benötigt werden, variiert zwischen 1 und 4. UTF-8 ist eine kompromisslose Zeichenkodierung, die so kompakt wie ASCII sein kann […]

Google Drive

Was ist Google Drive? „Google Drive“ ist ein von Google entwickeltes Produkt zum Speichern und Synchronisieren von Dateien. Es ermöglicht den Nutzern, Dateien in der Cloud zu speichern, Dateien zwischen Geräten zu synchronisieren und Dateien freizugeben. Wie ist Google Drive entstanden? 2006 wurden die Dienste „Google Docs“ und „Google Sheets“ […]

Google News

Was ist Google News? Google News ist eine Nachrichtensuchmaschine, die in mehr als 70 Ländern und in über 35 Sprachen verfügbar ist. Die Nachrichtensuchmaschine ist auch als App für iOS und Android verfügbar, die über die Formate RSS-Feeds oder Atom-Feeds abonniert werden können. Dadurch kann man sich Nachrichten auf das […]