Skip to main content

Plötzlicher Rankingabsturz: Was nun?

  • franziska griszewski


PDF herunterladen

Rankingabsturz – Was ist passiert?

Wenn die Sichtbarkeit und die Keywordrankings der eigenen Webseite quasi über Nacht und vor allem ohne ersichtlichen Grund abstürzen, ist das der Albtraum schlecht hin!

Was ist passiert?

Den Grund herauszufinden ist zwar möglich, aber nie eindeutig! Deshalb ist es besonders wichtig immer alle möglichen Gründe zu prüfen, um so eventuell auch mehr als eine Fehlerquelle aufdecken zu können.

rankingverlust rakete
Bei Rankingverlusten sollte man schnell die Ursache finden.

5 Gründe, warum Ihr an Rankings verliert

  1. Eure Webseite ist von einem Google Update getroffen
  2. Schädliche Backlinks & unnatürliche Backlinks
  3. Nutzerfreundlichkeit ist das A und O
  4. Die Qualität der Inhalte entscheidet
  5. Technische Probleme

Wenn Ihr Rankingverluste hinnehmen musstest, aber nicht wisst warum:

Wir helfen Euch gerne weiter!

1. Eure Webseite ist von einem Google Update getroffen

Der häufigste Grund für einen plötzlichen Abfall der Keywordrankings und auch der Sichtbarkeit der Webseite ist ein Google Update. Das bedeutet, Google hat seinen Algorithmus umgestellt bzw. verändert, sodass sich die Bewertungskriterien der Webseiten verändert haben.

Wie findet man nun heraus, wann und ob es ein Google Update gab?

Am schnellsten geht das mit dem Tool Sistrix. Hier sind nicht nur die aktuellen Keywordplatzierungen und deren Veränderungen einsehbar, sondern auch eine Zeitlinie mit der wöchentlichen Sichtbarkeit. In diesem Graphen sind alle Google Updates mit Markern versehen.

Eine weitere Möglichkeit ist, sich stetig zu informieren, zum Beispiel in Beiträgen von Google selbst, welche oftmals solch ein Update ankündigen.

Was gibt es für Updates und was ist bei welchem Update zu tun?

1.1 Panda Update

1.2 Penguin Update

1.3 Google Core Update

1.4 Google Medic Update

1.5 Fred Update

1.1 Panda Update

Das Panda Update von Google bewertet rein die Qualität des Contents, also des Inhaltes. Von diesem Update sind hauptsächlich Seiten mit Low-Quality-Content betroffen, News-Seiten, Preisvergleiche und Ähnliches. Hier zählt auch Duplicate Content (doppelter Inhalt) oder Inhalt von Fremdwebseiten mit hinein.

Ein sehr guter Indikator für Low-Quality-Content ist die Absprungrate einzelner Seiten, diese kann in Google Analytics überprüft werden.

Um Verluste bei einem Panda Update zu vermeiden, sollte immer darauf geachtet werden, dass hochwertiger und für den Nutzer hilfreicher Inhalt erstellt wird.

Negative Auswirkungen eines Panda Updates wieder zu beheben ist sehr schwierig und bedarf großem Aufwand. Der Inhalt der Webseite sollte komplett neugestaltet werden, wobei sich hauptsächlich auf den Nutzer fokussiert werden sollte. Wie kann der Nutzer mit diesem Inhalt zufriedengestellt werden? Ist der Inhalt zielführend?

1.2 Penguin Update

Das Penguin Update konzentriert sich dahingegen auf das Linkmarketing. Hier werden Seiten mit übermäßigem Linkaufbau und auch mit qualitativ minderwertigen Backlinks bestraft.

Um das Linkprofil ordnungsgemäß zu bereinigen, sollten schlechte, gespamte und gekaufte Backlinks entfernt oder entwertet werden. Hierbei lohnt es sich oft etwas großzügiger bei der Linkentwertung zu sein und hochwertige, starke Backlinks aufzubauen.

1.3 Google Core Update

Das Google Core Update ist der Nachfolger vom Panda Update.

Wie auch im Panda Update steht hier die Qualität des Inhalts im Vordergrund. Hinzu kommen jedoch nun auch Nutzersignale und Trust-Elemente. Das eigentliche Panda Update wurde hier demnach erweitert und ausgereift, um über die Qualität der kompletten Webseite urteilen zu können.

1.4 Google Medic Update

Das Medic Update zählt zu den Core-Algorithmus-Updates. Hier wurden demnach die wesentlichen Bestandteile des Algorithmus angepasst. Durch dieses Kernupdate waren sehr viele Webseiten betroffen, vor allem jedoch sogenannte YMYL-Seiten (Your Money or Your Life). Resultat dieses Updates ist, das der Trust einer Seite neu gewichtet wurde.

Wie der Trust einer Seite erhöht werden kann und was Trust Elemente sind, erfahrt Ihr hier.

1.5 Fred Update

Die wichtigsten Informationen zum Fred Update haben wir in einem extra Beitrag zusammengefasst.

rankingabsturz weniger traffic sichtbarkeit
Auch schlechte Backlinks können ein Grund für sinkenden Traffic sein.

Sollte Eure Webseite ein unnatürliches Backlinkprofil aufweisen, wird Euch in der Regel eine Nachricht in der Google Search Console über unnatürlich eingehende Links zugeschickt. Wird von Google vermutet, dass Links gekauft wurden, um Rankings zu verbessern, kann es auch hier sehr schnell zu Rankingverlusten kommen. Der Rankingverlust ist häufig in einzelnen betroffenen Verzeichnissen spürbar. Dass die gesamte Webseite deswegen stark abfällt, ist eher seltener.

Zur Behebung bleibt nichts Anderes übrig, als jeden einzelnen Backlink zu analysieren und zu prüfen, ob dieser nachhaltig ist. Um sich alle vorhandenen Backlinks anzeigen zu lassen und diese effizienter überprüfen zu können, empfiehlt sich hier ein Tool besonders: Das DTOX von Linkresearchtools.

Für die Bereinigung des Linkprofils reicht es nicht aus, nur ein paar Backlinks zu löschen. Hier sollte großflächig gearbeitet werden. Bei einer hohen Anzahl an Backlinks sollte jeder einzelne Backlink geprüft werden – die Arbeit zahlt sich definitiv aus!

Wenn Ihr Unterstützung benötigt und gerne wissen möchtet, wie man schädliche und unnatürliche Links erkennen und entfernen kann, stehen wir Euch gerne zur Seite!

3. Nutzerfreundlichkeit ist das A und O

Eventuell habt Ihr bereits viel Energie in die Content-Erweiterung sowie Keyword-Optimierung gesteckt. Die ersten Resultate lassen jetzt auch nicht lange auf sich warten, was letztendlich dafür gesorgt hat, dass sich Keyword-Rankings auf der ersten Seite gebildet haben und ein deutlicher Anstieg der Besucherzahlen entstanden ist. Doch wie nutzerfreundlich ist Eure Webseite jetzt noch? Im schlimmsten Fall findet sich der Nutzer nicht auf Eurer Webseite zurecht oder hat etwas Anderes erwartet. Daraus folgt nicht selten ein Seitenabsprung aufgrund einer schlechten User Experience! Und Achtung: Google merkt das und reagiert dementsprechend!

So kann es passieren, dass wegen zu schlechter Nutzersignale Eure Rankings sehr schnell wieder fallen – trotz einer guten Keyword-Optimierung!

Wege zu einer besseren User Experience

  • Prüfe mit welchen Keywords Besucher auf Eure Webseite kommen bzw. mit welchen Keywords die Webseite aktuell rankt. Sind diese eventuell zu allgemein? Treffen die Keywords eindeutig auf Euer Produkt zu? Unterschieden werden sollte auch unbedingt zwischen Keywords mit einer Kaufintention und Keywords mit einer infomationalen Intention. Ein schneller Tipp: Gebt Euer Keyword in die Google-Suche ein und schaut Euch Eure Mitbewerber auf der ersten Seite an. Durch deren Angebot oder Leistungen könnt Ihr schnell entscheiden, ob Nutzer mit diesem Begriff eher Informationen oder Produkte finden möchten und ob das Angebot Eurer Webseite treffend ist.
  • Der zweit wichtigste Punkt ist die Nutzerführung auf Eurer Webseite. Einfache Fragen, die Ihr Euch hier selbst stellen könnt, sind z.B.: Ist das Hauptmenü übersichtlich und gut strukturiert? Wird auf den ersten Blick deutlich, was auf der Webseite angeboten wird? Sind ausreichend Call-to-Action-Buttons vorhanden? Wird der Nutzer in wenigen Schritten zum Kauf oder zur Kontaktanfrage geleitet? Kann der Inhalt schnell erfasst werden und ist in kurzen Abschnitten durch eindeutige Überschriften gut strukturiert?

4. Die Qualität der Inhalte entscheidet

Vielleicht habt Ihr den Begriff Keyword-Stuffing schon einmal gehört. Das bedeutet, dass sich im Inhalt der Webseite die Keywords quasi schon aneinanderreihen und bestimmte Wörter unnatürlich oft verwendet werden. Wird versucht, das Keyword auf Biegen und Brechen an jeder nur möglichen Stelle zu verwenden, leidet nicht nur die Qualität des Inhalts, sondern häufig auch die Grammatik und die Lesbarkeit. Auch hier gilt – die Nutzerfreundlichkeit ist das Wichtigste! Die Qualität eines Inhalts erkennt Google unter anderem am Nutzerverhalten, jedoch auch an wichtigen Punkten, wie doppelte Inhalte, Keyword-Stuffing und Content, den Ihr von Fremdwebseiten gefunden und kopiert habt. Werden diese Punkte nicht beachtet, kann es zu schlechten Keyword-Platzierungen kommen.

Was zeichnet einen qualitativ hochwertigen Text aus?

Achtet darauf, dass der Inhalt Eurer Webseite für den Nutzer hilfreich ist und dafür sorgt, den Leser von Eurem Produkt zu überzeugen. Kaufberatung, Vorteile für den Kunden, USPs und Anwendungsideen sind hier gute Stichworte. Achtet besonders auf eine gute Inhaltsstruktur mit Zwischenüberschriften und kurzen Textabschnitten, denn nichts wirkt abschreckender auf den Nutzer als ein sehr langer Fließtext. Wenn Ihr Euch den Inhalt durchlest, fragt Euch am besten selbst: War der Inhalt informativ oder hilfreich? Hat er mich vom Kauf des Produktes überzeugt?

Fazit ist, ein hochwertiger und nutzerorientierter Inhalt führt Eure Webseite langfristig zum Erfolg!

rankingabsturz traffic verlust
Technische Probleme sind oft ein Grund für einen plötzlichen Rankingverlust.

5. Technische Probleme

Eine technisch saubere Webseite ist quasi der Grundstein für ein erfolgreiches Keyword-Ranking. Werden hier wichtige Punkte außer Acht gelassen, kann es beispielsweise dazu führen, dass gefühlt wahllose Seiten oder Verzeichnisse an Rankings verlieren. Wenn das der Fall ist und Punkte wie Nutzerfreundlichkeit und die Qualität des Inhaltes bereits überprüft wurden, ist es nun an der Zeit sich dringend mit den technischen Aspekten auseinander zu setzen.

Die Menge der technischen Optimierungsmöglichkeiten ist natürlich riesig. Um jedoch einen ersten Anhaltspunkt zu finden, sollten die folgenden möglichen Fehlerquellen zu Beginn geprüft werden:

  • Wie gut ist die Ladezeit meiner Webseite – sowohl in der Desktop- als auch in der mobilen Ansicht?
  • Wurden Canonical Tags korrekt gesetzt?
  • Gibt es Probleme mit dem Crawling bzw. Sind alle Inhalte indexierbar?
  • Gibt es Duplikate der Seite z.B mit Paramer URLs?
  • Sind strukturierte Daten vorhanden und fehlerfrei?

Schnelle Hilfe bei plötzlichem Rankingsabsturz benötigt?

Braucht Ihr weitere Hilfe zum Thema „plötzlicher Rankingsabsturz“? Oder ist Eure Seite davon betroffen? Wir stehen Euch zur Seite. Sprecht uns gern an. Wir sind als Experten für Suchmaschinen-Optimierung für Euch da.

Titelbild © gearstd / stock.adobe.com

Beitragsbild © leszekglasner / stock.adobe.com

Beitragsbild © wabeno / stock.adobe.com

Kommentare

Hallo,
Bei mir trifft nichts von alledem zu.
Trotzdem bin ich mit dem Ranking um 20 Plätze gefallen. Keine Nachricht in der Search console.


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Beiträge

Webdesign-Darstellung auf Desktop, Tablet und Smartphone mit Icons für Design- und Marketingservices

Webdesign-Hürden erkennen und beheben: Navigation, Ladezeit, Reaktionszeit

  • Benutzerbild von Anja Stahr
  • von Anja Stahr
  • 02.03.2026

Gutes Webdesign wird fälschlicherweise mit reiner Ästhetik gleichgesetzt, obwohl in der Praxis meist ganz andere Faktoren über den Erfolg einer Webseite entscheiden. Viele optisch ansprechende Webauftritte scheitern an Hürden, die für den Nutzer erst im Moment der Interaktion spürbar werden. Eine unlogische Navigation führt zu Orientierungsverlust, während lange Ladezeiten zum […]

Illustration eines Monitors mit Diagrammen, Nutzerprofilen und Datenübersicht zur Analyse von Marketing- und Kundendaten

Einwilligungen und saubere Listen ‒ einfach umgesetzt

  • michael magura
  • von Michael Magura
  • 23.02.2026

In unseren letzten Beiträgen haben wir analysiert, was noch ohne Cookies messbar ist. Da Datenschutzbestimmungen strikter sind und Browser Drittanbieter-Cookies heute standardmäßig blockieren, sollte man eigene Daten nutzen und Einwilligungen klug gestalten. Nur so kann man die Customer Journey noch präzise abbilden. Damit dies funktioniert muss die Datenbasis valide sein, […]

Person zeigt auf ein digitales Sicherheitssymbol, umgeben von Icons für Webanalyse und Tracking

Was ohne Cookies noch messbar ist und wie man es nutzt

  • michael magura
  • von Michael Magura
  • 16.02.2026

Die technischen Rahmenbedingungen für die Webanalyse haben sich im Laufe der letzten Jahre grundlegend geändert. Restriktive Browser-Einstellungen und strenge Datenschutzvorgaben sorgen dafür, dass klassische Analysen oft nur einen Bruchteil der tatsächlichen Customer Journey erfassen. Für KMU führt dieser Signalverlust zu einer verzerrten Datenbasis und fehlerhaften Budgetplanung, da erfolgreiche Kampagnen im […]

Person arbeitet an einem Laptop, während digitale Symbole für Datenanalyse und Marketingmetriken auf dem Bildschirm angezeigt werden

Eigene Daten nutzen: einfache Zielgruppen und Signale

  • michael magura
  • von Michael Magura
  • 09.02.2026

Wer 2026 Marketing-Entscheidungen trifft, verlässt sich meist auf lückenhafte Daten, denn Browser wie Safari oder Firefox löschen Tracking-IDs durch Mechanismen wie ITP (Intelligent Tracking Prevention). Gelangt ein Nutzer über eine Anzeige auf Ihre Webseite, wird die notwendige Verknüpfung (Click-ID) oft nach 24 Stunden gelöscht. Kurzum: Klickt Ihr Kunde heute, kauft […]

Roboter analysiert Markenimage mit Lupe, Social-Media-Symbolen und Dashboard zur digitalen Markenbewertung

Markenbild unter KI-Einfluss: So werden Sie von ChatGPT & Co. wahrgenommen

  • Stephanie
  • von Stephanie Göckeler
  • 02.02.2026

Wenn heute jemand Ihre Marke kennenlernen möchte, landet er immer seltener direkt auf Ihrer Website, sondern stellt seine Frage an ein KI-System wie ChatGPT, Copilot oder den KI-Modus von Google. Diese Systeme beantworten Fragen nicht mit einem einzelnen Link, sondern mit einem verdichteten Bild Ihrer Marke, das aus sehr vielen […]

Scrabble-Buchstaben mit dem Wort „Data“ als Symbol für Webanalyse und Datenverarbeitung

Einwilligungen klug gestalten: mehr Zustimmung, saubere Daten

  • michael magura
  • von Michael Magura
  • 02.02.2026

In der Standard-Webanalyse gehen durch Datenschutzvorgaben und restriktive Browser-Einstellungen oft 30 bis 60 Prozent der Nutzerdaten verloren. Dieser Signalverlust führt zu einer verzerrten Datenbasis, da insbesondere datenschutzbewusste Nutzergruppen in der Statistik fehlen. Werden Einwilligungsprozesse rein nach rechtlichen Mindeststandards oder durch manipulative Designs gestaltet, resultiert dies oft in lückenhaften Statistiken und […]