Skip to main content

Google deaktiviert &num=100-Parameter: Folgen für SEO-Tools, Ranking-Daten und Website-Betreiber

  • marie berauer seo


PDF herunterladen

Mitte September 2025 hat Google überraschend den URL-Parameter &num=100 deaktiviert. Über diesen Parameter ließen sich bislang 100 organische Suchergebnisse auf einer Google-Ergebnisseite anzeigen (anstatt der standardmäßigen 10) – ein Trick, den viele SEO-Tools genutzt haben. Die Änderung erfolgte ohne Vorankündigung und sorgte in der SEO-Branche sofort für Aufsehen: Rank-Tracking-Tools meldeten Ausfälle, und in der Google Search Console vieler Websites brachen plötzlich die Impressionen ein. In diesem Beitrag erklären wir, was hinter der Deaktivierung des &num=100-Parameters steckt, welche Auswirkungen dies auf SEO-Kennzahlen und Tools hat und was Sie als Website-Betreiber nun beachten sollten.

google updates tipps 20 geschichte klein

Was ist der &num=100-Parameter? – 100 Suchergebnisse auf einen Schlag

Standardmäßig zeigt Google pro Suchergebnisseite 10 Ergebnisse an. Der Parameter &num=100 war ein URL-Zusatz, mit dem man Google anweisen konnte, bis zu 100 Ergebnisse auf einer Seite auszugeben. Dies wurde v.a. von SEO-Tools genutzt, um große Mengen an Suchergebnissen in einem einzigen Abruf zu erhalten. Beispielsweise konnten Rank-Tracker so mit nur einer einzigen Anfrage alle Top-100-Ergebnisse für ein Keyword erfassen, anstatt seitenweise (Seite 1, Seite 2, …) nur 10 Ergebnisse auf einmal zu laden. Für das Scraping von Rankings war dies praktisch und ressourcenschonend – doch genau hier setzte Google nun den Hebel an.

Google bestätigt: Kein offizieller Support mehr

Am 18. September 2025 hat Google die Abschaltung des &num=100-Parameters offiziell bestätigt. Der Parameter habe zwar inoffiziell über viele Jahre funktioniert, aber er war nie Teil eines offiziellen Supports. Google nennt ihn ein Feature, das man nicht garantieren könne. Ein konkreter Grund für die Änderung wurde nicht genannt, doch gibt es einige plausible Theorien.

Zum einen dürfte Google die massive Belastung durch Scraping reduzieren wollen. Viele SEO-Tools und auch KI-Systeme riefen automatisiert die Top-100-Ergebnisse ab – das bedeutete erheblichen Traffic durch Bots. Einige Experten vermuten, dass Google gezielt gegen diese automatisierten Abfragen vorgeht, da Scraper zunehmend aggressiv wurden (etwa um Daten für KI zu sammeln).

Zwar schweigt das Unternehmen über Beweggründe, doch vermutlich ist der gewählte Zeitpunkt im Hinblick auf das Kartellverfahren gegen Google kein Zufall. So schreibt z.B. Johannes Beus von SISTRIX in seinem Beitrag zum Wegfall des Parameters:

„Im US-Wettbewerbsverfahren gegen Google wurde erst vor Kurzem festgestellt, dass das Unternehmen im Bereich der KI-Suche Nachholbedarf hat. Dass die Erfassung von Suchergebnissen kurz nach diesem Urteil erschwert wird, und vor dem Hintergrund, dass mit ChatGPT auch der größte Wettbewerber von Google diese Daten für eigene Zwecke erhebt, dürfte kein Zufall sein.“

Quelle: https://www.sistrix.de/news/mehr-aufwand-neue-chancen-wie-sich-serp-messungen-nach-googles-umstellung-veraendern/

Auswirkungen auf SEO-Tools und Rank-Tracker

Die Deaktivierung von &num=100 hatte direkte Folgen für SEO-Tools wie SISTRIX, Pagerangers, Semrush oder Ahrefs. Toolanbieter müssen ihre Datenerhebung jetzt grundlegend umstellen.

Wichtigste Auswirkungen:

  • Zehnfacher Aufwand bei Datensammlung: Ohne den 100er-Parameter müssen Tools nun bis zu 10 separate Anfragen stellen, um die Top 100 Ergebnisse zu erfassen. Dadurch verzehnfachen sich potenziell Serveranfragen, Bandbreiten- und API-Kosten. Viele Anbieter sprechen von massiv steigenden Betriebskosten.
  • Temporäre Datenlücken: Kurz nach der Änderung fehlten in vielen Tools Positionen >10 – die Folge waren Lücken in den Ranking-Daten und teilweise Fehlermeldungen in den Tools. Semrush und andere haben das Problem offen eingeräumt und Zwischenlösungen implementiert.
  • Verzögertes Reporting: Mehr Anfragen bedeuten, dass das Einsammeln und Aufbereiten der Daten länger dauern. Einige Tools aktualisieren Rankings jetzt langsamer oder in geringerer Frequenz als zuvor.
  • Ranking-Tiefe eingeschränkt: Manche Anbieter überlegen, aus Kostengründen die abgerufene Tiefe zu reduzieren und statt Top-100 standardmäßig etwa nur Top-50 oder Top-20 zu reporten. So könnte der Datenumfang begrenzt werden, um Ressourcen zu sparen.

Beispielsweise konnte SISTRIX kurz nach dem Wegfall von &num=100 vorübergehend nur die ersten 10 Ergebnisse je Keyword auswerten – Positionen 11 bis 100 fehlten zunächst vollständig, was bei vielen Domains einen scheinbaren Verlust an Ranking-Keywords zur Folge hatte. In den Übersichten wurden zahlreiche Rankings >10 fälschlich als „verloren“ markiert, schlicht weil die Daten jenseits der Top 10 nicht mehr abrufbar waren.

SISTRIX kündigte an, seine Crawler-Strategie anzupassen, um für wichtige Keywords weiterhin bis zu 100 Positionen zu erfassen. Konkret will man für alle Keywords, die in den Sichtbarkeitsindex einfließen, und für Projekt-Keywords wieder die Top 100 ermitteln – notfalls durch mehrere Anfragen. Bei weniger wichtigen Begriffen will SISTRIX abhängig vom Suchvolumen entscheiden, wie tief gecrawlt wird, um einen sinnvollen Kompromiss zwischen Datenqualität und Kosten zu finden.
Quelle: https://status.sistrix.com/

Ähnlich gehen auch andere Tool-Anbieter vor. Allerdings ist generell absehbar, dass die Mehrkosten an die Nutzer weitergegeben werden. Rank-Tracking wird teurer, was sich langfristig in höheren Tool-Preisen oder Beschränkungen niederschlagen könnte.

PageRangers reagierte beispielsweise mit einer konfigurierbaren Rankingtiefe. Nutzer können auswählen, ob Rankings nur bis Top-10, Top-20, Top-50 oder bis Top-100 erfasst werden sollen. Je tiefer die Abfrage, desto mehr Credits werden benötigt. Auf diese Weise lässt sich pro Keyword steuern, ob Datenumfang oder Ressourcenschonung im Vordergrund stehen soll.

Quelle: https://pagerangers.com/google-schaltet-num-100-parameter-ab-2/

Veränderte Zahlen in Google Search Console (GSC)

Viele Website-Betreiber wunderten sich nach der Umstellung über deutlich gesunkene Impressionen in der Google Search Console – teilweise mit Einbrüchen um 30-50% oder mehr von einem Tag auf den anderen. Bisherige Auswertungen der SEO-Community legen nahe, dass es sich bei dem Einbruch um die schlagartige Bereinigung um „Impressionen“ durch die Scraping-Anfragen der Rank-Tracker handelte. Dies deutet nicht nur darauf hin, dass Bot-Basierte Anfragen einen deutlich größeren Einfluss hatten als angenommen, sondern stellt auch die Frage in den Raum, ob das zuletzt beobachtete Auseinanderdriften von Klicks und Impressionen („The Great Decoupling“), auf eine Zunahme von Bot-Impressionen zurückzuführen sein könnte. Diese Thesen zeigte SEO-Analyst Brodie Clark in einem spannenden Beitrag auf seinem Blog.

GSC Entwicklung Abschaltung &num=100

Die wichtigsten Veränderungen:

  • Rückgang an Impressionen: Mit dem Wegfall der Bot-Impressionen ab Position 11-100 verzeichnen viele Websites einen Impressions-Rückgang. Dieser Rückgang betrifft vor allem Desktop-Suchen, da dort die meisten Bot-Abfragen stattfanden.
  • Verbesserung der durchschnittlichen Position: Da nun viele vorher gezählte niedrigere Platzierungen nicht mehr in die Berechnung einfließen sehen viele Websites einen Sprung nach oben bei der Durchschnittsposition – was allerdings mehr statistisch als real begründet ist.
  • Unveränderte Klicks: die Zahl der Klicks sollte in der Regel gleichgeblieben sein. Grund dafür ist, dass Nutzer weiterhin v.a. auf Top-10-Rankings klicken.
  • Anstieg der Click-Through-Rate (CTR): Weniger (Bot-)Impressionen bei stabilen Klicks bedeuten mathematisch, dass der prozentuale Klickanteil steigt. Auch das ist eher ein Statistik-Effekt und kein plötzlicher Sprung in der Attraktivität der Snippets.

Bisher auftauchende Long-Tail-Keywords mit schlechterer Platzierung, z.B. auf Seite 5, könnten nun aufgrund ausbleibender (Bot-)Impressionen nicht mehr in der GSC erscheinen. Die Zahl der „rankenden Keywords“ sinkt entsprechend, was auf den ersten Blick nach einem Verlust aussieht. Für das tatsächliche Besucheraufkommen sind diese Keywords jedoch meist ohnehin irrelevant, da sie kaum geklickt werden. Umgekehrt sollte man sich auch nicht wundern, wenn plötzlich die durchschnittliche Position verbessert ist – das bedeutet nicht automatisch, dass Keywords nun wirklich besser platziert sind, sondern kann daran liegen, dass Keywords mit schwächeren Platzierungen nicht mehr mitgezählt werden.

Was bedeutet das für Website-Betreiber?

Zunächst einmal: Keine Panik! Wenn Sie Kunde bei uns sind, beobachten wir Ihre Rankings und Traffic-Entwicklung genau. Ein bloßer Rückgang der GSC-Impressionen ist noch kein Grund, die bestehende SEO-Strategie über den Haufen zu werfen. Prüfen Sie in Ruhe die wichtigen KPIs: Besucherzahlen, Klicks, Conversions – sind diese stabil, dann ist die Sichtbarkeit faktisch unverändert. Die Veränderungen spielen sich vor allem in der Datenerfassung ab, nicht im realen Google-Traffic.

Ein paar praxisnahe Hinweise, um die Situation einschätzen zu können:

  1. Klickzahlen vergleichen: Bleiben die Klicks konstant, war der Impressions-Einbruch nur kosmetisch. Solange echte Besucher nicht ausbleiben, hat Google die Website nicht „abgestraft“.
  2. Durchschnittspositionen prüfen: Sind wichtige Keywords unverändert in den Top 10? Dann ist kein echter Ranking-Verlust passiert.
  3. Andere Daten heranziehen: Schauen Sie auch in Google Analytics (GA4) oder andere Analytics-Tools. Bestätigen diese, dass der organische Traffic stabil ist, wissen Sie, dass alles in Ordnung ist.
  4. Nicht durch neue Zahlen verunsichern lassen: Weniger „sichtbare“ Keywords in Sistrix oder weniger Impressionen in GSC bedeuten nicht automatisch schlechteres SEO. Konzentrieren Sie sich auf die Keywords, die wirklich Besucher bringen.
  5. Tracking-Lücken beachten: In manchen Tools können Rankings jenseits der ersten Seite vorübergehend nicht oder nur eingeschränkt sichtbar sein. Diese Lücken sind technischer Natur und haben keine Auswirkungen auf den realen Traffic. Rückwirkend können zudem Daten fehlen, was den Vergleich historischer Werte erschwert.

Neue Datenerfassung, gleichbleibende Performance

Googles Abschaltung des &num=100-Parameters führt dazu, dass SEO-Tools Ihre Datenerfassung verändern müssen. Viele Alarmzeichen in den Tools entpuppten sich nur als harmlos: Websites haben durch diese Änderung keine Sichtbarkeit verloren, auch wenn die Zahlen auf den ersten Blick Rückgänge zeigen. Traffic und Rankingplatzierungen bleiben unverändert, sofern die Website weiterhin den SEO-Kriterien entspricht.

Bildquellen:

Titelbild © Andrei / stock.adobe.com

Keine Kommentare vorhanden


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Beiträge

Personen arbeiten an der Gestaltung von mobilen App-Layouts und Webseiten, mit Fokus auf die Planung und Strukturierung von digitalen Inhalten

PR-fähige Landingpages & Blogposts schreiben

  • antje stensel
  • von Antje Stensel
  • 20.04.2026

Im digitalen Marketing verschwimmen die Grenzen zwischen Content-Marketing, PR und SEO zunehmend. Während SEO die Sichtbarkeit in Suchmaschinen stärkt, sorgt gute PR dafür, dass Ihre Inhalte von Medien, Bloggern und Influencern aufgegriffen werden. Wenn Sie beide Disziplinen bewusst zusammendenken, entsteht Content, der nicht nur gefunden, sondern auch zitiert wird. Genau […]

Ein moderner Computerbildschirm umgeben von verschiedenen digitalen Kommunikationssymbolen wie Nachrichten, Likes und Kommentaren, die Interaktivität und digitale Präsenz symbolisieren.

Marken-Signale stärken: Autoren, Profile, Vertrauensseiten

  • marie berauer seo
  • von Marie
  • 13.04.2026

Im digitalen Marketing hat sich in den letzten Jahren das Paradigma der Sichtbarkeit verschoben und eines hat sich klar herauskristallisiert: Sichtbarkeit entsteht nicht allein durch technische Optimierung, sondern vor allem auch durch Vertrauen. Künstliche Intelligenz und eine Flut an generischen Inhalten sorgen dafür, dass sowohl Nutzer als auch Algorithmen heutzutage […]

Analyse von Daten und Fakten zur Berichterstattung über Medien und deren Einfluss mit Hilfe von Grafiken und Studien

Geschichten über die Medien berichten: Daten, Fakten, Mini-Studien

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 06.04.2026

Aufmerksamkeit in Medien zu erzielen, erfordert heute datengetriebene Ansätze, da Statistiken und Fakten Seriosität vermitteln und komplexe Sachverhalte vereinfachen. Ein effektiver Weg ist Data-driven Storytelling, bei dem interne oder externe Daten genutzt werden, um eine Geschichte zu erzählen, die über reine Informationen hinausgeht. Wir zeigen Strategien, mit denen Sie die […]

Mann präsentiert digitale Website-Technologie mit Verbindungen und Caching-Symbolen

Server, Caching & CDN – Basis für schnelle Seiten

  • michael magura
  • von Michael Magura
  • 23.03.2026

In der digitalen Welt ist Zeit weit mehr als nur Geld. Wenn Ihre Website nicht performt, bringt auch das beste Marketing nichts. Aber was genau passiert eigentlich im Hintergrund, während der Browser versucht, Ihre Seite aufzubauen? In diesem Beitrag werfen wir einen Blick hinter die Kulissen und zeigen Ihnen, warum […]

Widerrufs-Button im Online-Shop auf einem Computerbildschirm

Widerrufsbutton ab Juni 2026: Was Online-Händler jetzt wissen müssen

  • Stephanie
  • von Stephanie Göckeler
  • 17.03.2026

Ab dem 19. Juni 2026 reicht es nicht mehr, irgendwo im Shop eine Widerrufsbelehrung und ein Formular zu verstecken. Verbraucher sollen ihren Vertrag genauso einfach widerrufen können, wie sie ihn abgeschlossen haben. Die Lösung des Gesetzgebers: eine gut sichtbare, klar bezeichnete Widerrufsfunktion direkt auf der Online-Benutzeroberfläche.​ Diese wird meist als […]

Website-Performance-Optimierung mit Analyse, Wachstumskurve und Ladegeschwindigkeit

Schnelle Seiten konvertieren besser: 5 Tests für mehr Kontakte

  • marco ulbricht
  • von Marco Ulbricht
  • 16.03.2026

Die harte Realität im Online Marketing: Ladezeit ist kein rein technisches Thema, sondern ein knallharter betriebswirtschaftlicher Faktor. Wer warten muss, kauft nicht. Wer wartet, nimmt keinen Kontakt auf. Schnelle Seiten sind daher nicht nur ein Gefallen für Ihre Besucher, sondern eines der wichtigsten Werkzeuge für mehr Leads und messbaren Erfolg. […]