Mitte September 2025 hat Google überraschend den URL-Parameter &num=100 deaktiviert. Über diesen Parameter ließen sich bislang 100 organische Suchergebnisse auf einer Google-Ergebnisseite anzeigen (anstatt der standardmäßigen 10) – ein Trick, den viele SEO-Tools genutzt haben. Die Änderung erfolgte ohne Vorankündigung und sorgte in der SEO-Branche sofort für Aufsehen: Rank-Tracking-Tools meldeten Ausfälle, und in der Google Search Console vieler Websites brachen plötzlich die Impressionen ein. In diesem Beitrag erklären wir, was hinter der Deaktivierung des &num=100-Parameters steckt, welche Auswirkungen dies auf SEO-Kennzahlen und Tools hat und was Sie als Website-Betreiber nun beachten sollten.
Was ist der &num=100-Parameter? – 100 Suchergebnisse auf einen Schlag
Standardmäßig zeigt Google pro Suchergebnisseite 10 Ergebnisse an. Der Parameter &num=100 war ein URL-Zusatz, mit dem man Google anweisen konnte, bis zu 100 Ergebnisse auf einer Seite auszugeben. Dies wurde v.a. von SEO-Tools genutzt, um große Mengen an Suchergebnissen in einem einzigen Abruf zu erhalten. Beispielsweise konnten Rank-Tracker so mit nur einer einzigen Anfrage alle Top-100-Ergebnisse für ein Keyword erfassen, anstatt seitenweise (Seite 1, Seite 2, …) nur 10 Ergebnisse auf einmal zu laden. Für das Scraping von Rankings war dies praktisch und ressourcenschonend – doch genau hier setzte Google nun den Hebel an.
Google bestätigt: Kein offizieller Support mehr
Am 18. September 2025 hat Google die Abschaltung des &num=100-Parameters offiziell bestätigt. Der Parameter habe zwar inoffiziell über viele Jahre funktioniert, aber er war nie Teil eines offiziellen Supports. Google nennt ihn ein Feature, das man nicht garantieren könne. Ein konkreter Grund für die Änderung wurde nicht genannt, doch gibt es einige plausible Theorien.
Zum einen dürfte Google die massive Belastung durch Scraping reduzieren wollen. Viele SEO-Tools und auch KI-Systeme riefen automatisiert die Top-100-Ergebnisse ab – das bedeutete erheblichen Traffic durch Bots. Einige Experten vermuten, dass Google gezielt gegen diese automatisierten Abfragen vorgeht, da Scraper zunehmend aggressiv wurden (etwa um Daten für KI zu sammeln).
Zwar schweigt das Unternehmen über Beweggründe, doch vermutlich ist der gewählte Zeitpunkt im Hinblick auf das Kartellverfahren gegen Google kein Zufall. So schreibt z.B. Johannes Beus von SISTRIX in seinem Beitrag zum Wegfall des Parameters:
„Im US-Wettbewerbsverfahren gegen Google wurde erst vor Kurzem festgestellt, dass das Unternehmen im Bereich der KI-Suche Nachholbedarf hat. Dass die Erfassung von Suchergebnissen kurz nach diesem Urteil erschwert wird, und vor dem Hintergrund, dass mit ChatGPT auch der größte Wettbewerber von Google diese Daten für eigene Zwecke erhebt, dürfte kein Zufall sein.“
Auswirkungen auf SEO-Tools und Rank-Tracker
Die Deaktivierung von &num=100 hatte direkte Folgen für SEO-Tools wie SISTRIX, Pagerangers, Semrush oder Ahrefs. Toolanbieter müssen ihre Datenerhebung jetzt grundlegend umstellen.
Wichtigste Auswirkungen:
- Zehnfacher Aufwand bei Datensammlung: Ohne den 100er-Parameter müssen Tools nun bis zu 10 separate Anfragen stellen, um die Top 100 Ergebnisse zu erfassen. Dadurch verzehnfachen sich potenziell Serveranfragen, Bandbreiten- und API-Kosten. Viele Anbieter sprechen von massiv steigenden Betriebskosten.
- Temporäre Datenlücken: Kurz nach der Änderung fehlten in vielen Tools Positionen >10 – die Folge waren Lücken in den Ranking-Daten und teilweise Fehlermeldungen in den Tools. Semrush und andere haben das Problem offen eingeräumt und Zwischenlösungen implementiert.
- Verzögertes Reporting: Mehr Anfragen bedeuten, dass das Einsammeln und Aufbereiten der Daten länger dauern. Einige Tools aktualisieren Rankings jetzt langsamer oder in geringerer Frequenz als zuvor.
- Ranking-Tiefe eingeschränkt: Manche Anbieter überlegen, aus Kostengründen die abgerufene Tiefe zu reduzieren und statt Top-100 standardmäßig etwa nur Top-50 oder Top-20 zu reporten. So könnte der Datenumfang begrenzt werden, um Ressourcen zu sparen.
Beispielsweise konnte SISTRIX kurz nach dem Wegfall von &num=100 vorübergehend nur die ersten 10 Ergebnisse je Keyword auswerten – Positionen 11 bis 100 fehlten zunächst vollständig, was bei vielen Domains einen scheinbaren Verlust an Ranking-Keywords zur Folge hatte. In den Übersichten wurden zahlreiche Rankings >10 fälschlich als „verloren“ markiert, schlicht weil die Daten jenseits der Top 10 nicht mehr abrufbar waren.
SISTRIX kündigte an, seine Crawler-Strategie anzupassen, um für wichtige Keywords weiterhin bis zu 100 Positionen zu erfassen. Konkret will man für alle Keywords, die in den Sichtbarkeitsindex einfließen, und für Projekt-Keywords wieder die Top 100 ermitteln – notfalls durch mehrere Anfragen. Bei weniger wichtigen Begriffen will SISTRIX abhängig vom Suchvolumen entscheiden, wie tief gecrawlt wird, um einen sinnvollen Kompromiss zwischen Datenqualität und Kosten zu finden.
Quelle: https://status.sistrix.com/
Ähnlich gehen auch andere Tool-Anbieter vor. Allerdings ist generell absehbar, dass die Mehrkosten an die Nutzer weitergegeben werden. Rank-Tracking wird teurer, was sich langfristig in höheren Tool-Preisen oder Beschränkungen niederschlagen könnte.
PageRangers reagierte beispielsweise mit einer konfigurierbaren Rankingtiefe. Nutzer können auswählen, ob Rankings nur bis Top-10, Top-20, Top-50 oder bis Top-100 erfasst werden sollen. Je tiefer die Abfrage, desto mehr Credits werden benötigt. Auf diese Weise lässt sich pro Keyword steuern, ob Datenumfang oder Ressourcenschonung im Vordergrund stehen soll.
Quelle: https://pagerangers.com/google-schaltet-num-100-parameter-ab-2/
Veränderte Zahlen in Google Search Console (GSC)
Viele Website-Betreiber wunderten sich nach der Umstellung über deutlich gesunkene Impressionen in der Google Search Console – teilweise mit Einbrüchen um 30-50% oder mehr von einem Tag auf den anderen. Bisherige Auswertungen der SEO-Community legen nahe, dass es sich bei dem Einbruch um die schlagartige Bereinigung um „Impressionen“ durch die Scraping-Anfragen der Rank-Tracker handelte. Dies deutet nicht nur darauf hin, dass Bot-Basierte Anfragen einen deutlich größeren Einfluss hatten als angenommen, sondern stellt auch die Frage in den Raum, ob das zuletzt beobachtete Auseinanderdriften von Klicks und Impressionen („The Great Decoupling“), auf eine Zunahme von Bot-Impressionen zurückzuführen sein könnte. Diese Thesen zeigte SEO-Analyst Brodie Clark in einem spannenden Beitrag auf seinem Blog.
Die wichtigsten Veränderungen:
- Rückgang an Impressionen: Mit dem Wegfall der Bot-Impressionen ab Position 11-100 verzeichnen viele Websites einen Impressions-Rückgang. Dieser Rückgang betrifft vor allem Desktop-Suchen, da dort die meisten Bot-Abfragen stattfanden.
- Verbesserung der durchschnittlichen Position: Da nun viele vorher gezählte niedrigere Platzierungen nicht mehr in die Berechnung einfließen sehen viele Websites einen Sprung nach oben bei der Durchschnittsposition – was allerdings mehr statistisch als real begründet ist.
- Unveränderte Klicks: die Zahl der Klicks sollte in der Regel gleichgeblieben sein. Grund dafür ist, dass Nutzer weiterhin v.a. auf Top-10-Rankings klicken.
- Anstieg der Click-Through-Rate (CTR): Weniger (Bot-)Impressionen bei stabilen Klicks bedeuten mathematisch, dass der prozentuale Klickanteil steigt. Auch das ist eher ein Statistik-Effekt und kein plötzlicher Sprung in der Attraktivität der Snippets.
Bisher auftauchende Long-Tail-Keywords mit schlechterer Platzierung, z.B. auf Seite 5, könnten nun aufgrund ausbleibender (Bot-)Impressionen nicht mehr in der GSC erscheinen. Die Zahl der „rankenden Keywords“ sinkt entsprechend, was auf den ersten Blick nach einem Verlust aussieht. Für das tatsächliche Besucheraufkommen sind diese Keywords jedoch meist ohnehin irrelevant, da sie kaum geklickt werden. Umgekehrt sollte man sich auch nicht wundern, wenn plötzlich die durchschnittliche Position verbessert ist – das bedeutet nicht automatisch, dass Keywords nun wirklich besser platziert sind, sondern kann daran liegen, dass Keywords mit schwächeren Platzierungen nicht mehr mitgezählt werden.
Was bedeutet das für Website-Betreiber?
Zunächst einmal: Keine Panik! Wenn Sie Kunde bei uns sind, beobachten wir Ihre Rankings und Traffic-Entwicklung genau. Ein bloßer Rückgang der GSC-Impressionen ist noch kein Grund, die bestehende SEO-Strategie über den Haufen zu werfen. Prüfen Sie in Ruhe die wichtigen KPIs: Besucherzahlen, Klicks, Conversions – sind diese stabil, dann ist die Sichtbarkeit faktisch unverändert. Die Veränderungen spielen sich vor allem in der Datenerfassung ab, nicht im realen Google-Traffic.
Ein paar praxisnahe Hinweise, um die Situation einschätzen zu können:
- Klickzahlen vergleichen: Bleiben die Klicks konstant, war der Impressions-Einbruch nur kosmetisch. Solange echte Besucher nicht ausbleiben, hat Google die Website nicht „abgestraft“.
- Durchschnittspositionen prüfen: Sind wichtige Keywords unverändert in den Top 10? Dann ist kein echter Ranking-Verlust passiert.
- Andere Daten heranziehen: Schauen Sie auch in Google Analytics (GA4) oder andere Analytics-Tools. Bestätigen diese, dass der organische Traffic stabil ist, wissen Sie, dass alles in Ordnung ist.
- Nicht durch neue Zahlen verunsichern lassen: Weniger „sichtbare“ Keywords in Sistrix oder weniger Impressionen in GSC bedeuten nicht automatisch schlechteres SEO. Konzentrieren Sie sich auf die Keywords, die wirklich Besucher bringen.
- Tracking-Lücken beachten: In manchen Tools können Rankings jenseits der ersten Seite vorübergehend nicht oder nur eingeschränkt sichtbar sein. Diese Lücken sind technischer Natur und haben keine Auswirkungen auf den realen Traffic. Rückwirkend können zudem Daten fehlen, was den Vergleich historischer Werte erschwert.
Neue Datenerfassung, gleichbleibende Performance
Googles Abschaltung des &num=100-Parameters führt dazu, dass SEO-Tools Ihre Datenerfassung verändern müssen. Viele Alarmzeichen in den Tools entpuppten sich nur als harmlos: Websites haben durch diese Änderung keine Sichtbarkeit verloren, auch wenn die Zahlen auf den ersten Blick Rückgänge zeigen. Traffic und Rankingplatzierungen bleiben unverändert, sofern die Website weiterhin den SEO-Kriterien entspricht.
Bildquellen:
Titelbild © Andrei / stock.adobe.com
Keine Kommentare vorhanden