Skip to main content

Google deaktiviert &num=100-Parameter: Folgen für SEO-Tools, Ranking-Daten und Website-Betreiber

  • marie berauer seo


PDF herunterladen

Mitte September 2025 hat Google überraschend den URL-Parameter &num=100 deaktiviert. Über diesen Parameter ließen sich bislang 100 organische Suchergebnisse auf einer Google-Ergebnisseite anzeigen (anstatt der standardmäßigen 10) – ein Trick, den viele SEO-Tools genutzt haben. Die Änderung erfolgte ohne Vorankündigung und sorgte in der SEO-Branche sofort für Aufsehen: Rank-Tracking-Tools meldeten Ausfälle, und in der Google Search Console vieler Websites brachen plötzlich die Impressionen ein. In diesem Beitrag erklären wir, was hinter der Deaktivierung des &num=100-Parameters steckt, welche Auswirkungen dies auf SEO-Kennzahlen und Tools hat und was Sie als Website-Betreiber nun beachten sollten.

google updates tipps 20 geschichte klein

Was ist der &num=100-Parameter? – 100 Suchergebnisse auf einen Schlag

Standardmäßig zeigt Google pro Suchergebnisseite 10 Ergebnisse an. Der Parameter &num=100 war ein URL-Zusatz, mit dem man Google anweisen konnte, bis zu 100 Ergebnisse auf einer Seite auszugeben. Dies wurde v.a. von SEO-Tools genutzt, um große Mengen an Suchergebnissen in einem einzigen Abruf zu erhalten. Beispielsweise konnten Rank-Tracker so mit nur einer einzigen Anfrage alle Top-100-Ergebnisse für ein Keyword erfassen, anstatt seitenweise (Seite 1, Seite 2, …) nur 10 Ergebnisse auf einmal zu laden. Für das Scraping von Rankings war dies praktisch und ressourcenschonend – doch genau hier setzte Google nun den Hebel an.

Google bestätigt: Kein offizieller Support mehr

Am 18. September 2025 hat Google die Abschaltung des &num=100-Parameters offiziell bestätigt. Der Parameter habe zwar inoffiziell über viele Jahre funktioniert, aber er war nie Teil eines offiziellen Supports. Google nennt ihn ein Feature, das man nicht garantieren könne. Ein konkreter Grund für die Änderung wurde nicht genannt, doch gibt es einige plausible Theorien.

Zum einen dürfte Google die massive Belastung durch Scraping reduzieren wollen. Viele SEO-Tools und auch KI-Systeme riefen automatisiert die Top-100-Ergebnisse ab – das bedeutete erheblichen Traffic durch Bots. Einige Experten vermuten, dass Google gezielt gegen diese automatisierten Abfragen vorgeht, da Scraper zunehmend aggressiv wurden (etwa um Daten für KI zu sammeln).

Zwar schweigt das Unternehmen über Beweggründe, doch vermutlich ist der gewählte Zeitpunkt im Hinblick auf das Kartellverfahren gegen Google kein Zufall. So schreibt z.B. Johannes Beus von SISTRIX in seinem Beitrag zum Wegfall des Parameters:

„Im US-Wettbewerbsverfahren gegen Google wurde erst vor Kurzem festgestellt, dass das Unternehmen im Bereich der KI-Suche Nachholbedarf hat. Dass die Erfassung von Suchergebnissen kurz nach diesem Urteil erschwert wird, und vor dem Hintergrund, dass mit ChatGPT auch der größte Wettbewerber von Google diese Daten für eigene Zwecke erhebt, dürfte kein Zufall sein.“

Quelle: https://www.sistrix.de/news/mehr-aufwand-neue-chancen-wie-sich-serp-messungen-nach-googles-umstellung-veraendern/

Auswirkungen auf SEO-Tools und Rank-Tracker

Die Deaktivierung von &num=100 hatte direkte Folgen für SEO-Tools wie SISTRIX, Pagerangers, Semrush oder Ahrefs. Toolanbieter müssen ihre Datenerhebung jetzt grundlegend umstellen.

Wichtigste Auswirkungen:

  • Zehnfacher Aufwand bei Datensammlung: Ohne den 100er-Parameter müssen Tools nun bis zu 10 separate Anfragen stellen, um die Top 100 Ergebnisse zu erfassen. Dadurch verzehnfachen sich potenziell Serveranfragen, Bandbreiten- und API-Kosten. Viele Anbieter sprechen von massiv steigenden Betriebskosten.
  • Temporäre Datenlücken: Kurz nach der Änderung fehlten in vielen Tools Positionen >10 – die Folge waren Lücken in den Ranking-Daten und teilweise Fehlermeldungen in den Tools. Semrush und andere haben das Problem offen eingeräumt und Zwischenlösungen implementiert.
  • Verzögertes Reporting: Mehr Anfragen bedeuten, dass das Einsammeln und Aufbereiten der Daten länger dauern. Einige Tools aktualisieren Rankings jetzt langsamer oder in geringerer Frequenz als zuvor.
  • Ranking-Tiefe eingeschränkt: Manche Anbieter überlegen, aus Kostengründen die abgerufene Tiefe zu reduzieren und statt Top-100 standardmäßig etwa nur Top-50 oder Top-20 zu reporten. So könnte der Datenumfang begrenzt werden, um Ressourcen zu sparen.

Beispielsweise konnte SISTRIX kurz nach dem Wegfall von &num=100 vorübergehend nur die ersten 10 Ergebnisse je Keyword auswerten – Positionen 11 bis 100 fehlten zunächst vollständig, was bei vielen Domains einen scheinbaren Verlust an Ranking-Keywords zur Folge hatte. In den Übersichten wurden zahlreiche Rankings >10 fälschlich als „verloren“ markiert, schlicht weil die Daten jenseits der Top 10 nicht mehr abrufbar waren.

SISTRIX kündigte an, seine Crawler-Strategie anzupassen, um für wichtige Keywords weiterhin bis zu 100 Positionen zu erfassen. Konkret will man für alle Keywords, die in den Sichtbarkeitsindex einfließen, und für Projekt-Keywords wieder die Top 100 ermitteln – notfalls durch mehrere Anfragen. Bei weniger wichtigen Begriffen will SISTRIX abhängig vom Suchvolumen entscheiden, wie tief gecrawlt wird, um einen sinnvollen Kompromiss zwischen Datenqualität und Kosten zu finden.
Quelle: https://status.sistrix.com/

Ähnlich gehen auch andere Tool-Anbieter vor. Allerdings ist generell absehbar, dass die Mehrkosten an die Nutzer weitergegeben werden. Rank-Tracking wird teurer, was sich langfristig in höheren Tool-Preisen oder Beschränkungen niederschlagen könnte.

PageRangers reagierte beispielsweise mit einer konfigurierbaren Rankingtiefe. Nutzer können auswählen, ob Rankings nur bis Top-10, Top-20, Top-50 oder bis Top-100 erfasst werden sollen. Je tiefer die Abfrage, desto mehr Credits werden benötigt. Auf diese Weise lässt sich pro Keyword steuern, ob Datenumfang oder Ressourcenschonung im Vordergrund stehen soll.

Quelle: https://pagerangers.com/google-schaltet-num-100-parameter-ab-2/

Veränderte Zahlen in Google Search Console (GSC)

Viele Website-Betreiber wunderten sich nach der Umstellung über deutlich gesunkene Impressionen in der Google Search Console – teilweise mit Einbrüchen um 30-50% oder mehr von einem Tag auf den anderen. Bisherige Auswertungen der SEO-Community legen nahe, dass es sich bei dem Einbruch um die schlagartige Bereinigung um „Impressionen“ durch die Scraping-Anfragen der Rank-Tracker handelte. Dies deutet nicht nur darauf hin, dass Bot-Basierte Anfragen einen deutlich größeren Einfluss hatten als angenommen, sondern stellt auch die Frage in den Raum, ob das zuletzt beobachtete Auseinanderdriften von Klicks und Impressionen („The Great Decoupling“), auf eine Zunahme von Bot-Impressionen zurückzuführen sein könnte. Diese Thesen zeigte SEO-Analyst Brodie Clark in einem spannenden Beitrag auf seinem Blog.

GSC Entwicklung Abschaltung &num=100

Die wichtigsten Veränderungen:

  • Rückgang an Impressionen: Mit dem Wegfall der Bot-Impressionen ab Position 11-100 verzeichnen viele Websites einen Impressions-Rückgang. Dieser Rückgang betrifft vor allem Desktop-Suchen, da dort die meisten Bot-Abfragen stattfanden.
  • Verbesserung der durchschnittlichen Position: Da nun viele vorher gezählte niedrigere Platzierungen nicht mehr in die Berechnung einfließen sehen viele Websites einen Sprung nach oben bei der Durchschnittsposition – was allerdings mehr statistisch als real begründet ist.
  • Unveränderte Klicks: die Zahl der Klicks sollte in der Regel gleichgeblieben sein. Grund dafür ist, dass Nutzer weiterhin v.a. auf Top-10-Rankings klicken.
  • Anstieg der Click-Through-Rate (CTR): Weniger (Bot-)Impressionen bei stabilen Klicks bedeuten mathematisch, dass der prozentuale Klickanteil steigt. Auch das ist eher ein Statistik-Effekt und kein plötzlicher Sprung in der Attraktivität der Snippets.

Bisher auftauchende Long-Tail-Keywords mit schlechterer Platzierung, z.B. auf Seite 5, könnten nun aufgrund ausbleibender (Bot-)Impressionen nicht mehr in der GSC erscheinen. Die Zahl der „rankenden Keywords“ sinkt entsprechend, was auf den ersten Blick nach einem Verlust aussieht. Für das tatsächliche Besucheraufkommen sind diese Keywords jedoch meist ohnehin irrelevant, da sie kaum geklickt werden. Umgekehrt sollte man sich auch nicht wundern, wenn plötzlich die durchschnittliche Position verbessert ist – das bedeutet nicht automatisch, dass Keywords nun wirklich besser platziert sind, sondern kann daran liegen, dass Keywords mit schwächeren Platzierungen nicht mehr mitgezählt werden.

Was bedeutet das für Website-Betreiber?

Zunächst einmal: Keine Panik! Wenn Sie Kunde bei uns sind, beobachten wir Ihre Rankings und Traffic-Entwicklung genau. Ein bloßer Rückgang der GSC-Impressionen ist noch kein Grund, die bestehende SEO-Strategie über den Haufen zu werfen. Prüfen Sie in Ruhe die wichtigen KPIs: Besucherzahlen, Klicks, Conversions – sind diese stabil, dann ist die Sichtbarkeit faktisch unverändert. Die Veränderungen spielen sich vor allem in der Datenerfassung ab, nicht im realen Google-Traffic.

Ein paar praxisnahe Hinweise, um die Situation einschätzen zu können:

  1. Klickzahlen vergleichen: Bleiben die Klicks konstant, war der Impressions-Einbruch nur kosmetisch. Solange echte Besucher nicht ausbleiben, hat Google die Website nicht „abgestraft“.
  2. Durchschnittspositionen prüfen: Sind wichtige Keywords unverändert in den Top 10? Dann ist kein echter Ranking-Verlust passiert.
  3. Andere Daten heranziehen: Schauen Sie auch in Google Analytics (GA4) oder andere Analytics-Tools. Bestätigen diese, dass der organische Traffic stabil ist, wissen Sie, dass alles in Ordnung ist.
  4. Nicht durch neue Zahlen verunsichern lassen: Weniger „sichtbare“ Keywords in Sistrix oder weniger Impressionen in GSC bedeuten nicht automatisch schlechteres SEO. Konzentrieren Sie sich auf die Keywords, die wirklich Besucher bringen.
  5. Tracking-Lücken beachten: In manchen Tools können Rankings jenseits der ersten Seite vorübergehend nicht oder nur eingeschränkt sichtbar sein. Diese Lücken sind technischer Natur und haben keine Auswirkungen auf den realen Traffic. Rückwirkend können zudem Daten fehlen, was den Vergleich historischer Werte erschwert.

Neue Datenerfassung, gleichbleibende Performance

Googles Abschaltung des &num=100-Parameters führt dazu, dass SEO-Tools Ihre Datenerfassung verändern müssen. Viele Alarmzeichen in den Tools entpuppten sich nur als harmlos: Websites haben durch diese Änderung keine Sichtbarkeit verloren, auch wenn die Zahlen auf den ersten Blick Rückgänge zeigen. Traffic und Rankingplatzierungen bleiben unverändert, sofern die Website weiterhin den SEO-Kriterien entspricht.

Bildquellen:

Titelbild © Andrei / stock.adobe.com

Keine Kommentare vorhanden


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Beiträge

marketing events

Marketing Events 2026 – Die wichtigsten Termine für Marketer, SEO-Profis & Digitalstrategen

  • Oliver Lindner / Gründer und Geschäftsführer
  • von Oliver Lindner
  • 28.11.2025

2026 wird für die Marketingwelt ein spannendes Jahr. Vieles verändert sich – besonders durch KI, neue Tools und steigende Erwartungen der Kunden. Um am Ball zu bleiben, lohnt sich der Blick auf die wichtigsten Events, denn dort bekommt man frische Ideen, lernt neue Ansätze kennen und trifft Experten aus der […]

Dashboard mit Performance-Daten und Optimierungsmetriken auf einem Laptop, das zur Analyse von Website-Performance dient.

9 Kennzahlen zur Bewertung der Website-Performance

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 24.11.2025

Viele Unternehmen fokussieren sich nur auf Besucherzahlen oder die Konversionsrate und übersehen dabei die Kennzahlen, die wirklich über den Return on Investment (ROI) entscheiden. Denn letztendlich zählt nicht nur die Menge des Traffics, sondern vor allem auch dessen Qualität, und wie effizient jeder Klick zur Konversion führt. Woher kommt der […]

Geschäftsmann betrachtet Diagramm mit steigenden Verkaufszahlen und Prozentwerten

Funktionen, die Ihre Conversion Rate steigern

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 17.11.2025

Die Generierung von Traffic gilt als wichtiger Faktor bei der Suchmaschinenoptimierung (SEO) einer Webseite. Jedoch investieren viele Betreiber große Summen in die Steigerung der Besucherzahlen, nur um festzustellen, dass der Umsatz nicht in gleichem Maße wächst. Daher sollte der Fokus ebenfalls auf der Conversion-Rate-Optimierung (CRO) liegen, um den Traffic effizient […]

Person arbeitet an einem Laptop mit Analyse-Dashboard für Webseiten-Daten

SEO für KMU: Wie die technische Struktur einer Webseite das Ranking beeinflusst

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 08.11.2025

Kleine und mittelständische Unternehmen (KMU) müssen ihr knappes Marketingbudget gezielt einsetzen. Im Wettbewerb mit großen Konzernen um Top-Rankings in Suchmaschinen liegt der Fokus meist auf strukturell-inhaltlichen Optimierungsmaßnahmen. Allerdings ist auch die technische Struktur der Webseite entscheidend und das unsichtbare Fundament für mehr Sichtbarkeit. Mängel in der Technik können elementare Prozesse […]

Person arbeitet an einem Laptop mit Code und Designelementen zur Website-Optimierung

Must-haves für eine nutzerfreundliche Website

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 03.11.2025

Beim Surfen im Internet finden User eine nutzerfreundliche Website, die durch eine gute Performance, intuitive Bedienbarkeit, klare Struktur und ein ansprechendes Webdesign überzeugt. Allerdings gibt es auch das Negativbeispiel – lange Ladezeiten, falsche Skalierung, unlogische Navigation und schrille Farben. Da unsere Zeit wertvoll und die Aufmerksamkeitsspanne kurz ist, verlassen wir […]

Geschäftsmann, der auf ein digitales B2B-Symbol in einem modernen, technologischen Netzwerk klickt

Leadinfo: Mehr B2B-Leads durch intelligente Website-Besuchererkennung

  • Oliver Lindner / Gründer und Geschäftsführer
  • von Oliver Lindner
  • 22.10.2025

Was ist Leadinfo? Leadinfo ist ein innovatives Tool zur Identifizierung von Website-Besuchern im B2B-Bereich. Es zeigt in Echtzeit, welche Unternehmen Ihre Website besuchen, und liefert dazu wertvolle Informationen wie Branche, Standort, Unternehmensgröße und Ansprechpartner. Anstatt nur anonyme Besucherzahlen zu sehen, erkennen Marketing- und Vertriebsteams genau, welche Firmen Interesse an ihren […]