Das Ende von num=100 - kleine Änderung, große Folgen
David Hussain 5 Minuten Lesezeit

Das Ende von num=100 - kleine Änderung, große Folgen

Als Google still und leise den Parameter „num=100" aus seiner Suchmaschinenlogik entfernte, bemerkte es zunächst kaum jemand außerhalb der SEO-Bubble. Dabei war diese unscheinbare Variable über Jahre hinweg ein zentrales Werkzeug für all jene, die tiefere Einblicke in die Google-Suchergebnisse gewinnen wollten. Mit „num=100" ließ sich Google anweisen, bis zu hundert Resultate pro Anfrage auszuliefern – eine bequeme Hintertür, die es Entwicklern von SEO-Tools, Datendienstleistern und auch KI-Systemen erlaubte, große Mengen an Suchdaten in einem einzigen Abruf zu erfassen. Nun ist diese Tür geschlossen, und die Folgen reichen weit über ein paar zusätzliche Zeilen Code hinaus.
google-search seo-tools data-collection keyword-ranking search-engine-optimization num-parameter web-scraping

Als Google still und leise den Parameter „num=100" aus seiner Suchmaschinenlogik entfernte, bemerkte es zunächst kaum jemand außerhalb der SEO-Bubble. Dabei war diese unscheinbare Variable über Jahre hinweg ein zentrales Werkzeug für all jene, die tiefere Einblicke in die Google-Suchergebnisse gewinnen wollten. Mit „num=100" ließ sich Google anweisen, bis zu hundert Resultate pro Anfrage auszuliefern – eine bequeme Hintertür, die es Entwicklern von SEO-Tools, Datendienstleistern und auch KI-Systemen erlaubte, große Mengen an Suchdaten in einem einzigen Abruf zu erfassen. Nun ist diese Tür geschlossen, und die Folgen reichen weit über ein paar zusätzliche Zeilen Code hinaus.

Für SEO-Tools ist der Wegfall des Parameters ein harter Einschnitt. Bisher reichte eine einzige Anfrage, um die komplette Top-100-Rangliste für ein Keyword abzurufen. Nun müssen dieselben Daten über zehn oder mehr Anfragen verteilt werden. Was trivial klingt, multipliziert den technischen Aufwand, die Serverkosten und die Zeit zur Datenerhebung. Wer früher zehntausend Keywords am Tag überwachte, muss heute faktisch hunderttausend Anfragen stellen – jede einzelne mit höherem Risiko, von Google blockiert zu werden. Viele Anbieter betreiben ihre Infrastruktur auf teuren Proxy-Netzwerken, um die Last zu verteilen und Sperren zu vermeiden. Diese Kosten explodieren nun. Kleine oder mittelgroße Tools, die sich über günstige Preise und große Keyword-Datenbanken profiliert haben, stehen vor einer schmerzhaften Entscheidung: Entweder sie reduzieren ihre Abdeckung – und damit den Wert ihrer Rankings – oder sie erhöhen die Preise und riskieren, Nutzer zu verlieren.

Die Auswirkungen spüren aber nicht nur die Tool-Betreiber, sondern auch deren Kunden. Wer bislang gewöhnt war, täglich präzise Reports über die Positionen seiner Keywords bis Platz 100 zu bekommen, wird künftig seltener oder nur noch eingeschränkt beliefert. Viele Anbieter werden sich auf die Top-20 oder Top-30 beschränken, weil tiefere Positionen ohnehin kaum Klicks generieren und der Aufwand in keinem Verhältnis zum Nutzen steht. Das verändert die Wahrnehmung von SEO-Leistung fundamental: Sichtbarkeit wird enger definiert, Ranking-Kurven werden steiler, und die Zahl der messbaren Impressionen sinkt. In den Dashboards vieler Unternehmen sieht das aus wie ein Verlust – weniger Daten, weniger Impressionen, scheinbar weniger Erfolg. Tatsächlich hat sich oft nur die Messmethode verändert. Doch die psychologische Wirkung bleibt: Wer in seinen Reports plötzlich nur noch die halbe Sichtbarkeit sieht, glaubt schnell, etwas stimme nicht. Das zwingt Agenturen und Inhouse-Teams, ihre Kommunikationsstrategie anzupassen und den Kunden zu erklären, dass es sich nicht um einen Absturz handelt, sondern um eine Veränderung der Datengrundlage.

Auch für Anbieter von Künstlicher Intelligenz hat die Abschaltung weitreichende Folgen. Systeme wie OpenAI, Mistral oder auch spezialisierte Such- und Research-KIs nutzen die Ergebnisse von Google oft als Datengrundlage oder als Signalquelle, um die Relevanz von Inhalten zu bewerten. Je breiter die zugänglichen Ergebnisse, desto diverser und valider die Trainings- oder Prompt-Antworten. Mit dem Wegfall des Parameters verengt sich dieser Datenkanal: KIs, die Google-SERPs scrapen oder als Inputquelle verarbeiten, können nicht mehr effizient große Mengen an Ergebnissen abrufen. Das führt zu längeren Latenzzeiten, höheren Infrastrukturkosten und in manchen Fällen zu einer Verzerrung der Informationsbasis. Denn wenn nur noch die ersten zehn Ergebnisse zuverlässig erfasst werden, verschwindet ein Großteil der Long-Tail-Informationen, die oft die interessantesten oder spezialisierteren Perspektiven enthalten. Für Modelle, die darauf trainiert sind, möglichst umfassende oder differenzierte Antworten zu liefern, bedeutet das eine potenzielle Qualitätsverschlechterung. Sie sehen nur noch das, was ohnehin schon sichtbar ist – nicht das, was im digitalen Schatten existiert.

Hinzu kommt, dass Google durch diese Änderung faktisch seine Datensouveränität stärkt. Indem es das massenhafte Abrufen langer Ergebnislisten unterbindet, zwingt es Drittanbieter, auf offizielle APIs oder lizenzierte Schnittstellen umzusteigen. Für OpenAI, Perplexity oder ähnliche Player, die auf eine Mischung aus Crawling, API-Daten und Partnerschaften setzen, erhöht sich damit der Druck, legale und vertraglich abgesicherte Datenquellen zu nutzen. Das kann langfristig zu einer weiteren Konsolidierung im Markt führen: Wer sich die Kosten und Zugänge leisten kann, bleibt wettbewerbsfähig – wer nicht, verschwindet. Ähnlich wie im Cloud-Markt verschiebt sich auch hier das Machtgefüge in Richtung weniger, aber ressourcenstarker Anbieter.

Für Nutzerinnen und Nutzer, also für alle, die SEO- oder KI-Tools in ihrer täglichen Arbeit verwenden, wird diese Veränderung zunächst kaum sichtbar, aber deutlich spürbar sein. Rankings werden sprunghafter, Reports inkonsistenter, Datenhistorien brechen plötzlich ab. Was bisher als stabile Metrik galt, wird unzuverlässig. Wer gewohnt war, seine Content-Strategie auf Positionstrends jenseits der ersten Seite zu stützen, verliert diese Orientierungspunkte. Gleichzeitig werden die Tools selbst langsamer oder teurer. Die Qualität der Analyse hängt zunehmend davon ab, wie effizient ein Anbieter mit der neuen Realität umgeht – und ob er bereit ist, in eigene Datensätze oder alternative Messmethoden zu investieren.

Unter der Oberfläche deutet diese Änderung auf ein größeres Paradigma hin: Google schließt systematisch die Schlupflöcher, durch die Daten frei fließen konnten. Das betrifft nicht nur SEO-Crawler, sondern auch Künstliche Intelligenz im weiteren Sinn. In einer Zeit, in der Suchmaschinen, KI-Modelle und Wissensdienste immer stärker ineinandergreifen, ist der Zugang zu strukturierten Suchergebnisdaten ein Machtfaktor. Wer kontrolliert, wie viele Ergebnisse sichtbar sind, kontrolliert indirekt, welche Datenmodelle trainiert werden können – und welche Narrative sich daraus formen. Der Wegfall von „num=100" ist deshalb mehr als eine technische Fußnote. Er ist ein weiteres Signal dafür, dass der offene Zugriff auf Webdaten enger, teurer und stärker reguliert wird – und dass jene, die sich darauf verlassen haben, ihre Informationswelt aus Googles Daten zu speisen, künftig umdenken müssen.