Google kappt Zugriff auf tiefe Suchergebnisse und verändert damit das Spielfeld für KI, Agenten und digitale Sichtbarkeit
Google hat den num=100-Parameter entfernt – eine Funktion, mit der sich bislang bis zu 100 Suchergebnisse pro Seite anzeigen ließen. Übrig bleiben die klassischen 10 Treffer. Das ist mehr als ein Detail, es ist ein massiver Eingriff in ein Ökosystem, dessen Relevanz sich auf die Rankings in Suchmaschinen stützt. Die Auswirkungen auf SEO, AI-gestützte Anwendungen und Datenzugänge sind fundamental.
Die erste Welle der Auswirkungen ist bereits sichtbar: Laut Search Engine Land haben bis zu 88 % der Websites einen drastischen Rückgang an Impressionen verzeichnet. Plattformen wie Reddit oder spezialisierte Nischenanbieter, die oft auf Seite 2–10 rankten, verschwinden aus dem Sichtfeld – sowohl für Menschen als auch für Maschinen. Klassische SEO-Strategien geraten damit ins Wanken. Doch es betrifft weit mehr als die SEO-Branche.
Ein Angriff auf LLMs wie ChatGPT und Perplexity
Die Entscheidung, num=100 zu streichen, ist kein Zufall. Sie zielt direkt auf die Systeme, die heute vermehrt auf Google als Datenquelle zugreifen:
- LLM-gestützte Tools wie ChatGPT mit Web Access, Perplexity oder Bing Chat
- SEO-Suiten und Analyseplattformen, die große Datenmengen crawlen
- Agenten, die Suchmaschinen als Retrieval-Komponente nutzen
Die Gründe für die Änderung sind vielschichtig – aber strategisch klar motiviert:
- Reduzierung von Serverlast & Scraping-Vermeidung Der num=100-Parameter ermöglichte es, große Datenmengen mit nur einem Request abzugreifen – ideal für Scraper, Agenten und Trainingsdaten-Sammler. Die Abschaltung macht das Crawlen teurer, langsamer und weniger effizient.
- Förderung offizieller Google APIs Durch die Einschränkung des freien Zugriffs will Google Unternehmen und Entwickler:innen in die eigenen Tools und APIs lenken – inklusive Nutzungsbedingungen, Limits und Kostenmodellen.
- Vermeintlich bessere Datenqualität Google argumentiert, dass num=100 zu verzerrten Metriken in der Search Console geführt habe – etwa durch künstlich erhöhte Impressionen. Der neue Fokus liegt auf dem Verhalten echter Nutzer:innen.
- Fokus auf die erste Seite – Engineering-Ressourcen umverteilt Über 90 % der User:innen verlassen die erste Seite nie. Für Google ergibt es also betriebswirtschaftlich mehr Sinn, den Algorithmus für die Top 10 Ergebnisse zu perfektionieren – statt Infrastruktur für Seite 2–10 aufrechtzuerhalten.
Folgen für Unternehmen und AI-Projekte
Mehr Kontrolle, weniger Offenheit: Google macht deutlich, wem das Web „gehört“ – und wer darauf wie zugreifen darf.
SEO-Tools brechen weg: Viele Rank-Tracker und Performance-Messungen basierten auf num=100. Jetzt fehlt der Zugriff – mit teils fehlerhaften Durchschnittspositionen und stark veränderten Impressionen.
LLMs sehen weniger vom Web: Sprachmodelle, die auf Google als Datenbasis zugreifen, sehen nur noch einen Bruchteil des Informationsraums. Das betrifft z. B. AI-Agenten, die lokale Anbieter recherchieren, Wettbewerber analysieren oder Deep-Dives durchführen.
Was bedeutet das für die Praxis?
Die offene Websuche schrumpft – und mit ihr die Entdeckbarkeit abseits der großen Marken. Wer auf Position 23 rankt, existiert faktisch nicht mehr. Für KI-gestützte Systeme ist das fatal: Sie verlieren den Long Tail, die Vielstimmigkeit, die Nuancen. Das hat Folgen für Training, Retrieval und Entscheidungsfindung. ChatGPT, Perplexity & Co. sehen jetzt denselben engen Korridor wie menschliche Nutzer:innen.
Datenhoheit wird zur Pflicht.
Unternehmen, die auf AI setzen – sei es in Kundenservice, Marketing oder Beratung – müssen eigene Wissensstrukturen aufbauen. LLMs dürfen nicht nur auf Google angewiesen sein. Wer heute strukturiert, indexiert und bereitstellt, schafft morgen Sichtbarkeit – nicht nur für Menschen, sondern auch für Maschinen.
Die Zukunft gehört jenen, die KI nicht einfach „nutzen“, sondern strategisch füttern.