
Prerendering für KI-Crawler: JavaScript-Inhalte zugänglich machen
Erfahren Sie, wie Prerendering JavaScript-Inhalte für KI-Crawler wie ChatGPT, Claude und Perplexity sichtbar macht. Entdecken Sie die besten technischen Lösunge...
Erfahre, wie du Infinite Scroll umsetzt und dabei die Crawlability für KI-Crawler, ChatGPT, Perplexity und traditionelle Suchmaschinen sicherstellst. Entdecke Paginierungsstrategien, Best Practices für URL-Strukturen und technische Umsetzungsmethoden.
Implementiere einen hybriden Ansatz, der Infinite Scroll mit traditionellen Paginierungs-URLs kombiniert. Erstelle separate, crawlbare Komponenten-Seiten mit eindeutigen URLs, auf die KI-Crawler ohne JavaScript-Ausführung zugreifen können. Nutze pushState/replaceState, um URLs beim Scrollen der Nutzer zu aktualisieren, und stelle sicher, dass alle Inhalte über statische HTML-Fallbacks zugänglich sind.
Infinite Scroll sorgt für ein nahtloses Nutzererlebnis, indem Inhalte automatisch nachgeladen werden, sobald Besucher nach unten scrollen. Dieses Vorgehen stellt jedoch ein wesentliches Problem für KI-Crawler wie ChatGPTs GPTBot, Claudes ClaudeBot und Perplexitys PerplexityBot dar. Diese KI-Systeme scrollen nicht durch Seiten und simulieren keine menschliche Interaktion – sie laden eine Seite einmal in einem festen Zustand und extrahieren alle Inhalte, die sofort verfügbar sind. Werden deine Inhalte ausschließlich durch JavaScript und Scroll-Events nachgeladen, verpassen KI-Crawler alles außerhalb des ersten sichtbaren Bereichs – deine Inhalte bleiben für KI-basierte Suchmaschinen und Antwortgeneratoren unsichtbar.
Das grundlegende Problem liegt in der anderen Funktionsweise von KI-Crawlern im Vergleich zu traditionellen Suchbots. Während Googles Googlebot JavaScript bis zu einem gewissen Maß rendern kann, fehlt den meisten KI-Crawlern eine vollständige Browser-Umgebung mit JavaScript-Engine. Sie parsen HTML und Metadaten, um Inhalte schnell zu erfassen, und bevorzugen strukturierte, leicht abrufbare Daten. Befindet sich dein Inhalt erst nach JavaScript-Ausführung im DOM, ist er für diese Crawler nicht zugänglich. So erscheint eine Website mit Hunderten Produkten, Artikeln oder Einträgen für KI-Systeme möglicherweise als hätte sie nur ein Dutzend Inhalte.
KI-Crawler arbeiten unter zwei entscheidenden Einschränkungen, die Infinite Scroll problematisch machen. Erstens laden sie Seiten in einer festen Größe – typischerweise wird nur das angezeigt, was im initialen Viewport sichtbar ist, ohne zu scrollen. Zweitens agieren sie in einem festen Zustand, d.h. sie interagieren nach dem ersten Laden nicht mehr mit der Seite. Es erfolgt kein Klick, kein Scrollen, keine JavaScript-Ereignisse werden ausgelöst. Das unterscheidet sich grundlegend vom Nutzererlebnis echter Besucher.
Wenn Infinite Scroll ausschließlich auf JavaScript basiert, sehen KI-Crawler nur die erste Ladung an Inhalten. Alles, was nach dem initialen Rendern geladen wird, bleibt verborgen. Für E-Commerce-Seiten bedeutet das: Produktlisten jenseits des ersten Screens sind unsichtbar. Für Blogs und Newsseiten erscheinen in KI-Suchergebnissen nur die ersten Artikel. Für Verzeichnisse und Galerien wird der Großteil deiner Inhalte nie von KI-Systemen indexiert.
| Aspekt | KI-Crawler | Menschliche Nutzer |
|---|---|---|
| Scrollverhalten | Kein Scrollen; fester Viewport | Scrollen für mehr Inhalte |
| JavaScript-Ausführung | Eingeschränkt oder keine Ausführung | Volle JavaScript-Unterstützung |
| Seiteninteraktion | Keine Klicks, kein Absenden von Formularen | Volle Interaktionsmöglichkeiten |
| Inhaltssichtbarkeit | Nur initiales HTML + Metadaten | Alle dynamisch geladenen Inhalte |
| Zeit pro Seite | Sekunden (feste Begrenzung) | Unbegrenzt |
Die effektivste Herangehensweise ist es, Infinite Scroll nicht aufzugeben, sondern sie als Erweiterung einer klassischen paginierenden Serie zu sehen. Dieses hybride Modell bedient sowohl menschliche Nutzer als auch KI-Crawler. Nutzer genießen das nahtlose Infinite-Scroll-Erlebnis, während KI-Crawler über eindeutige, crawlbare URLs auf alle Inhalte zugreifen können.
Googles offizielle Empfehlungen zu Infinite Scroll betonen die Erstellung von Komponenten-Seiten – also separaten URLs, die jeweils eine Seite deiner Paginierungsserie repräsentieren. Jede Komponenten-Seite sollte unabhängig zugänglich sein, einzigartige Inhalte enthalten und eine eindeutige URL besitzen, die nicht auf JavaScript angewiesen ist. Anstatt also alle Produkte auf einer Seite via Infinite Scroll zu laden, erstelle beispielsweise URLs wie /products?page=1, /products?page=2, /products?page=3 usw.
Jede Seite deiner paginierten Serie muss eine eigene vollständige URL besitzen, die direkt auf die Inhalte zugreift – ohne Benutzerhistorie, Cookies oder JavaScript-Ausführung. Das ist essenziell, damit KI-Crawler deine Inhalte entdecken und indexieren können. Die URL-Struktur sollte sauber und semantisch sein und klar die Seitennummer oder den Inhaltsbereich anzeigen.
Gute URL-Strukturen:
example.com/products?page=2example.com/blog/page/3example.com/items?lastid=567Vermeide folgende URL-Strukturen:
example.com/products#page=2 (Fragment-URLs funktionieren nicht für Crawler)example.com/products?days-ago=3 (relative Zeitparameter veralten schnell)example.com/products?radius=5&lat=40.71&long=-73.40 (nicht-semantische Parameter)Jede Komponenten-Seite sollte im Browser direkt aufrufbar sein, ohne spezielle Einstellungen. Wer /products?page=2 besucht, sollte sofort die richtigen Inhalte sehen, ohne von Seite 1 dorthin scrollen zu müssen. So können KI-Crawler direkt auf jede Seite deiner Serie springen.
Doppelte Inhalte auf mehreren Seiten verwirren KI-Crawler und verschwenden Crawl-Budget. Jeder Eintrag sollte exakt auf einer Seite deiner Paginierungsserie erscheinen. Taucht ein Produkt sowohl auf Seite 1 als auch auf Seite 2 auf, fällt es KI-Systemen schwer, die kanonische Version zu bestimmen, was deine Sichtbarkeit schmälert.
Um Überschneidungen zu vermeiden, definiere klare Grenzen für jede Seite. Bei 25 Einträgen pro Seite enthält Seite 1 die Einträge 1-25, Seite 2 die Einträge 26-50 usw. Vermeide es, das letzte Element der vorherigen Seite am Anfang der nächsten Seite anzuzeigen – das erzeugt Duplikate, die KI-Crawler erkennen.
Hilf KI-Crawlern zu verstehen, dass jede Seite eigenständig ist, indem du eindeutige Title-Tags und H1-Überschriften für jede Komponenten-Seite setzt. Statt generischer Titel wie “Produkte” solltest du beschreibende Titel wählen, die Seitennummer und Inhaltsschwerpunkt kennzeichnen.
Beispiel Title-Tags:
<title>Premium Kaffeebohnen | Unsere Auswahl</title><title>Premium Kaffeebohnen | Seite 2 | Weitere Sorten</title><title>Premium Kaffeebohnen | Seite 3 | Spezialitäten</title>Beispiel H1-Überschriften:
<h1>Premium Kaffeebohnen – Unsere komplette Auswahl</h1><h1>Premium Kaffeebohnen – Seite 2: Weitere Sorten</h1><h1>Premium Kaffeebohnen – Seite 3: Spezialitäten</h1>Solche eindeutigen Titel und Überschriften signalisieren KI-Crawlern, dass jede Seite eigenständigen, relevanten Inhalt enthält. Das erhöht die Wahrscheinlichkeit, dass auch tiefere Seiten in KI-generierten Antworten und Zusammenfassungen erscheinen.
KI-Crawler entdecken Inhalte, indem sie Links folgen. Sind deine Paginierungs-Links versteckt oder erscheinen sie nur via JavaScript, finden Crawler die Komponenten-Seiten nicht. Du musst Navigationslinks explizit zugänglich machen, sodass Crawler sie erkennen und verfolgen können.
Auf deiner Hauptseite (Seite 1) sollte ein sichtbarer oder versteckter Link zu Seite 2 vorhanden sein. Das kannst du auf verschiedene Arten umsetzen:
Option 1: Sichtbarer „Weiter“-Link
<a href="/products?page=2">Weiter</a>
Platziere diesen Link am Ende deiner Produktliste. Beim Scrollen und Nachladen kannst du ihn per CSS oder JavaScript ausblenden, aber Crawler sehen ihn weiterhin im HTML.
Option 2: Versteckter Link im Noscript-Tag
<noscript>
<a href="/products?page=2">Nächste Seite</a>
</noscript>
Der <noscript>-Tag zeigt Inhalte nur, wenn JavaScript deaktiviert ist. Crawler behandeln dies als reguläres HTML und folgen dem Link, auch wenn Nutzer mit aktiviertem JavaScript ihn nicht sehen.
Option 3: „Mehr laden“-Button mit Href
<a href="/products?page=2" id="load-more" class="button">Mehr laden</a>
Verwendest du einen “Mehr laden”-Button, gib die URL der nächsten Seite im href-Attribut an. JavaScript kann das Standardverhalten unterbinden und Infinite Scroll auslösen, aber Crawler folgen dem href zur nächsten Seite.
Jede Komponenten-Seite sollte Navigationslinks zu weiteren Seiten der Serie enthalten, zum Beispiel:
Wichtig: Verlinke immer auf die Hauptseite (Seite 1) ohne Seitenparameter. Wenn deine Hauptseite /products ist, verlinke nie auf /products?page=1. Sorge dafür, dass /products?page=1 auf /products weiterleitet, um eine einzige kanonische URL für die erste Seite zu behalten.
KI-Crawler benötigen eindeutige URLs, menschliche Nutzer erwarten ein nahtloses Infinite-Scroll-Erlebnis. Nutze pushState und replaceState aus der History API, um die Browser-URL beim Scrollen zu aktualisieren – so vereinst du beide Welten.
pushState fügt einen neuen Eintrag in der Browser-Historie hinzu, sodass Nutzer mit dem Zurück-Button zu früheren Scroll-Positionen zurückkehren können. replaceState aktualisiert den aktuellen Eintrag, ohne einen neuen zu erzeugen. Für Infinite Scroll solltest du pushState verwenden, wenn Nutzer zu neuem Inhalt scrollen, damit die Zurück-Funktion intuitiv bleibt.
// Wenn neuer Inhalt via Infinite Scroll geladen wird
window.history.pushState({page: 2}, '', '/products?page=2');
Damit wird gewährleistet:
Bevor du deine Infinite Scroll-Lösung einsetzt, prüfe gründlich, dass KI-Crawler auf alle Inhalte zugreifen können.
Der einfachste Test: Deaktiviere JavaScript im Browser und navigiere durch deine Seite. Nutze zum Beispiel die Browser-Erweiterung „Toggle JavaScript“, um Skripte auszuschalten; rufe dann deine Listen-Seiten auf. Du solltest alle Seiten über Paginierungslinks erreichen können – ohne JavaScript. Alles, was beim Deaktivieren verschwindet, ist für KI-Crawler unsichtbar.
Hat deine Seite z. B. 50 Produktseiten, sollte ein Aufruf von /products?page=999 einen 404-Fehler zurückgeben – nicht eine leere Seite oder einen Redirect auf Seite 1. Das signalisiert Crawlern, dass die Seite nicht existiert, und spart Crawl-Budget.
Beim Scrollen und Nachladen von Inhalten achte darauf, dass die URL in der Adresszeile korrekt aktualisiert wird. Der Seitenparameter muss der aktuellen Scroll-Position entsprechen. Wer bis Seite 3 scrollt, sollte /products?page=3 sehen.
Nutze das URL-Prüftool in der Google Search Console, um zu prüfen, wie deine paginierten Seiten gerendert und indexiert werden. Reiche einige Komponenten-Seiten ein und kontrolliere, ob Google den gesamten Inhalt sieht. Wenn Google darauf zugreifen kann, gelingt es meist auch KI-Crawlern.
Über die Paginierung hinaus solltest du Schema.org strukturierte Daten verwenden, damit KI-Crawler deine Inhalte besser erfassen. Füge auf jeder Komponenten-Seite Markup für Produkte, Artikel, Bewertungen oder andere relevante Typen hinzu.
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Product",
"name": "Premium Kaffeebohnen",
"description": "Hochwertige Arabica-Kaffeebohnen",
"price": "12.99",
"paginationInfo": {
"pageNumber": 2,
"itemsPerPage": 25
}
}
</script>
Strukturierte Daten liefern explizite Hinweise auf Bedeutung und Kontext deiner Inhalte und erhöhen die Chance, dass KI-Systeme diese in generierten Antworten korrekt darstellen.
Fehler 1: Nur JavaScript für Paginierung verwenden
Sind Paginierungslinks erst nach JavaScript-Ausführung sichtbar, finden Crawler sie nicht. Binde Links immer im initialen HTML ein.
Fehler 2: URL-Fragmente für Paginierung nutzen
URLs wie /products#page=2 funktionieren nicht für Crawler. Fragmente sind clientseitig und für Server unsichtbar. Nutze stattdessen Query-Parameter oder Pfadsegmente.
Fehler 3: Überschneidende Inhalte erstellen
Erscheint dasselbe Produkt auf mehreren Seiten, indexieren KI-Crawler Duplikate oder erkennen die kanonische Version nicht. Halte klare Seiten-Grenzen ein.
Fehler 4: Mobile Crawler ignorieren
Stelle sicher, dass deine Paginierung auch in mobilen Viewports funktioniert. Einige KI-Crawler verwenden mobile User-Agents – deine Paginierung muss auf allen Bildschirmgrößen funktionieren.
Fehler 5: Crawlability nicht testen
Gehe nicht davon aus, dass deine Paginierung für Crawler funktioniert. Teste, indem du JavaScript deaktivierst und prüfst, ob alle Seiten per Link erreichbar sind.
Nachdem du Paginierung für Infinite Scroll implementiert hast, überwache, wie deine Inhalte in KI-Suchergebnissen erscheinen. Verfolge, welche Seiten von KI-Crawlern indexiert wurden und ob deine Inhalte in ChatGPT, Perplexity und anderen KI-Antwortgeneratoren auftauchen. Nutze Tools, um die Crawlability deiner Seite zu prüfen und sicherzustellen, dass KI-Systeme auf alle Inhalte zugreifen können.
Das Ziel: Ein nahtloses Erlebnis, bei dem menschliche Nutzer Infinite Scroll genießen, während KI-Crawler jede Seite systematisch entdecken und indexieren können. Dieser hybride Ansatz maximiert deine Sichtbarkeit in klassischen Suchmaschinen und neuen, KI-getriebenen Discovery-Kanälen.
Verfolge, wie deine Inhalte in ChatGPT, Perplexity und anderen KI-Antwortgeneratoren erscheinen. Erhalte Benachrichtigungen, wenn deine Marke erwähnt wird, und messe deine Sichtbarkeit auf verschiedenen KI-Plattformen.

Erfahren Sie, wie Prerendering JavaScript-Inhalte für KI-Crawler wie ChatGPT, Claude und Perplexity sichtbar macht. Entdecken Sie die besten technischen Lösunge...

Erfahren Sie, wie Sie Ihre Inhalte für KI-Crawler wie ChatGPT, Perplexity und Googles KI sichtbar machen. Entdecken Sie technische Anforderungen, Best Practices...

Erfahren Sie, wie Sie den Zugang von KI-Crawlern zu Ihrer Website prüfen. Entdecken Sie, welche Bots Ihre Inhalte sehen können, und beheben Sie Blocker, die die...
Cookie-Zustimmung
Wir verwenden Cookies, um Ihr Surferlebnis zu verbessern und unseren Datenverkehr zu analysieren. See our privacy policy.