Discussion Technical SEO JavaScript

Tötet JavaScript unsere AI-Sichtbarkeit? AI-Crawler scheinen unsere dynamischen Inhalte zu übersehen

FR
FrontendDev_Alex · Lead Developer bei einem SaaS-Unternehmen
· · 142 upvotes · 10 comments
FA
FrontendDev_Alex
Lead Developer bei einem SaaS-Unternehmen · 6. Januar 2026

Unsere Seite basiert auf React mit clientseitigem Rendering. Wir haben großartige Inhalte, aber eine miserable Sichtbarkeit in der KI.

Was passiert:

  • Inhalte werden dynamisch über JavaScript geladen
  • Klassische Google-Rankings sind in Ordnung (Googlebot rendert JS)
  • AI-Sichtbarkeit ist nahezu null
  • Server-Logs geprüft – AI-Bots besuchen, aber Inhalte werden nicht zitiert

Mein Verdacht: AI-Crawler führen kein JavaScript aus und sehen daher nur leere Hüllen.

Fragen:

  • Führen AI-Crawler tatsächlich JavaScript aus?
  • Was ist die technische Lösung?
  • Wie behalten wir unseren modernen Stack und werden trotzdem AI-sichtbar?

Suche Entwickler-Lösungen dafür.

10 comments

10 Kommentare

TM
TechSEO_Marcus Experte Technischer SEO Engineer · 6. Januar 2026

Dein Verdacht stimmt. Die meisten AI-Crawler führen KEIN JavaScript aus.

Wie verschiedene Crawler mit JS umgehen:

CrawlerJavaScript-AusführungWas sie sehen
GPTBot (ChatGPT)NeinNur Raw HTML
PerplexityBotNeinNur Raw HTML
ClaudeBotNeinNur Raw HTML
Google-ExtendedNeinNur Raw HTML
GooglebotJaGerenderte Seite

Warum das wichtig ist: Wenn dein Inhalt durch clientseitiges JS gerendert wird, sehen AI-Crawler:

<div id="app"></div>

Nicht den eigentlichen Inhalt.

Die Lösungs-Hierarchie:

  1. Server-Side Rendering (SSR) – Inhalt in der initialen HTML-Antwort
  2. Static Site Generation (SSG) – Vorgebaute HTML-Seiten
  3. Prerendering-Service – Service rendert JS für Bots
  4. Hybrides Rendering – SSR für Schlüsselinhalte, Client für Interaktionen

Deine React-App kann all das umsetzen. Mit Next.js ist SSR/SSG recht einfach.

FA
FrontendDev_Alex OP · 6. Januar 2026
Replying to TechSEO_Marcus
Wir überlegen den Umstieg auf Next.js. Reicht SSR alleine oder braucht es spezielle Optimierungen für AI-Crawler?
TM
TechSEO_Marcus Experte · 6. Januar 2026
Replying to FrontendDev_Alex

SSR/Next.js-Umsetzung für AI-Sichtbarkeit:

Grundvoraussetzung: Inhalt muss in der initialen HTML-Antwort stehen. getServerSideProps oder getStaticProps in Next.js sorgt dafür.

Zusätzliche Optimierungen:

  1. Schema im servergerenderten HTML

    // In der Page-Komponente
    <script type="application/ld+json">
      {JSON.stringify(schemaData)}
    </script>
    
  2. Kritische Inhalte früh im DOM

    • Hauptinhalt in den ersten 50KB
    • Antwort-zuerst-Struktur
    • Wichtige Infos vor interaktiven Elementen
  3. robots.txt erlaubt AI-Bots

    User-agent: GPTBot
    Allow: /
    
    User-agent: PerplexityBot
    Allow: /
    
  4. Schnelle Initialantwort

    • AI-Bots warten nicht auf langsame Server
    • Ziel <500ms TTFB

Testen:

curl -A "GPTBot" https://deineseite.com/page

Ist der Inhalt in der Antwort, passt es. Wenn nicht, funktioniert SSR nicht richtig.

Migration lohnt sich. Wir haben Kunden gesehen, die nach SSR-Implementierung von 0 auf signifikante AI-Sichtbarkeit gestiegen sind.

NT
NextJSDev_Tom Full-Stack Developer · 5. Januar 2026

Wir haben genau diese Migration gemacht. Hier die Praxiserfahrung:

Vorher (React SPA):

  • Clientseitiges Rendering
  • Inhalte per API-Calls
  • AI-Sichtbarkeit: Null

Nachher (Next.js SSR):

  • Serverseitiges Rendering für alle Inhaltsseiten
  • Statische Generierung für die Dokumentation
  • AI-Sichtbarkeit: steigt wöchentlich

Tipps zur Umsetzung:

  1. App Router mit Server Components verwenden Standard ist SSR – Inhalte funktionieren direkt

  2. Datenbeschaffung serverseitig

    // Läuft auf dem Server, Inhalt im HTML
    async function Page() {
      const data = await fetch('...');
      return <Article data={data} />;
    }
    
  3. Kein ‘use client’ für Inhalts-Komponenten Client-Komponenten nur für Interaktivität

  4. Metadata API für SEO/AI

    export const metadata = {
      title: '...',
      description: '...',
    };
    

Migrationsaufwand: Ca. 3 Wochen für eine mittelgroße Seite. Jede Stunde wert.

Ergebnis: Erste AI-Zitate innerhalb von 6 Wochen nach SSR-Launch.

PE
PreRenderPro_Elena · 5. Januar 2026

Wenn Migration nicht möglich ist, ist Prerendering eine Option:

Was Prerendering macht:

  • Dienst rendert dein JS für Bot-Anfragen
  • Gibt vollständiges HTML an Crawler zurück
  • Echte Nutzer bekommen weiterhin dein SPA

Beliebte Dienste:

  • Prerender.io
  • Rendertron
  • Puppeteer-basierte Lösungen

Implementierung: Middleware erkennt Bot-User-Agents und leitet an Prerender-Service weiter.

Vorteile:

  • Keine Änderungen am Codebase
  • Funktioniert mit jedem Framework
  • Schnelle Umsetzung

Nachteile:

  • Zusätzliche Kosten
  • Latenz für Bot-Anfragen
  • Caching-Komplexität
  • Drittanbieter-Abhängigkeit

Wann nutzen:

  • Große Legacy-Codebase
  • Migration kurzfristig nicht machbar
  • Schneller AI-Sichtbarkeitsfix nötig

Wann NICHT nutzen:

  • Neue Projekte (besser direkt SSR)
  • Kleine Seiten (Migration ist einfacher)
  • Geringes Budget (Prerendering kostet)

Prerendering ist eine Übergangslösung, keine ideale Langzeitstrategie.

FJ
FrameworkComparison_James · 5. Januar 2026

Framework-Optionen für AI-freundliche Seiten:

FrameworkStandard-RenderingAI-SichtbarkeitAufwand
Next.jsSSR/SSGExzellentMittel
Nuxt.jsSSR/SSGExzellentMittel
GatsbySSGExzellentNiedrig
RemixSSRExzellentMittel
SvelteKitSSR/SSGExzellentNiedrig
Pure ReactCSRSchlecht-
Pure VueCSRSchlecht-
AngularCSR (Standard)Schlecht-

Empfehlung nach Situation:

  • Neues Projekt: Next.js, Nuxt oder SvelteKit
  • React-Migration: Next.js
  • Vue-Migration: Nuxt
  • Content-starke Seite: Gatsby oder Astro
  • Blog/Dokumentation: Hugo, Eleventy oder Astro

Für AI-Sichtbarkeit funktioniert alles mit SSR/SSG. Reines Client-Rendering hingegen nicht.

HR
HybridApproach_Rachel Frontend-Architektin · 4. Januar 2026

Hybrides Rendering für komplexe Apps:

Die Herausforderung: Manche Teile deiner App BRAUCHEN clientseitiges Rendering (Dashboards, interaktive Tools). Aber Inhalte benötigen SSR.

Lösung: Hybrides Rendering

  1. Inhaltsseiten: Volles SSR

    • Blogposts, Dokumentation
    • Marketingseiten
    • FAQs und Wissensdatenbank
  2. Interaktive Features: Clientseitig

    • Dashboards
    • Formulare und Tools
    • Nutzerspezifische Inhalte

Next.js App Router macht das leicht:

  • Server Components für Inhalte
  • Client Components für Interaktivität
  • Frei kombinierbar auf der gleichen Seite

Beispielstruktur:

// Seite wird servergerendert
export default function Page() {
  return (
    <>
      <ServerRenderedContent /> {/* Das sieht die KI */}
      <ClientInteractiveWidget /> {/* Das muss KI nicht sehen */}
    </>
  );
}

Das Prinzip: Alles, was von KI gesehen werden soll: Server-rendern. Alles andere: Clientseitig ist okay.

TK
TestingBot_Kevin · 4. Januar 2026

Testen, ob deine Inhalte AI-sichtbar sind:

Methode 1: Quelltext anzeigen

  • Rechtsklick → Seitenquelltext anzeigen
  • Wenn der Inhalt da ist = AI kann ihn sehen
  • Wenn nur <div id="root"></div> = AI sieht ihn nicht

Methode 2: JavaScript deaktivieren

  • Browser DevTools → Einstellungen → JavaScript deaktivieren
  • Seite neu laden
  • Wenn der Inhalt verschwindet = AI sieht ihn nicht

Methode 3: curl-Test

curl -A "GPTBot" https://deineseite.com/page | grep "dein Inhalt"

Kommt der Inhalt zurück, ist alles okay.

Methode 4: Google Rich Results Test

  • Testet gerenderte Inhalte
  • Zeigt, was Googlebot sieht
  • Ähnlich wie AI-Bots

Nach SSR-Umsetzung: Alle Tests nochmal durchführen. Inhalt muss überall sichtbar sein.

Tipp: Monitoring einrichten, um Regressionen zu erkennen. SSR kann unbemerkt ausfallen.

PL
PerformanceImpact_Lisa · 4. Januar 2026

Performance-Aspekte bei SSR:

SSR erhöht die Serverlast:

  • Jede Anfrage benötigt Server-Rendering
  • Mehr Rechenleistung als statische Dateien
  • Caching wird kritisch

Strategien zur Minderung:

  1. Statische Generierung wo möglich

    • Blogposts, Dokus = statisch
    • Dynamische Inhalte = SSR
  2. Incremental Static Regeneration (ISR)

    • Statische Seiten regelmäßig neu bauen
    • Beste Kombination aus beiden Welten
  3. Edge-Rendering

    • Rendering am CDN-Edge
    • Weltweit schnelleres TTFB
  4. Caching-Ebenen

    • Full-Page-Caching
    • Komponenten-Caching

Das Trade-off: SSR kostet mehr Compute, bringt aber AI-Sichtbarkeit. Für die meisten Unternehmen lohnt sich das Investment.

Monitoring: TTFB nach SSR-Einsatz beobachten. Wenn zu langsam, laufen Bots evtl. vor Content-Übergabe in ein Timeout.

FA
FrontendDev_Alex OP Lead Developer bei einem SaaS-Unternehmen · 3. Januar 2026

Das bestätigt das Problem und liefert klare Lösungen. Unser Maßnahmenplan:

Sofort (diese Woche):

  1. Aktuelles Rendering mit curl-Tests prüfen
  2. Wichtigste Inhaltsseiten für AI-Sichtbarkeit identifizieren
  3. robots.txt auf AI-Bot-Zugriff prüfen

Kurzfristig (nächstes Quartal):

  1. Next.js-Migration für Inhaltsseiten starten
  2. SSR/SSG für Blog, Doku und Marketingseiten einführen
  3. Dashboard/App bleibt clientgerendert

Umsetzungsansatz:

  1. Mit den wichtigsten Inhaltsseiten starten
  2. Nach jedem Batch AI-Sichtbarkeit testen
  3. ISR für oft aktualisierte Inhalte nutzen
  4. TTFB fortlaufend überwachen

Technische Entscheidungen:

  • Next.js App Router mit Server Components
  • Statische Generierung für Doku
  • SSR für Blog und Marketing
  • Client-Komponenten nur wo nötig

Testplan:

  1. curl-Tests nach jedem Deployment
  2. Quelltext-Überprüfung
  3. AI-Zitate im Zeitverlauf beobachten
  4. Nachverfolgen, welche Seiten zitiert werden

Wichtigste Erkenntnis: Clientseitiges Rendering = unsichtbar für AI. SSR/SSG = sichtbar. Die Migration ist für AI-Sichtbarkeit unumgänglich.

Danke an alle – der Weg ist jetzt klar!

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

Beeinflusst JavaScript das Crawling durch KI?
Ja, deutlich. Die meisten AI-Crawler führen kein JavaScript aus. Inhalte, die ausschließlich durch clientseitiges JavaScript gerendert werden, sind für GPTBot, PerplexityBot und andere AI-Crawler unsichtbar. Sie sehen nur die initiale HTML-Antwort.
Was ist die Lösung für JavaScript-lastige Seiten?
Server-Side Rendering (SSR), Static Site Generation (SSG) oder Prerendering-Dienste stellen sicher, dass der Inhalt in der initialen HTML-Antwort enthalten ist. Dadurch wird der Inhalt für AI-Crawler sichtbar, die kein JavaScript ausführen.
Haben alle AI-Crawler die gleichen JavaScript-Beschränkungen?
Die meisten AI-Crawler führen kein JavaScript aus. GPTBot, PerplexityBot und ClaudeBot fordern HTML an und parsen dieses direkt. Googlebot führt JavaScript aus (für die klassische Suche), aber Google AI Overviews bevorzugt möglicherweise weiterhin statische Inhalte.
Wie kann ich testen, ob AI-Crawler meine Inhalte sehen?
Sehen Sie sich den Seitenquelltext an (nicht DevTools) und prüfen Sie, ob der Inhalt vorhanden ist. Deaktivieren Sie JavaScript und laden Sie die Seite neu – verschwindet der Inhalt, können AI-Crawler ihn nicht sehen. Nutzen Sie curl, um Ihre Seite abzurufen und die Antwort zu überprüfen.

Überwachen Sie die AI-Sichtbarkeit Ihrer Inhalte

Verfolgen Sie, ob Ihre Inhalte von AI-Plattformen gefunden und zitiert werden – unabhängig von Ihrem Tech-Stack.

Mehr erfahren