Discussion Technical SEO AI Crawlers

Hvordan håndterer AI-crawlere uendelig scroll? Vores indhold bliver ikke indekseret

FR
FrontendDev_Marcus · Frontend-udvikler
· · 78 upvotes · 10 comments
FM
FrontendDev_Marcus
Frontend-udvikler · 19. december 2025

Vi har bygget et moderne React-site med uendelig scroll til vores blog. Fantastisk brugeroplevelse, men vores indhold dukker slet ikke op i AI-svar.

Google indekserer det fint (efter noget arbejde med SSR). Men AI-platforme ser ud til at overse det meste af vores indhold.

Vores opsætning:

  • React SPA med uendelig scroll
  • SSR til indlæsning af første side
  • Mere indhold indlæses via JavaScript ved scroll
  • 500+ blogindlæg, kun ~50 ser ud til at være tilgængelige for AI

Spørgsmål:

  • Eksekverer AI-crawlere overhovedet JavaScript?
  • Er uendelig scroll grundlæggende uforeneligt med AI-synlighed?
  • Hvad er den bedste tekniske tilgang for AI-crawler tilgængelighed?
  • Skal vi helt genopbygge pagineringen?

Er der frontend-udviklere, der har prøvet dette?

10 comments

10 kommentarer

CE
CrawlerTech_Expert Ekspert Teknisk SEO-konsulent · 19. december 2025

Lad mig gennemgå, hvordan forskellige AI-crawlere håndterer JavaScript:

AI-crawler JavaScript-understøttelse:

CrawlerJS renderingScroll-simuleringVentetid
GPTBotBegrænset/ingenNejMinimal
Google-ExtendedGod (som Googlebot)NejStandard
ClaudeBotBegrænsetNejMinimal
PerplexityBotVariererNejBegrænset
Common CrawlIngenNejIngen

Kerneproblemet:

Uendelig scroll kræver:

  1. JavaScript-eksekvering
  2. Scroll-event
  3. Yderligere HTTP-forespørgsler
  4. Rendering af nyt indhold

De fleste AI-crawlere fejler ved trin 1 eller 2.

Hvorfor SSR ikke er nok:

Din SSR serverer den første side. Men indhold fra uendelig scroll er ikke “indledende” – det indlæses ved interaktion. SSR løser ikke afhængigheden af interaktion.

Det grundlæggende problem:

Uendelig scroll er grundlæggende uforenelig med nuværende AI-crawleres evner. Du har brug for en alternativ tilgang.

FM
FrontendDev_Marcus OP · 19. december 2025
Replying to CrawlerTech_Expert
Så vi skal i bund og grund genopbygge? Hvad er den anbefalede tilgang?
CE
CrawlerTech_Expert Ekspert · 19. december 2025
Replying to FrontendDev_Marcus

Anbefalede tilgange (i rækkefølge efter AI-venlighed):

Mulighed 1: Traditionel paginering (mest AI-venlig)

/blog/page/1
/blog/page/2
/blog/page/3
  • Hver side har sin egen URL
  • Indhold i indledende HTML
  • Sitemap inkluderer alle sider
  • AI-crawlere kan tilgå alt

Mulighed 2: Hybrid tilgang

  • Uendelig scroll for brugere
  • MEN også paginerede URL’er
  • Sitemap peger på de paginerede versioner
  • Brug canonical for at undgå dubletter
<!-- Uendelig scroll-side -->
<link rel="canonical" href="/blog/page/1" />

<!-- Paginering altid tilgængelig -->
<nav>
  <a href="/blog/page/1">1</a>
  <a href="/blog/page/2">2</a>
</nav>

Mulighed 3: Prerender til AI-crawlere

  • Detekter AI user agents
  • Server prerenderet HTML
  • Fuld indhold i indledende respons

Hver mulighed har sine kompromiser. Mulighed 1 er den enkleste og mest pålidelige for AI. Mulighed 2 bevarer din UX og tilføjer AI-tilgængelighed.

RS
ReactDev_Sarah React-udvikler · 19. december 2025

Vi havde præcis dette problem. Her er vores løsning:

Implementering af hybrid tilgang:

// URL-struktur
/blog              // Uendelig scroll (standard for brugere)
/blog/archive/1    // Paginering (crawler-venlig)
/blog/archive/2

Vigtige implementeringsdetaljer:

  1. Sitemap inkluderer kun paginerede URL’er

    • AI-crawlere finder /blog/archive/* siderne
    • Disse gengiver alt indhold server-side
  2. Uendelig scroll-side indlæser samme indhold

    • Bruger paginerings-API i baggrunden
    • Bedre UX for mennesker
  3. Interne links peger på individuelle artikler

    • Ikke på uendelig scroll-position
    • Hver artikel har sin egen URL
  4. robots.txt-vejledning:

# Lad crawlere fokusere på individuelle artikler
# Ikke uendelig scroll-containeren
Sitemap: /sitemap.xml

Resultater:

  • Brugeroplevelsen uændret (uendelig scroll)
  • AI-crawlere tilgår alt indhold via arkivsider
  • Individuelle artikler er alle indekseret
  • Citeringsraten steg 4x efter implementering
NK
NextJSDev_Kevin · 18. december 2025

Next.js-specifik tilgang:

Brug af getStaticPaths + getStaticProps:

// pages/blog/page/[page].js
export async function getStaticPaths() {
  const totalPages = await getTotalPages();
  const paths = Array.from({ length: totalPages }, (_, i) => ({
    params: { page: String(i + 1) }
  }));
  return { paths, fallback: false };
}

export async function getStaticProps({ params }) {
  const posts = await getPostsForPage(params.page);
  return { props: { posts, page: params.page } };
}

Fordele:

  • Statiske sider for hver paginering
  • Fuld indhold i HTML ved build time
  • AI-crawlere får alt indhold
  • Hurtig indlæsning (statisk)

Tilføj derefter uendelig scroll som forbedring:

  • Klientside uendelig scroll bruger samme API
  • Progressiv forbedring
  • Fungerer også uden JS

Dette giver dig det bedste fra begge verdener.

PS
Prerender_Specialist Ekspert · 18. december 2025

Prerendering som mulighed:

Prerenderingstjenester for AI-crawlere:

Du kan detektere AI crawler user agents og servere prerenderet indhold:

// middleware
if (isAICrawler(req.headers['user-agent'])) {
  return servePrerenderedVersion(req.url);
}

AI-crawler detektion:

const aiCrawlers = [
  'GPTBot',
  'ChatGPT-User',
  'Google-Extended',
  'ClaudeBot',
  'PerplexityBot',
  'anthropic-ai'
];

function isAICrawler(userAgent) {
  return aiCrawlers.some(crawler =>
    userAgent.includes(crawler)
  );
}

Prerendering-muligheder:

  • Prerender.io
  • Rendertron
  • Puppeteer-baseret løsning
  • Prerendering ved build time

Bemærk:

Ikke alle AI-crawlere identificerer sig tydeligt. Nogle kan blive overset. Dette er et supplement, ikke en erstatning for korrekt paginering.

SL
SEODevOps_Lisa · 18. december 2025

Testmetoder for AI-crawler tilgængelighed:

Manuelle tests:

  1. Deaktiver JavaScript-test:

    • Åbn din blog i browseren
    • Deaktiver JavaScript
    • Hvilket indhold er synligt?
    • Dette svarer til hvordan mange crawlere ser siden
  2. Vis kildekode-test:

    • Vis sidens kildekode (ikke inspect element)
    • Er dit indhold i HTML’en?
    • Eller kun JavaScript-pladsholdere?
  3. curl-test:

    curl -A "GPTBot/1.0" https://yoursite.com/blog/
    
    • Indeholder svaret faktisk indhold?

Automatiserede tests:

  1. Google Search Console:

    • URL-inspektionsværktøj
    • “Se gengivet side” viser hvad Googlebot ser
    • (Ikke AI-crawlere, men lignende JS-rendering)
  2. Lighthouse-audit:

    • Tjek “SEO”-kategori
    • Flagger crawlbarhedsproblemer

Det du ønsker at se:

  • Indhold i det indledende HTML-svar
  • Links til alle sider kan opdages
  • Ingen JS nødvendig for at vise indhold
E
EcommerceDevSEO · 17. december 2025

E-commerce perspektiv:

Vi har 10.000+ produkter med “load more”-funktionalitet. Her er vores løsning:

Kategori-side struktur:

/category/shoes                    # Første 24 produkter + load more
/category/shoes?page=2            # Produkter 25-48
/category/shoes?page=3            # Produkter 49-72

Implementering:

  1. Første side har altid pagineringslinks

    • Selv med uendelig scroll slået til
    • Footer har side 1, 2, 3… links
  2. ?page= parametre er kanoniske

    • Hver side har sit eget indhold
    • Ikke dublet af hovedsiden
  3. Sitemap inkluderer alle paginerede URL’er

    • Ikke kun uendelig scroll-base-URL
  4. Produkter har individuelle URL’er

    • Kategoripaginering er til opdagelse
    • Produkterne er det egentlige indhold

Resultat:

AI-platforme citerer vores individuelle produktsider, som de finder via den paginerede kategoristruktur.

FM
FrontendDev_Marcus OP Frontend-udvikler · 17. december 2025

Dette har været utroligt hjælpsomt. Her er min implementeringsplan:

Tilgang: Hybrid-paginering

Fase 1: Tilføj paginerede ruter (uge 1-2)

  • Opret /blog/archive/[page] ruter
  • SSR for fuldt indhold i HTML
  • Inkludér pagineringsnavigation
  • Opdatér sitemap til at inkludere disse

Fase 2: Opdatér eksisterende uendelig scroll (uge 3)

  • Behold uendelig scroll for /blog
  • Brug arkivsider som datakilde
  • Canonical fra /blog til /blog/archive/1

Fase 3: Test og validering (uge 4)

  • Test med JS deaktiveret
  • curl-tests for AI user agents
  • Overvåg AI-citeringsrater

Teknisk implementering:

/blog                 → Uendelig scroll (mennesker, kanonisk til archive/1)
/blog/archive/1       → Paginering (crawlere, kanonisk til sig selv)
/blog/archive/2       → Paginering (crawlere)
/blog/[slug]          → Individuelle artikler (hovedindhold)

Vigtige principper:

  • Indhold tilgængeligt uden JavaScript
  • Hvert indlæg har en direkte URL
  • Sitemap inkluderer alle indholdssider
  • Uendelig scroll er en forbedring, ikke et krav

Tak til alle for den detaljerede tekniske vejledning.

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

Kan AI-crawlere håndtere indhold med uendelig scroll?
De fleste AI-crawlere har begrænsede JavaScript-renderingsevner. Indhold, der kræver brugerinteraktion (scrolling) for at blive indlæst, er ofte usynligt for AI-systemer. Server-side rendering eller hybride løsninger anbefales.
Hvad er den bedste pagineringsmetode for AI-crawlere?
Traditionel paginering med særskilte URL’er for hver side er mest AI-venlig. Hver side skal være tilgængelig via direkte URL, være inkluderet i sitemap og ikke kræve JavaScript for at vise indhold.
Renderer AI-crawlere JavaScript?
AI-crawleres JavaScript-rendering varierer betydeligt. GPTBot har begrænsede JS-evner. Nogle crawlere ser kun den indledende HTML. For AI-synlighed bør kritisk indhold være i det indledende server-svar, ikke JavaScript-indlæst.
Hvordan kan jeg teste, om AI-crawlere kan tilgå mit indhold?
Deaktiver JavaScript og se din side – dette svarer til hvad mange AI-crawlere ser. Tjek også robots.txt for at sikre, at AI-crawlere ikke er blokeret, og verificér at indholdet vises i den indledende HTML-kilde.

Overvåg dit indholds AI-synlighed

Følg hvilke af dine sider der bliver opdaget og citeret af AI-platforme. Identificér crawl-problemer, der påvirker din synlighed.

Lær mere