Discussion Technical SEO AI Crawlers

Hvordan håndterer AI-crawlere uendelig rulling? Innholdet vårt blir ikke indeksert

FR
FrontendDev_Marcus · Frontend-utvikler
· · 78 upvotes · 10 comments
FM
FrontendDev_Marcus
Frontend-utvikler · 19. desember 2025

Vi har bygget et moderne React-nettsted med uendelig rulling for bloggen vår. Flott brukeropplevelse, men innholdet vårt dukker ikke opp i AI-svar i det hele tatt.

Google indekserer det fint (etter litt arbeid med SSR). Men AI-plattformer ser ut til å gå glipp av mesteparten av innholdet vårt.

Oppsettet vårt:

  • React SPA med uendelig rulling
  • SSR for første sideinnlasting
  • Mer innhold lastes inn via JavaScript ved rulling
  • 500+ blogginnlegg, bare ~50 ser ut til å være tilgjengelige for AI

Spørsmål:

  • Utfører AI-crawlere JavaScript i det hele tatt?
  • Er uendelig rulling grunnleggende inkompatibelt med AI-synlighet?
  • Hva er den beste tekniske løsningen for AI-crawler-tilgjengelighet?
  • Bør vi bygge om hele pagineringen?

Noen frontend-utviklere som har jobbet med dette?

10 comments

10 kommentarer

CE
CrawlerTech_Expert Ekspert Teknisk SEO-konsulent · 19. desember 2025

La meg forklare hvordan ulike AI-crawlere håndterer JavaScript:

AI-crawler JavaScript-støtte:

CrawlerJS-renderingScroll-simuleringVentetid
GPTBotBegrenset/IngenNeiMinimal
Google-ExtendedGod (som Googlebot)NeiStandard
ClaudeBotBegrensetNeiMinimal
PerplexityBotVariererNeiBegrenset
Common CrawlIngenNeiIngen

Kjerneproblemet:

Uendelig rulling krever:

  1. Utførelse av JavaScript
  2. Utløsning av rullehendelser
  3. Ytterligere HTTP-forespørsler
  4. Rendering av nytt innhold

De fleste AI-crawlere feiler ved trinn 1 eller 2.

Hvorfor SSR ikke er nok:

SSR leverer den første siden. Men innholdet fra uendelig rulling er ikke “innledende” – det lastes inn ved interaksjon. SSR løser ikke avhengigheten til interaksjon.

Det grunnleggende problemet:

Uendelig rulling er grunnleggende inkompatibelt med dagens AI-crawler-kapasiteter. Du trenger en alternativ løsning.

FM
FrontendDev_Marcus OP · 19. desember 2025
Replying to CrawlerTech_Expert
Så vi må egentlig bygge om? Hva er den anbefalte tilnærmingen?
CE
CrawlerTech_Expert Ekspert · 19. desember 2025
Replying to FrontendDev_Marcus

Anbefalte tilnærminger (i rekkefølge etter AI-vennlighet):

Alternativ 1: Tradisjonell paginering (mest AI-vennlig)

/blog/page/1
/blog/page/2
/blog/page/3
  • Hver side har sin egen URL
  • Innholdet er i første HTML
  • Sitemap inkluderer alle sider
  • AI-crawlere får tilgang til alt

Alternativ 2: Hybrid tilnærming

  • Uendelig rulling for brukere
  • MEN tilby også paginerte URL-er
  • Sitemap peker til paginerte versjoner
  • Bruk canonical for å unngå duplikater
<!-- Uendelig rulling-side -->
<link rel="canonical" href="/blog/page/1" />

<!-- Paginering alltid tilgjengelig -->
<nav>
  <a href="/blog/page/1">1</a>
  <a href="/blog/page/2">2</a>
</nav>

Alternativ 3: Forhåndsrendring for AI-crawlere

  • Oppdag AI-user agents
  • Server forhåndsrendret HTML
  • Alt innhold i første respons

Hver løsning har sine kompromisser. Alternativ 1 er enklest og mest pålitelig for AI. Alternativ 2 bevarer din UX og gir AI-tilgjengelighet.

RS
ReactDev_Sarah React-utvikler · 19. desember 2025

Vi hadde nøyaktig det samme problemet. Her er løsningen vår:

Implementering av hybrid tilnærming:

// URL-struktur
/blog              // Uendelig rulling (standard for brukere)
/blog/archive/1    // Paginerte (tilgjengelig for crawlere)
/blog/archive/2

Viktige implementeringsdetaljer:

  1. Sitemap inkluderer kun paginerte URL-er

    • AI-crawlere finner /blog/archive/* sider
    • Disse gjengir alt innhold fra server
  2. Uendelig rulling-side laster samme innhold

    • Bruker paginerings-API i bakgrunnen
    • Bedre UX for mennesker
  3. Interne lenker peker til enkeltartikler

    • Ikke til uendelig rulling-posisjon
    • Hver artikkel har sin egen URL
  4. robots.txt-veiledning:

# La crawlere fokusere på enkeltartikler
# Ikke uendelig rulling-containeren
Sitemap: /sitemap.xml

Resultater:

  • Brukeropplevelsen uendret (uendelig rulling)
  • AI-crawlere får tilgang til alt innhold via arkivsider
  • Enkeltartikler blir indeksert
  • Siteringsraten økte 4x etter implementeringen
NK
NextJSDev_Kevin · 18. desember 2025

Next.js-spesifikk løsning:

Bruke getStaticPaths + getStaticProps:

// pages/blog/page/[page].js
export async function getStaticPaths() {
  const totalPages = await getTotalPages();
  const paths = Array.from({ length: totalPages }, (_, i) => ({
    params: { page: String(i + 1) }
  }));
  return { paths, fallback: false };
}

export async function getStaticProps({ params }) {
  const posts = await getPostsForPage(params.page);
  return { props: { posts, page: params.page } };
}

Fordeler:

  • Statiske sider for hver paginering
  • Fullt innhold i HTML ved build
  • AI-crawlere får komplett innhold
  • Rask lasting (statisk)

Legg deretter til uendelig rulling som forbedring:

  • Klientside uendelig rulling bruker samme API
  • Progressiv forbedring
  • Fungerer også uten JS

Dette gir deg det beste fra begge verdener.

PS
Prerender_Specialist Ekspert · 18. desember 2025

Forhåndsrendring som et alternativ:

Forhåndsrendringstjenester for AI-crawlere:

Du kan oppdage AI-crawler user agents og servere forhåndsrendret innhold:

// middleware
if (isAICrawler(req.headers['user-agent'])) {
  return servePrerenderedVersion(req.url);
}

AI-crawler deteksjon:

const aiCrawlers = [
  'GPTBot',
  'ChatGPT-User',
  'Google-Extended',
  'ClaudeBot',
  'PerplexityBot',
  'anthropic-ai'
];

function isAICrawler(userAgent) {
  return aiCrawlers.some(crawler =>
    userAgent.includes(crawler)
  );
}

Forhåndsrendringsvalg:

  • Prerender.io
  • Rendertron
  • Egendefinert Puppeteer-løsning
  • Forhåndsrendring ved build

Obs:

Ikke alle AI-crawlere identifiserer seg tydelig. Noen kan bli oversett. Dette er en tilleggsmetode, ikke en erstatning for skikkelig paginering.

SL
SEODevOps_Lisa · 18. desember 2025

Testmetodikk for AI-crawler-tilgjengelighet:

Manuelle tester:

  1. Deaktiver JavaScript-test:

    • Åpne bloggen i nettleser
    • Deaktiver JavaScript
    • Hva er synlig?
    • Dette tilsvarer synet til mange crawlere uten JS
  2. Vis kildekode-test:

    • Vis sidens kildekode (ikke inspeksjon)
    • Er innholdet i HTML-en?
    • Eller bare JavaScript-plassholdere?
  3. curl-test:

    curl -A "GPTBot/1.0" https://dittnettsted.com/blog/
    
    • Inneholder svaret faktisk innhold?

Automatiserte tester:

  1. Google Search Console:

    • URL-inspeksjonsverktøy
    • “Vis gjengitt side” viser hva Googlebot ser
    • (Ikke AI-crawlere, men lignende JS-rendering)
  2. Lighthouse-gjennomgang:

    • Sjekk “SEO”-kategori
    • Gjennomgang for crawlingsproblemer

Hva du vil se:

  • Innhold i første HTML-respons
  • Lenker til alle sider oppdagbare
  • Ingen JS kreves for synlighet av innhold
E
EcommerceDevSEO · 17. desember 2025

E-handelsperspektiv:

Vi har 10 000+ produkter med “last mer”-funksjon. Her er vår løsning:

Kategori-side-struktur:

/category/shoes                    # Første 24 produkter + last mer
/category/shoes?page=2            # Produkter 25-48
/category/shoes?page=3            # Produkter 49-72

Implementering:

  1. Første side har alltid pagineringslenker

    • Selv med uendelig rulling aktivert
    • Bunntekst inneholder side 1, 2, 3 … lenker
  2. ?page=-parametre er kanoniske

    • Hver side har eget innhold
    • Ikke duplikat av hovedsiden
  3. Sitemap inkluderer alle paginerte URL-er

    • Ikke bare uendelig rulling-basert URL
  4. Produkter har egne URL-er

    • Kategoripaginering er for oppdagelse
    • Produktene er selve innholdet

Resultat:

AI-plattformer siterer våre individuelle produktsider, som de oppdager via den paginerte kategoristrukturen.

FM
FrontendDev_Marcus OP Frontend-utvikler · 17. desember 2025

Dette har vært utrolig nyttig. Her er min implementeringsplan:

Tilnærming: Hybrid paginering

Fase 1: Legg til paginerte ruter (Uke 1-2)

  • Lag /blog/archive/[page]-ruter
  • SSR for alt innhold i HTML
  • Inkluder pagineringsnavigasjon
  • Oppdater sitemap til å inkludere disse

Fase 2: Oppdater eksisterende uendelig rulling (Uke 3)

  • Behold uendelig rulling for /blog
  • Bruk arkivsider som datakilde
  • Canonical fra /blog til /blog/archive/1

Fase 3: Testing og validering (Uke 4)

  • Test med JS deaktivert
  • curl-tester for AI-user agents
  • Overvåk AI-siteringsrater

Teknisk implementering:

/blog                 → Uendelig rulling (mennesker, canonical til archive/1)
/blog/archive/1       → Paginert (crawlere, canonical til seg selv)
/blog/archive/2       → Paginert (crawlere)
/blog/[slug]          → Enkeltartikler (hovedinnhold)

Viktige prinsipper:

  • Innhold tilgjengelig uten JavaScript
  • Hvert innhold har en direkte URL
  • Sitemap inkluderer alle innholdssider
  • Uendelig rulling er en forbedring, ikke et krav

Takk til alle for detaljert teknisk veiledning.

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

Kan AI-crawlere håndtere innhold med uendelig rulling?
De fleste AI-crawlere har begrensede JavaScript-renderingsmuligheter. Innhold som krever brukerinteraksjon (rulling) for å lastes inn er ofte usynlig for AI-systemer. Server-side rendering eller hybride tilnærminger anbefales.
Hva er den beste pagineringsmetoden for AI-crawlere?
Tradisjonell paginering med egne URL-er for hver side er mest AI-vennlig. Hver side bør være tilgjengelig via direkte URL, inkludert i sitemap, og ikke kreve JavaScript for å vise innhold.
Render AI-crawlere JavaScript?
AI-crawleres JavaScript-rendering varierer betydelig. GPTBot har begrensede JS-muligheter. Noen crawlere ser kun den innledende HTML-en. For AI-synlighet bør kritisk innhold være med i den første serverresponsen, ikke lastes inn med JavaScript.
Hvordan kan jeg teste om AI-crawlere får tilgang til innholdet mitt?
Deaktiver JavaScript og se på siden din – dette tilsvarer hva mange AI-crawlere ser. Sjekk også robots.txt for å sikre at AI-crawlere ikke er blokkert, og verifiser at innholdet vises i den første HTML-kilden.

Overvåk innholdets AI-synlighet

Følg med på hvilke av sidene dine som blir oppdaget og sitert av AI-plattformer. Identifiser crawlingsproblemer som påvirker synligheten din.

Lær mer