Lad mig hjælpe dig med at fejlsøge systematisk.
Trin 1: Loganalyse
Tjek dine serverlogs for AI-crawlerbesøg på de “usynlige” sider:
# Tjek om GPTBot besøger specifikke sider
grep "GPTBot" access.log | grep "/invisible-page-path/"
Hvis ingen crawlerbesøg: De opdager ikke disse sider.
Hvis besøg men ikke citeret: Indholdskvalitetsproblem, ikke adgang.
Trin 2: Direkte adgangstest
Test hvad crawlere ser, når de tilgår siden:
curl -A "GPTBot" -s https://yoursite.com/page-path/ | head -200
Tjek:
- Fuldstændigt indhold vises i HTML
- Ingen omdirigering til login/betalingsmur
- Ingen “bot detected”-besked
- Nøgleindhold ikke kun i JavaScript
Trin 3: Renderingstest
AI-crawlere varierer i JS-renderingskapacitet. Test med JS deaktiveret:
- Åbn siden i browser
- Deaktiver JavaScript (Udviklerværktøjer)
- Vises hovedindholdet stadig?
Hvis indhold forsvinder uden JS, er det dit problem.
Trin 4: Rate limiting-tjek
Begrænser du bots aggressivt?
Tjek om din WAF eller CDN blokerer efter X forespørgsler.
AI-crawlere kan blive blokeret midt i crawl.
Mest almindelige problemer jeg finder:
- Sider ikke internt linket (forældreløse)
- JavaScript-renderet indhold
- Aggressiv botbeskyttelse
- Sider ikke i sitemap