Vanliga problem som blockerar AI-crawlers:
1. robots.txt-wildcards
User-agent: *
Disallow: /
Detta blockerar ALLA ej specificerade botar, inklusive AI-crawlers.
Lösning:
User-agent: Googlebot
Allow: /
User-agent: GPTBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: *
Disallow: /
2. Rate Limiting
Aggressiv rate limiting kan blockera crawler-IP:er.
Kolla om din WAF eller CDN blockerar.
3. IP-blocklistor
Vissa säkerhetsplugin blockerar “misstänkta” IP:er.
AI-crawlers IP:er kan flaggas.
4. Inloggningskrav
Alla inloggningskrav blockerar crawlers.
Se till att publikt innehåll är verkligen publikt.
5. JavaScript-rendering
Innehåll som bara visas via JS är kanske inte synligt.
AI-crawlers kanske inte kör JavaScript fullt ut.
6. Långsam respons
Sidor som tar över 5–10 sekunder kan ge timeout.
Crawlers kan ge upp.
Testa varje punkt:
- robots.txt: Direkt URL-kontroll
- Rate limiting: Kolla WAF/CDN-loggar
- IP-blockering: Testa från olika IP:er
- Auth: Prova anonym surfning
- JS: Visa sidkälla vs renderad sida
- Hastighet: GTmetrix eller liknande