Jag hjälper dig att felsöka systematiskt.
Steg 1: Logganalys
Kontrollera dina serverloggar efter besök från AI-crawlers på de “osynliga” sidorna:
# Kontrollera om GPTBot besöker specifika sidor
grep "GPTBot" access.log | grep "/invisible-page-path/"
Om inga besök: De hittar inte dessa sidor.
Om besök men ingen citering: Kvalitetsproblem på innehållet, inte åtkomst.
Steg 2: Direkt åtkomsttest
Testa vad crawlers ser när de går till sidan:
curl -A "GPTBot" -s https://yoursite.com/page-path/ | head -200
Kontrollera:
- Hela innehållet syns i HTML
- Ingen omdirigering till inloggning/betalvägg
- Ingen “bot upptäckt”-meddelande
- Viktigt innehåll ligger inte i JavaScript
Steg 3: Renderingtest
AI-crawlers varierar i JS-renderingsförmåga. Testa med JS avstängt:
- Öppna sidan i webbläsare
- Stäng av JavaScript (Utvecklarverktyg)
- Syns huvudinnehållet fortfarande?
Om innehållet försvinner utan JS är det där problemet ligger.
Steg 4: Rate limiting-kontroll
Begränsar du bots aggressivt?
Kontrollera om din WAF eller CDN blockerar efter X antal förfrågningar.
AI-crawlers kan bli blockerade mitt i crawlen.
Vanligaste problemen jag hittar:
- Sidor som inte är länkade internt (föräldralösa)
- JavaScript-renderat innehåll
- Aggressivt botskydd
- Sidor saknas i sitemap