Ważne uzupełnienie: sprawdź, czy crawlerzy faktycznie są blokowani, a nie po prostu nie odwiedzają.
Jak sprawdzić:
- Logi serwera: Szukaj user-agentów
- Logi firewalla: Sprawdź, czy WAF blokuje
- Logi CDN: Cloudflare/AWS może ograniczać
Co znaleźliśmy u jednego klienta:
robots.txt pozwalał GPTBot, ale zasady bezpieczeństwa Cloudflare blokowały go jako “podejrzany bot”.
Konfiguracja firewalla dla AI botów:
Jeśli używasz Cloudflare:
- Dodaj regułę: Allow jeśli User-Agent zawiera “GPTBot” LUB “PerplexityBot” LUB “ClaudeBot”
- Umieść na białej liście oficjalne zakresy IP (publikowane przez każdą firmę)
robots.txt jest konieczny, ale niewystarczający.
Sprawdź wszystkie warstwy Twojego stacka.