Häufige Probleme, die AI-Crawler blockieren:
1. robots.txt-Wildcards
User-agent: *
Disallow: /
Dies blockiert ALLE nicht-spezifizierten Bots, auch AI-Crawler.
Abhilfe:
User-agent: Googlebot
Allow: /
User-agent: GPTBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: *
Disallow: /
2. Rate Limiting
Aggressives Rate Limiting kann Crawler-IPs blockieren.
Prüfen Sie, ob Ihr WAF oder CDN blockiert.
3. IP-Blocklisten
Manche Sicherheits-Plugins blockieren „verdächtige“ IPs.
AI-Crawler-IPs könnten betroffen sein.
4. Authentifizierung erforderlich
Jede Login-Anforderung blockiert Crawler.
Stellen Sie sicher, dass öffentliche Inhalte wirklich öffentlich sind.
5. JavaScript-Rendering
Nur per JS gerenderter Inhalt ist ggf. nicht sichtbar.
AI-Crawler führen JavaScript oft nicht vollständig aus.
6. Langsame Antwort
Seiten, die über 5–10 Sekunden laden, können Timeouts verursachen.
Crawler brechen dann ab.
Test für jeden Punkt:
- robots.txt: Direkter URL-Check
- Rate Limiting: WAF/CDN-Logs prüfen
- IP-Blockierung: Von verschiedenen IPs testen
- Auth: Anonymes Browsen versuchen
- JS: Seitenquelltext vs. gerenderte Seite vergleichen
- Geschwindigkeit: GTmetrix o.Ä.