Workflow practic pentru analiza logurilor:
Pasul 1: Extrage accesările crawlerilor AI
# Format log Nginx
grep -E "GPTBot|ChatGPT|Google-Extended|ClaudeBot|PerplexityBot" access.log > ai_crawlers.log
Pasul 2: Analizează după crawler
# Numără cererile per crawler
awk '{print $NF}' ai_crawlers.log | sort | uniq -c | sort -rn
Pasul 3: Analizează paginile accesate
# Cele mai accesate pagini
awk '{print $7}' ai_crawlers.log | sort | uniq -c | sort -rn | head -50
Pasul 4: Analizează modelele de timp
# Cereri pe oră
awk '{print $4}' ai_crawlers.log | cut -d: -f2 | sort | uniq -c
Ce să urmărești:
| Model | Indică |
|---|
| Vizite zilnice | Crawling activ, semn bun |
| Focus pe blog/conținut | Conținut luat în considerare |
| Cereri sitemap.xml | Urmează indicațiile tale |
| Verificări robots.txt | Respectă instrucțiunile |
| Focus pe o secțiune | Crawling selectiv |