Discussion Technical SEO Site Architecture

La nostra navigazione del sito blocca i crawler AI - come risolvere la scoperta dei contenuti?

UX
UXLead_Jennifer · Responsabile UX/Architettura dell'informazione
· · 65 upvotes · 10 comments
UJ
UXLead_Jennifer
Responsabile UX/Architettura dell'informazione · 28 dicembre 2025

Abbiamo appena scoperto che i crawler AI vedono solo circa il 20% dei contenuti del nostro sito. Il problema? La nostra navigazione.

Il nostro setup:

  • Navigazione mega-menu costruita con React
  • Menu a discesa dinamici caricati al passaggio del mouse
  • Oltre 5.000 pagine totali
  • Solo ~1.000 scoperte dai crawler AI

Cosa abbiamo riscontrato:

  • I crawler AI vedono la navigazione vuota nell’HTML
  • Tutti i link del menu sono renderizzati in JavaScript
  • Le pagine profonde non ricevono visite dai crawler AI
  • Niente breadcrumbs nella maggior parte delle pagine

L’impatto sul business:

  • I concorrenti con navigazione più semplice vengono citati
  • I nostri migliori contenuti sono invisibili a ChatGPT
  • Zero citazioni Perplexity nonostante contenuti di qualità

Come possiamo sistemare la navigazione per il crawling AI senza sacrificare l’UX? Qualcuno è riuscito a bilanciare entrambi?

10 comments

10 Commenti

TM
TechnicalSEO_Marcus Esperto Direttore SEO Tecnico · 28 dicembre 2025

Jennifer, questo è uno dei problemi più comuni di visibilità AI. Ti spiego la soluzione:

Il problema:

Tipo di crawlerJavaScript?La tua navigazione
GooglebotSì (ritardato)Visibile alla fine
GPTBotNoInvisibile
ClaudeBotNoInvisibile
PerplexityBotNoInvisibile

I crawler AI vedono la risposta HTML, non l’HTML renderizzato.

I livelli della soluzione:

Livello 1: Navigazione HTML di base

<!-- Sempre nella risposta HTML -->
<nav>
  <a href="/products">Prodotti</a>
  <a href="/services">Servizi</a>
  <a href="/resources">Risorse</a>
</nav>

Livello 2: Potenziamento JavaScript

// JS aggiunge interattività sopra
enhanceNavigationWithDropdowns();

Questa è una progressive enhancement. La navigazione base funziona senza JS; JS la migliora.

Il principio chiave:

Tutti i link critici devono essere nella risposta HTML iniziale. JavaScript può aggiungere menu a discesa, animazioni ed effetti - ma i link devono essere in HTML.

UJ
UXLead_Jennifer OP · 28 dicembre 2025
Replying to TechnicalSEO_Marcus

Quindi dobbiamo renderizzare la navigazione lato server? Il nostro mega-menu ha oltre 200 link: è molto HTML.

E non rischia di rallentare la pagina?

TM
TechnicalSEO_Marcus · 28 dicembre 2025
Replying to UXLead_Jennifer

Non tutti i 200+ link devono essere in HTML.

Dai priorità gerarchica:

Livello di navigazioneHTML richiestoJavaScript OK
Categorie principaliN/A
Sottocategorie principaliN/A
Link profondiFacoltativoSì (come enhancement)

Strategia:

Includi circa 20-30 link più importanti in HTML. Questi creano percorsi di crawling ai contenuti più profondi. Usa JavaScript per mostrare il mega-menu completo agli utenti.

Velocità pagina:

  • 30 link in HTML: ~3KB
  • Gzippato: <1KB
  • Impatto: Trascurabile

Approccio migliore:

Crea una corretta architettura del sito:

  1. Pagine di categoria (collegate nella navigazione HTML)
  2. Le pagine di categoria collegano alle sotto-pagine
  3. Le sotto-pagine collegano ai contenuti profondi

I crawler AI seguono questa gerarchia. Non hanno bisogno di tutti i 200 link nell’header.

CS
CrawlerBehaviorAnalyst_Sarah Consulente Infrastruttura Ricerca · 27 dicembre 2025

Differenze di comportamento dei crawler AI da conoscere:

Google vs crawler AI:

ComportamentoGooglebotCrawler AI
Rendering JSSì (con ritardi)No
Frequenza crawlingModerata, programmataSpesso più frequente
Richieste di ricrawlDisponibileNon disponibile
Crawling profondoSì, segue i linkProfondità limitata

Cosa significa:

Se i crawler AI arrivano sulla tua homepage e la navigazione è solo JS, vedono:

<nav id="main-nav">
  <!-- Vuoto finché non gira JS -->
</nav>

Non hanno link da seguire. Il crawling si ferma in homepage.

I dati dei nostri clienti:

Siti con navigazione solo JS:

  • Scoperta media pagine da parte dei crawler AI: 8% del totale

Siti con navigazione HTML:

  • Scoperta media pagine da parte dei crawler AI: 73% del totale

È una differenza di accessibilità dei contenuti di 9x.

FT
FrontendArchitect_Tom · 27 dicembre 2025

Approcci di implementazione per la navigazione React:

Opzione 1: Rendering lato server (Migliore)

Usa Next.js o simili:

  • La navigazione viene renderizzata lato server
  • L’HTML include tutti i link
  • JS idrata per l’interattività

Opzione 2: Fallback HTML statico

Includi una navigazione base nel template HTML:

<nav class="fallback-nav">
  <!-- Link base per i crawler -->
</nav>
<nav class="enhanced-nav" style="display:none">
  <!-- Mega menu renderizzato JS -->
</nav>

JS mostra la versione avanzata e nasconde il fallback.

Opzione 3: Include lato server

Includi la navigazione dal server prima che React venga caricato:

  • SSI o edge include
  • Funziona con ogni framework
  • Nessuna modifica a React necessaria

La nostra raccomandazione:

Opzione 1 (SSR) è la migliore a lungo termine. Opzione 2 è la più rapida da implementare. Opzione 3 funziona per sistemi legacy.

BL
BreadcrumbAdvocate_Lisa Esperto · 27 dicembre 2025

Non trascurare i breadcrumbs per il crawling AI:

Perché i breadcrumbs sono importanti:

  1. Segnalano gerarchia esplicita - L’AI comprende le relazioni tra pagine
  2. Percorsi di crawling aggiuntivi - Ogni breadcrumb è un link
  3. Compatibilità schema markup - Lo schema BreadcrumbList aiuta l’AI a interpretare
  4. Rinforzo delle categorie - Link alle pagine genitore

Implementazione:

<nav aria-label="Breadcrumb">
  <ol itemscope itemtype="https://schema.org/BreadcrumbList">
    <li itemprop="itemListElement" itemscope itemtype="https://schema.org/ListItem">
      <a itemprop="item" href="/"><span itemprop="name">Home</span></a>
    </li>
    <li itemprop="itemListElement" itemscope itemtype="https://schema.org/ListItem">
      <a itemprop="item" href="/products"><span itemprop="name">Prodotti</span></a>
    </li>
    <li itemprop="itemListElement" itemscope itemtype="https://schema.org/ListItem">
      <span itemprop="name">Nome Prodotto</span>
    </li>
  </ol>
</nav>

Risultati dopo aver aggiunto breadcrumbs:

  • Un cliente ha aggiunto breadcrumbs a 2.000 pagine profonde
  • Scoperta da parte dei crawler AI di quelle pagine: 12% → 67%
  • Tempo di implementazione: 2 giorni
IK
InternalLinkingExpert_Kevin · 26 dicembre 2025

Strategia di collegamento interno per la scoperta AI:

Il problema con la sola navigazione:

Anche una buona navigazione non aiuta le pagine orfane. Le pagine necessitano di:

  1. Link di navigazione (scoperte)
  2. Link interni da contenuti correlati (rinforzate)
  3. Inclusione nella sitemap (backup)

Audit dei link interni:

Stato paginaVisibilità AISoluzione
Collegata da nav + contenutoAltaMantieni
Solo dalla navMediaAggiungi link contestuali
Solo da contenutoMediaConsidera inclusione in nav
Nessun link interno (orfana)ZeroCritico - collega subito

Trovare pagine orfane:

# Fai crawling del sito, individua pagine senza link interni
screaming-frog tuo-sito.com --output orphans.csv

Vittoria rapida:

Aggiungi sezioni “Articoli correlati” ai post del blog. Crea una rete di link interni che i crawler AI seguono.

UM
URLArchitect_Mike · 26 dicembre 2025

La struttura degli URL lavora insieme alla navigazione per la comprensione AI:

Buona gerarchia URL:

/products/                     ← Categoria (in nav principale)
/products/software/            ← Sottocategoria (in dropdown)
/products/software/crm/        ← Tipo di prodotto
/products/software/crm/pro/    ← Prodotto specifico

I crawler AI comprendono:

  • Relazioni genitore-figlio
  • Cluster tematici
  • Organizzazione del sito

Cattivi pattern URL:

/page?id=12345                 ← Nessun contesto
/products/item-abc123          ← Nessuna gerarchia
/p/s/c/pro                     ← Abbreviazioni poco chiare

Problema con la navigazione a faccette:

/products?color=blue&size=large&price=50-100

Questo crea combinazioni infinite di URL. I crawler AI sprecano risorse a esplorare varianti di parametri.

Soluzione: Usa robots.txt per bloccare gli URL con parametri, oppure usa i frammenti invece dei parametri.

CR
CategoryPageOptimizer_Rachel · 26 dicembre 2025

Le pagine di categoria come hub di navigazione:

L’errore:

La maggior parte delle pagine di categoria sono corridoi vuoti:

  • Solo link alle pagine figlie
  • Nessun contenuto proprio
  • Opportunità sprecata

L’opportunità:

Rendi le pagine di categoria ricchi hub:

  • Contenuto introduttivo che spiega la categoria
  • Elementi in evidenza o popolari
  • Sezioni FAQ
  • Informazioni su esperti collaboratori
  • Link interni a categorie correlate

Perché è importante per l’AI:

I crawler AI vedono una pagina di categoria ricca → Capiscono la tua competenza → Più probabilità che citino i tuoi contenuti

La nostra trasformazione:

Prima: Pagina di categoria con 50 link a prodotti, nessun contenuto Dopo: Pagina di categoria con 500 parole di introduzione, FAQ, prodotti in evidenza, note di esperti

Risultato:

  • Tempo dei crawler AI sulla pagina: 2 secondi → 45 secondi
  • Citazioni AI dalla categoria: 0 → 12 al mese
UJ
UXLead_Jennifer OP Responsabile UX/Architettura dell'informazione · 26 dicembre 2025

Questo thread mi ha dato un piano d’azione completo. Ecco la nostra soluzione:

Fase 1: Vittorie rapide (Questa settimana)

  1. Aggiungi una navigazione HTML fallback lato server

    • I 30 link più importanti in HTML
    • Il mega-menu JavaScript funziona ancora per gli utenti
  2. Implementa breadcrumbs su tutto il sito

    • Markup schema BreadcrumbList
    • Link a tutte le categorie genitore
  3. Risolvi le pagine orfane

    • Identifica le pagine senza link interni
    • Aggiungi alle pagine di categoria rilevanti

Fase 2: Miglioramenti architetturali (Prossimo mese)

  1. Migra a Next.js per SSR corretto
  2. Ridisegna la struttura degli URL per chiarezza
  3. Arricchisci le pagine di categoria con contenuti

Fase 3: Monitoraggio (Continuo)

  1. Traccia i pattern di accesso dei crawler AI
  2. Monitora quali pagine vengono scoperte
  3. Usa Am I Cited per tracciare le modifiche nelle citazioni

Metriche chiave da monitorare:

MetricaAttualeObiettivo
Pagine scoperte da AI1.0004.000+
Profondità media crawling2 livelli5+ livelli
Pagine orfaneSconosciuteZero
Citazioni AI050+/mese

L’intuizione chiave:

La navigazione non riguarda più solo l’UX. È fondamentale che i crawler AI possano scoprire e comprendere l’intero sito. Il progressive enhancement è la risposta: base HTML per i crawler, JavaScript per un’esperienza utente avanzata.

Grazie a tutti per i consigli pratici.

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

In che modo la navigazione influisce sul crawling AI?
La struttura della navigazione influisce direttamente su come i crawler AI scoprono, accedono e comprendono i tuoi contenuti. Una navigazione chiara e logica aiuta i bot AI a effettuare il crawling in modo efficiente e migliora la scoperta dei contenuti. Una navigazione scadente con menu solo JavaScript, annidamenti profondi o pagine orfane può rendere i contenuti invisibili ai sistemi AI.
I crawler AI possono seguire la navigazione JavaScript?
La maggior parte dei crawler AI, inclusi GPTBot, ClaudeBot e PerplexityBot, non può eseguire JavaScript. Vedono solo la risposta HTML iniziale. Se la tua navigazione si basa su JavaScript per essere visualizzata, i crawler AI perderanno tutti quei link e i contenuti a cui portano.
Qual è la migliore struttura di navigazione per la visibilità AI?
Una navigazione piatta dove i contenuti importanti sono raggiungibili entro 3 click è ottimale. Usa HTML semantico, breadcrumbs, navigazione renderizzata lato server e strutture URL chiare. Assicurati che tutte le pagine importanti siano collegate dalla navigazione principale nella risposta HTML iniziale.

Monitora l'accesso dei crawler AI ai tuoi contenuti

Traccia quali pagine vengono scoperte e raggiunte dai crawler AI. Assicurati che la tua navigazione non blocchi la visibilità.

Scopri di più