Jeg har arbejdet med crawler-infrastruktur. Lad mig forklare, hvorfor det sker.
Hvordan forskellige crawlere håndterer JavaScript:
| Crawler-type | JS-rendering | Bemærkninger |
|---|
| Googlebot | Ja (forsinket) | WRS køer JS-rendering |
| Bingbot | Ja (begrænset) | Nogle JS-understøttelse |
| AI-træningsbots | Ofte nej | Prioriterer hastighed over rendering |
| RAG-crawlere | Varierer | Afhænger af implementering |
Hvorfor AI-bots ofte springer JS over:
- Skala – Rendering af milliarder af sider er dyrt
- Hastighed – JS giver latenstid
- Pålidelighed – JS kan fejle, timeouts opstår
- Enkelhed – HTML-first er nemmere
Den praktiske konsekvens:
Hvis dit indhold kræver JavaScript for at blive vist, indgår det måske ikke i AI-træningsdata. Dit indhold eksisterer bogstaveligt talt ikke i deres modeller.
SSR løser dette fuldstændigt.
HTML i respons = garanteret tilgængelighed.