Discussion Technical SEO AI Crawlers

Na kterých technických SEO faktorech opravdu záleží pro AI viditelnost? Naše stránka má vysoké pozice na Googlu, ale žádné AI citace

TE
TechSEO_Manager · Technický SEO manažer
· · 77 upvotes · 8 comments
TM
TechSEO_Manager
Technický SEO manažer · 6. ledna 2026

Jsem zmatený z rozporu mezi naším hodnocením na Googlu a viditelností v AI.

Naše situace:

  • Top 10 pozice pro 200+ klíčových slov
  • Domain Authority 72
  • Výborné Core Web Vitals (vše zelené)
  • Silný profil zpětných odkazů
  • Ale téměř žádné AI citace v ChatGPT, Perplexity, Claude

Čemu nerozumím:

  • Když máme dobré pozice na Googlu, neměla by nás AI také najít?
  • Náš obsah je kvalitní a komplexní
  • Udělali jsme „vše správně“ z pohledu SEO

Otázky:

  1. Které technické faktory konkrétně ovlivňují AI crawlery?
  2. Jak se AI crawlery liší od Googlebotu?
  3. Jaký technický dluh se může skrývat pod dobrým hodnocením na Googlu?
  4. Co bych měl zkontrolovat jako první?

Potřebuji pochopit technickou mezeru.

8 comments

8 komentářů

AS
AITechnical_Specialist Expert AI technický SEO konzultant · 6. ledna 2026

Skvělé pozice na Googlu NEzaručují AI viditelnost. Tady je proč:

Jak se AI crawlery liší od Googlebotu:

FaktorGooglebotAI crawlery
JavaScriptPlné vykresleníPouze HTML
SložitostStovky signálůMéně, jednodušší signály
Tolerance chybKompenzuje problémyNeodpouští
Frekvence procházeníProměnlivá3-8× častější
Extrakce datOdkazy + obsahPouze čistý text

Co Google maskuje a AI odhaluje:

  1. Kompenzace autoritou – Google silně zohledňuje DA a zpětné odkazy. AI odkazy nezajímají – pouze kvalita a dostupnost obsahu.

  2. Vykreslení JavaScriptu – Googlebot vykresluje JS po prvním procházení. AI crawlery vidí pouze čistý HTML.

  3. Mobile-first – Oba to řeší, ale AI crawlery selžou rychleji při špatné mobilní verzi.

  4. Tolerance rychlosti – Google rychlost zohledňuje, ale kompenzuje autoritou. AI systémy prostě přeskočí pomalé stránky.

Vaši pravděpodobní viníci:

Pokud máte dobré pozice na Googlu, ale žádné AI citace, zkontrolujte:

  1. Vykreslování klíčového obsahu JavaScriptem
  2. Robots.txt blokující AI user-agenty
  3. CDN/Cloudflare blokující AI boty
  4. Strukturu obsahu (strojově čitelné vs. lidsky čitelné)
TM
TechSEO_Manager OP · 6. ledna 2026
Replying to AITechnical_Specialist
Počkejte – Cloudflare blokuje AI boty? Používáme Cloudflare. Jak to ověřím?
AS
AITechnical_Specialist Expert · 6. ledna 2026
Replying to TechSEO_Manager

Tohle je pravděpodobně váš problém. V červenci 2025 začal Cloudflare ve výchozím nastavení blokovat AI crawlery.

Jak to ověřit:

  1. Přihlaste se do Cloudflare dashboardu
  2. Jděte na Zabezpečení > Boty
  3. Zkontrolujte nastavení „AI Bots“
  4. Pokud jsou blokováni = celý váš web je pro AI neviditelný

Jak to opravit:

  1. Jděte na Zabezpečení > Boty
  2. Najděte sekci AI Crawlery/AI Bots
  3. Nastavte na „Povolit“ pro legitimní AI boty
  4. Konkrétně povolte: GPTBot, ClaudeBot, PerplexityBot, Google-Extended

Obecné ponaučení:

Rozhodnutí o třetích stranách v infrastruktuře může vaši AI viditelnost zrušit, aniž byste o tom věděli. Zkontrolujte:

  • Nastavení CDN (Cloudflare, Fastly, Akamai)
  • WAF pravidla (mohou blokovat boty)
  • Robots.txt (může blokovat AI user-agenty)
  • Výchozí nastavení poskytovatele hostingu

Rychlý validační test:

curl -A "GPTBot/1.0" https://vasweb.cz/klicova-stranka

Pokud dostanete 403, blokovanou stránku nebo výzvu, AI crawlery nemohou váš web navštívit.

WE
WebPerformance_Engineer Web Performance Engineer · 6. ledna 2026

Pohled na rychlost načítání – pro AI důležitější než pro Google:

Proč rychlost zasahuje AI tvrději:

AI platformy procházejí miliardy stránek a spotřebují obrovské výpočetní zdroje. Rozšiřování OpenAI potřebuje 10 gigawattů energie. Každá pomalá stránka je plýtvání zdroji.

Matematika:

  • Pomalý web = více zdrojů pro crawlery
  • Více zdrojů = vyšší náklady
  • Vyšší náklady = nižší priorita
  • Výsledek = méně AI citací

Rychlostní benchmarky pro AI:

MetrikaCílDopad na AI
LCPPod 2,5 sSilná korelace s citacemi
FIDPod 100 msRychlost odezvy pro crawler
CLSPod 0,1Spolehlivost extrakce obsahu
TTFBPod 200 msRychlost přístupu crawleru

Vaše „vše zelené“ Core Web Vitals:

Google má tolerantnější limity. Pro AI:

  • Google „dobré“ = 2,5 s LCP
  • AI preferuje = pod 1,5 s LCP

Můžete splnit Google, ale být pomalí pro AI.

Priority optimalizace rychlosti:

  1. Odezva serveru (TTFB)
  2. Optimalizace obrázků (WebP/AVIF, lazy loading)
  3. Snížení JavaScriptu (méně/menší bundly)
  4. CDN cache (servírování z edge)
  5. Odstranění blokujících zdrojů pro vykreslení
SE
Schema_Expert Expert · 5. ledna 2026

Schema markup a strukturovaná data – často chybí i na dobře hodnocených webech:

Proč schema pro AI znamená víc:

Google používá signály nad rámec schematu (odkazy, autoritu, zapojení). AI systémy se silně spoléhají na strukturovaná data pro:

  • Pochopení typu obsahu
  • Důvěryhodnou extrakci informací
  • Ověření entity
  • Snížení nejednoznačnosti

Schema ovlivňující AI (~10 % hodnocení Perplexity):

  1. Article/TechArticle – Identifikace typu obsahu
  2. FAQPage – Extrakce otázek a odpovědí
  3. HowTo – Postupné kroky
  4. Organization – Rozpoznání entity
  5. Product/Service – Jasnost komerčního záměru
  6. BreadcrumbList – Pochopení hierarchie webu

Kontrolní seznam implementace:

{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "Název vaší stránky",
  "datePublished": "2026-01-06",
  "dateModified": "2026-01-06",
  "author": {
    "@type": "Person",
    "name": "Jméno autora",
    "url": "https://vasweb.cz/autor"
  },
  "publisher": {
    "@type": "Organization",
    "name": "Vaše společnost"
  }
}

Časté chyby:

  • Schema neodpovídá viditelnému obsahu
  • Zastaralá dateModified razítka
  • Chybějící informace o autorovi/vydavateli (signály E-E-A-T)
  • Chybějící FAQPage schema u FAQ sekcí

Ověřte pomocí Google Rich Results Testu A Schema Markup Validatoru.

CP
ContentArchitect_Pro · 5. ledna 2026

Pohled na strukturu obsahu – co potřebuje AI vs. co vidí lidé:

Mezera mezi lidským a strojovým čtením:

Lidé:

  • Skenují vizuálně
  • Vykládají kontext
  • Doplní si chybějící významy
  • Navigují intuitivně

AI crawlery:

  • Parsují HTML sekvenčně
  • Potřebují explicitní kontext
  • Nemohou domýšlet význam
  • Řídí se striktní strukturou

Strukturální prvky, na kterých záleží:

  1. Hierarchie nadpisů
H1 (jeden na stránku)
  H2 (hlavní sekce)
    H3 (podsekce)

Nikdy nepřeskakujte úrovně. Každý nadpis = hranice obsahu.

  1. Struktura URL Dobré: /features/sso-configuration Špatné: /page?id=12345

Popisné URL dávají signál obsahu ještě před jeho zpracováním.

  1. Interní prolinkování
  • Obojsměrné odkazy ukazují vztahy
  • Popisný anchor text pomáhá s porozuměním
  • Tématické clustery signalizují autoritu
  1. Dělení obsahu
  • Krátké odstavce (2–3 věty)
  • Samostatné sekce
  • Výčty pro snazší skenování
  • Tabulky pro srovnání

Test viditelnosti:

Pokud byste odstranili veškeré stylování ze stránky, dávala by struktura stále smysl? Přesně tak to vidí AI crawlery.

TM
TechSEO_Manager OP Technický SEO manažer · 5. ledna 2026

Právě jsem zkontroloval Cloudflare – AI boti byli ve výchozím stavu blokováni. To vše vysvětluje.

Moje zjištění z auditu:

  1. Blokování Cloudflare – AI boti blokováni (NYNÍ OPRAVENO)
  2. JavaScriptový obsah – Některý klíčový obsah je renderován JavaScriptem
  3. Chybějící schema – Žádné FAQPage schema, neúplné Article schema
  4. Rychlost – 2,3 s LCP (splňuje Google, ale není ideální)

Můj technický akční plán:

Ihned (dnes):

  • Povolit přístup AI crawlerů v Cloudflare (HOTOVO)
  • Otestovat pomocí curl, zda mají přístup

1. týden:

  • Audit JavaScriptového renderování na top 50 stránkách
  • Implementace SSR pro klíčový obsah
  • Přidání FAQPage schema do všech FAQ sekcí

2.–4. týden:

  • Doplnění Article schema o informace o autorovi
  • Optimalizace rychlosti (cílit na 1,5 s LCP)
  • Audit hierarchie nadpisů

Průběžně:

  • Monitorovat AI citace přes Am I Cited
  • Sledovat korelaci mezi úpravami a viditelností
  • Pravidelné audity infrastruktury

Klíčová ponaučení:

  1. Google výsledky maskují technický dluh – AI odhaluje problémy, které Google kompenzuje
  2. Na třetích stranách infrastruktury záleží – Cloudflare nás blokoval bez našeho vědomí
  3. Různí crawlery, různé požadavky – Nelze předpokládat, že úspěch u Googlebotu = úspěch u AI
  4. Schema je pro AI zásadní – Už to není volitelné

Pokorné zjištění:

Mysleli jsme si, že naše technické SEO je v pořádku, protože to říkal Google. AI crawlery ale odhalily úplně jiný příběh.

Díky všem za pomoc s diagnózou!

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

Proč dobré pozice na Googlu neznamenají AI viditelnost?
Google hodnotí stovky signálů včetně zpětných odkazů, autority a zapojení. AI crawlery fungují jinak – odstraní formátování a zpracovávají pouze čistý HTML text. Technické problémy, které Google maskuje, mohou zásadně poškodit AI viditelnost.
Které technické faktory nejvíce ovlivňují AI citace?
Nejdůležitější: rychlost načítání stránky (pod 2,5 s LCP), serverem renderovaný HTML (ne JavaScript), správná hierarchie nadpisů, schema markup, přesné lastmod datum, HTTPS zabezpečení a zajištění, že AI crawlery nejsou blokovány. Core Web Vitals silně korelují s mírou AI citací.
Zvládají AI crawlery JavaScript?
Většina AI crawlerů (GPTBot, ClaudeBot, PerplexityBot) čte pouze čistý HTML a nespouští JavaScript. Obsah vykreslený na straně klienta pomocí JavaScriptu je pro tyto crawlery neviditelný. Server-side rendering je klíčový pro AI viditelnost.
Jak rychlost načítání stránky ovlivňuje AI citace?
AI platformy procházejí denně miliardy stránek. Pomalé stránky spotřebují více výpočetních zdrojů, proto jsou přirozeně AI systémy upozaďovány. Stránky načítající se pod 2,5 sekundy získávají významně více AI citací než pomalejší konkurence.

Monitorujte svou technickou AI výkonnost

Sledujte, jak technické faktory ovlivňují vaši AI viditelnost. Monitorujte citace napříč ChatGPT, Perplexity a Google AI Přehledy.

Zjistit více