Discussion Core Web Vitals Technical SEO

Czy poprawa Core Web Vitals faktycznie zwiększyła nasze cytowania przez AI? Oto nasze dane z 6 miesięcy testów

TE
TechSEO_Marcus · Technical SEO Lead w firmie SaaS
· · 108 upvotes · 10 comments
TM
TechSEO_Marcus
Technical SEO Lead at SaaS Company · 9 stycznia 2026

Przez 6 miesięcy systematycznie poprawialiśmy Core Web Vitals i śledziliśmy wpływ na cytowania przez AI. Wyniki nas zaskoczyły.

Eksperyment:

Mieliśmy około 300 postów na blogu o różnych wynikach wydajności. Poprawialiśmy Core Web Vitals partiami, aby wyizolować ten czynnik.

Przed optymalizacją:

  • Średni LCP: 4,2s
  • Średni CLS: 0,18
  • Średni INP: 340ms
  • Wskaźnik cytowań AI: 1,8 na stronę/miesiąc

Po optymalizacji:

  • Średni LCP: 1,9s
  • Średni CLS: 0,06
  • Średni INP: 120ms
  • Wskaźnik cytowań AI: 3,4 na stronę/miesiąc

To wzrost cytowań AI o 89%.

Wprowadzone zmiany:

  1. Przeniesienie na edge CDN
  2. Optymalizacja obrazów (WebP, lazy loading)
  3. Zmniejszenie rozmiaru paczki JavaScript
  4. Dodanie jawnych wymiarów obrazów

Pytanie do społeczności:

Czy ktoś jeszcze widzi taką korelację? Kontrolowaliśmy zmiany treści, ale chcę potwierdzić, że to nie tylko nasza strona.

10 comments

10 komentarzy

PS
PerformanceEngineer_Sarah Expert Web Performance Engineer · 9 stycznia 2026

Twoje wyniki pokrywają się z tym, co obserwujemy w branży. Oto dlaczego to ma sens:

Dlaczego crawlerzy AI zwracają uwagę na wydajność:

  1. Limity czasu – crawlerzy AI mają rygorystyczne limity. Wolne strony są pomijane.

  2. Renderowanie całości – AI potrzebuje w pełni wyrenderowanej treści. Powolny LCP oznacza niekompletną analizę.

  3. Sygnał jakości – szybkie strony korelują z zadbanymi, autorytatywnymi treściami.

Badania to potwierdzają:

Badanie 2 138 stron wykazało:

  • CLS ≤ 0,1: o 29,8% więcej wzmianek AI
  • LCP ≤ 2,5s: ~50% większe szanse pojawienia się w AI
  • TTFB < 200ms: 22% wyższa gęstość cytowań
  • Strony > 1MB: 18% porzuconych przez crawlerów AI

Podsumowanie:

Core Web Vitals to już nie tylko UX. To sygnały crawlability dla systemów AI.

CD
ContentManager_Dave · 9 stycznia 2026
Replying to PerformanceEngineer_Sarah

Statystyka „strony > 1MB są porzucane” jest niepokojąca.

Mamy długie treści z wieloma obrazkami. Niektóre strony mają 3-4MB.

Czy crawlerzy AI naprawdę nie widzą naszych najlepszych treści, bo są za ciężkie?

PS
PerformanceEngineer_Sarah Expert · 9 stycznia 2026
Replying to ContentManager_Dave

Najprawdopodobniej tak. Crawlerzy AI mają limity zasobów.

Szybkie poprawki dla ciężkich stron:

  1. Lazy load obrazów – ładuj tylko to, co w widoku
  2. Nowoczesne formaty – WebP/AVIF są 25-35% mniejsze
  3. Agresywna kompresja – różnica jakości często niezauważalna
  4. Paginacja – podziel bardzo długą treść na sekcje

Każde zmniejszenie MB zwiększa szansę na pełne zcrawl’owanie.

Przetestuj:

Przepuść strony przez PageSpeed Insights. Jeśli masz ostrzeżenia o „nieprawidłowo rozmiarowanych obrazach”, to szanse na cytowania AI, które tracisz.

SM
StartupCTO_Mike CTO w SaaS Startupie · 8 stycznia 2026

Zrobiliśmy podobny eksperyment, ale skupiliśmy się na crawlach Perplexity.

Wnioski dotyczące Perplexity:

Perplexity crawluje w czasie rzeczywistym, aby odpowiadać na zapytania. Wydajność jest jeszcze ważniejsza:

  • Strony ładujące się >3s: 60% niższy wskaźnik cytowań
  • Strony z blokującym JS: 40% niższy wskaźnik cytowań
  • Strony z CDN: 2,1x wyższy wskaźnik cytowań vs. tylko origin

Czynnik czasu rzeczywistego:

W przeciwieństwie do Google (indeksuje z wyprzedzeniem), Perplexity pobiera strony na żywo podczas odpowiadania. Każda milisekunda ma znaczenie, bo użytkownicy czekają.

Nasze priorytety:

  1. Edge CDN (Cloudflare)
  2. Minimalizacja zależności JS
  3. SSR/Generowanie statyczne zamiast CSR
  4. Preconnect do popularnych zasobów

Efekt: wskaźnik cytowań Perplexity wzrósł 3,2x w ciągu 3 miesięcy.

AL
AgencySEO_Lisa Dyrektor SEO w agencji · 8 stycznia 2026

Śledzimy to na ponad 40 stronach klientów. Oto kilka wzorców:

Poziomy wydajności a cytowania AI:

Status Core Web VitalsŚr. AI cytowań/tydzień
Wszystkie zielone (zaliczone)4,8
Mieszane (część niezaliczona)2,3
Wszystkie czerwone (niezaliczone)0,9

Największa pojedyncza poprawa:

Optymalizacja LCP daje najwyższy zwrot. Zmiana z 4s do 2s LCP zwykle podwaja cytowania AI bez innych zmian.

Szybkie wygrane:

  1. Optymalizacja obrazów (największy wpływ, najłatwiejsza poprawa)
  2. Usuwanie nieużywanego CSS/JS
  3. CDN dla statycznych zasobów
  4. Preload kluczowych zasobów

Zacznij od LCP. Ma najwyższą korelację ze wzrostem cytowań AI.

DT
DataScientist_Tom · 8 stycznia 2026

Analizowałem tę zależność statystycznie. Oto wyniki:

Współczynniki korelacji:

MetrykaKorelacja z cytowaniami AI
LCP-0,42 (im niżej tym lepiej)
CLS-0,31 (im niżej tym lepiej)
INP-0,28 (im niżej tym lepiej)
Wiek domeny0,18
Backlinki0,24

Interpretacja:

LCP ma silniejszą korelację z cytowaniami AI niż backlinki czy wiek domeny. To istotne, bo zwykle uznajemy te sygnały autorytetu za ważniejsze.

Zastrzeżenie:

Korelacja to nie przyczynowość. Ale sugeruje, że optymalizacja wydajności zasługuje na więcej uwagi niż wiele strategii widoczności w AI.

WC
WordPressExpert_Chris · 7 stycznia 2026

Perspektywa WordPressa. Większość stron WP ma fatalne Core Web Vitals domyślnie.

Typowe zabójcy wydajności WordPressa:

  1. Nieoptymalne motywy (za dużo CSS/JS)
  2. Zbyt dużo wtyczek
  3. Brak cache
  4. Obrazy wrzucane w pełnej rozdzielczości
  5. Współdzielony hosting

Co robimy dla klientów:

  1. Zmiana na lekkie motywy (GeneratePress, Kadence)
  2. Audyt i redukcja wtyczek
  3. Dodanie cache (WP Rocket, LiteSpeed)
  4. Wdrożenie wtyczki do optymalizacji obrazów
  5. Przeniesienie na lepszy hosting

Typowe rezultaty:

  • LCP: 6s -> 2s
  • CLS: 0,25 -> 0,05
  • Cytowania AI: 2-3x wzrost

Strony WP są często najgorsze pod względem wydajności i mają największy potencjał poprawy.

EM
EnterpriseArchitect_Maria Architekt korporacyjny · 7 stycznia 2026

Perspektywa enterprise: optymalizacja wydajności pod AI różni się od tradycyjnej.

Tradycyjna optymalizacja:

  • Skupienie na stronach frontowych
  • Optymalizacja dla pierwszej wizyty
  • Uwzględnianie powracających użytkowników

Optymalizacja pod crawlerów AI:

  • LICZĄ się wszystkie strony (nie tylko topowe)
  • Crawlerzy nie cache’ują jak przeglądarki
  • Boty mogą wywoływać wiele stron naraz

Rekomendacje enterprise:

  1. Wydajność serwera na burst ruchu – Crawlerzy AI mogą być agresywni
  2. Stała wydajność wszystkich stron – Nie tylko homepage
  3. Czas odpowiedzi API – Jeśli treść ładowana przez API, optymalizuj także to
  4. Monitorowanie zachowania crawlerów – Analiza logów pokazuje wzorce crawl AI

Odkryliśmy, że nasze strony dokumentacyjne (historycznie zaniedbywane pod kątem wydajności) po optymalizacji miały najwyższy potencjał cytowań AI.

SJ
SEOToolsDev_Jake · 6 stycznia 2026

Tworzę narzędzia SEO i analizuję zachowania botów AI.

Ciekawe wzorce:

  1. GPTBot jest mniej cierpliwy niż Googlebot – szybciej się rozłącza
  2. PerplexityBot skupia się na tekście – pomija ciężkie elementy interaktywne
  3. ClaudeBot restrykcyjnie przestrzega robots.txt – bardzo grzeczny crawler

Praktyczne wnioski:

  • Kluczowa treść musi się szybko renderować
  • Nie polegaj na renderowaniu po stronie klienta dla ważnego tekstu
  • Ciężkie funkcje interaktywne mogą być ładowane z opóźnieniem
  • Alt tekst i strukturyzacja danych mają znaczenie (zrozumienie tekstowe)

Wskazówka testowa:

Użyj Puppeteer lub Playwright z agresywnymi timeoutami (5s), by symulować bota AI. Jeśli Twoja treść nie pojawi się w tym oknie, crawler AI może ją pominąć.

TM
TechSEO_Marcus OP Technical SEO Lead at SaaS Company · 6 stycznia 2026

Ten wątek potwierdził nasze obserwacje i dodał cenny kontekst.

Najważniejsze wnioski:

  1. Core Web Vitals MAJĄ istotny wpływ na cytowania AI
  2. LCP to najważniejszy parametr (50% więcej cytowań AI)
  3. Crawlerzy AI mają ostrzejsze limity czasu niż zwykłe roboty
  4. Ciężkie strony (>1MB) mogą być porzucane przez crawlerów AI
  5. Strony WordPress mają największy potencjał poprawy

Lista kontrolna optymalizacji:

  1. LCP poniżej 2,5s (najlepiej <2s)
  2. CLS poniżej 0,1
  3. INP poniżej 200ms
  4. Waga strony poniżej 1MB
  5. CDN dla wszystkich statycznych zasobów
  6. Preload krytycznych zasobów

Monitorowanie:

  • Śledź Core Web Vitals w Search Console
  • Monitoruj cytowania AI przez Am I Cited
  • Koreluj poprawy, aby mierzyć efekt

ROI z optymalizacji wydajności właśnie wzrosło. To już nie tylko UX – to widoczność w AI.

Dzięki wszystkim za dane i wnioski.

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

Jak Core Web Vitals wpływają na cytowania przez AI?
Core Web Vitals znacząco wpływają na cytowania przez AI poprzez oddziaływanie na crawlability i wybór źródeł. Strony z LCP poniżej 2.5s mają o 50% większe szanse pojawienia się w wynikach AI. Strony z CLS poniżej 0.1 pojawiają się w podsumowaniach AI o 29,8% częściej. Crawlerzy AI mają limity czasu i priorytetyzują szybko ładujące się źródła.
Które Core Web Vitals są najważniejsze dla widoczności w AI?
LCP (Largest Contentful Paint) ma najsilniejszy wpływ – strony z wynikiem poniżej 2.5s notują o 50% wyższe prawdopodobieństwo pojawienia się w AI. CLS (Cumulative Layout Shift) poniżej 0.1 daje o 29,8% więcej wzmianek AI. INP (Interaction to Next Paint) poniżej 200ms koreluje z 7% wyższą gęstością cytowań.
Czy crawlerzy AI zachowują się inaczej niż zwykłe roboty?
Tak, crawlerzy AI mają bardziej rygorystyczne limity czasu i ograniczenia zasobów. Strony wymagające zbyt długiego ładowania mogą być całkowicie pominięte. Wolno ładujące się strony zużywają budżet crawl i mogą zostać przerwane przed wyciągnięciem treści. Powoduje to naturalną selekcję na korzyść szybkich, dobrze zoptymalizowanych stron.

Śledź wydajność cytowań przez AI

Monitoruj, jak techniczne optymalizacje wpływają na Twoją widoczność w AI. Zobacz wskaźniki cytowań w ChatGPT, Perplexity i Google AI Overviews.

Dowiedz się więcej