Checklisty techniczne SEO: Core Web Vitals, indeksacja, struktura

Spis treści

checklista techniczne seo

Techniczne SEO rzadko daje szybki efekt „wow” na wykresie z dnia na dzień, za to potrafi konsekwentnie podnosić widoczność, konwersję i stabilność ruchu. I co ważne, ogranicza ryzyko: nagły spadek pozycji po wdrożeniu nowej sekcji strony albo po aktualizacji wtyczek.

Dobra checklista techniczna działa jak procedura jakości. Nie zastępuje strategii treści czy link buildingu, ale sprawia, że cała reszta nie przecieka przez dziury w indeksacji, wydajności lub architekturze serwisu.

Jak korzystać z checklisty, żeby naprawdę dowoziła wyniki

Jeśli traktujesz checklistę jak „odfajkowanie”, szybko traci sens. Lepiej podejść do tego jak do cyklu: pomiar, priorytety, wdrożenie, weryfikacja, monitoring.

Techniczne SEO warto podzielić na trzy kategorie, które się wzajemnie wzmacniają:

  • Wydajność i UX (Core Web Vitals): czy użytkownik szybko widzi treść i może płynnie działać.
  • Indeksacja i crawl: czy roboty wyszukiwarek w ogóle docierają do właściwych adresów.
  • Struktura: czy serwis ma logiczną hierarchię, spójne URL-e i wewnętrzne linki, które kierują „moc” tam, gdzie ma pracować.

Jedno zdanie, które porządkuje priorytety: najpierw upewnij się, że ważne strony mogą być indeksowane, potem przyspiesz je i ustabilizuj, a na końcu dopracuj strukturę oraz skalowanie.

Core Web Vitals: progi, pomiar i szybkie zwycięstwa

Core Web Vitals to zestaw metryk, które Google traktuje jako sygnał jakości doświadczenia na stronie. W praktyce najczęściej wygrywa ten, kto ma „zielono” na mobile, bo indeksowanie i ocena wyników od dawna jest mobilna.

Kluczowe progi, do których celuje większość zespołów SEO i dev:

Obszar Metryka Cel (dobry wynik) Gdzie sprawdzać Najczęstsze przyczyny problemów
Szybkość percepcyjna LCP ≤ 2,5 s PageSpeed Insights, raport CWV w GSC ciężkie obrazy „hero”, wolny serwer (TTFB), blokujące CSS/JS
Responsywność FID (historycznie) / INP (obecnie ważniejsze) FID < 100 ms / INP zwykle < 200 ms GSC (dane z ruchu), Lighthouse (lab) długi czas pracy JS na głównym wątku, zbyt wiele skryptów, ciężkie biblioteki
Stabilność wizualna CLS ≤ 0,1 PSI, Lighthouse, GSC brak wymiarów obrazów, doczytywanie fontów, elementy „wyskakujące” nad treścią

Warto rozróżnić dwa typy danych: lab (Lighthouse, test jednorazowy) i field (Chrome UX Report w PSI, raport CWV w Search Console). Lab pomaga diagnozować przyczyny. Field mówi, jak jest naprawdę u użytkowników.

Jeśli masz sytuację podobną do wielu stron usługowych agencji, gdzie content jest rozbudowany i graficzny, LCP często bywa pierwszym hamulcem. Przykładowo, dla tombakczyzloto.pl w testach laboratoryjnych i danych zbliżonych do realnych ruchów można zobaczyć wartości w okolicach LCP 3,0 s oraz CLS 0,15, co sygnalizuje, że główna treść ładuje się odczuwalnie za wolno, a układ potrafi lekko „drgnąć” w trakcie renderowania.

Po takim pomiarze opłaca się wejść w konkret.

Najpierw ustal, co jest elementem LCP (obraz, blok nagłówka, sekcja hero). Potem sprawdź łańcuch: TTFB, pobranie zasobów, render, ewentualne blokady CSS/JS. Dopiero wtedy planuj optymalizację, bo „kompresujmy wszystko” to często strzał w ciemno.

Po tej diagnozie zwykle sprawdzają się działania o dużej dźwigni:

  • kompresja i konwersja obrazów do WebP lub AVIF
  • właściwe rozmiary obrazów (responsywne srcset)
  • deklarowanie width i height przy mediach
  • lazy-load dla elementów poniżej pierwszego ekranu
  • preload dla krytycznego obrazu hero
  • ograniczenie skryptów marketingowych i widgetów
  • defer i porządek w kolejności ładowania JS
  • krytyczny CSS lub odchudzenie arkuszy stylów
  • cache dla zasobów statycznych i sensowny CDN

Te punkty brzmią znajomo, ale robią różnicę dopiero wtedy, gdy są wykonane na podstawie wskazań z Lighthouse i danych z GSC, a nie „hurtowo”.

Indeksacja i crawl: kontrola, która chroni ruch organiczny

Indeksacja to temat, który bywa pomijany, bo „przecież strona jest w Google”. Tylko że SEO rzadko opiera się na stronie głównej i kontakcie. Widoczność budują podstrony usług, lokalizacje, artykuły, case studies, landing pages. Jeśli część z nich ma status „Odkryto, obecnie nie zindeksowano” albo wisi na kanonikalizacji ustawionej przypadkiem, potencjał się marnuje.

W praktyce zaczyna się od Google Search Console: raporty indeksowania, „Sprawdź URL”, mapa witryny, błędy 4xx/5xx, przekierowania, wykluczenia. Dopiero potem wchodzi crawler typu Screaming Frog lub Sitebulb, bo to one pokażą spójność w skali całego serwisu.

Warto prowadzić prostą checklistę indeksacji, opartą o to, co najczęściej blokuje wzrost:

  • Status w indeksie: liczba adresów „Zaindeksowano” rośnie wraz z rozwojem serwisu i nie ma dziwnych spadków po wdrożeniach.
  • robots.txt i noindex: ważne sekcje nie są blokowane, a noindex trafia tylko tam, gdzie ma sens (koszyki, staging, strony techniczne).
  • Duplikacja: jedna wersja domeny (www lub bez), jedna wersja protokołu (HTTPS), spójne ukośniki na końcu URL.
  • Canonical i przekierowania: 301 zamiast 302 w stałych zmianach, kanonikalizacja nie wskazuje przypadkiem na stronę główną lub zły wariant URL.
  • Sitemap.xml: aktualna, bez adresów 404, zgłoszona w GSC i powiązana z robots.txt.

Jeden akapit, który oszczędza sporo nerwów: jeśli po migracji, zmianie CMS albo wdrożeniu nowych filtrów widzisz nagły wysyp parametrów w adresach URL, potraktuj to jak alarm. Parametry potrafią wygenerować tysiące wariantów, które zjadają budżet crawl i mieszają w duplikacji.

Struktura: nagłówki, URL-e, linkowanie i dane strukturalne

Struktura serwisu to „mapa” dla ludzi i robotów. Dobra struktura skraca drogę do treści, porządkuje kontekst tematyczny i wzmacnia najważniejsze strony usługowe.

W praktyce najczęstszy problem nie leży w samych URL-ach, tylko w hierarchii treści i linkowaniu wewnętrznym. Typowy objaw: strona ma jeden H1, a potem przeskakuje od razu do H3 w głównych sekcjach. Dla użytkownika wizualnie może być ok, ale dla semantyki dokumentu i skanowania przez roboty to mniej czytelne. Wystarczy uporządkować nagłówki H2 jako główne bloki, a H3 zostawić dla podsekcji.

Dobrze działa też spójna logika adresów:

  • krótkie i opisowe ścieżki (/pozycjonowanie-i-seo/, /kontakt/)
  • konsekwencja w ukośnikach
  • brak zbędnych kategorii i dat, jeśli nie są potrzebne
  • unikanie zduplikowanych wersji przez przekierowania i canonical

Po tym przychodzi linkowanie wewnętrzne, czyli najtańszy sposób, by poprawić crawl i rozkład autorytetu. To element, który agencje często łączą z planowaniem treści: artykuł blogowy ma wskazywać usługę, a usługa ma odsyłać do artykułów, które rozwijają temat i łapią ruch długiego ogona.

Jeśli chcesz wdrożyć porządek bez rozciągania projektu w czasie, sprawdza się taka kolejność prac:

  1. Audyt nagłówków na kluczowych stronach (H1, H2, H3) i poprawa hierarchii.
  2. Spójność URL (www, HTTPS, ukośniki) oraz przekierowania 301.
  3. Canonical na każdej ważnej podstronie, bez „masowych” błędów.
  4. Linkowanie wewnętrzne między usługami, blogiem i ofertą, z naturalnymi anchorami.
  5. Breadcrumbs i dane schema.org (np. BreadcrumbList, LocalBusiness), jeśli pasują do serwisu.
  6. Monitoring: zmiany w GSC (indeksacja, CWV), wzrost/ spadek kliknięć i zapytań.

Jedno zdanie: im większy serwis, tym bardziej struktura staje się dźwignią, a nie kosmetyką.

Rytm audytu technicznego: co sprawdzać co tydzień, co miesiąc, a co po wdrożeniach

Techniczne SEO lubi regularność, bo regresje zdarzają się przy małych zmianach: nowy slider na stronie głównej, dodatkowy pixel reklamowy, cięższe zdjęcia w portfolio, przebudowa sekcji ofertowej.

Dobrze działa rytm „lekki, ale stały”. Co tydzień szybki przegląd GSC, czy nie pojawiły się skoki błędów, a co miesiąc pełniejszy mini audyt. Po większym wdrożeniu warto od razu odpalić Lighthouse i crawler.

W praktyce wiele firm układa to tak:

  • Tydzień: GSC (indeksowanie, błędy), podstawowy monitoring CWV.
  • Miesiąc: crawl całego serwisu, weryfikacja mapy strony, 404/5xx, przekierowania, kanonikalizacja.
  • Po wdrożeniach: testy wydajności na mobile, kontrola LCP elementu hero, sprawdzenie CLS na najważniejszych szablonach.

Jeśli działasz na kilku rynkach (np. Polska i Niemcy), dodaj do rytmu kontrolę hreflang i wariantów językowych, bo to częsty punkt zapalny w indeksacji.

Szybka diagnoza: objawy, które mówią „to jest techniczne”

Czasem problem wygląda jak spadek SEO „bez powodu”, a źródło jest techniczne i bardzo konkretne. Dobrze znać typowe symptomy.

Jeśli widzisz nagły spadek kliknięć w Search Console na wielu podstronach naraz, sprawdź najpierw indeksację i przekierowania, dopiero potem treść. Jeśli spadają tylko wyniki mobilne, zacznij od CWV i elementów ciężkich na telefonach.

Warto też pamiętać o prostych rzeczach, które nadal potrafią zepsuć widoczność: błędy „mixed content” przy HTTPS, blokady w robots.txt po pracach developerskich, przypadkowy noindex na szablonie usług, pętle przekierowań po zmianie wtyczki.

Techniczne SEO jest wdzięczne, bo większość problemów da się potwierdzić w narzędziach i naprawić bez zgadywania. A gdy połączysz to z podejściem 360 stopni, strategią, kreacją i analityką, łatwiej utrzymać tempo wzrostu bez poświęcania jakości strony, co zwykle jest celem marek, które myślą o sprzedaży, a nie tylko o pozycji na jedną frazę.

Share this project