Przejdź do treści
Uwaga: Tłumaczenie tego artykułu jest podane wyłącznie dla wygody. Tłumaczenie jest tworzone automatycznie za pomocą oprogramowania tłumaczącego i mogło nie zostać sprawdzone. W związku z tym, angielska wersja tego artykułu powinna być uważana za wersję obowiązującą, zawierającą najnowsze informacje. Możesz uzyskać do niej dostęp tutaj.

Zrozumienie błędów indeksowania SEO

Data ostatniej aktualizacji: stycznia 6, 2022

Dotyczy:

Wszystkie produkty i plany

Jeśli robot indeksujący SEO nie może zaindeksować strony, zwróci błąd indeksowania. Może się to zdarzyć w przypadku robotów indeksujących w narzędziach SEO HubSpot, a także robotów zewnętrznych, takich jak Semrush. Kroki, które należy podjąć w celu rozwiązania problemu błędu indeksowania, zależą od błędu i miejsca hostowania strony.

Narzędzia SEO HubSpot badające stronę HubSpot

Zalecenia SEO można wyświetlić w zakładceOptymalizacjaw szczegółach wydajności strony lub postu. Jeśli wystąpią problemy z indeksowaniem strony, może zostać wyświetlony jeden z następujących komunikatów o błędach:

  • Status 301: Moved Permanently - przekierowanie 301 uniemożliwia crawlerowi dostęp do treści.
  • Status 302: Obiekt przeniesiony - przekierowanie 302 (tymczasowe) uniemożliwia crawlerowi dostęp do treści.
  • Status 403: Forbidden - serwer może być osiągnięty, ale dostęp do treści jestzabroniony.
  • Status 404: Not Found - crawler nie jest w stanie znaleźć żywej wersji treści, ponieważ została ona usunięta lub przeniesiona.
  • Crawl of [site] blocked by robots.txt -plik robots.txt blokuje indeksowanie treści.

Narzędzia SEO HubSpot indeksujące stronę zewnętrzną

Jeśli próbowałeś indeksować zewnętrzne strony za pomocą narzędzi SEO HubSpot, możesz napotkać jeden z tych błędów:

  • Skanowanie zablokowane przez plik robots.txt:jeśli Twoja strona zewnętrzna jest wykluczona z indeksowania przez Twój plik robots.txt, dodaj agenta użytkownika naszego crawlera "HubSpot Crawler" jako wyjątek .Dowiedz się więcej o pracy z pli kiem robots.txttutaj.
  • Plik robots.txt nie mógł zostać pobrany: jeśli roboty indeksujące HubSpot nie mogą uzyskać dostępu do pliku robots.txt witryny, sprawdź, czy plik robots.txt jest dostępny i znajduje się w katalogu najwyższego poziomu witryny . Dowiedz się więcej o pracy z pli kiem robots.txttutaj.
  • Crawler nie jest w stanie przeskanować tego adresu URL: Jeśli roboty indeksujące HubSpot nie mogą indeksować określonego adresu URL, spróbuj wykonać następujące czynności:
    • Sprawdź, czy adres URL został wprowadzony poprawnie.
    • Sprawdź, czy strona, która ma być indeksowana, jest aktualnie aktywna.
    • Sprawdź, czy DNS może rozwiązać adres URL. Dowiedz się więcej o rozwiązywaniu błędów DNS w Dokumentacja Google.
    • Skontaktuj się z administratorem witryny i poproś o dodanie agenta użytkownika naszego robota indeksującego, "HubSpot Crawler", do listy dozwolonych wyjątków.

Zewnętrzne narzędzie SEO indeksujące stronę HubSpot

Jeśli próbowałeś indeksować swoje strony HubSpot za pomocą zewnętrznego narzędzia SEO, takiego jak Moz lub Semrush, może się okazać, że nie możesz pomyślnie indeksować swoich stron.

Do najczęstszych przyczyn tego problemu należą:

  • Włączenie twoich stron do pliku robots.txt uniemożliwia ich indeksowanie lub indeksowanie.
  • Znacznik meta noindex w nagłówku HTML Twoich stron uniemożliwia ich indeksowanie lub indeksowanie.
  • Audytowanie domeny głównej, a nie subdomeny podłączonej do HubSpot , powoduje błąd przekroczenia limitu czasu.
  • Linki do kanałów RSS i stron z listą blogów wygasają po opublikowaniu nowych wpisów, co może powodować błędy zablokowanych zasobów.
  • Nieistotne zasoby, takie jak skrypty ładujące menu zębatki HubSpot, mogą powodować błędy zablokowanych zasobów. Nie uniemożliwia to jednak indeksowania pozostałej części strony.