Przejdź do treści
Uwaga: Tłumaczenie tego artykułu jest podane wyłącznie dla wygody. Tłumaczenie jest tworzone automatycznie za pomocą oprogramowania tłumaczącego i mogło nie zostać sprawdzone. W związku z tym, angielska wersja tego artykułu powinna być uważana za wersję obowiązującą, zawierającą najnowsze informacje. Możesz uzyskać do niej dostęp tutaj.

Zrozumienie błędów indeksowania SEO

Data ostatniej aktualizacji: października 31, 2023

Dostępne z każdą z następujących podpisów, z wyjątkiem miejsc, w których zaznaczono:

Wszystkie produkty i plany

Jeśli crawler SEO nie może zindeksować strony, zwróci błąd indeksowania. Może się to zdarzyć w przypadku robotów indeksujących w narzędziach SEO i importowania HubSpot, a także zewnętrznych robotów indeksujących, takich jak Semrush. Kroki rozwiązania błędu indeksowania zależą od błędu i miejsca hostowania strony.

Narzędzia SEO HubSpot indeksujące stronę HubSpot

Zalecenia SEO można wyświetlić na karcie Optymalizacja w szczegółach wydajności strony lub postu. Jeśli występują problemy z indeksowaniem strony, możesz zobaczyć jeden z następujących komunikatów o błędach:

  • Status 301:Moved Permanently: przekierowanie 301 uniemożliwia robotowi indeksującemu dostęp do treści.
  • Status 302: Object moved: przekierowanie 302 (tymczasowe) uniemożliwia robotowi indeksującemu dostęp do treści.
  • Status 403: Forbidden: serwer jest dostępny, ale dostęp do treści jest zablokowany.
  • Status 404: Not Found: crawler nie może znaleźć aktualnej wersji treści, ponieważ została ona usunięta lub przeniesiona.
  • Crawl of [site] blocked by robots.txt: plik robots. txt blokuje indeksowanie treści.

Narzędzia SEO HubSpot indeksują stronę zewnętrzną

Jeśli próbowałeś indeksować zewnętrzne strony za pomocą narzędzi SEO HubSpot lub importujesz zewnętrzną zawartość do HubSpot, możesz napotkać jeden z tych błędów:

  • Skanowanie zablokowane przez plik robots.txt: jeśli strona zewnętrzna jest wykluczona z indeksowania przez plik robots.txt, dodaj agenta użytkownika crawlera HubSpot "HubSpot Crawler" jako wyjątek. Dowiedz się więcej o pracy z plikiem robots.txt.
  • Nie możnapobrać pliku robots.txt: jeśli roboty indeksujące HubSpot nie mogą uzyskać dostępu do pliku robots.txt witryny, sprawdź, czy plik robots.txt jest dostępny i znajduje się w katalogu najwyższego poziomu witryny. Dowiedz się więcej o pracy z plikiem robots.txt.
  • Robot indeksujący nie może przeskanować tego adresu URL: jeśli roboty indeksujące HubSpot nie mogą indeksować określonego adresu URL, spróbuj wykonać następujące czynności:
    • Sprawdź, czy adres URL został wprowadzony poprawnie.
    • Sprawdź, czy indeksowana strona jest aktualnie aktywna.
    • Sprawdź, czy DNS może rozwiązać adres URL. Więcej informacji na temat rozwiązywania błędów DNS można znaleźć w dokumentacji Google.
    • Skontaktuj się z administratorem witryny i poproś o dodanie agenta użytkownika naszego crawlera, "HubSpot Crawler", do listy dozwolonych jako wyjątek.

Zewnętrzne narzędzie SEO indeksujące stronę HubSpot

Jeśli próbowałeś indeksować swoje strony HubSpot za pomocą zewnętrznego narzędzia SEO, takiego jak Moz lub Semrush, może się okazać, że nie możesz pomyślnie indeksować swoich stron.

Typowe przyczyny tego problemu obejmują

  • Umieszczenie stron w pliku robots. txt uniemożliwia ich indeksowanie lub indeksowanie.
  • Metatag "noindex" w nagłówku HTML stron uniemożliwia ich indeksowanie lub indeksowanie.
  • Audytowanie domeny głównej, a nie subdomeny połączonej z HubSpot, powoduje błąd przekroczenia limitu czasu.
  • Linki do kanałów RSS i stron z listami blogów wygasają po opublikowaniu nowych postów na blogu, co może generować błędy zablokowanych zasobów.
  • Nieistotne zasoby, takie jak skrypty ładujące menu koła zębatego HubSpot, mogą powodować błędy zablokowanych zasobów. Nie uniemożliwia to indeksowania pozostałej części strony.
Czy ten artykuł okazał się pomocny?
Niniejszy formularz służy wyłącznie do przekazywania opinii dotyczących dokumentacji. Dowiedz się, jak uzyskać pomoc dotyczącą HubSpot.