Przejdź do treści
Uwaga: Tłumaczenie tego artykułu jest podane wyłącznie dla wygody. Tłumaczenie jest tworzone automatycznie za pomocą oprogramowania tłumaczącego i mogło nie zostać sprawdzone. W związku z tym, angielska wersja tego artykułu powinna być uważana za wersję obowiązującą, zawierającą najnowsze informacje. Możesz uzyskać do niej dostęp tutaj.
SEO

Blokowanie stron lub wpisów na blogu przed indeksowaniem przez wyszukiwarki

Data ostatniej aktualizacji: października 18, 2021

Dotyczy:

Marketing Hub Professional, Enterprise
CMS Hub Starter, Professional, Enterprise
Wcześniejsze konto Marketing Hub Basic
Istnieje kilka sposobów na uniemożliwienie wyszukiwarkom indeksowania określonych stron w Twojej witrynie. Zaleca się dokładne zbadanie każdej z tych metod przed wprowadzeniem jakichkolwiek zmian, aby upewnić się, że tylko pożądane strony są blokowane przed wyszukiwarkami.

Uwaga: te instrukcje zablokują adres URL strony przed indeksowaniem w wyszukiwarkach. Dowiedz się, jak dostosować adres URL pliku

w narzędziu plików, aby zablokować go przed wyszukiwarkami.

Plik robots.txt

Twój plik robots.txt jest plikiem na Twojej stronie internetowej, który czytają roboty wyszukiwarek, aby sprawdzić, które strony powinny, a które nie powinny być indeksowane. Dowiedz się, jak skonfigurować plik robots .txt w HubSpot

.

Google i inne wyszukiwar kinie mogą wstecznie usuwać stron z wyników po wdrożeniu metody pliku robots.txt. Mimo, że plik ten informuje boty, aby nie przeszukiwały strony, wyszukiwarki mogą nadal indeksować jej zawartość (np. jeśli istnieją linki przychodzące do strony z innych witryn). Jeśli Twoja strona została już zaindeksowana i chcesz ją usunąć z wyszukiwarek wstecz, zaleca się użycie metody meta tagu "Bez indeksu".

Meta tag "Bez indeksu"

Uwaga:

jeśli zdecydujesz się na użycie metody "Bez indeksu" meta tagu, pamiętaj, że nie należy jej łączyć z metodą pliku robots.txt. Wyszukiwarki muszą rozpocząć indeksowanie strony, aby zobaczyć meta tag "No Index", a plik robots.txt całkowicie uniemożliwia indeksowanie.

Meta tag "no index"

jest ciągiem kodu wprowadzonym do sekcji head strony HTML, który mówi wyszukiwarkom, aby nie indeksowały strony.
  • Przejdź do swojej zawartości:

    • Strony witryny
    • : W koncie HubSpot przejdź do Marketing > Witryna internetowa > Strony w witrynie internetowej.
    • Landing Pages
    • : W koncie HubSpot przejdź do Marketing > Witryna internetowa > Strony docelowe.
    • Blog
: W koncie HubSpot przejdź do Marketing > Witryna internetowa > Blog.
  • Kliknij nazwę
  • konkretnej strony lub wpisu na blogu.
  • W edytorze treści kliknij kartę Ustawienia
  • .
  • Kliknij przycisk Opcje zaawansowane
  • .
  • W sekcji Head HTML
skopiuj i wklej następujący kod:
 <meta name="robots" content="noindex">.

edit-head-html

Konsola wyszukiwania Google

Jeśli masz konto w Google Search Console, możesz przesłać adres URL, który ma zostać usunięty z wyników wyszukiwania Google. Zauważ, że będzie to dotyczyło tylko wyników wyszukiwania Google.

Jeśli chcesz zablokować pliki w menedżerze plików HubSpot (np. dokument PDF) przed indeksowaniem przez wyszukiwarki, musisz wybrać połączoną subdomenę dla pliku(ów) i użyć adresu URL pliku do zablokowania robotów indeksujących.

Jak HubSpot obsługuje żądania od agenta użytkownika

Jeśli ustawiasz ciąg agenta użytkownika, aby przetestować indeksowanie Twojej witryny i widzisz komunikat o odmowie dostępu, jest to oczekiwane zachowanie. Google nadal indeksuje i przeszukuje witrynę.

Powodem wyświetlania tego komunikatu jest fakt, że HubSpot zezwala tylko na żądania agenta użytkownika googlebot pochodzące z adresów IP należących do Google.Aby chronić witryny hostowane przez HubSpot przed atakującymi lub podszywającymi się pod nie osobami, żądaniapochodzące z innych adresów IP będą odrzucane. HubSpot robi to również w przypadku innych robotów indeksujących wyszukiwarek, takich jak BingBot, MSNBot i Baiduspider.