Możesz zapobiec pojawianiu się nowej zawartości w wynikach, dodając slug adresu URL do pliku robots.txt. Wyszukiwarki używają tych plików, aby zrozumieć, jak indeksować zawartość witryny. Zawartość wdomenach systemu HubSpot zawierających hs-sites jest zawsze ustawiona jako no-index w pliku robots.txt.
Jeśli wyszukiwarki już zindeksowały treść, można dodać metatag "noindex" do nagłówka HTML treści. Dzięki temu wyszukiwarki przestaną wyświetlać ją w wynikach wyszukiwania.
Uwaga: tylko treści hostowane w domenie połączonej z HubSpot mogą być blokowane w pliku robots.txt. Dowiedz się więcej o dostosowywaniu adresów URL plików w narzędziu Pliki.
Używanie plików robots.txt
Zawartość, która nie została jeszcze zindeksowana przez wyszukiwarki, można dodać do pliku robots.txt, aby zapobiec wyświetlaniu jej w wynikach wyszukiwania.
Aby edytować plik robots.txt w HubSpot:
-
.
-
W menu na lewym pasku bocznym przejdź do sekcji Zawartość > Strony.
- Wybierz domenę, której plik robots.txt chcesz edytować:
- Aby edytować plik robots.txt dla wszystkich połączonych domen, kliknij menu rozwijane Wybierz domenę, aby edytować jej ustawienia i wybierz opcję Ustawienia domyślne dla wszystkich domen (wybrane domyślnie).
- Aby edytować plik robots.txt dla określonej domeny, kliknij menu rozwijane Wybierz domenę, aby edytować jej ustawienia i wybierz domenę. W razie potrzeby kliknij opcję Zastąp ustawienia domyślne. Spowoduje to zastąpienie domyślnych ustawień pliku robots.txt dla tej domeny.
- Kliknij kartę SEO i roboty indeksujące.
- W sekcji Robots. txt edytuj zawartość pliku. Plik robots.txt składa się z dwóch części:
- User-agent: definiuje wyszukiwarkę lub bota internetowego, którego dotyczy reguła. Domyślnie jest to ustawione tak, aby obejmowało wszystkie wyszukiwarki, co jest oznaczone gwiazdką (*), ale można tu określić konkretne wyszukiwarki. Jeśli korzystasz z modułu wyszukiwania w witrynie HubSpot, musisz dołączyć HubSpotContentSearchBot jako osobnego agenta użytkownika. Umożliwi to funkcji wyszukiwania indeksowanie stron.
- Disallow: informuje wyszukiwarkę, aby nie indeksowała żadnych plików ani stron przy użyciu określonego slugu adresu URL. Dla każdej strony, którą chcesz dodać do pliku robots.txt, wpisz Disallow: /url-slug (np. www.hubspot.com/welcome pojawi się jako Disallow: /welcome).
- Po zakończeniu kliknij Zapisz w lewym dolnym rogu.
Więcej informacji na temat formatowania pliku robots.txt można znaleźć w dokumentacji Google dla programistów.
Używanie metatagów "noindex"
Jeśli treść została już zindeksowana przez wyszukiwarki, możesz dodać metatag "noindex", aby poinstruować wyszukiwarki, aby przestały ją indeksować w przyszłości.
Uwaga: tej metody nie należy łączyć z metodą robots.txt, ponieważ uniemożliwi to wyszukiwarkom zobaczenie tagu "noindex".
Dodawanie metatagów "noindex" do stron i postów
-
Przejdź do treści:
- Strony witryny:
- Strony docelowe:
- Blog:
- Kliknij nazwę swojej zawartości.
- W edytorze treści kliknij Ustawienia w prawym górnym rogu.
- W oknie dialogowym kliknij Zaawansowane w menu na lewym pasku bocznym.
- W sekcji Dodatkowe fragmenty kodu wprowadź następujący kod do pola Head HTML :
<meta name="robots" content="noindex">
.
- Kliknij X, aby zamknąć okno dialogowe ustawień.
- Aby wprowadzić zmiany, kliknij przycisk Aktualizuj lub Publikuj w prawym górnym rogu.
Dodawanie metatagów "noindex" do artykułów bazy wiedzy
- Kliknij nazwę swojej zawartości.
- W edytorze artykułów kliknij Ustawienia w prawym górnym rogu.
- W oknie dialogowym kliknij Opcje zaawansowane w menu na lewym pasku bocznym.
- W sekcji Dodatkowe fragmenty kodu wprowadź następujący kod do pola Head HTML :
<meta name="robots" content="noindex">
.
- Kliknij X, aby zamknąć okno dialogowe ustawień.
- Aby wprowadzić zmiany, kliknij przycisk Aktualizuj lub Publikuj w prawym górnym rogu.
Jeśli masz konto Google Search Console, możesz przyspieszyć ten proces dla wyników wyszukiwania Google za pomocą Narzędzia usuwania Google.