Możesz zapobiec pojawianiu się nowych treści w wynikach, dodając slug adresu URL do pliku robots.txt. Wyszukiwarki używają tych plików, aby zrozumieć, jak indeksować zawartość witryny. Zawartośćdomen systemu HubSpot zawierających witryny hs jest zawsze ustawiona jako no-index w pliku robots.txt.
Jeśli wyszukiwarki już zaindeksowały treść, można dodać metatag "noindex" do nagłówka HTML treści. Dzięki temu wyszukiwarki przestaną wyświetlać ją w wynikach wyszukiwania.
Uwaga: tylko treści hostowane w domenie połączonej z HubSpot mogą być blokowane w pliku robots.txt. Dowiedz się więcej o dostosowywaniu adresów URL plików w narzędziu Pliki.
Zawartość, która nie została jeszcze zindeksowana przez wyszukiwarki, można dodać do pliku robots.txt, aby zapobiec wyświetlaniu jej w wynikach wyszukiwania.
Aby edytować plik robots.txt w HubSpot:
.
W menu na lewym pasku bocznym przejdź do sekcji Zawartość > Strony.
Więcej informacji na temat formatowania pliku robots.txt można znaleźć w dokumentacji Google dla programistów.
Jeśli treść została już zindeksowana przez wyszukiwarki, możesz dodać metatag "noindex", aby poinstruować wyszukiwarki, aby przestały ją indeksować w przyszłości.
Uwaga: tej metody nie należy łączyć z metodą robots.txt, ponieważ uniemożliwi to wyszukiwarkom zobaczenie tagu "noindex".
Przejdź do treści:
<meta name="robots" content="noindex">
.
<meta name="robots" content="noindex">
.Jeśli masz konto Google Search Console, możesz przyspieszyć ten proces dla wyników wyszukiwania Google za pomocą Narzędzia usuwania Google.