您可以通過將URL slug添加到robots.txt文件中,以防止新內容出現在結果中。 搜尋引擎會使用這些檔案來瞭解如何為網站內容建立索引。 包含hs-sites的 HubSpot系統網域 上的內容在robots.txt檔案中始終設定為無索引。
如果搜尋引擎已為您的內容建立索引,您可以將「noindex」中繼標籤新增到內容的頁首HTML。 這會通知搜尋引擎停止在搜尋結果中顯示。
請注意:只有在連接到HubSpot的網域上託管的內容才能在您的robots.txt檔案中被封鎖。 深入瞭解如何在檔案工具中自訂檔案URL。
使用robot.txt文件
您可以將尚未被搜尋引擎編入索引的內容新增到robots.txt檔案中,以防止其顯示在搜尋結果中。
若要在HubSpot中編輯robots.txt檔案:
-
-
在左側邊欄選單中,前往「內容」>「頁面」。
- 選擇要編輯其robots.txt檔案的網域:
- 若要編輯所有已連線網域的robots.txt檔案,請按一下[選擇網域以編輯其設定]下拉式選單,然後選取[所有網域的預設設定]。
- 若要編輯特定網域的robots.txt檔案,請按一下[選擇網域以編輯其設定]下拉式選單,然後選取該網域。 如有必要,按一下覆寫預設設定。 這將覆寫此網域的所有robots.txt預設設定。
- 按一下「搜尋引擎最佳化與檢索器」分頁。
- 在Robots.txt區段中,編輯檔案的內容。 Robots.txt檔案有兩個部分:。
- 使用者代理:定義應用規則的搜尋引擎或網路機器人。 預設情況下,這將設定為包括所有搜尋引擎,並以星號(*)顯示,但您可以在此處指定特定的搜尋引擎。 如果您使用HubSpot的網站搜尋模組,則需要將HubSpotContentSearchBot作為單獨的使用者代理。 這將允許搜尋功能檢索你的頁面。
-
- 不允許:告訴搜尋引擎不要使用特定的網址代稱檢索和索引任何檔案或頁面。 對於要新增至robots.txt檔案的每個頁面,請輸入Disallow:/url-slug (例如, www.hubspot.com/welcome會顯示為Disallow:/welcome )。
請參閱Google開發人員文件,進一步瞭解如何格式化robots.txt檔案。
使用"noindex" meta標籤
如果內容已被搜尋引擎編入索引,您可以新增「noindex」中繼標籤,指示搜尋引擎日後停止編入索引。
請注意:此方法不應與robots.txt方法結合使用,因為這會阻止搜尋引擎看到「noindex」標籤。
將"noindex" meta標籤添加到頁面和文章
-
前往你的內容:
- 按一下內容名稱。
- 在內容編輯器中,按一下「設定」選單,然後選取「進階」。
- 在對話方塊的「其他程式碼片段」區段中,將以下程式碼新增到Head HTML欄位:
。
新增「noindex」中繼標籤至知識庫文章
- 按一下內容名稱。
- 在文章編輯器中,按一下「設定」索引標籤,然後按一下「進階選項」
- 在其他代碼片段部分,將以下代碼添加到Head HTML字段:
。
如果您擁有Google Search Console 帳戶,可以使用Google的移除工具加快Google搜尋結果的處理速度。