Hoppa till innehåll
Observera: Översättningen av denna artikel är endast avsedd att underlätta för dig. Översättningen har skapats automatiskt med hjälp av en översättningsprogramvara och har eventuellt inte korrekturlästs. Den engelska versionen av denna artikel bör därför betraktas som den gällande versionen med den senaste informationen. Du kan komma åt den här.
SEO

Blockera sidor eller blogginlägg från att indexeras av sökmotorer

Senast uppdaterad: november 2, 2021

Gäller för:

Marknadsföring Hub Professional, Enterprise
CMS Hub Starter, Professional, Enterprise
Tidigare Marketing Hub Basic
Det finns några sätt att hindra sökmotorer från att indexera specifika sidor på din webbplats. Det rekommenderas att du noggrant undersöker var och en av dessa metoder innan du genomför några ändringar för att se till att endast de önskade sidorna blockeras från sökmotorerna.

Observera: Dessa instruktioner blockerar en sidans URL från att indexeras för sökning. Lär dig hur du anpassar en fil-URL

i filverktyget för att blockera den från sökmotorer.

Filen Robots.txt

Din robots.txt-fil är en fil på din webbplats som sökmotorernas crawlers läser för att se vilka sidor de ska indexera och inte indexera. Lär dig hur du konfigurerar din robots.txt-fil i HubSpot

.

Google och andra sökmotorer kan inte retroaktivt ta bort sidor från resultaten efter att du har implementerat metoden med robots.txt-filen. Även om detta talar om för robotar att de inte ska gå igenom en sida kan sökmotorerna fortfarande indexera ditt innehåll (t.ex. om det finns inkommande länkar till din sida från andra webbplatser). Om din sida redan har indexerats och du vill ta bort den från sökmotorer retroaktivt rekommenderas att du istället använder metataggen "No Index".

Metatag "No index" (inget index)

Observera:

Om du väljer att använda metoden med metataggen "No Index" ska du vara medveten om att den inte ska kombineras med metoden med robots.txt-filen. Sökmotorerna måste börja söka igenom sidan för att se metataggen "No Index" och robots.txt-filen förhindrar detta helt och hållet.

En "no index"

-metatag är en kodsträng som skrivs in i huvuddelen av en sidas HTML-text och som talar om för sökmotorerna att sidan inte ska indexeras.
  • Navigera till ditt innehåll:

    • Webbplatssidor
    • : I ditt HubSpot-konto, navigera till Marknadsföring > Webbsida > Sidor på webbplatsen.
    • Landningssidor
    • : I ditt HubSpot-konto, navigera till Marknadsföring > Landningssidor.
    • Blogg
: I ditt HubSpot-konto, navigera till Marknadsföring > Webbsida.
  • Klicka på namnet
  • på en viss sida eller ett visst blogginlägg.
  • Klicka på fliken Inställningar
  • i innehållsredigeraren.
  • Klicka på Avancerade alternativ
  • .
  • Kopiera och klistra in följande kod i avsnittet Head HTML
:
 <meta name="robots" content="noindex">

edit-head-html

Google Search Console

Om du har ett Google Search Console-kontokan du skicka in en URL för att ta bort den från Googles sökresultat. Observera att detta endast gäller Googles sökresultat.

Om du vill blockera filer i din HubSpot-filhanterare (t.ex. ett PDF-dokument) från att indexeras av sökmotorer måste du välja en ansluten underdomän för filen/filerna och använda filens URL för att blockera webbcrawlare.

Hur HubSpot hanterar förfrågningar från en användaragent

Om du ställer in en sträng för en användaragent för att testa krypning av din webbplats och får ett meddelande om nekad åtkomst är detta ett förväntat beteende. Google kryper och indexerar fortfarande din webbplats.

Anledningen till att du ser det här meddelandet är att HubSpot endast tillåter förfrågningar från användaragenten googlebot som kommer från IP-adresser som ägs av Google. För att skydda HubSpot-hostade webbplatser från angripare eller förfalskarekommer förfrågningarfrån andra IP-adresser att nekas. HubSpot gör detta även för andra sökmotorcrawlers, till exempel BingBot, MSNBot och Baiduspider.