- Kunskapsbas
- Innehåll
- SEO
- Förstå SEO-genomsökningsfel
Förstå SEO-genomsökningsfel
Senast uppdaterad: 20 oktober 2025
Tillgänglig med något av följande abonnemang, om inte annat anges:
Om en SEO-crawler inte kan indexera en sida kommer den att returnera ett crawlingfel. Detta kan hända med sökrobotarna i HubSpots SEO- och importverktyg, liksom med externa sökrobotar som Semrush. Stegen för att lösa ett crawlingfel beror på felet och var sidan är hostad.
HubSpots SEO-verktyg som genomsöker en HubSpot-sida
Du kan visa SEO-rekommendationer på fliken Optimering i prestandadetaljerna för en sida eller ett inlägg.
- Navigera till ditt innehåll:
- Webbplatssidor: I ditt HubSpot-konto navigerar du till Innehåll > Webbplatssidor.
- Landningssidor:
- Blogg: I ditt HubSpot-konto navigerar du till Innehåll > Blogg.
- Håll muspekaren över ditt innehåll och klicka på Prestanda.
- Klicka på fliken Optimering.
- Som standard kommer rekommendationer att väljas i menyn i vänster sidofält. Om du vill skanna om innehållet klickar du på Skanna om nu. Om det finns problem med att genomsöka sidan kan du se något av följande felmeddelanden:
-
- Status 301: Flyttas permanent: en 301-omdirigering hindrar crawlern från att komma åt innehållet.
- Status 302: Objekt flyttat: en 302 (tillfällig) omdirigering hindrar sökroboten från att komma åt innehållet.
- Status 403: Forbidden: servern kan nås, men åtkomst till innehållet nekas.
- Status 404: Hittas inte: sökroboten kan inte hitta en liveversion av innehållet eftersom det har tagits bort eller flyttats.
- Genomsökning av [webbplats] blockerad av robots.txt: en robots.txt-fil blockerar innehållet från att indexeras.
HubSpots SEO-verktyg genomsöker en extern sida
Om du har försökt att genomsöka externa sidor med HubSpots SEO-verktyg eller importerar externt innehåll till HubSpot kan du stöta på något av dessa fel:
- Scan blockerad av robots.txt-fil: om din externa sida är utesluten från indexering av din robots.txt-fil, lägg till HubSpot-crawlerns användaragent "HubSpot Crawler" som ett undantag. Läs mer om hur du arbetar med en robots.txt-fil.
- Robots.txt-filen kunde inte hämtas: om HubSpots crawlers inte kan komma åt webbplatsens robots.txt-fil, kontrollera att robots.txt-filen är tillgänglig och finns i webbplatsens toppkatalog. Läs mer om hur du arbetar med en robots.txt-fil.
- Sökroboten kan inte skanna den här webbadressen: Om HubSpots sökrobotar inte kan skanna en specifik webbadress kan du prova följande felsökningssteg:
- Kontrollera att webbadressen har angetts korrekt.
- Kontrollera att sidan som genomsöks för närvarande är live.
- Kontrollera att DNS kan lösa webbadressen. Läs mer om hur du löser DNS-fel i Googles dokumentation.
- Kontakta webbplatsadministratören och begär att de lägger till vår crawlers användaragent, "HubSpot Crawler", i listan över tillåtna användare som ett undantag.
Ett externt SEO-verktyg som crawlar en HubSpot-sida
Om du har försökt att genomsöka dina HubSpot-sidor med ett externt SEO-verktyg som Moz eller Semrush kan det hända att du inte kan genomsöka dina sidor framgångsrikt.
Vanliga orsaker till detta problem inkluderar:
- Inkluderingen av dina sidor i robots.txt-filen hindrar dem från att indexeras eller genomsökas.
- En "noindex"-metatagg i HTML-huvudet på dina sidor hindrar dem från att indexeras eller genomsökas.
- Granskning av en rotdomän, snarare än den subdomän som är ansluten till HubSpot, orsakar ett timeout-fel.
- Länkar för RSS-flöden och blogglistningssidor upphör att gälla när nya blogginlägg publiceras, vilket kan generera blockerade resursfel.
- Icke-väsentliga resurser, t.ex. de skript som laddar HubSpots sprocket-meny, kan orsaka blockerade resursfel. Detta hindrar inte resten av sidan från att genomsökas.
