Hoppa till innehåll
Observera: Översättningen av denna artikel är endast avsedd att underlätta för dig. Översättningen har skapats automatiskt med hjälp av en översättningsprogramvara och har eventuellt inte korrekturlästs. Den engelska versionen av denna artikel bör därför betraktas som den gällande versionen med den senaste informationen. Du kan komma åt den här.

Förstå fel i SEO-crawling

Senast uppdaterad: december 6, 2021

Gäller för:

Alla produkter och planer

Om en SEO-crawler inte kan indexera en sida returnerar den ett crawlingfel. Detta kan hända med crawlerna i HubSpot SEO-verktygen och med externa crawler som Semrush. Stegen för att lösa ett crawlingfel beror på felet och var sidan är värd.

HubSpot SEO-verktyg som kryper en HubSpot-sida.

Du kan visa SEO-rekommendationer på flikenOptimeringi prestandadetaljerna för en sida eller ett inlägg. Om det finns problem med att crawla sidan kan du se något av följande felmeddelanden:

  • Status 301: Flyttas permanent - en 301-omdirigering hindrar crawlern från att komma åt innehållet.
  • Status 302: Objekt flyttat - en 302-omdirigering (tillfällig) hindrar crawler från att få tillgång till innehållet.
  • Status 403: Förbjudet - servern kan nås, men tillgång till innehållet nekas.
  • Status 404: Inte hittad - crawlern kan inte hitta en levande version av innehållet eftersom det har raderats eller flyttats.
  • Crawl of [site] blocked by robots.txt - enrobots.txt-fil hindrar innehållet från att indexeras.

HubSpot SEO-verktyg som kryssar en extern sida

Om du har försökt att crawla externa sidor med HubSpot SEO-verktyg kan du stöta på ett av dessa fel:

  • Omdin externa sida är utesluten från indexering av din robots.txt-fil, lägg till vår crawlers användaragent "HubSpot Crawler" som ett undantag .Läs mer om hur du arbetar med en robots.txt-fil här.
  • Robots.txt-filen kunde inte hämtas: Om HubSpot crawlers inte kan komma åt din webbplats robots.txt-fil, kontrollera att robots.txt-filen är tillgänglig och finns i den översta katalogen på din webbplats. Läs mer om hur du arbetar med en robots.txt-fil här.

Du kan också få ett mer generellt fel i HubSpot SEO-verktyg om att genomsökningen av din domän misslyckades eftersom crawlern inte kunde genomsöka din URL. Du kan följa de här stegen för att lösa det här felet:

  • Kontrollera att webbadressen har angetts korrekt.
  • Kontrollera att sidan som ska crawlas för närvarande är live.
  • Kontrollera att DNS kan lösa upp webbadressen. Läs mer om hur du löser DNS-fel i Googles dokumentation.
  • Kontakta administratören för din webbplats och be att de lägger till vår crawlers användaragent, "HubSpot Crawler", i listan över tillåtna användare som ett undantag.

Ett externt SEO-verktyg som kryper en HubSpot-sida

Om du har försökt att crawla dina HubSpot-sidor med hjälp av ett externt SEO-verktyg, till exempel Moz eller Semrush, kan det hända att du inte kan crawla dina sidor framgångsrikt.

Vanliga orsaker till det här problemet är bland annat följande:

  • Om dina sidor finns med i filen robots.txt förhindrar det att de indexeras eller kryssas.
  • En noindex-metatag i HTML-huvudet på dina sidor hindrar dem från att indexeras eller kryssas.
  • Granskning av en rotdomän i stället för den underdomän som är ansluten till HubSpot orsakar ett timeoutfel.
  • Länkar för RSS-flöden och sidor för bloggförteckningar upphör att gälla när nya blogginlägg publiceras, vilket kan generera fel för blockerade resurser.
  • Resurser som inte är nödvändiga, t.ex. skript som laddar HubSpot-sprocketmenyn, kan orsaka fel för blockerade resurser. Detta förhindrar inte att resten av sidan kraschas.