Gå til innhold
Merk:: Denne artikkelen er oversatt av praktiske årsaker. Oversettelsen opprettes automatisk ved hjelp av oversettingsprogramvare, og det er ikke sikkert at den er korrekturlest. Den engelske versjonen av denne artikkelen skal regnes som den regjerende versjonen med den nyeste informasjonen. Du finner den her.

Forstå SEO-feil ved gjennomsøking

Sist oppdatert: oktober 31, 2023

Gjelder for:

Alle produkter og planer

Hvis en SEO-crawler ikke kan indeksere en side, vil den returnere en crawlingfeil. Dette kan skje med crawlerne i HubSpots SEO- og importverktøy, samt eksterne crawlere som Semrush. Fremgangsmåten for å løse en gjennomsøkingsfeil avhenger av feilen og hvor siden ligger.

HubSpots SEO-verktøy som crawler en HubSpot-side

Du kan se SEO-anbefalinger i Optimalisering-fanen i ytelsesdetaljene for en side eller et innlegg. Hvis det er problemer med å gjennomsøke siden, kan du se en av følgende feilmeldinger:

  • Status 301: Flyttet permanent: en 301-omdirigering hindrer crawleren i å få tilgang til innholdet.
  • Status 302: Objekt flyttet: en 302-omdirigering (midlertidig) hindrer crawleren i å få tilgang til innholdet.
  • Status 403: Forbidden: serveren kan nås, men tilgang til innholdet er nektet.
  • Status 404: Ikke funnet: crawleren kan ikke finne en aktuell versjon av innholdet fordi det er slettet eller flyttet.
  • Gjennomsøkingav [nettsted] blokkert av robots.txt: en robots.txt-fil blokkerer innholdet fra å bli indeksert.

HubSpots SEO-verktøy gjennomsøker en ekstern side

Hvis du har forsøkt å gjennomsøke eksterne sider ved hjelp av HubSpots SEO-verktøy eller importerer eksternt innhold til HubSpot, kan du støte på en av disse feilene:

  • Skanning blokkert av robots.txt-filen: Hvis den eksterne siden er ekskludert fra indeksering av robots.txt-filen, legger du til HubSpot-crawlerens brukeragent "HubSpot Crawler" som et unntak. Finn ut mer om hvordan du arbeider med en robots.txt-fil.
  • Robots.txt-filen kunne ikke hentes: Hvis HubSpots crawlere ikke får tilgang til nettstedets robots.txt-fil, må du kontrollere at robots.txt-filen er tilgjengelig og ligger i toppnivåkatalogen på nettstedet ditt. Finn ut mer om hvordan du arbeider med robots.txt-filen.
  • Crawleren kan ikke skanne denne nettadressen: Hvis HubSpots crawlere ikke kan gjennomsøke en bestemt nettadresse, kan du prøve følgende feilsøkingstrinn:
    • Kontroller at URL-adressen er riktig angitt.
    • Kontroller at siden som skal gjennomsøkes, er aktiv.
    • Kontroller at DNS kan løse URL-adressen. Finn ut mer om hvordan du løser DNS-feil i Googles dokumentasjon.
    • Ta kontakt med nettstedsadministratoren din og be om at de legger til brukeragenten til crawleren vår, "HubSpot Crawler", i listen over tillatte unntak.

Et eksternt SEO-verktøy som crawler en HubSpot-side

Hvis du har forsøkt å crawle HubSpot-sidene dine ved hjelp av et eksternt SEO-verktøy som Moz eller Semrush, kan det hende at du ikke får crawlet sidene dine.

Vanlige årsaker til dette problemet er blant annet

  • Inkludering av sidene dine i robots.txt-filen hindrer dem i å bli indeksert eller gjennomsøkt.
  • En "noindex"-metatagg i HTML-hodet på sidene dine hindrer dem i å bli indeksert eller gjennomsøkt.
  • Revisjon av et rotdomene, i stedet for underdomenet som er koblet til HubSpot, forårsaker en tidsavbruddsfeil.
  • Lenker til RSS-feeder og bloggoppføringssider utløper når nye blogginnlegg publiseres, noe som kan føre til blokkerte ressurser-feil.
  • Ikke-essensielle ressurser, for eksempel skriptene som laster inn HubSpot sprocket-menyen, kan føre til blokkerte ressurser-feil. Dette forhindrer ikke at resten av siden gjennomsøkes.
Var denne artikkelen nyttig?
Dette skjemaet brukes kun for tilbakemeldinger om dokumentasjon. Se hvordan du kan få hjelp med HubSpot.