Vidensbase

Forhindrer indhold i at blive vist i søgeresultater

Skrevet af HubSpot Support | Jun 28, 2023 12:40:47 PM

Du kan forhindre nyt indhold i at blive vist i resultaterne ved at tilføje URL-sluggen til en robots.txt-fil. Søgemaskiner bruger disse filer til at forstå, hvordan de skal indeksere et websteds indhold. Indhold påHubSpot-systemdomæner, der indeholder hs-sites , er altid indstillet som no-index i en robots.txt-fil.

Hvis søgemaskinerne allerede har indekseret dit indhold, kan du tilføje et "noindex"-metatag til indholdets hoved-HTML. Det vil fortælle søgemaskinerne, at de skal stoppe med at vise det i søgeresultaterne.

Bemærk : Kun indhold, der er hostet på et domæne, der er forbundet med HubSpot, kan blokeres i din robots.txt-fil. Få mere at vide om tilpasning af fil-URL'er i filværktøjet.


Brug robot.txt-filer

Du kan tilføje indhold, som endnu ikke er blevet indekseret af søgemaskiner, til en robots.txt-fil for at forhindre, at det vises i søgeresultaterne.

Sådan redigerer du din robots.txt-fil i HubSpot:

  • Gå til Indhold > Sider i menuen til venstre.

  • Vælg det domæne, hvis robots.txt-fil du vil redigere:
    • Hvis du vil redigere robots.txt-filen for alle forbundne domæner, skal du klikke på rullemenuen Vælg et domæne for at redigere dets indstillinger og vælge Standardindstillinger for alle domæner.
    • Hvis du vil redigere robots.txt-filen for et bestemt domæne, skal du klikke på rullemenuen Vælg et domæne for at redigere dets indstillinger og vælge domænet. Klik om nødvendigt på Tilsidesæt standardindstillinger. Dette vil tilsidesætte alle robots.txt-standardindstillinger for dette domæne.
  • Klik på fanen SEO & Crawlers.
  • I afsnittet Robots.txt skal du redigere indholdet af filen. Der er to dele af en robots.txt-fil:.
    • User-agent: definerer den søgemaskine eller webbot, som en regel gælder for. Som standard er den indstillet til at omfatte alle søgemaskiner, hvilket vises med en stjerne (*), men du kan angive specifikke søgemaskiner her. Hvis du bruger HubSpots site-søgemodul, skal du inkludere HubSpotContentSearchBot som en separat user-agent. Det vil gøre det muligt for søgefunktionen at gennemgå dine sider.
    • Disallow: fortæller en søgemaskine, at den ikke må gennemgå og indeksere filer eller sider, der bruger en bestemt URL-slug. For hver side, du vil tilføje til robots.txt-filen, skal du indtaste Disallow: /url-slug (f.eks. vilwww.hubspot.com/welcome blive vist som Disallow: /welcome) .

  • Klik på Gem nederst til venstre.

Læs mere om formatering af en robots.txt-fil i Googles udviklerdokumentation.

Brug "noindex"-metatags

Hvis indhold allerede er blevet indekseret af søgemaskiner, kan du tilføje et "noindex"-metatag for at instruere søgemaskinerne i at stoppe med at indeksere det i fremtiden.

Bemærk: Denne metode bør ikke kombineres med robots.txt-metoden, da det vil forhindre søgemaskinerne i at se "noindex"-tagget.

Tilføj "noindex"-metatags til sider og indlæg

  • Naviger til dit indhold:

    • Hjemmesidens sider:
    • Landingssider:
    • Blog:
  • Klik på navnet på dit indhold.
  • Klik på menuen Indstillinger i indholdseditoren, og vælg Avanceret.
  • I afsnittet Additional code snippets i dialogboksen skal du tilføje følgende kode til Head HTML-feltet : <meta name="robots" content="noindex">.

  • Klik på Opdater øverst til højre for at tage denne ændring i brug.

Tilføj "noindex"-metatags til artikler i vidensbasen

  • Klik på navnet på dit indhold.
  • Klik på fanen Indstillinger i artikeleditoren, og klik derefter på Avancerede indstillinger.
  • I afsnittet Additional code snippets skal du tilføje følgende kode til Head HTML-feltet : <meta name="robots" content="noindex">.

  • Klik på Opdater øverst til højre for at tage denne ændring i brug.

Hvis du har en Google Search Console-konto , kan du fremskynde denne proces for Googles søgeresultater med Googles Removals Tool.