Zum Hauptinhalt
Hinweis: Dieser Artikel wird aus Kulanz zur Verfügung gestellt. Er wurde automatisch mit einer Software übersetzt und unter Umständen nicht korrekturgelesen. Die englischsprachige Fassung gilt als offizielle Version und Sie können dort die aktuellsten Informationen finden. Hier können Sie darauf zugreifen.

Verhindern, dass Content in den Suchergebnissen angezeigt wird

Zuletzt aktualisiert am: Februar 5, 2024

Mit einem der folgenden Abonnements verfügbar (außer in den angegebenen Fällen):

Alle

Sie können verhindern, dass neuer Content in den Ergebnissen erscheinen, indem Sie den URL-Slug in eine robots.txt-Datei aufnehmen. Suchmaschinen verwenden diese Dateien, um zu verstehen, wie der Content einer Website indexiert werden soll. Content auf HubSpot-Systemdomains wird in einer robots.txt-Datei immer als no-index eingestellt. 

Wenn Suchmaschinen Ihren Content bereits indexiert haben, können Sie ein „noindex“-Meta-Tag in den HTML-Header des Contents einfügen. Dadurch werden die Suchmaschinen angewiesen, sie nicht mehr in den Suchergebnissen anzuzeigen. 

 

Bitte beachten Sie: Nur Content, der auf einer mit HubSpot verknüpften Domain gehostet wird, kann in Ihrer robots.txt-Datei gesperrt werden. Erfahren Sie mehr über das Anpassen von Datei-URLs im Dateien-Tool


robot.txt-Dateien verwenden

Sie können Content, der noch nicht von Suchmaschinen indexiert wurde, in eine robots.txt-Datei aufnehmen, um zu verhindern, dass er in den Suchergebnissen angezeigt wird. 

So bearbeiten Sie Ihre robots.txt-Datei in HubSpot: 

  • Klicken Sie in Ihrem HubSpot-Account in der Hauptnavigationsleiste auf das settings Zahnradsymbol, um die Einstellungen aufzurufen.

  • Navigieren Sie im linken Seitenmenü zu Website > Seitenׅ.

  • Wählen Sie die Domain aus, deren robots.txt-Datei Sie bearbeiten möchten: 
    • Um die robots.txt-Datei für alle verknüpften Domains zu bearbeiten, klicken Sie auf das Dropdown-Menü Domain auswählen, um ihre Einstellungen zu bearbeiten: und wählen Sie Standardeinstellungen für alle Domains aus. 
    • Um die robots.txt-Datei für eine bestimmte Domain zu bearbeiten, klicken Sie auf das Dropdown-Menü Domain auswählen, um ihre Einstellungen zu bearbeiten: und wählen Sie die Domain aus. Klicken Sie bei Bedarf auf Standardeinstellungen überschreiben. Damit werden alle robots.txt-Standardeinstellungen für diese Domain außer Kraft gesetzt. 
  • Klicken Sie auf die Registerkarte SEO & Crawler
  • Bearbeiten Sie im Abschnitt robots.txt den Content der Datei. Eine robots.txt-Datei besteht aus zwei Teilen:
    • User-agent: legt die Suchmaschine oder den Webbot fest, für die bzw. den eine Regel gilt. Standardmäßig werden alle Suchmaschinen berücksichtigt, was durch ein Sternchen (*) angezeigt wird, aber Sie können hier auch bestimmte Suchmaschinen angeben. Wenn Sie das Modul für die Site-Suche von HubSpot verwenden, müssen Sie HubSpotContentSearchBot als separaten User-Agent einschließen. Dies ermöglicht der Suchfunktion, Ihre Seiten zu crawlen.
    • Disallow: weist eine Suchmaschine an, keine Dateien oder Seiten zu crawlen und zu indexieren, die einen bestimmten URL-Slug verwenden. Geben Sie für jede Seite, die Sie der robots.txt-Datei hinzufügen möchten, Disallow: /url-slug (z. B. würde www.hubspot.com/willkommen als Disallow: /willkommen angezeigt werden).

edit-robots-txt-files

  • Klicken Sie unten links auf Speichern

Weitere Informationen zur Formatierung einer robots.txt-Datei finden Sie in der Google-Dokumentation für Entwickler.

„noindex“-Meta-Tags verwenden

Wenn der Content bereits von Suchmaschinen indexiert wurde, können Sie ein „noindex“-Meta-Tag hinzufügen, um die Suchmaschinen anzuweisen, den Content in Zukunft nicht mehr zu indexieren. 

Bitte beachten: tDiese Methode sollte nicht mit der robots.txt-Methode kombiniert werden, da diese verhindert, dass Suchmaschinen das „noindex“-Tag sehen, und sie ist nicht für Seiten verfügbar, die Starter-Vorlagen verwenden.

„noindex“-Meta-Tags zu Seiten und Beiträgen hinzufügen

  • Gehen Sie zu Ihrem Content:

    • Website-Seiten: Gehen Sie in Ihrem HubSpot-Account zum Bereich Marketing, klicken Sie dann auf den Punkt Website und abschließend auf Website-Seiten.
    • Landingpages: Klicken Sie in Ihrem HubSpot-Account auf Marketing und dann auf Landingpages.
    • Blog: Gehen Sie in Ihrem HubSpot-Account zum Bereich Marketing, klicken Sie dann auf den Punkt Website und abschließend auf Blog.
  • Bewegen Sie den Mauszeiger über den Content und klicken Sie auf Bearbeiten
  • Klicken Sie im Content-Editor auf das Menü Einstellungen und wählen Sie Erweitert aus. 
  • Fügen Sie im Abschnitt Zusätzliche Code-Snippets des Dialogfeldes den folgenden Code im Feld Header-HTML ein: <meta name="robots" content="noindex">.

set-no-index-tag-for-pages-and-posts

  • Um diese Änderung live zu schalten, klicken Sie oben rechts auf Aktualisieren.

„noindex“-Meta-Tags zu Wissensdatenbankartikeln hinzufügen

  • Klicken Sie in Ihrem HubSpot-Account auf Service und dann auf Wissensdatenbank.

  • Bewegen Sie den Mauszeiger über den Artikel und klicken Sie auf Bearbeiten
  • Klicken Sie im Artikel-Editor auf die Registerkarte Einstellungen und dann auf Erweiterte Optionen
  • Fügen Sie im Abschnitt Zusätzliche Code-Snippets den folgenden Code im Feld Header-HTML ein: <meta name="robots" content="noindex">.

add-no-index-tag

  • Klicken Sie oben rechts auf Aktualisieren, um diese Änderung zu übernehmen. 

Wenn Sie über ein Google Search Console-Konto verfügen, können Sie diesen Prozess für Google-Suchergebnisse mit dem Tool zum Entfernen von Google beschleunigen. 

War dieser Artikel hilfreich?
Dieses Formular wird nur verwendet, um Feedback zur Dokumentation zu sammeln. Erfahren Sie, wie Sie Hilfe bei Fragen zu HubSpot erhalten können.