Hinweis: Dieser Artikel wird aus Kulanz zur Verfügung gestellt. Er wurde automatisch mit einer Software übersetzt und unter Umständen nicht korrekturgelesen. Die englischsprachige Fassung gilt als offizielle Version und Sie können dort die aktuellsten Informationen finden. Hier können Sie darauf zugreifen.
Reports

Warum finden sich HubSpot-Crawler in meinen Google Analytics-Daten?

Zuletzt aktualisiert am: Januar 25, 2019

HubSpot verwendet Webcrawler, um Ihnen aktuelle Echtzeitinformationen in den Analytics-Tools Ihres Accounts bereitzustellen und eine Live-Vorschau Ihrer Seiten anzuzeigen. Wenn in den Google Analytics-Daten plötzliche Spitzen bei Besuchen von HubSpot-Crawlern festzustellen sind, haben Sie einige Möglichkeiten, um ein besseres Verständnis Ihres Traffics zu erlangen: 

  1. Richten Sie eine Datei „robots.txt“ ein, um zu verhindern, dass die Crawler auf Teile Ihrer Website zugreifen. Alle Crawler von HubSpot halten sich vollständig an die Regeln, die Sie für Ihre eigenen Domains festlegen. Eine Datei „robots.txt“ hindert die Crawler von HubSpot (und andere, darunter Google) daran, Ihre Seiten zu besuchen. Erfahren Sie mehr über das Einrichten einer Datei „robots.txt“.

  2. Filtern Sie den spezifischen Crawler-User-Agent in Google Analytics heraus. Bei HubSpot-Quellen und anderen HubSpot-Reporting-Tools wird unser eigener Crawler-Traffic automatisch ausgeschlossen. Wenn Sie jedoch aussagekräftigere Zahlen zum Traffic in Google Analytics erhalten möchten, befolgen Sie die Anweisungen, um den Crawler-Namen als Referrer auszuschließen

  3. Filtern Sie den Bot-Traffic in Google Analytics heraus. Wenn Sie nicht genau wissen, welche Bezeichnung der Crawler trägt, der den erhöhten Traffic auf Ihrer Website verursacht, bietet Google ein Kontrollkästchen, mit dem allgemein der gesamte Bot-/Crawler-Traffic herausgefiltert werden kann. Erfahren Sie mehr über das Filtern von Bot-/Crawler-Traffic