ข้ามไปที่เนื้อหา
โปรดทราบ:: บทความนี้จัดทำขึ้นเพื่อความสะดวกของคุณ ได้รับการแปลโดยอัตโนมัติโดยใช้ซอฟต์แวร์การแปลและอาจไม่ได้รับการพิสูจน์อักษร บทความฉบับภาษาอังกฤษนี้ควรถือเป็นฉบับทางการที่คุณสามารถค้นหาข้อมูลล่าสุดได้มากที่สุด คุณสามารถเข้าถึงได้ที่นี่

ทำความเข้าใจข้อผิดพลาดในการรวบรวมข้อมูล SEO

อัปเดตล่าสุด: กุมภาพันธ์ 13, 2025

สามารถใช้ได้กับการสมัครใช้บริการใดๆ ต่อไปนี้ ยกเว้นที่ระบุไว้:

ผลิตภัณฑ์และแพ็กเกจทั้งหมด

หากโปรแกรมรวบรวมข้อมูล SEO ไม่สามารถจัดทำดัชนีหน้าเว็บได้โปรแกรมจะส่งกลับข้อผิดพลาดในการรวบรวมข้อมูล สิ่งนี้สามารถเกิดขึ้นได้กับโปรแกรมรวบรวมข้อมูลในเครื่องมือ SEO และการนำเข้าของ HubSpot รวมถึงโปรแกรมรวบรวมข้อมูลภายนอกเช่น Semrush ขั้นตอนในการแก้ไขข้อผิดพลาดในการรวบรวมข้อมูลขึ้นอยู่กับข้อผิดพลาดและตำแหน่งที่โฮสต์หน้าเว็บ 

เครื่องมือ SEO ของ HubSpot ที่รวบรวมข้อมูลหน้าเว็บ HubSpot

คุณสามารถดูคำแนะนำ SEO ได้ในแท็บการเพิ่มประสิทธิภาพของหน้าเว็บหรือรายละเอียดประสิทธิภาพของโพสต์ หากมีปัญหาในการรวบรวมข้อมูลหน้าเว็บคุณอาจเห็นหนึ่งในข้อความแสดงข้อผิดพลาดต่อไปนี้: 

  • สถานะ 301: ย้ายอย่างถาวร: การเปลี่ยนเส้นทาง 301 ป้องกันไม่ให้โปรแกรมรวบรวมข้อมูลเข้าถึงเนื้อหา 
  • สถานะ 302: วัตถุถูกย้าย: การเปลี่ยนเส้นทาง 302 (ชั่วคราว) กำลังป้องกันไม่ให้โปรแกรมรวบรวมข้อมูลเข้าถึงเนื้อหา
  • สถานะ 403: ต้องห้าม: สามารถเข้าถึงเซิร์ฟเวอร์ได้แต่การเข้าถึงเนื้อหาถูกปฏิเสธ
  • สถานะ 404: ไม่พบ: โปรแกรมรวบรวมข้อมูลไม่พบเนื้อหาเวอร์ชันจริงเนื่องจากถูกลบหรือย้าย
  • การรวบรวมข้อมูลของ [site] ถูกบล็อกโดย robots.txt: ไฟล์ robots.txt กำลังปิดกั้นเนื้อหาจากการจัดทำดัชนี 

เครื่องมือ SEO ของ HubSpot ที่รวบรวมข้อมูลหน้าเว็บภายนอก

หากคุณพยายามรวบรวมข้อมูลหน้าเว็บภายนอกโดยใช้เครื่องมือ SEO ของ HubSpot หรือกำลังนำเข้าเนื้อหาภายนอกไปยัง HubSpot คุณอาจพบข้อผิดพลาดอย่างใดอย่างหนึ่งต่อไปนี้: 

  • การสแกนถูกบล็อกโดยไฟล์ robots.txt: หากหน้าเว็บภายนอกของคุณถูกแยกออกจากการจัดทำดัชนีโดยไฟล์ robots.txt ของคุณให้เพิ่มตัวแทนผู้ใช้ของโปรแกรมรวบรวมข้อมูล HubSpot “โปรแกรมรวบรวมข้อมูล HubSpot” เป็นข้อยกเว้น เรียนรู้เพิ่มเติมเกี่ยวกับการทำงานกับไฟล์ robots.txt
  • ไม่สามารถเรียกดูไฟล์ Robots.txt ได้: หากโปรแกรมรวบรวมข้อมูลของ HubSpot ไม่สามารถเข้าถึงไฟล์ robots.txt ของไซต์ของคุณได้ให้ตรวจสอบว่าไฟล์ robots.txt สามารถเข้าถึงได้และอยู่ในไดเรกทอรีระดับบนสุดของไซต์ของคุณ เรียนรู้เพิ่มเติมเกี่ยวกับการทำงานกับไฟล์ robots.txt
  • โปรแกรมรวบรวมข้อมูลไม่สามารถสแกน URL นี้ได้: หากโปรแกรมรวบรวมข้อมูลของ HubSpot ไม่สามารถรวบรวมข้อมูล URL เฉพาะได้ให้ลองทำตามขั้นตอนการแก้ไขปัญหาต่อไปนี้:
    • ตรวจสอบว่าป้อน URL ถูกต้องแล้ว
    • ตรวจสอบว่าหน้าเว็บที่กำลังรวบรวมข้อมูลอยู่ในขณะนี้
    • ตรวจสอบว่า DNS สามารถแก้ไข URL ได้ ดูข้อมูลเพิ่มเติมเกี่ยวกับการแก้ไขข้อผิดพลาด DNS ในเอกสารของ Google
    • ติดต่อผู้ดูแลเว็บไซต์ของคุณและขอให้เพิ่มตัวแทนผู้ใช้โปรแกรมรวบรวมข้อมูลของเรา "โปรแกรมรวบรวมข้อมูล HubSpot" ลงในรายการที่อนุญาตเพื่อเป็นข้อยกเว้น 

เครื่องมือ SEO ภายนอกที่รวบรวมข้อมูลหน้าเว็บ HubSpot

หากคุณพยายามรวบรวมข้อมูลหน้าเว็บ HubSpot ของคุณโดยใช้เครื่องมือ SEO ภายนอกเช่น Moz หรือ Semrush คุณอาจพบว่าคุณไม่สามารถรวบรวมข้อมูลหน้าเว็บของคุณได้สำเร็จ

สาเหตุทั่วไปของปัญหานี้ได้แก่: 

  • การรวมหน้าเว็บของคุณไว้ในไฟล์ robots.txt ทำให้ไม่สามารถจัดทำดัชนีหรือรวบรวมข้อมูลได้ 
  • แท็ก meta "noindex" ใน HTML ส่วนหัวของหน้าเว็บของคุณจะป้องกันไม่ให้มีการจัดทำดัชนีหรือรวบรวมข้อมูล 
  • การตรวจสอบโดเมนรูทแทนที่จะเป็นโดเมนย่อยที่เชื่อมต่อกับ HubSpot จะทำให้เกิดข้อผิดพลาดในการหมดเวลา
  • ลิงก์สำหรับฟีด RSS และหน้าที่พักในบล็อกจะหมดอายุเมื่อเผยแพร่โพสต์บล็อกใหม่ซึ่งอาจสร้างข้อผิดพลาดด้านทรัพยากรที่ถูกบล็อกได้
  • ทรัพยากรที่ไม่จำเป็นเช่นสคริปต์ที่โหลดเมนูเฟือง HubSpot อาจแจ้งเตือนข้อผิดพลาดของทรัพยากรที่ถูกบล็อก การทำเช่นนี้ไม่ได้ป้องกันไม่ให้ส่วนที่เหลือของหน้าถูกรวบรวมข้อมูล 
บทความนี้มีประโยชน์หรือไม่
แบบฟอร์มนี้ใช้สำหรับคำติชมเอกสารเท่านั้น เรียนรู้วิธีขอความช่วยเหลือจาก HubSpot