Crawl Budget คืออะไร & จะปรับให้เหมาะสมได้อย่างไร

เผยแพร่แล้ว: 2022-11-25

Crawl Budget คืออะไร & วิธีเพิ่มประสิทธิภาพด้วย url และ googlebot

งบประมาณการรวบรวมข้อมูลอาจดูเหมือนเป็นแนวคิดต่างประเทศเมื่อคุณเรียนรู้เกี่ยวกับวิธีการทำงานของบอทเครื่องมือค้นหาเป็นครั้งแรก แม้ว่าจะไม่ใช่แนวคิด SEO ที่ง่ายที่สุด แต่ก็ซับซ้อนน้อยกว่าที่เห็น เมื่อคุณเริ่มเข้าใจว่างบประมาณการรวบรวมข้อมูลคืออะไรและวิธีการทำงานของการรวบรวมข้อมูลของเครื่องมือค้นหาแล้ว คุณสามารถเริ่มเพิ่มประสิทธิภาพเว็บไซต์ของคุณเพื่อเพิ่มประสิทธิภาพสำหรับการรวบรวมข้อมูลได้ กระบวนการนี้จะช่วยให้เว็บไซต์ของคุณมีศักยภาพสูงสุดในการจัดอันดับในผลการค้นหาของ Google

งบประมาณการรวบรวมข้อมูลคืออะไร?

googlebot พร้อมรายการสิ่งที่ต้องทำการจัดทำดัชนีแสดงงบประมาณการรวบรวมข้อมูล

งบประมาณการรวบรวมข้อมูลคือจำนวน URL จากเว็บไซต์หนึ่งที่บอทเครื่องมือค้นหาสามารถจัดทำดัชนีได้ภายในหนึ่งเซสชันการจัดทำดัชนี "งบประมาณ" ของเซสชันการรวบรวมข้อมูลจะแตกต่างกันไปในแต่ละเว็บไซต์ โดยขึ้นอยู่กับขนาดของแต่ละไซต์ เมตริกการเข้าชม และความเร็วในการโหลดหน้าเว็บ

หากคุณมาถึงจุดนี้แล้วและคำศัพท์ SEO ไม่คุ้นเคย ให้ใช้ อภิธานศัพท์ SEO ของเราเพื่อทำความคุ้นเคยกับคำ จำกัดความ

ปัจจัยใดบ้างที่ส่งผลต่องบประมาณการรวบรวมข้อมูลของเว็บไซต์

คำอธิบายงบประมาณการรวบรวมข้อมูลด้วย googlebot Google ไม่ได้ใช้เวลาหรือจำนวนการรวบรวมข้อมูลเท่ากันกับทุกเว็บไซต์บนอินเทอร์เน็ต Webcrawlers ยังกำหนดหน้าที่พวกเขารวบรวมข้อมูลและความถี่ตามปัจจัยหลายประการ พวกเขากำหนดความถี่และระยะเวลาที่ควรรวบรวมข้อมูลแต่ละไซต์โดยพิจารณาจาก:

  • ความนิยม: ยิ่งมีการเข้าชมไซต์หรือเพจมากเท่าใด ควรมีการวิเคราะห์การอัปเดตบ่อยครั้งมากขึ้นเท่านั้น นอกจากนี้ หน้าเว็บที่ได้รับความนิยมมากขึ้นจะได้รับลิงก์ขาเข้ามากขึ้นอย่างรวดเร็ว
  • ขนาด: เว็บไซต์และเพจขนาดใหญ่ที่มีองค์ประกอบข้อมูลเข้มข้นจะใช้เวลารวบรวมข้อมูลนานกว่า
  • สถานภาพ/ปัญหา: เมื่อโปรแกรมรวบรวมข้อมูลเว็บถึงทางตันผ่านลิงก์ภายใน มันต้องใช้เวลากว่าจะพบจุดเริ่มต้นใหม่ หรือหยุดการรวบรวมข้อมูล ข้อผิดพลาด 404 การเปลี่ยนเส้นทาง และเวลาในการโหลดที่ช้าทำให้โปรแกรมรวบรวมข้อมูลเว็บทำงานช้าลงและติดขัด

งบประมาณการรวบรวมข้อมูลของคุณส่งผลต่อ SEO อย่างไร

กระบวนการ สร้างดัชนี เว็บครอว์เลอ ร์ทำให้การค้นหาเป็นไปได้ หากไม่พบเนื้อหาของคุณ จากนั้นจัดทำดัชนีโดยโปรแกรมรวบรวมข้อมูลเว็บของ Google ผู้ค้นหาจะไม่พบหน้าเว็บและเว็บไซต์ของคุณ สิ่งนี้จะทำให้ไซต์ของคุณพลาดปริมาณการค้นหาจำนวนมาก

ทำไม Google รวบรวมข้อมูลเว็บไซต์

Googlebots สำรวจหน้าต่างๆ ของเว็บไซต์อย่างเป็นระบบ เพื่อพิจารณาว่าหน้านั้นและเว็บไซต์โดยรวมเกี่ยวกับอะไร Webcrawler ประมวลผล จัดหมวดหมู่ และจัดระเบียบข้อมูลจากเว็บไซต์นั้นทีละหน้าเพื่อสร้างแคชของ URL พร้อมกับเนื้อหา ดังนั้น Google จึงสามารถกำหนดว่าผลการค้นหาใดควรปรากฏตามคำค้นหา

นอกจากนี้ Google ยังใช้ข้อมูลนี้เพื่อพิจารณาว่าผลการค้นหาใด เหมาะสมกับ คำค้นหามากที่สุด เพื่อกำหนดตำแหน่งที่ผลการค้นหาแต่ละรายการควรปรากฏในรายการผลการค้นหาตามลำดับชั้น

เกิดอะไรขึ้นระหว่างการรวบรวมข้อมูล

googebot พร้อมรายการตรวจสอบการจัดทำดัชนี

Google จัดสรรเวลาจำนวนหนึ่งเพื่อให้ Googlebot ดำเนินการกับเว็บไซต์ เนื่องจากข้อจำกัดนี้ บอทมักจะไม่รวบรวมข้อมูลทั้งไซต์ในช่วงเซสชันการรวบรวมข้อมูลหนึ่งครั้ง แต่จะทำงานในหน้าทั้งหมดของไซต์ตามไฟล์ robots.txt และปัจจัยอื่นๆ (เช่น ความนิยมของหน้า)

ระหว่างเซสชันการรวบรวมข้อมูล Googlebot จะใช้วิธีการที่เป็นระบบเพื่อทำความเข้าใจเนื้อหาของแต่ละหน้าที่ประมวลผล

ซึ่งรวมถึงการจัดทำดัชนีแอตทริบิวต์เฉพาะ เช่น:

  1. เมตาแท็กและ การใช้ NLP เพื่อกำหนดความหมาย
  2. ลิงค์และ สมอข้อความ
  3. ไฟล์สื่อสมบูรณ์สำหรับการค้นหารูปภาพและการค้นหาวิดีโอ
  4. มาร์กอัปสคีมา
  5. มาร์กอัป HTML

โปรแกรมรวบรวมข้อมูลเว็บจะเรียกใช้การตรวจสอบเพื่อพิจารณาว่าเนื้อหาในหน้านั้นซ้ำกับ Canonical หรือไม่ หากเป็นเช่นนั้น Google จะย้าย URL นั้นลงไปยังการรวบรวมข้อมูลที่มีลำดับความสำคัญต่ำ จึงไม่เสียเวลาในการรวบรวมข้อมูลหน้าเว็บบ่อยๆ

อัตราการรวบรวมข้อมูลและความต้องการรวบรวมข้อมูลคืออะไร

โปรแกรมรวบรวมข้อมูลเว็บของ Google กำหนดระยะเวลาหนึ่งให้กับการรวบรวมข้อมูลทุกครั้งที่ดำเนินการ ในฐานะเจ้าของเว็บไซต์ คุณไม่สามารถควบคุมระยะเวลานี้ได้ อย่างไรก็ตาม คุณสามารถเปลี่ยนความเร็วที่พวกเขารวบรวมข้อมูลหน้าเว็บแต่ละหน้าในไซต์ของคุณได้ในขณะที่พวกเขาอยู่ในไซต์ของคุณ ตัวเลขนี้เรียกว่า อัตราการรวบรวมข้อมูล ของ คุณ

ความต้องการรวบรวมข้อมูล คือความถี่ที่ Google รวบรวมข้อมูลไซต์ของคุณ ความถี่นี้ขึ้นอยู่กับความต้องการของไซต์ของคุณโดยผู้ใช้อินเทอร์เน็ต และความถี่ที่เนื้อหาไซต์ของคุณต้องได้รับการอัปเดตในการค้นหา คุณสามารถค้นพบความถี่ที่ Google รวบรวมข้อมูลไซต์ของคุณโดยใช้การวิเคราะห์ไฟล์บันทึก (ดู #2 ด้านล่าง)

ฉันจะกำหนดงบประมาณการรวบรวมข้อมูลไซต์ของฉันได้อย่างไร

คำนวณงบประมาณการรวบรวมข้อมูลของคุณ

เนื่องจาก Google จำกัดจำนวนครั้งในการรวบรวมข้อมูลเว็บไซต์ของคุณและระยะเวลาเท่าใด คุณจึงต้องการทราบว่างบประมาณในการรวบรวมข้อมูลของคุณคือเท่าใด อย่างไรก็ตาม Google ไม่ได้ให้ข้อมูลนี้แก่เจ้าของไซต์ โดยเฉพาะอย่างยิ่งหากงบประมาณของคุณจำกัดมากจนเนื้อหาใหม่ไม่สามารถเข้าถึง SERP ได้ทันท่วงที สิ่งนี้อาจสร้างความเสียหายให้กับเนื้อหาที่สำคัญและหน้าใหม่ เช่น หน้าผลิตภัณฑ์ซึ่งอาจทำเงินให้คุณได้

เพื่อทำความเข้าใจว่าไซต์ของคุณประสบปัญหาข้อจำกัดด้านงบประมาณในการรวบรวมข้อมูลหรือไม่ (หรือเพื่อยืนยันว่าไซต์ของคุณอยู่ในเกณฑ์ A-OK) คุณจะต้อง: รับสินค้าคงคลังของจำนวน URL บนไซต์ของคุณ หากคุณใช้ Yoast ยอดรวมของคุณจะแสดงที่ด้านบนของ URL แผนผังไซต์ของ คุณ

  • เมื่อคุณมีหมายเลขนี้แล้ว ให้ใช้ส่วน "การตั้งค่า" > "สถิติการรวบรวมข้อมูล" ของ Google Search Console เพื่อกำหนดจำนวนหน้าที่ Google รวบรวมข้อมูลในไซต์ของคุณในแต่ละวัน
  • หารจำนวนหน้าในแผนผังไซต์ของคุณด้วยจำนวนหน้าที่รวบรวมข้อมูลเฉลี่ยต่อวัน
  • หากผลลัพธ์ต่ำกว่า 10 แสดงว่างบประมาณในการรวบรวมข้อมูลของคุณน่าจะดี อย่างไรก็ตาม หากตัวเลขของคุณต่ำกว่า 10 คุณจะได้รับประโยชน์จากการเพิ่มงบประมาณการรวบรวมข้อมูลของคุณ
  • คุณจะเพิ่มประสิทธิภาพสำหรับงบประมาณการรวบรวมข้อมูลได้อย่างไร

    เมื่อถึงเวลาที่ไซต์ของคุณมีขนาดใหญ่เกินไปสำหรับงบประมาณการรวบรวมข้อมูล คุณจะต้องดำดิ่งสู่การเพิ่มประสิทธิภาพงบประมาณการรวบรวมข้อมูล เนื่องจากคุณไม่สามารถบอกให้ Google รวบรวมข้อมูลไซต์ของคุณบ่อยขึ้นหรือใช้เวลานานขึ้น คุณต้องเน้นสิ่งที่คุณควบคุมได้

    การเพิ่มประสิทธิภาพงบประมาณการรวบรวมข้อมูลต้องใช้วิธีการแบบหลายแง่มุมและความเข้าใจใน แนวทางปฏิบัติที่ดีที่สุด ของ Google คุณควรเริ่มต้นที่ไหนในการใช้ประโยชน์สูงสุดจากอัตราการรวบรวมข้อมูลของคุณ รายการที่ครอบคลุมนี้เขียนขึ้นตามลำดับชั้น ดังนั้นให้เริ่มที่ด้านบนสุด

    1. พิจารณาเพิ่มขีดจำกัดอัตราการรวบรวมข้อมูลเว็บไซต์ของคุณ

    Google ส่งคำขอพร้อมกันไปยังหลายหน้าในไซต์ของคุณ อย่างไรก็ตาม Google พยายามที่จะสุภาพและไม่ทำให้เซิร์ฟเวอร์ของคุณล่ม ซึ่งส่งผลให้ผู้เข้าชมไซต์ของคุณโหลดช้าลง หากคุณสังเกตเห็นว่าไซต์ของคุณล้าหลังโดยไม่ทราบสาเหตุ นี่อาจเป็นปัญหา

    เพื่อป้องกันไม่ให้ส่งผลกระทบต่อประสบการณ์ของผู้ใช้ Google อนุญาตให้คุณลดอัตราการรวบรวมข้อมูล การทำเช่นนั้นจะจำกัดจำนวนหน้าเว็บที่ Google สามารถจัดทำดัชนีพร้อมกันได้

    ที่น่าสนใจคือ Google ยังอนุญาตให้คุณเพิ่มขีดจำกัดอัตราการรวบรวมข้อมูล ซึ่งมีผลให้สามารถดึงหน้าเว็บได้มากขึ้นในคราวเดียว ทำให้มีการรวบรวมข้อมูล URL มากขึ้นในคราวเดียว แม้ว่ารายงานทั้งหมดจะแนะนำว่า Google ตอบสนองต่อการเพิ่มขีดจำกัดอัตราการรวบรวมข้อมูลได้ช้า และไม่ได้รับประกันว่า Google จะรวบรวมข้อมูลไซต์จำนวนมากขึ้นพร้อมๆ กัน

    วิธีเพิ่มขีดจำกัดอัตราการรวบรวมข้อมูลของคุณ:

    1. ใน Search Console ให้ไปที่ "การตั้งค่า"
    2. จากตรงนั้น คุณสามารถดูได้ว่าอัตราการรวบรวมข้อมูลของคุณเหมาะสมหรือไม่
    3. จากนั้นคุณสามารถเพิ่มขีดจำกัดเป็นอัตราการรวบรวมข้อมูลที่รวดเร็วยิ่งขึ้นเป็นเวลา 90 วัน

    2. ทำการวิเคราะห์ไฟล์บันทึก

    การวิเคราะห์ไฟล์บันทึกเป็นรายงานจากเซิร์ฟเวอร์ที่สะท้อนทุกคำขอที่ส่งไปยังเซิร์ฟเวอร์ รายงานนี้จะบอกคุณอย่างชัดเจนว่า Googlebots ทำอะไรในไซต์ของคุณ แม้ว่า SEO ทางเทคนิคมักจะดำเนินการตามขั้นตอนนี้ แต่คุณก็สามารถปรึกษากับผู้ดูแลระบบเซิร์ฟเวอร์ของคุณเพื่อรับขั้นตอนดังกล่าวได้

    การใช้ Log File Analysis หรือเซิร์ฟเวอร์ล็อกไฟล์ คุณจะได้เรียนรู้:

    • Google รวบรวมข้อมูลไซต์ของคุณบ่อยเพียงใด
    • หน้าใดได้รับการรวบรวมข้อมูลมากที่สุด
    • หน้าใดมีรหัสเซิร์ฟเวอร์ที่ไม่ตอบสนองหรือขาดหายไป

    เมื่อคุณมีข้อมูลนี้แล้ว คุณสามารถใช้มันเพื่อดำเนินการ #3 ถึง #7

    3. อัปเดตแผนผังไซต์ XML และ Robots.txt ของคุณอยู่เสมอ

    หากไฟล์บันทึกของคุณแสดงว่า Google ใช้เวลามากเกินไปในการรวบรวมข้อมูลหน้าที่คุณไม่ต้องการให้ปรากฏใน SERP คุณสามารถขอให้โปรแกรมรวบรวมข้อมูลของ Google ข้ามหน้าเหล่านี้ได้ ซึ่งจะทำให้งบประมาณในการรวบรวมข้อมูลบางส่วนของคุณว่างสำหรับหน้าที่สำคัญกว่า

    แผนผังไซต์ของคุณ (ซึ่งคุณสามารถหาได้จาก Google Search Console หรือ SearchAtlas ) ทำให้ Googlebots แสดงรายการหน้าเว็บทั้งหมดบนไซต์ของคุณที่คุณต้องการให้ Google จัดทำดัชนี เพื่อให้ปรากฏในผลการค้นหา การอัปเดตแผนผังไซต์ของคุณอยู่เสมอด้วยหน้าเว็บทั้งหมดที่คุณต้องการให้เครื่องมือค้นหาค้นหาและละเว้นสิ่งที่คุณไม่ต้องการให้พบสามารถเพิ่มวิธีที่โปรแกรมรวบรวมข้อมูลเว็บใช้เวลากับไซต์ของคุณให้มากที่สุด

    ตัวอย่างแผนผังเว็บไซต์ xml

    ไฟล์ robots.txt ของคุณจะบอกโปรแกรมรวบรวมข้อมูลของเครื่องมือค้นหาว่าคุณต้องการ และไม่ต้องการ ให้รวบรวมข้อมูลหน้าใด หากคุณมีหน้าเว็บที่สร้างหน้า Landing Page ไม่ดีหรือหน้าที่มี Gate คุณควรใช้ แท็ก noindex สำหรับ URL ในไฟล์ robots.txt ของคุณ Googlebots มักจะข้ามหน้าเว็บที่มีแท็ก noindex

    4. ลดการเปลี่ยนเส้นทางและห่วงโซ่การเปลี่ยนเส้นทาง

    รายงานสถานะ 301

    นอกเหนือจากการเพิ่มงบประมาณการรวบรวมข้อมูลโดยการยกเว้นหน้าที่ไม่จำเป็นจากการรวบรวมข้อมูลของเครื่องมือค้นหาแล้ว คุณยังสามารถเพิ่มการรวบรวมข้อมูลได้สูงสุดโดยการลดหรือกำจัดการเปลี่ยนเส้นทาง สิ่งเหล่านี้จะเป็น URL ใดๆ ที่ส่งผลให้เกิดรหัสสถานะ 3xx

    URL ที่เปลี่ยนเส้นทางใช้เวลานานกว่าที่ Googlebot จะเรียกข้อมูล เนื่องจากเซิร์ฟเวอร์ต้องตอบสนองด้วยการเปลี่ยนเส้นทาง จากนั้นจึงเรียกหน้าใหม่ แม้ว่าการเปลี่ยนเส้นทางหนึ่งครั้งจะใช้เวลาเพียงไม่กี่มิลลิวินาที แต่ก็สามารถรวมกันได้ และนี่อาจทำให้การรวบรวมข้อมูลไซต์ของคุณโดยรวมใช้เวลานานขึ้น ระยะเวลานี้จะเพิ่มขึ้นเป็นทวีคูณเมื่อ Googlebot ทำงานในห่วงโซ่ของการเปลี่ยนเส้นทาง URL

    เพื่อลดการเปลี่ยนเส้นทางและห่วงโซ่การเปลี่ยนเส้นทาง ให้คำนึงถึงกลยุทธ์การสร้างเนื้อหาและเลือกข้อความสำหรับทากของคุณอย่างระมัดระวัง

    5. แก้ไขลิงค์เสีย

    วิธีที่ Google มักจะสำรวจไซต์คือการนำทางผ่านโครงสร้างลิงก์ภายในของคุณ เมื่อมันทำงานผ่านหน้าเว็บของคุณ มันจะสังเกตว่ามีลิงก์นำไปสู่หน้าที่ไม่มีอยู่จริงหรือไม่ (ซึ่งมักเรียกว่าข้อผิดพลาด soft 404) ก็จะไปต่อได้ไม่อยากเสียเวลาจัดทำดัชนีหน้าดังกล่าว

    ลิงก์ไปยังหน้าเหล่านี้จำเป็นต้องอัปเดตเพื่อส่งผู้ใช้หรือ Googlebot ไปยังหน้าจริง หรือ (แม้ว่าจะยากที่จะเชื่อ) Googlebot อาจระบุหน้าผิดพลาดเป็นข้อผิดพลาด 4xx หรือ 404 ทั้งที่หน้านั้นมีอยู่จริง เมื่อสิ่งนี้เกิดขึ้น ให้ตรวจสอบว่า URL ไม่มีการพิมพ์ผิด จากนั้นส่งคำขอรวบรวมข้อมูลสำหรับ URL นั้นผ่านบัญชี Google Search Console

    หากต้องการติดตามข้อผิดพลาดที่พบเมื่อเข้ารวบรวมข้อมูลเหล่านี้ คุณสามารถใช้ดัชนี > รายงานความครอบคลุมของบัญชี Google Search Console หรือใช้ เครื่องมือตรวจสอบไซต์ของ SearchAtlas เพื่อค้นหารายงานข้อผิดพลาดไซต์ของคุณเพื่อส่งต่อไปยังนักพัฒนาเว็บของคุณ

    หมายเหตุ: URL ใหม่อาจไม่ปรากฏในการวิเคราะห์ไฟล์บันทึกของคุณในทันที ให้เวลา Google ค้นหาก่อนที่จะขอรวบรวมข้อมูล

    6. ปรับปรุงความเร็วในการโหลดหน้าเว็บ

    ความเร็วในการโหลดหน้า

    บอทของเครื่องมือค้นหาสามารถเคลื่อนที่ผ่านไซต์ได้อย่างรวดเร็ว อย่างไรก็ตาม หากความเร็วไซต์ของคุณไม่ถึงระดับเดียวกัน อาจต้องใช้งบประมาณในการรวบรวมข้อมูลของคุณอย่างมาก ใช้การวิเคราะห์ไฟล์บันทึกของคุณ, SearchAtlas หรือ PageSpeedInsights เพื่อพิจารณาว่าเวลาในการโหลดไซต์ของคุณส่งผลเสียต่อการมองเห็นการค้นหาของคุณหรือไม่

    หากต้องการปรับปรุงเวลาตอบสนองของไซต์ ให้ใช้ URL แบบไดนามิกและปฏิบัติตาม แนวทางปฏิบัติที่ดีที่สุด ของ Google Core Web Vitals ซึ่งอาจรวมถึงการเพิ่มประสิทธิภาพรูปภาพสำหรับสื่อครึ่งหน้าบน

    หากปัญหาความเร็วไซต์อยู่ที่ฝั่งเซิร์ฟเวอร์ คุณอาจต้องการลงทุนในทรัพยากรเซิร์ฟเวอร์อื่นๆ เช่น:

    • เซิร์ฟเวอร์เฉพาะ (โดยเฉพาะสำหรับไซต์ขนาดใหญ่)
    • การอัปเกรดเป็นฮาร์ดแวร์เซิร์ฟเวอร์ที่ใหม่กว่า
    • การเพิ่มแรม

    การปรับปรุงเหล่านี้จะช่วยเพิ่มประสบการณ์ผู้ใช้ของคุณ ซึ่งสามารถช่วยให้ไซต์ของคุณทำงานได้ดีขึ้นในการค้นหาโดย Google เนื่องจากความเร็วไซต์เป็นสัญญาณสำหรับ PageRank

    7. อย่าลืมใช้ Canonical Tags

    เนื้อหาที่ซ้ำกันจะถูกมองข้ามโดย Google อย่างน้อยเมื่อคุณไม่รับทราบว่าเนื้อหาที่ซ้ำกันมีหน้าแหล่งที่มา ทำไม Googlebot รวบรวมข้อมูลทุกหน้าเว้นแต่จะหลีกเลี่ยงไม่ได้ เว้นแต่จะได้รับคำแนะนำให้ทำอย่างอื่น อย่างไรก็ตาม เมื่อพบหน้าเว็บที่ซ้ำกันหรือสำเนาของสิ่งที่คุ้นเคย (ในหน้าเว็บหรือนอกไซต์) ก็จะหยุดรวบรวมข้อมูลหน้านั้น และในขณะที่สิ่งนี้ช่วยประหยัดเวลา คุณควรประหยัดเวลาให้โปรแกรมรวบรวมข้อมูลมากยิ่งขึ้นโดยใช้แท็กบัญญัติที่ระบุ URL ตามรูปแบบบัญญัติ

    ตัวอย่างบัญญัติ

    Canonicals บอกให้ Googlebot ไม่ต้องกังวลกับช่วงเวลาการรวบรวมข้อมูลของคุณในการจัดทำดัชนีเนื้อหานั้น สิ่งนี้ทำให้บอทเครื่องมือค้นหามีเวลามากขึ้นในการตรวจสอบหน้าอื่นๆ ของคุณ

    8. มุ่งเน้นไปที่โครงสร้างการเชื่อมโยงภายในของคุณ

    การมีแนวทางปฏิบัติในการเชื่อมโยงที่มีโครงสร้างที่ดีภายในไซต์ของคุณสามารถเพิ่มประสิทธิภาพในการรวบรวมข้อมูลของ Google ลิงก์ภายในจะบอก Google ว่าหน้าใดในไซต์ของคุณที่สำคัญที่สุด และลิงก์เหล่านี้ช่วยให้โปรแกรมรวบรวมข้อมูลค้นหาหน้าต่างๆ ได้ง่ายขึ้น

    โครงสร้างการเชื่อมโยงที่ดีที่สุดจะเชื่อมโยงผู้ใช้และ Googlebots กับเนื้อหาทั่วทั้งเว็บไซต์ของคุณ ใช้ anchor text ที่เกี่ยวข้องเสมอ และวางลิงก์ของคุณอย่างเป็นธรรมชาติในเนื้อหาของคุณ

    สำหรับไซต์อีคอมเมิร์ซ Google มีแนวทางปฏิบัติที่ดีที่สุดสำหรับตัวเลือกการนำทางแบบเหลี่ยมเพชรพลอย เพื่อเพิ่มการรวบรวมข้อมูลให้ได้มากที่สุด การนำทางแบบประกอบช่วยให้ผู้ใช้ไซต์สามารถกรองผลิตภัณฑ์ตามคุณลักษณะ ทำให้การช็อปปิ้งเป็นประสบการณ์ที่ดียิ่งขึ้น การอัปเดตนี้ช่วยหลีกเลี่ยงความสับสนตามรูปแบบบัญญัติและปัญหาที่ซ้ำกัน นอกเหนือจากการรวบรวมข้อมูล URL ที่มากเกินไป

    9. ตัดเนื้อหาที่ไม่จำเป็นออก

    Googlebots สามารถเคลื่อนที่ได้เร็วและจัดทำดัชนีหน้าเว็บจำนวนมากทุกครั้งที่รวบรวมข้อมูลไซต์ หากคุณมีหน้าเว็บจำนวนมากที่ไม่ได้รับการเข้าชมหรือมีเนื้อหาที่ล้าสมัยหรือคุณภาพต่ำ ให้ตัดทิ้ง! กระบวนการตัดแต่ง ช่วยให้คุณสามารถตัดสัมภาระส่วนเกินของไซต์ของคุณที่สามารถชั่งน้ำหนักได้

    การมีหน้าเว็บมากเกินไปในไซต์ของคุณอาจทำให้ Googlebots เปลี่ยนไปใช้หน้าที่ไม่สำคัญโดยไม่สนใจหน้าต่างๆ

    อย่าลืมเปลี่ยนเส้นทางลิงก์ไปยังหน้าเหล่านี้ เพื่อไม่ให้เกิดข้อผิดพลาดที่พบเมื่อเข้ารวบรวมข้อมูล

    10. รับลิงก์ย้อนกลับมากขึ้น

    เมื่อ Googlebots มาถึงไซต์ของคุณแล้วเริ่มจัดทำดัชนีหน้าตามลิงก์ภายใน พวกเขายังใช้ลิงก์ภายนอกในกระบวนการจัดทำดัชนี หากไซต์อื่นเชื่อมโยงมายังไซต์ของคุณ Googlebot จะเดินทางไปยังไซต์ของคุณและไปยังหน้าดัชนีเพื่อให้เข้าใจเนื้อหาที่เชื่อมโยงได้ดีขึ้น

    นอกจากนี้ ลิงก์ย้อนกลับ ยัง ทำให้ไซต์ของคุณได้รับความนิยมและความใหม่มากขึ้นเล็กน้อย ซึ่ง Google ใช้เพื่อกำหนดว่าไซต์ของคุณต้องได้รับการจัดทำดัชนีบ่อยเพียงใด

    11. กำจัดหน้าเด็กกำพร้า

    รายงานเพจที่ถูกละเลย

    เนื่องจากโปรแกรมรวบรวมข้อมูลของ Google กระโดดจากหน้าหนึ่งไปยังอีกหน้าหนึ่งผ่านลิงก์ภายใน จึงสามารถค้นหาหน้าที่ลิงก์ไปได้อย่างง่ายดาย อย่างไรก็ตาม หน้าเว็บที่ไม่ได้เชื่อมโยงไปยังที่ใดที่หนึ่งบนไซต์ของคุณมักจะไม่ถูกสังเกตโดย Google สิ่งเหล่านี้เรียกว่า "หน้ากำพร้า"

    เมื่อหน้าเด็กกำพร้าเหมาะสม? หากเป็นหน้า Landing Page ที่มีจุดประสงค์หรือผู้ชมที่เฉพาะเจาะจงมาก ตัวอย่างเช่น หากคุณส่งอีเมลถึงนักกอล์ฟที่อาศัยอยู่ในไมอามีโดยมีหน้า Landing Page ที่ใช้ได้กับพวกเขาเท่านั้น คุณอาจไม่ต้องการเชื่อมโยงไปยังหน้าดังกล่าวจากที่อื่น

    เครื่องมือที่ดีที่สุดสำหรับการเพิ่มประสิทธิภาพงบประมาณการรวบรวมข้อมูล

    Search Console และ Google Analytics มีประโยชน์มากเมื่อต้องการเพิ่มประสิทธิภาพงบประมาณการรวบรวมข้อมูลของคุณ Search Console อนุญาตให้คุณขอโปรแกรมรวบรวมข้อมูลเพื่อจัดทำดัชนีหน้าเว็บและติดตามสถิติการรวบรวมข้อมูลของคุณ Google Analytics ช่วยคุณติดตามเส้นทางการเชื่อมโยงภายในของคุณ

    เครื่องมือ SEO อื่นๆ เช่น SearchAtlas ช่วยให้คุณค้นหาปัญหาในการรวบรวมข้อมูลได้อย่างง่ายดายผ่านเครื่องมือตรวจสอบไซต์ ด้วยรายงานเดียว คุณสามารถดูไซต์ของคุณ:

    • รายงานการรวบรวมข้อมูลการจัดทำดัชนี
    • ความลึกของดัชนี
    • ความเร็วหน้า
    • เนื้อหาที่ซ้ำกัน
    • แผนผังไซต์ XML
    • ลิงค์

    ปรับงบประมาณการรวบรวมข้อมูลให้เหมาะสมและเป็นเครื่องมือค้นหาที่มีประสิทธิภาพสูงสุด

    แม้ว่าคุณจะไม่สามารถควบคุมความถี่ที่เครื่องมือค้นหาจะจัดทำดัชนีไซต์ของคุณหรือนานเท่าใด แต่คุณก็สามารถเพิ่มประสิทธิภาพไซต์ของคุณเพื่อให้ได้รับประโยชน์สูงสุดจากการรวบรวมข้อมูลของเครื่องมือค้นหาแต่ละรายการ เริ่มต้นด้วยบันทึกของเซิร์ฟเวอร์และดูรายงานการรวบรวมข้อมูลใน Search Console ให้ละเอียดยิ่งขึ้น จากนั้นให้แก้ไขข้อผิดพลาดที่พบเมื่อเข้ารวบรวมข้อมูล โครงสร้างลิงก์ และปัญหาเกี่ยวกับความเร็วของหน้าเว็บ

    ขณะที่คุณทำงานผ่านกิจกรรมการรวบรวมข้อมูล GSC ให้เน้นไปที่กลยุทธ์ SEO ที่เหลือ รวมถึง การ สร้างลิงก์ และการเพิ่ม เนื้อหาที่มี คุณภาพ เมื่อเวลาผ่านไป คุณจะพบว่าหน้า Landing Page ของคุณไต่ขึ้นหน้าผลลัพธ์ของเครื่องมือค้นหา