ความท้าทายทางเทคนิคการจัดการแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหา
เผยแพร่แล้ว: 2020-12-22แก้ไขล่าสุดเมื่อ 31 สิงหาคม 2021
ผู้ที่อยู่ในอุตสาหกรรมการเพิ่มประสิทธิภาพกลไกค้นหามาระยะหนึ่งจะรู้ว่าไม่มีแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหาสองแคมเปญที่เหมือนกัน
หลายครั้งที่เราพบกับความท้าทายทางเทคนิคที่ส่งผลกระทบในทางลบต่อผลลัพธ์ของการปรับแต่งเว็บไซต์ให้ติดอันดับบน เครื่องมือการ ค้นหา บ่อยครั้ง การแก้ไขนั้นอยู่เหนือการควบคุมของเรา
ความท้าทายทางเทคนิคไปไกลกว่าขั้นตอนการปฏิบัติงานในการเพิ่มประสิทธิภาพกลไกค้นหามาตรฐาน และต้องอาศัยการมีส่วนร่วมในการพัฒนาเว็บ
ด้านล่างนี้คือความท้าทายหลายประการที่เราพบเมื่อจัดการแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหา
- ไม่มีนักพัฒนาเว็บ
- ระบบจัดการเนื้อหาที่ไม่เป็นมิตรกับเครื่องมือค้นหา
- ไม่สามารถเข้าถึงระบบจัดการเนื้อหาของลูกค้าได้
- ไม่สามารถเข้าถึงเซิร์ฟเวอร์ไฟล์เว็บไซต์ของลูกค้า
จะทำอย่างไรหากไม่มีนักพัฒนาเว็บสำหรับแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหา
ในกรณีนี้ มีเพียงสองคำตอบเท่านั้น คุณจะต้องเข้าถึงทั้งไฟล์เซิร์ฟเวอร์เว็บไซต์และระบบการจัดการเนื้อหา ตัวเลือก “B” คือ ลูกค้าจะต้องจ้างนักพัฒนาเว็บ เขาหรือเธอควรดำเนินการแก้ไขที่จำเป็นเพื่อนำเว็บไซต์เข้าสู่ข้อกำหนดการเพิ่มประสิทธิภาพกลไกค้นหา
กระบวนการนี้มีประโยชน์ต่อ ความสำเร็จของ SEO และควรมีความชัดเจน แต่บางครั้งก็มองข้ามไปอย่างเหลือเชื่อ การปรับใช้เนื้อหาและโครงสร้างที่มีประสิทธิภาพซึ่งช่วยปรับปรุงแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหาอาศัย การออกแบบเว็บและการพัฒนา ที่สอดคล้องกับเป้าหมายเดียวกันเป็นอย่างมาก
จะทำอย่างไรถ้าระบบการดูแลจัดการเนื้อหาไม่เป็นมิตรกับเครื่องมือค้นหา?
ในการเพิ่มประสิทธิภาพกลไกค้นหาอย่างถูกต้อง คุณจะต้องมีสิ่งต่อไปนี้แต่ไม่จำกัดเพียง:
- ความสามารถในการสร้างชื่อหน้าพื้นที่ <head> ที่ไม่ซ้ำกันโดยแยกจากการสร้างจากแท็ก <h1> ของเนื้อหา
- ความสามารถในการสร้าง <head> คำอธิบายเมตาพื้นที่
- ความสามารถในการสร้าง URL ที่จำง่ายสำหรับเครื่องมือค้นหาแยกจากแท็ก <h1> ของเนื้อหา
- ความสามารถในการเพิ่มข้อความแสดงแทนและชื่อให้กับรูปภาพของไซต์ของคุณแยกจากแท็ก <h1> ของเนื้อหาหรือชื่อหน้าพื้นที่ <head> ของหน้า
ระบบการจัดการเนื้อหาจำนวนมากไม่ได้ให้บริการเพิ่มประสิทธิภาพกลไกค้นหาขั้นพื้นฐาน และขอแนะนำอย่างยิ่งให้มีบริการ SEO แบบไวท์เลเบล เมื่อต้องเผชิญกับความท้าทายเหล่านี้ คุณจะต้องแก้ไขระบบการจัดการเนื้อหาใหม่ ด้วยการเข้าถึงระบบการจัดการเนื้อหา คุณสามารถค้นคว้าวิธีดำเนินการเปลี่ยนแปลงที่จำเป็นและดำเนินการให้เสร็จสิ้น
Google ลดระดับผลการจัดอันดับสำหรับไซต์ที่มีรหัสตอบกลับ 4xx คลิกเพื่อทวีตอย่างไรก็ตาม คุณอาจไม่มีสิทธิ์เข้าถึงระบบการจัดการเนื้อหา หากลูกค้ามีเจ้าหน้าที่พัฒนาเว็บ คุณสามารถแนะนำพวกเขาได้ แนะนำสิ่งที่คุณต้องทำเพื่อเพิ่มประสิทธิภาพกลไกค้นหาสำหรับเว็บไซต์ของลูกค้า หากลูกค้าไม่มีเจ้าหน้าที่พัฒนาเว็บ จะต้องจ้าง จะเป็นการดีที่สุดหากพวกเขาเชี่ยวชาญกับระบบการจัดการเนื้อหาของลูกค้า
จะทำอย่างไรถ้าคุณไม่สามารถเข้าถึงระบบการจัดการเนื้อหาของลูกค้าที่จุดเริ่มต้นของแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหา?
คุณเพียงแค่ต้องขอข้อมูลนี้จากลูกค้า
ลูกค้าบางรายจะเกรงใจที่จะให้การเข้าถึงนี้ ในกรณีนี้ คุณจะต้องมีการสนทนาที่ชัดเจนและตรงไปตรงมากับลูกค้า เตือนพวกเขาว่าพวกเขาเชื่อใจคุณอย่างไรกับแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหานี้ แน่นอน พวกเขาสามารถไว้วางใจคุณด้วยการเข้าถึงระบบการจัดการเนื้อหาของพวกเขาด้วย
หากพวกเขาปฏิเสธ คุณจะต้องทำงานร่วมกับนักพัฒนาเว็บของพวกเขา หากมี ใช้การเปลี่ยนแปลงที่จำเป็นใดๆ สำหรับไซต์ของลูกค้าเพื่อให้เป็นไปตามข้อกำหนดการเพิ่มประสิทธิภาพกลไกค้นหาปัจจุบัน
หากพวกเขาไม่มีนักพัฒนาเว็บ ให้จัดเตรียมการแก้ไขที่จำเป็นและคำขอให้กับลูกค้า ตรวจสอบให้แน่ใจว่าได้นำไปใช้อย่างถูกต้อง
เหตุใดการเข้าถึงไฟล์เซิร์ฟเวอร์เว็บไซต์ของลูกค้าจึงสำคัญ
นี่เป็นสิ่งสำคัญ—โดยเฉพาะอย่างยิ่งหากไม่มีนักพัฒนาเว็บในพนักงานของลูกค้า
ไฟล์เซิร์ฟเวอร์ของเว็บไซต์มีองค์ประกอบสำคัญสองอย่างที่จำเป็นในการดำเนินการแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหาที่ประสบความสำเร็จ ไฟล์เหล่านี้คือไฟล์เว็บไซต์ .htaccess และไฟล์ robots.txt
ไฟล์ .htaccess
ไฟล์ .htaccess คือที่ที่เราควบคุมการเปลี่ยนเส้นทาง 3XX ของไซต์ ซึ่งมีความสำคัญต่อการป้องกันโค้ดตอบกลับ "ไม่พบไฟล์ 4XX" สิ่งเหล่านี้สร้างปัญหาทุกประเภทในการพยายามจัดอันดับไซต์ของลูกค้าใน Google (และเครื่องมือค้นหาอื่นๆ) หน้าผลลัพธ์ของเครื่องมือค้นหา Google ลดระดับผลการจัดอันดับสำหรับไซต์ที่มีรหัสตอบกลับ 4xx หากไซต์ของคุณสร้างรหัสตอบกลับ 4xx และคู่แข่งของคุณไม่ใช่ พวกเขามีโอกาสดีกว่าที่จะแซงหน้าเว็บไซต์ของคุณในหน้าผลลัพธ์ของ Google Search Engine
ไฟล์ robots.txt
ไฟล์ robots.txt ก็มีความสำคัญเช่นกัน หลายครั้งที่เราพบเว็บไซต์ลูกค้าใหม่ที่สร้างขึ้นใหม่หรือใหม่ และมีปัญหากับผลการจัดอันดับของพวกเขา หลายครั้งที่เรามีลูกค้าเดิมที่ต้องการรีเฟรชรูปลักษณ์ ความรู้สึก และโครงสร้างการนำทางของไซต์ ในทั้งสองกรณี นักพัฒนาเว็บอาจใช้คำสั่ง disallow robot crawl เพื่อบล็อกเครื่องมือค้นหาจากการรวบรวมข้อมูลและจัดทำดัชนีเว็บไซต์ใหม่หรือเว็บไซต์ที่รีเฟรชในขณะที่อยู่ระหว่างการพัฒนา
ในหลายกรณี เมื่อเว็บไซต์ใหม่หรือเว็บไซต์ที่ได้รับการรีเฟรชใช้งานได้จริง คำสั่ง disallow จะไม่ถูกลบออกจากไฟล์ robots.txt ดังนั้นจึงบล็อกเครื่องมือค้นหาไม่ให้รวบรวมข้อมูลและจัดทำดัชนีเว็บไซต์เหล่านี้
ไซต์ลูกค้าที่มีอยู่ซึ่งมีผลการจัดอันดับที่ยอดเยี่ยม การเข้าชมของผู้เยี่ยมชม และคอนเวอร์ชันเริ่มล้มเหลว เนื่องจากไซต์เหล่านี้ใช้งานได้โดยไม่ต้องลบคำสั่ง disallow ลูกค้าใหม่ที่มีเว็บไซต์ใหม่หรือเว็บไซต์ที่ได้รับการรีเฟรชซึ่งประสบกับผลการจัดอันดับที่ล้มเหลว การเข้าชมของผู้เยี่ยมชม และ Conversion ต้องเผชิญกับผลลัพธ์แบบเดียวกัน
ไฟล์ robots.txt เป็นหนึ่งในองค์ประกอบแรกๆ ที่ฉันตรวจสอบเมื่อทำงานกับลูกค้าใหม่ที่มีผลการจัดอันดับที่ล้มเหลว การเข้าชมของผู้เยี่ยมชม และการแปลง ฉันทำเช่นเดียวกันกับลูกค้าที่มีอยู่หลังจากการรีเฟรช แม้กระทั่งก่อนที่พวกเขาจะเริ่มประสบปัญหาอันดับที่ลดลง ปริมาณการเข้าชมที่ลดลงของผู้เข้าชม และการสูญเสีย Conversion
คุณจะต้องเข้าถึงเซิร์ฟเวอร์ไฟล์เว็บของลูกค้าเพื่อทำการเปลี่ยนแปลงเหล่านี้ ไม่เช่นนั้นลูกค้าจะต้องมีนักพัฒนาเว็บเป็นพนักงาน
คุณต้องเก็บการตรวจสอบไฟล์ robots.txt ของลูกค้าไว้สูงในรายการของคุณ ด้วยเหตุผลบางอย่าง ฉันได้ประสบกับการกระทำแบบสุ่มของการใช้งานการรวบรวมข้อมูลที่ไม่อนุญาตในระหว่างโครงการจัดการแคมเปญของเครื่องมือค้นหาของฉัน
นี่เป็นเพียงความท้าทายทางเทคนิคบางประการที่คุณอาจเผชิญระหว่างแคมเปญการเพิ่มประสิทธิภาพกลไกค้นหา