Technical SEO เป็นส่วนที่สำคัญที่สุดของ SEO เพจต่างๆ จำเป็นต้องรวบรวมข้อมูลและจัดทำดัชนีได้จึงจะมีโอกาสได้รับการจัดอันดับ ซึ่ง Technical SEO ก็คือการเพิ่มประสิทธิภาพกลไกการค้นหา ที่ช่วยให้ Search Engine ค้นหา รวบรวมข้อมูล ทำความเข้าใจ และจัดทำ index หน้าเว็บของคุณ เป้าหมายคือการค้นหาและปรับปรุงอันดับ
การ crawling ทำงานอย่างไร?
การ crawling คือที่ที่เครื่องมือค้นหาดึงเนื้อหาจากหน้าต่างๆ และใช้ลิงก์ในหน้าต่างๆ เพื่อค้นหาหน้าอื่นๆ เพิ่มเติม คุณสามารถควบคุมสิ่งที่จะถูกรวบรวมข้อมูลบนเว็บไซต์ของคุณได้หลายวิธี
Robots.txt
ไฟล์ robots.txt จะบอกเครื่องมือค้นหาว่าสามารถและไม่สามารถไปที่ใดบนเว็บไซต์ของคุณได้
Crawl rate
มีคำสั่ง crawl-delay ที่คุณสามารถใช้ใน robots.txt ซึ่งจะช่วยให้คุณกำหนดความถี่ในการรวบรวมข้อมูลหน้าเว็บได้ แต่ Google ไม่ชอบวิธีนี้ สำหรับ Google คุณจะต้องขอให้รวบรวมข้อมูลใน Google Search Console เท่านั้น
ข้อจำกัดการเข้าถึง
หากคุณต้องการให้ผู้ใช้บางคนสามารถเข้าถึงบางหน้าได้ แต่ไม่อยากให้เครื่องมือค้นหาเข้าถึง สิ่งที่คุณอาจต้องการคือหนึ่งในสามตัวเลือกเหล่านี้:
- HTTP authentication (ในกรณีที่ต้องใช้รหัสผ่านในการเข้าถึง)
- IP whitelisting (ในการเข้าถึงเพจ อนุญาตให้เฉพาะที่อยู่ IP ที่ระบุเท่านั้น)
วิธีดู crawl activity
วิธีที่ง่ายที่สุดในการดูว่ามีการรวบรวมข้อมูลอะไรบ้าง สามารถเข้าไปดูในรายงาน “Crawl stats” ใน Google Search Console ซึ่งให้ข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่รวบรวมข้อมูลในเว็บไซต์ของคุณ หรือหากคุณต้องการดูกิจกรรมการรวบรวมข้อมูลทั้งหมดบนเว็บไซต์ของคุณ คุณจะต้องเข้าถึงบันทึกเซิร์ฟเวอร์ของคุณและอาจใช้เครื่องมือเพื่อวิเคราะห์ข้อมูลได้ แต่หากโฮสติ้งของคุณมีแผงควบคุมเช่น cPanel คุณควรมีสิทธิ์เข้าถึง raw logs และบางส่วน เช่น AWstats และ Webalizer
Crawl adjustments
แต่ละเว็บไซต์จะมีการรวบรวมข้อมูลที่แตกต่างกัน ซึ่งเป็นการผสมผสานระหว่างความถี่ที่ Google ต้องการรวบรวมข้อมูลและจำนวนที่เว็บไซต์ของคุณอนุญาต หน้าที่ได้รับความนิยมมากขึ้นและหน้าที่เปลี่ยนแปลงบ่อยจะถูกรวบรวมข้อมูลบ่อยขึ้น และหน้าที่ดูเหมือนจะไม่ได้รับความนิยมหรือมีการเชื่อมโยงที่ดีจะถูกรวบรวมข้อมูลน้อยลง
หาก crawlers เห็นสัญญาณของขณะรวบรวมข้อมูลเว็บไซต์ของคุณว่ารวบรวมยากแล้ว โดยทั่วไปแล้ว crawlers จะช้าลงหรือหยุดรวบรวมข้อมูลจนกว่าสถานการณ์จะดีขึ้น หลังจากรวบรวมข้อมูลหน้าเว็บแล้ว หน้าเว็บเหล่านั้นจะแสดงผลและส่งไปยังดัชนี
คำสั่ง Robots
เมตาแท็กโรบ็อต (robots meta tag) คือข้อมูลโค้ด HTML ที่บอกเครื่องมือค้นหาว่าจะรวบรวมข้อมูลหรือจัดทำดัชนีหน้าเว็บบางหน้าอย่างไร โดยเอาวางไว้ในส่วน <head> ของหน้าเว็บ มีลักษณะดังนี้:
<meta name=”robots” content=”noindex” />
Canonicalization
เมื่อหน้าเว็บเดียวกันมีหลายเวอร์ชัน Google จะเลือกหนึ่งเวอร์ชันเพื่อจัดเก็บไว้ในดัชนี กระบวนการนี้เรียกว่า Canonicalization และ URL ที่เลือกให้เป็น canonical จะเป็น URL ที่ Google แสดงในผลการค้นหา โดยมีสัญญาณต่างๆ มากมายที่ใช้ในการเลือก Canonical URL ได้แก่:
- Canonical tags
- Duplicate pages
- Internal links
- Redirects
- Sitemap URLs
วิธีที่ง่ายที่สุดในการดูว่า Google จัดทำดัชนีหน้าเว็บอย่างไร คือการใช้เครื่องมือตรวจสอบ URL ใน Google Search Console มันจะแสดง URL ตามรูปแบบ canonical ที่ Google เลือกไว้
ตรวจสอบการจัดทำ index
ตรวจสอบให้แน่ใจว่าหน้าเว็บที่คุณต้องการให้ผู้คนค้นหาสามารถจัดทำ index ใน Google ได้
กู้คืนลิงก์ที่สูญหาย
เว็บไซต์ส่วนใหญ่มีแนวโน้มที่จะเปลี่ยน URL ของตนเมื่อผ่านไปหลายปีแล้ว และส่วนใหญ่ URL เก่าๆเหล่านี้มักมีลิงก์จากเว็บไซต์อื่นลิงก์มา หากไม่ได้เปลี่ยนเส้นทางไปยัง URL ปัจจุบัน ลิงก์เหล่านั้นจะหายไปและไม่ถูกนับรวมในหน้าเว็บของคุณอีกต่อไป ซึ่งเราสามารถเปลี่ยนเส้นทางเหล่านี้ได้ ด้วยการทำ 301 redirect เป็นการทำ URL เก่าไปยัง URL ใหม่
เพิ่ม internal links
ลิงก์ภายในหรือ internal links คือลิงก์จากหน้าหนึ่งในเว็บไซต์ของคุณไปยังหน้าอื่นในเว็บไซต์ของคุณ ช่วยให้ค้นพบหน้าเว็บของคุณและยังช่วยให้หน้าเว็บมีอันดับดีขึ้นอีกด้วย
เพิ่ม schema markup
schema markup คือโค้ดที่ช่วยให้เครื่องมือค้นหาเข้าใจเนื้อหาของคุณได้ดีขึ้น และขับเคลื่อนคุณลักษณะต่างๆ มากมายที่สามารถช่วยให้เว็บไซต์ของคุณโดดเด่นในผลการค้นหา Google
Core Web Vitals
Core Web Vitals คือเมตริกความเร็วที่เป็นส่วนหนึ่งของประสบการณ์การใช้งานหน้าเว็บของ Google ที่ใช้ในการวัดประสบการณ์ของผู้ใช้ หน่วยเมตริกวัดการโหลดภาพด้วย Largest Contentful Paint (LCP) ความเสถียรของภาพด้วย Cumulative Layout Shift (CLS) และการโต้ตอบกับ First Input Delay (FID)
หากเนื้อหาของคุณไม่ได้รับการจัดทำดัชนี ก็จะไม่พบเนื้อหาดังกล่าวในเครื่องมือค้นหา และเมื่อมีบางอย่างเสียหายซึ่งส่งผลต่อปริมาณการค้นหา สิ่งสำคัญคือต้องรีบแก้ไข แต่สำหรับเว็บไซต์ส่วนใหญ่น่าจะเป็นการดีกว่าที่จะใช้เวลากับเนื้อหาและลิงก์ของคุณ โครงการด้านเทคนิคหลายโครงการที่มีผลกระทบมากที่สุดคือการจัดทำดัชนีหรือลิงก์