Technical SEO เป็นส่วนที่สำคัญที่สุดของ SEO เพจต่างๆ จำเป็นต้องรวบรวมข้อมูลและจัดทำดัชนีได้จึงจะมีโอกาสได้รับการจัดอันดับ ซึ่ง Technical SEO ก็คือการเพิ่มประสิทธิภาพกลไกการค้นหา ที่ช่วยให้ Search Engine ค้นหา รวบรวมข้อมูล ทำความเข้าใจ และจัดทำ index หน้าเว็บของคุณ เป้าหมายคือการค้นหาและปรับปรุงอันดับ

การ crawling ทำงานอย่างไร?

การ crawling คือที่ที่เครื่องมือค้นหาดึงเนื้อหาจากหน้าต่างๆ และใช้ลิงก์ในหน้าต่างๆ เพื่อค้นหาหน้าอื่นๆ เพิ่มเติม คุณสามารถควบคุมสิ่งที่จะถูกรวบรวมข้อมูลบนเว็บไซต์ของคุณได้หลายวิธี 

Robots.txt

ไฟล์ robots.txt จะบอกเครื่องมือค้นหาว่าสามารถและไม่สามารถไปที่ใดบนเว็บไซต์ของคุณได้ 

Crawl rate

มีคำสั่ง crawl-delay ที่คุณสามารถใช้ใน robots.txt ซึ่งจะช่วยให้คุณกำหนดความถี่ในการรวบรวมข้อมูลหน้าเว็บได้ แต่ Google ไม่ชอบวิธีนี้ สำหรับ Google คุณจะต้องขอให้รวบรวมข้อมูลใน Google Search Console เท่านั้น

ข้อจำกัดการเข้าถึง

หากคุณต้องการให้ผู้ใช้บางคนสามารถเข้าถึงบางหน้าได้ แต่ไม่อยากให้เครื่องมือค้นหาเข้าถึง สิ่งที่คุณอาจต้องการคือหนึ่งในสามตัวเลือกเหล่านี้:

  • HTTP authentication (ในกรณีที่ต้องใช้รหัสผ่านในการเข้าถึง)
  • IP whitelisting (ในการเข้าถึงเพจ อนุญาตให้เฉพาะที่อยู่ IP ที่ระบุเท่านั้น)

วิธีดู crawl activity

วิธีที่ง่ายที่สุดในการดูว่ามีการรวบรวมข้อมูลอะไรบ้าง สามารถเข้าไปดูในรายงาน “Crawl stats” ใน Google Search Console ซึ่งให้ข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่รวบรวมข้อมูลในเว็บไซต์ของคุณ หรือหากคุณต้องการดูกิจกรรมการรวบรวมข้อมูลทั้งหมดบนเว็บไซต์ของคุณ คุณจะต้องเข้าถึงบันทึกเซิร์ฟเวอร์ของคุณและอาจใช้เครื่องมือเพื่อวิเคราะห์ข้อมูลได้ แต่หากโฮสติ้งของคุณมีแผงควบคุมเช่น cPanel คุณควรมีสิทธิ์เข้าถึง raw logs และบางส่วน เช่น AWstats และ Webalizer

Crawl adjustments

แต่ละเว็บไซต์จะมีการรวบรวมข้อมูลที่แตกต่างกัน ซึ่งเป็นการผสมผสานระหว่างความถี่ที่ Google ต้องการรวบรวมข้อมูลและจำนวนที่เว็บไซต์ของคุณอนุญาต หน้าที่ได้รับความนิยมมากขึ้นและหน้าที่เปลี่ยนแปลงบ่อยจะถูกรวบรวมข้อมูลบ่อยขึ้น และหน้าที่ดูเหมือนจะไม่ได้รับความนิยมหรือมีการเชื่อมโยงที่ดีจะถูกรวบรวมข้อมูลน้อยลง

หาก crawlers เห็นสัญญาณของขณะรวบรวมข้อมูลเว็บไซต์ของคุณว่ารวบรวมยากแล้ว โดยทั่วไปแล้ว crawlers จะช้าลงหรือหยุดรวบรวมข้อมูลจนกว่าสถานการณ์จะดีขึ้น หลังจากรวบรวมข้อมูลหน้าเว็บแล้ว หน้าเว็บเหล่านั้นจะแสดงผลและส่งไปยังดัชนี 

คำสั่ง Robots

เมตาแท็กโรบ็อต (robots meta tag) คือข้อมูลโค้ด HTML ที่บอกเครื่องมือค้นหาว่าจะรวบรวมข้อมูลหรือจัดทำดัชนีหน้าเว็บบางหน้าอย่างไร โดยเอาวางไว้ในส่วน <head> ของหน้าเว็บ มีลักษณะดังนี้:

<meta name=”robots” content=”noindex” />

Canonicalization

เมื่อหน้าเว็บเดียวกันมีหลายเวอร์ชัน Google จะเลือกหนึ่งเวอร์ชันเพื่อจัดเก็บไว้ในดัชนี กระบวนการนี้เรียกว่า Canonicalization และ URL ที่เลือกให้เป็น canonical จะเป็น URL ที่ Google แสดงในผลการค้นหา โดยมีสัญญาณต่างๆ มากมายที่ใช้ในการเลือก Canonical URL ได้แก่:

  • Canonical tags
  • Duplicate pages
  • Internal links
  • Redirects
  • Sitemap URLs

วิธีที่ง่ายที่สุดในการดูว่า Google จัดทำดัชนีหน้าเว็บอย่างไร คือการใช้เครื่องมือตรวจสอบ URL ใน Google Search Console มันจะแสดง URL ตามรูปแบบ canonical ที่ Google เลือกไว้ 

ตรวจสอบการจัดทำ index

ตรวจสอบให้แน่ใจว่าหน้าเว็บที่คุณต้องการให้ผู้คนค้นหาสามารถจัดทำ index ใน Google ได้ 

กู้คืนลิงก์ที่สูญหาย

เว็บไซต์ส่วนใหญ่มีแนวโน้มที่จะเปลี่ยน URL ของตนเมื่อผ่านไปหลายปีแล้ว และส่วนใหญ่ URL เก่าๆเหล่านี้มักมีลิงก์จากเว็บไซต์อื่นลิงก์มา หากไม่ได้เปลี่ยนเส้นทางไปยัง URL ปัจจุบัน ลิงก์เหล่านั้นจะหายไปและไม่ถูกนับรวมในหน้าเว็บของคุณอีกต่อไป ซึ่งเราสามารถเปลี่ยนเส้นทางเหล่านี้ได้ ด้วยการทำ 301 redirect เป็นการทำ URL เก่าไปยัง URL ใหม่

เพิ่ม internal links

ลิงก์ภายในหรือ internal links คือลิงก์จากหน้าหนึ่งในเว็บไซต์ของคุณไปยังหน้าอื่นในเว็บไซต์ของคุณ ช่วยให้ค้นพบหน้าเว็บของคุณและยังช่วยให้หน้าเว็บมีอันดับดีขึ้นอีกด้วย 

เพิ่ม schema markup

schema markup คือโค้ดที่ช่วยให้เครื่องมือค้นหาเข้าใจเนื้อหาของคุณได้ดีขึ้น และขับเคลื่อนคุณลักษณะต่างๆ มากมายที่สามารถช่วยให้เว็บไซต์ของคุณโดดเด่นในผลการค้นหา Google 

Core Web Vitals

Core Web Vitals คือเมตริกความเร็วที่เป็นส่วนหนึ่งของประสบการณ์การใช้งานหน้าเว็บของ Google ที่ใช้ในการวัดประสบการณ์ของผู้ใช้ หน่วยเมตริกวัดการโหลดภาพด้วย Largest Contentful Paint (LCP) ความเสถียรของภาพด้วย Cumulative Layout Shift (CLS) และการโต้ตอบกับ First Input Delay (FID)

หากเนื้อหาของคุณไม่ได้รับการจัดทำดัชนี ก็จะไม่พบเนื้อหาดังกล่าวในเครื่องมือค้นหา และเมื่อมีบางอย่างเสียหายซึ่งส่งผลต่อปริมาณการค้นหา สิ่งสำคัญคือต้องรีบแก้ไข แต่สำหรับเว็บไซต์ส่วนใหญ่น่าจะเป็นการดีกว่าที่จะใช้เวลากับเนื้อหาและลิงก์ของคุณ โครงการด้านเทคนิคหลายโครงการที่มีผลกระทบมากที่สุดคือการจัดทำดัชนีหรือลิงก์