很多人知道要做 SEO 行銷,讓用戶透過搜尋得知你的產品。這主要的戰場就在 Google 搜尋引擎上,在寫內容、制定關鍵字策略、 SEO 策略前,對於 Google 搜尋了解這三件前備知識,你將事半功倍,在策略上擁有更大的勝率贏過其他競品對手。
這三件事,分別是:檢索、索引、演算。
1.檢索 Crawl(爬取)
「檢索」是 Google 官方文件給的正式稱呼,我們通常稱其為「爬取」。
在爬取階段,指的是 Google 透過追蹤連結、讀取 Sitemap 等多種方法來發掘網址。Google 這樣做目的是尋找新網頁,並為這些網頁建立索引。
然而網站要成功被 Google 索引(收錄),需要符合一些相關規則,或是你提交的文件告訴 Google 哪些網頁可以被索引。
這份文件叫 「Robot.txt」。
每個網站都被規定需要有這份文件,通常這份文件就像是一個網站的門口放的導覽地圖,在 Google 檢索時,告訴 google 哪裡可以爬取、哪裡不行。
常見的應用場景:
如多國語系的網站,在台灣,當地母語為中文,你的 Robot.txt 就會請 Google 盡量避免爬取美國版本的網站。
2.索引 Index(收錄)
「索引」是 Google 正式官方文件的稱呼,我們通常稱它為「收錄」。
成功被索引的網頁,會收錄於搜尋結果當中。想打 SEO 排名戰,當然要讓你的網站被成功索引,讓潛在用戶透過搜尋找到你。
網站上線第一件事:檢查 Google 是否有收錄你
驗證方法很簡單,直接在搜尋列打:site:(你的網址),如果有就會顯示囉。
例如:site:www.eg-creative.com
如果沒被收錄,可能有以下常見原因:
- 網站剛上線運作,Google 還來不及進行檢索
- 網路上的其他網站無法順利連至您的網站
- 網站本身的設計讓 Google 難以有效檢索
- Google 在嘗試檢索您的網站時收到錯誤訊息
- 政策禁止 Google 檢索您的網站
- 沒有主動提交 sitemap 請 Google 檢索和索引
儘管 Google 會自動檢索世界上大部分網站,但仍有漏網之魚。你可以主動邀請 Google 來收錄你的網站,你可以提交 sitemap 給 Google,而 Google Search Console 這項工具將能幫你順利提交。
Sitemap 和 Robot.txt 的關係
Sitemap 是個檔案,Google 這類搜尋引擎會讀取 Sitemap ,知道要如何爬取您的網站資訊。因此 Sitemap 的更新、維護和完整度會幫助 Google 降低檢索的負擔,對 SEO 是重要而有幫助的。
而 Robot.txt 是一份文字文件,你可以在 Robot.txt 加入 Sitemap,或是運用 Google Search Console 直接提交你的 Sitemap,都能幫助你的網頁被檢索。
Robot.txt 和 Noindex 的差別
Robot.txt 只能告訴 Google 可不可以爬取哪些頁面,但不能決定哪些內容要不要被索引(收錄)進 Google。
如果你的網站有某些內容不想被索引,這時就需要 noindex 這份指令文件。noindex 有點像是你的網站政策,通常放於處。
noindex 常見的使用情境:
- 用戶會員帳戶 dashboard
- 結帳畫面
- 已經下架的商品
- 用戶的電子憑證
3.演算
搜尋引擎的目的,是在最短的時間內,提供最符合使用者需求的相關結果。
如今網站生成的速度越來越快、越來越多,以往常討論到的演算法類型可以明白,但不需過度針對和鑽研, 目前 Google 演算法的技術已進展到相當成熟的地步,不論是熊貓、企鵝或其他演算法,都能夠做到「即時爬取」、「即時檢索」的地步,因此現在統稱為「核心演算法」。
在這樣的情形下,我們該專注的,是提供優質的內容給使用者,並盡量保持在技術上方便 Google 演算法共同合作的協調性。(sitemap, Robot.txt 等文件、網站政策和架構清楚。)
結語
了解 Google 搜尋引擎運作的原則,相信能在你生產內容、擬定內容策上有更清楚和全面的概念,擁有良好的地基,後端內容的排名戰將打得更加精確、有效率。