很多人知道要做 SEO排名,讓使用者透過搜尋得知你的產品。這主要的戰場就在 Google 搜尋引擎上。在撰寫內容、制定關鍵字策略和 SEO排名之前,對於 Google 搜尋了解以下三個重要概念,將事半功倍,在策略上擁有更大的勝算,打敗競爭對手。
SEO排名 觀念一:檢索(Crawl)-爬取網頁
「檢索」是 Google 官方文件給的正式稱呼,通常我們稱之為「爬取」。
在檢索階段,Google 透過追蹤連結、讀取網站地圖(Sitemap)等多種方法來發現網址。Google 這樣做的目的是尋找新的網頁並為這些網頁建立索引。
然而,網站要成功被 Google 索引(收錄),需要符合一些相關規則,或是通過你提交的文件告訴 Google 哪些網頁可以被索引。
這份文件叫做「Robots.txt」。
每個網站都需要有這份文件,它就像是一個網站的導覽地圖,告訴 Google 哪些地方可以爬取,哪些地方不行。
下面舉例的場景是多國語系的網站。例如,在台灣,當地母語為中文,你的 Robots.txt 可以告訴 Google 盡量避免爬取美國版本的網站。
User-agent: Googlebot
Disallow: /us/ # 禁止 Googlebot 爬取美國版本的網站內容
User-agent: Googlebot-Image
Disallow: / # 禁止 Google 圖片爬蟲爬取整個網站
User-agent: *
Allow: / # 允許其他爬蟲訪問整個網站
這個範例中,Disallow: /us/
指示 Googlebot 不得爬取位於 /us/
目錄下的美國版本網站內容。其他爬蟲仍然可以訪問整個網站。
SEO排名觀念二:索引(Index)-收錄網頁
「索引」是 Google 正式官方文件的稱呼,我們通常稱它為「收錄」。 成功被索引的網頁,會收錄於搜尋結果當中。想打 SEO 排名戰,當然要讓你的網站被成功索引,讓潛在用戶透過搜尋找到你。 網站上線第一件事:檢查 Google 是否有收錄你 驗證方法很簡單,直接在搜尋列打:site:(你的網址),如果有就會顯示囉。 例如:site:www.eg-creative.com
如果沒被收錄,可能有以下常見原因:
- 網站剛上線運作,Google 還來不及進行檢索
- 網路上的其他網站無法順利連至您的網站
- 網站本身的設計讓 Google 難以有效檢索
- Google 在嘗試檢索您的網站時收到錯誤訊息
- 政策禁止 Google 檢索您的網站
- 沒有主動提交 sitemap 請 Google 檢索和索引
儘管 Google 會自動檢索世界上大部分的網站,但仍然有一些例外情況。你可以主動邀請 Google 收錄你的網站,其中一個方法是提交網站地圖(Sitemap)給 Google,而 Google Search Console 這個工具能夠協助你順利提交。
Sitemap 和 Robots.txt 的關係
網站地圖(Sitemap)是一個檔案,搜尋引擎如 Google 會讀取這個檔案,了解你的網站結構和內容。因此,維護和更新完整的網站地圖對於 Google 的檢索是很重要的。
而 Robots.txt 是一份文字文件,你可以在其中加入 Sitemap 的位置,或者直接使用 Google Search Console 提交你的 Sitemap,這樣有助於你的網頁被檢索。
Robots.txt 和 Noindex 的差異: Robots.txt 只能告訴 Google 哪些頁面可以或不可以爬取,但無法決定哪些內容要不要被索引(收錄)到 Google。
如果你希望某些內容不被索引,就需要使用 noindex 指令。noindex 類似於你的網站政策,通常放在特定的頁面上。
noindex 的常見使用情境:
- 用戶會員帳戶的個人儀表板。
- 結帳畫面。
- 已經下架的商品頁面。
- 用戶的電子憑證頁面。
SEO排名觀念三:演算(Algorithm)-提供最佳搜尋結果
搜尋引擎的目的是在最短的時間內提供最符合使用者需求的相關結果。
在 Google 搜尋引擎中,有三大核心演算法,它們分別是「Panda」、「Penguin」和「Hummingbird」。這些演算法的目的是不斷改進搜尋結果的品質,提供更符合使用者需求的相關內容。
- Panda(熊貓)演算法: Panda 演算法於2011年首次推出,旨在評估網站的內容品質。它主要針對低品質內容、重複內容、複製內容和低價值的內容進行懲罰,同時傾向於推薦高品質、原創且有價值的內容。Panda 演算法也考慮使用者的反饋,例如使用者的回饋、點擊行為和停留時間等指標。
- Penguin(企鵝)演算法: Penguin 演算法於2012年首次推出,其主要目標是對抗垃圾連結(spammy links)和不自然的連結行為。這些垃圾連結可能是由於購買連結、過度使用關鍵字錨文本、大量低品質連結等方式產生的。Penguin 演算法分析網站的連結配置,並對違規行為進行懲罰,降低相關網站的排名。
- Hummingbird(蜂鳥)演算法: Hummingbird 演算法於2013年推出,它的目標是改進搜尋引擎對於長尾關鍵字和自然語言搜尋的理解能力。這個演算法著重於理解使用者的意圖,而不僅僅是關鍵字的匹配。它考慮到整個搜索句子的上下文,並提供更精確和相關的搜尋結果。
如今網站生成的速度越來越快、越來越多,以往常討論到的演算法類型可以明白,但不需過度針對和鑽研, 目前 Google 演算法的技術已進展到相當成熟的地步,不論是熊貓、企鵝或其他演算法,都能夠做到「即時爬取」、「即時檢索」的地步,因此現在統稱為「核心演算法」。
在這樣的情形下,我們該專注的,是提供優質的內容給使用者,並盡量保持在技術上方便 Google 演算法共同合作的協調性。(sitemap, Robot.txt 等文件、網站政策和架構清楚。)
了解 Google 搜尋引擎運作的原則,相信能在你生產內容、擬定內容策上有更清楚和全面的概念,擁有良好的地基,後端內容的排名戰將打得更加精確、有效率。