Latest News

Home » 搜尋引擎排名原理 » 探討:搜尋引擎排名的原理

探討:搜尋引擎排名的原理

現在來探討一下:搜尋引擎排名原理

搜尋引擎排名原理」那麼專業的知識,不過你有沒有過以下心得:
1.不可能搜尋到今天的新聞。因為引擎伺服器每幾天或幾十天才能完成一次資料的處理,今天的新聞今天伺服器做不完。(以後有可能做完,目前通常是搜到一月前的資料。)
2.不可能搜尋到網頁上本來沒有的東西。比如:FBI2003年(今年)的行動計劃。你家裡房門鑰匙通常放在哪個抽屜——這得問你爸爸媽媽。
3.電腦沒有智慧,智慧要靠自己。(因為它只是資料庫!)

搜尋引擎排名教學課程

此圖資料來源 http://www.howstuffworks.com/search-engine1.htm

搜尋引擎並不真正搜尋際網路,它搜尋的實際上是預先整理好的網頁索引資料庫。

  真正意義上的搜尋引擎,通常指的是收集了網際網路上幾千萬到幾十億個網頁並對網頁中的每一個詞(即關鍵字)進行索引,建立索引資料庫的全文搜尋引擎。當使用者尋找某個關鍵字的時候,所有在頁面內容中包括了該關鍵字的網頁都將作為搜尋結果被搜出來。在經由複雜的演算法進行排序後,這些結果將按照與搜尋關鍵字的關聯度高低,依次排序。

  現在的搜尋引擎已普遍使用超鏈分析技術,除了分析索引網頁本身的內容,還分析索引所有指向該網頁的鏈結的URL、AnchorText、甚至鏈結周圍的文字。所以,有時候,即使某個網頁A中並沒有某個詞比如「惡魔撒旦」,但若果有別的網頁B用鏈結「惡魔撒旦」指向這個網頁A,那麼使用者搜尋「惡魔撒旦」時也能找到網頁A。而且,若果有越多網頁(C、D、E、F……)用名為「惡魔撒旦」的鏈結指向這個網頁A,或是給出這個鏈結的源網頁(B、C、D、E、F……)越優秀,那麼網頁A在使用者搜尋「惡魔撒旦」時也會被認為更關聯,排序也會越靠前。

  搜尋引擎的原理,可以看做三步:從際網路上抓取網頁→建立索引資料庫→在索引資料庫中搜尋排序。  

從際網路上抓取網頁

利用能夠從際網路上自動收集網頁的Spider系統程式,自動訪問際網路,並沿著任何網頁中的所有URL爬到其他網頁,重複這過程,並把爬過的所有網頁收集回來。

建立索引資料庫

由分析索引系統程式對收集回來的網頁進行分析,提取關聯網頁資訊(內含網頁所在URL、編碼類型、頁面內容包括的關鍵字、關鍵字位置、生成時間、大小、與其他網頁的鏈結關係等),根據一定的關聯度演算法進行大量複雜計算,得到每一個網頁針對頁面內容中及超鏈中每一個關鍵字的關聯度(或重要性),然後用這些關聯資訊建立網頁索引資料庫。

在索引資料庫中搜尋排序

當使用者輸入關鍵字搜尋後,由搜尋系統程式從網頁索引資料庫中找到符合該關鍵字的所有關聯網頁。因為所有關聯網頁針對該關鍵字的關聯度早已算好,所以只需按照現成的關聯度數值排序,關聯度越高,排名越靠前。
最後,由頁面生成系統將搜尋結果的鏈結位址和頁面內容摘要等內容群組織起來返回給使用者。

  搜尋引擎的Spider一般要定期重新訪問所有網頁(各搜尋引擎的週期不同,可能是幾天、幾周或幾月,也可能對不同重要性的網頁有不同的更新頻率),更新網頁索引資料庫,以反映出網頁內容的更新情況,增加新的網頁資訊,去除死鏈結,並根據網頁內容和鏈結關係的變化重新排序。這樣,網頁的具體內容和變化情況就會反映到使用者查詢的結果中。

  際網路雖然只有一個,但各搜尋引擎的能力和偏好不同,所以抓取的網頁各不相同,排序演算法也各不相同。大型搜尋引擎的資料庫儲存了際網路上幾億至幾十億的網頁索引,資料量達到幾千G甚至幾萬G。但即使最大的搜尋引擎建立超過二十億網頁的索引資料庫,也只能佔到際網路上普通網頁的不到30%,不同搜尋引擎之間的網頁資料重疊率一般在70%以下。我們使用不同搜尋引擎的重要原因,就是因為它們能分別搜尋到不同的內容。而際網路上有更大量的內容,是搜尋引擎無法抓取索引的,也是我們無法用搜尋引擎搜尋到的。

  你心裏應該有這個概念:搜尋引擎只能搜到它網頁索引資料庫裏儲存的內容。你也應該有這個概念:若果搜尋引擎的網頁索引資料庫裏應該有而你沒有搜出來,那是你的能力問題,學習搜尋技巧可以大幅度提高你的搜尋能力。

About

發佈留言