2009年12月16日 星期三

淺談入口網站的發展和搜尋引擎

早期網路開始興盛時期,多數的使用者藉由入口網站找到想要的資料。當時的入口網站並沒有所謂的『網路蜘蛛 Spider』或『搜索引擎機器人 Robot』,當時的入口網站只是很簡單的接受其它網站的登錄,將這些登錄的網站儲存在入口網站的資料庫裡。若使用者想找特定的資料,得進入該網站,使用搜索功能,針對入口網站資料庫找到僅存的登錄網站,這樣以目錄清單方式的搜尋結果是有限的。

當網路使用者日漸增多,網路技術也逐漸發展,入口網站經營者發現光是接受使用者主動登錄網站是不足以符合廣大網路使用者對於搜索的需求,因此『網路蜘蛛 Spider』、『搜索引擎機器人 Robot』技術即被發展,運用到網路上。

這些Spider / Robot會主動針對位址解析,找到每一個網站,解讀網址、取得每個網站的網頁內容,並加以過濾、分析關鍵字、分類、儲存於入口網的資料庫裡;

隨後,使用者在入口網站搜索資料時,雖然找出的資料更多,但相對於資料被搜索後的結果卻不是那麼精準, 面對數以萬計的資料,使用者如何以最短的時間找到自己想要的網站呢? 慢慢的這個問題被重視,因此SEO(Search Engine Optimization 網站最佳化)的技術出現了。

透過SEO網站最佳化, 網站的建立者運用SEO,優化網站,進而對於搜索引擎展現出最具親和力的網站架構及網頁編排方式,讓站搜索引擎更能精準的找到該網站,並準確的將該網站進行分類和儲存。使用者日後便能透過入口網站使用關鍵字找到更精確的網站或資料。

沒有留言:

張貼留言