LATEST NEWS

10/29/2013 9:03:34 AM

早期搜尋引擎機制

網站管理員以及網路內容提供者在90年代中期開始使用搜尋引擎來優化網站。此時第一代搜尋引擎開始對網際網路分門別類。一開始,所有網站管理員得做的事只有送出所屬網站到各家搜尋引擎。這些引擎跑一些蜘蛛機器人(spider)──擷取於網頁程式中找到連至其他網頁的超連結──並且儲存所找到的資料。過程中同時包含了將網頁下載並儲存至搜尋引擎擁有者的伺服器中,這時有另外一個軟體稱為Indexer來擷取頁面中不同的資訊——頁面中的文字、文字的位置、文字的重要性以及頁面所包含的任何連結,之後將頁面置入清單中等待過些時日後,再來擷取一次。隨著線上檔案數目日積月累,越來越多網站員意識到自然搜尋 (organic search) 條目的重要性,所以較普及的搜尋引擎公司開始整理他們的列表,以顯示最恰當適合的網頁為優先。搜尋引擎與網站管理員的戰爭就此開始,並延續至今。

一開始搜尋引擎是被網站管理員本身牽著走的。早期版本的搜尋演算法有賴於網站員提供資訊,如關鍵字的基本定義標籤(meta tag)。當某些網站員開始濫用標籤,造成該網頁排名與連結無關時,搜尋引擎開始捨棄標籤並發展更複雜的排名演算法。由於數繁不及備載,僅列舉數個分析目標如下:

    在標題簽裡的文字,如

引擎


    域名,如 wikipedia.org
    統一資源定位符下屬的目錄與檔名,如 http://zh.wikipedia.org/wiki/Seo
    關鍵字密度
    關鍵字接近度,如 '軟盤、軟碟' '硬盤、硬碟'
    圖形連結的 Alt 屬性,如 MediaWiki

但是經過多年的搜尋引擎演算法的調整,現在較重要的影響標籤為:

    〈title〉
    〈h1〉
    〈img〉中的 alt屬性

由於這些都還在網站人員的眼皮下打滾,搜尋引擎陸陸續續碰到諸多濫用與操縱排名等難題。為了要提供較好的結果給使用者,搜尋引擎必須調適到讓他們的搜尋結果表現出最適當的結果,而非某些不道德的網路員產生的、只有塞滿關鍵字的無用網頁。由此,新種類的搜尋引擎應運而生。

Tags:   SEO  seo  搜尋引擎優化