<tt id="iea6s"><noscript id="iea6s"></noscript></tt>
    <ruby id="iea6s"></ruby>

    1. <strong id="iea6s"><form id="iea6s"></form></strong>
              網站logo
              SEO
              網站優化
              seo369團隊,專注SEO網站優化
              百度關鍵詞排名優化,先排名后付費
              引領SEO見效果付費新潮流
              聯系電話
              您現在的位置: seo優化seo百家觀點 

              搜索引擎爬蟲研究與探討

              來源:SEO369  2017-01-18  關鍵字:爬蟲 搜索引擎

              seo過程中對于蜘蛛的渴望是非常迫切的,蜘蛛到底是為什么來怎么來的我們很困惑,這里我們簡單探討一下蜘蛛的來去,或許對大家有所幫助。

              我們先來看一下它的定義:網絡爬蟲(又被稱為網頁蜘蛛,網絡機器人,在FOAF社區中間,更經常的稱為網頁追逐者),是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。

              從以上的定義來看,百度蜘蛛,谷歌機器人都屬于爬蟲的一種,而爬蟲主要是按照一定的規則,自動抓取信息的腳本或者程序,這個不難理解,有經驗的程序員都能夠獨立的編寫出來一套比較完整的蜘蛛程序,用來收集網絡信息,充實自己的網站。其實很多的信息采集軟件也是采用了這種技術。

              那么我們在來看一下蜘蛛到底進行的什么工作:

              每一種類型的資源,都有相應的蜘蛛爬蟲來搜集,當然解析的方式也各不相同。我們經常能夠在網站的日志中看到百度的spider和image-spider,不同的爬蟲利用其自身的規則來對其頁面進行解析。即使是這樣, 我們也能夠看到爬蟲在爬去頁面的時候還是有一定的規律性的,這種規律性則是來自于搜索引擎效率最大化的取舍。

              寬度優先遍歷原則:這個原則是從網站自身做起的,根據網站的層級來抓取。因為我們在做網站的時候都有一個優先的考慮,比如我第一個想讓搜索引擎看到的就是首頁,其次的各個目錄頁面,再其次就是內容頁面,蜘蛛也是利用這一點來抓取。

              非完全pagerank排序:這個原則就是利用谷歌的pr值來計算的。因為每一個網頁在谷歌中都會有一個評分,根絕這些評分高低來抓取。如果完全計算就比較耗費計算資源,所以它就采用高pr值的網頁傳遞出來的鏈接肯定都是可靠的。

              OPIC(online page importance computation在線頁面重要性計算):這一個原則跟pr值計算相差無幾,在采集的網頁中來計算每一個網頁的重要性,然后在進行優先抓取。

              大站優先策略:這個毋庸置疑了。因為大戰比較符合信賴的原則。

              其實我們可以看到,這種原則其實是對抓取的有限性和網頁的無限性的一個折中,即在有限的時間內抓取網絡中更為重要的頁面和資源。當然我們也需要去了解網絡爬蟲工作的原理,這樣的話更有利于我們去做SEO優化。

              說明:本欄目文章整理自互聯網,有侵犯權益的地方請聯系站長刪除。

              SEO | 網站優化 | 各地SEO資訊 | 網站地圖
              【SEO369】探索SEO優化的奧秘,專業提供企業SEO、網站優化、網站建設服務
              版權所有:SEO369  備案號:津ICP備08002309號
              在線客服
              網站優化
              QQ: 41868630
              TEL: 4008001220
              99看片在线免费观看