尤物视频在线观看|国产尤物视频在线观看|99热在线获取最新地址,久久频这里精品99香蕉久,国产色婷婷精品综合在线,亚洲欧美日韩高清在线看

Robots.txt文件

作者:淺色記憶 瀏覽:133 發(fā)布時(shí)間:2017-11-02
分享 評(píng)論 0

Robots.txt對(duì)于任何一個(gè)從事SEO研究工作的人都是至關(guān)重要的,因?yàn)橥高^(guò) Robots.txt 我們可以直接與搜索引擎蜘蛛進(jìn)行對(duì)話,告訴他們哪些可以抓取,哪些不可以抓取。
  一、為什么設(shè)置Robots.txt?
  在進(jìn)行SEO操作的時(shí)候,我們需要告訴搜索引擎哪些頁(yè)面重要哪些頁(yè)面不重要,重要的頁(yè)面讓蜘蛛進(jìn)行抓取,不重要的頁(yè)面進(jìn)行屏蔽可以減少網(wǎng)站服務(wù)器的負(fù)擔(dān)。
  二、一些常見(jiàn)的問(wèn)題和知識(shí)點(diǎn)
  1、蜘蛛在發(fā)現(xiàn)一個(gè)網(wǎng)站的時(shí)候,第一步是抓取網(wǎng)站的Robots.txt文件(當(dāng)然官方上是這么說(shuō)的,有時(shí)候也會(huì)出現(xiàn)不遵守的情況);
  2、建議所有的網(wǎng)站都要設(shè)置Robots.txt文件,如果你認(rèn)為網(wǎng)站上所有內(nèi)容都是重要的,你可以建立一個(gè)空的robots.txt文件;
  三、在robots.txt文件中設(shè)置網(wǎng)站地圖
  你可以在robots.txt中添加網(wǎng)站的地圖,告訴蜘蛛網(wǎng)站地圖所在的地址。
  四、Robots.txt的順序
  在蜘蛛?yún)f(xié)議中,Disallow 與 Allow是有順序的,這是一個(gè)非常重要的問(wèn)題,如果設(shè)置錯(cuò)誤可能會(huì)導(dǎo)致抓取錯(cuò)誤。
  引擎蜘蛛程序會(huì)根據(jù)第一個(gè)匹配成功的Allow或Disallow行確定是否訪問(wèn)某個(gè)URL,一個(gè)例子可以讓你更清楚明白:
  1.User-agent: * 2.Allow: /seojc/bbs 3.Disallow: /seojc/  這個(gè)情況下,蜘蛛/seojc/bbs目錄可以正常抓取,但/seojc/目錄的文件無(wú)法抓取。通過(guò)這種方式可以允許蜘蛛訪問(wèn)特定目錄中的部分url。
  我們對(duì)調(diào)下位置觀察一下。
  1.User-agent: * 2.Disallow: /根目錄下的文件夾/ 3.Allow: /seojc/bbs  /seojc/目錄出現(xiàn)在第一行,禁止抓取目錄下的所有文件,那么第二行的Allow就無(wú)效,因?yàn)榈谝恍兄幸呀?jīng)禁止抓取seojc目錄下的所有文件,而 bbs目錄正好位于seowhy目錄下。因此匹配不成功。
  五、Robots.txt路徑問(wèn)題
  在蜘蛛?yún)f(xié)議中,Allow和Disallow后面可以跟兩種路徑形式,即絕對(duì)鏈接、相對(duì)鏈接。絕對(duì)鏈接就是完整的URL形式,而相對(duì)鏈接只針對(duì)根目錄。這是重點(diǎn)記住。
  六、斜杠問(wèn)題
  Disallow: /seojc表示禁止抓取seoic這個(gè)目錄下的所有文件,如seojc/1.html、seojc/rmjc.php;
  Disallow: /seojc/ 表示禁止抓取seojc這個(gè)目錄,而seojc.1.html、seojc/rmjc.php是可以抓取的。