尤物视频在线观看|国产尤物视频在线观看|99热在线获取最新地址,久久频这里精品99香蕉久,国产色婷婷精品综合在线,亚洲欧美日韩高清在线看

網(wǎng)站robots文件的作用介紹及寫(xiě)法大全

作者:飛鳥(niǎo)海搏 瀏覽:139 發(fā)布時(shí)間:2017-12-25
分享 評(píng)論 0

 一個(gè)完整的網(wǎng)站,301重定向、404頁(yè)面自定義和robots.txt文件都是必有的,沒(méi)有為什么,301是為了集權(quán);404是在網(wǎng)站出現(xiàn)死鏈的時(shí)候引導(dǎo)蜘蛛以及增加用戶體驗(yàn);那robots.txt文件是做什么的呢?它有什么作用呢?


  一、robots文件是什么?


  robots.txt文件是存放在網(wǎng)站根目錄下面的一個(gè)TXT文本文檔.它是網(wǎng)站和蜘蛛之間的一個(gè)協(xié)議.


  二、robots文件有什么作用?


  如果你網(wǎng)站根目錄有robots.txt這樣一個(gè)文件,那蜘蛛在爬行你網(wǎng)站的時(shí)候就會(huì)首先訪問(wèn)這個(gè)文件(robots文件一般都要存放在根目錄,蜘蛛第一個(gè)訪問(wèn)的文件,因此這個(gè)文件是很重要的).robots文件的作用是告訴搜索引擎蜘蛛,網(wǎng)站的哪些文件夾可以抓取,哪些文件夾不能抓取,從而確保我們網(wǎng)站的隱私內(nèi)容不會(huì)被收錄.


  三、robots文件怎么寫(xiě)?


  1.定義搜索引擎


  用User-agent:來(lái)定義搜索引擎,其中*表示所有


  百度蜘蛛名字:Baiduspider,谷歌蜘蛛名字:Googlebot.


  User-agent:*表示定義所有蜘蛛


  User-agent: Baiduspider表示自定義百度蜘蛛,


  User-agent: Googlebot表示自定義谷歌蜘蛛


  大家可以參考百度或者淘寶的robots.txt,他么就是這樣寫(xiě)的,而我們小站只需要自定義所有搜索引擎蜘蛛即可.


  2.禁止訪問(wèn)和允許訪問(wèn)


  User-agent: *


  Disallow: /


  表示禁止所有搜索引擎訪問(wèn);


  User-agent: *


  Allow: /


  表示允許所有搜索引擎訪問(wèn).


  PS:在:后面/前面有一個(gè)英文狀態(tài)下的空格,空格必須有,必須是英文狀態(tài)下的


  3.禁止搜索引擎訪問(wèn)網(wǎng)站中的某些目錄


  假設(shè)a是我網(wǎng)站根目錄的一個(gè)文件夾,寫(xiě)法分別如下:


  User-agent: *


  Disallow: /a


  禁止搜索引擎訪問(wèn)a文件夾及a文件夾下面的所有文件