尤物视频在线观看|国产尤物视频在线观看|99热在线获取最新地址,久久频这里精品99香蕉久,国产色婷婷精品综合在线,亚洲欧美日韩高清在线看

robots文件

作者:數(shù)風流人物 瀏覽:728 發(fā)布時間:2017-10-24
編輯 分享 評論 0

在網(wǎng)站建設(shè)過程中我們會有一部分內(nèi)容不希望被搜索引擎抓取到或者不希望其在互聯(lián)網(wǎng)中出現(xiàn),那么要怎么辦呢?我要怎么跟搜索引擎說你不要抓取我的網(wǎng)站內(nèi)容呢?這時候robots就派上用場了。

Robots.txt是存放于網(wǎng)站根目錄下用于規(guī)定搜索引擎對網(wǎng)站內(nèi)容抓取范圍的文本文件,就這么一句話可以解釋robots.txt是什么,但是我們需要注意的幾點:

1.robots.txt必須存放在網(wǎng)站的根目錄下。

2.其命名必須為robots.txt

3.Robots.txt是搜索引擎訪問網(wǎng)站的第一個頁面

4.Robots.txt中必須指明user-agent


詞條統(tǒng)計

  • 瀏覽次數(shù):728
  • 編輯次數(shù):0次歷史版本
  • 最近更新:2017-10-24
  • 創(chuàng)建者:數(shù)風流人物
  • 相關(guān)詞條

    相關(guān)問答

    相關(guān)百科

    相關(guān)資訊