Robots协议:网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

1、如果你的网站有部分内容不希望搜索引擎抓取,那么请设置robots.txt

2、如果你的网站全部内容都需要被搜索引擎抓取,可以不设置。

3、一般来说,一些后台文件(如css、js)、用户隐私的文件不用被搜索引擎抓取。

4、如果有些文件频繁被蜘蛛抓取,但是这些文件又是不重要的,那么可以用robots.txt进行屏蔽。

1、一个页面对应多个URL时,应屏蔽多余的URL。

2、如果网站有页面是没有实质性内容的,应该屏蔽掉。

3、如果网站改版删除了大量的页面(404),应该屏蔽掉。

4、如果是UGC网站,用户产生了大量的不良内容,应该屏蔽掉。

5、不希望被搜索引擎索引的内容(后台界面、用户隐私),应该屏蔽掉。