路径是相对的,但每个路径之前都要包含:"/"
增加限制目录
增加Sitemap

默认-所有搜索引擎:
检索间隔:
国内搜索引擎

百度
SOSO
搜狗
有道
国外搜索引擎

谷歌
必应
雅虎
Ask/Teoma
Alexa/Wayback
Cuil
MSN Search
Scrub The Web
DMOZ
GigaBlast
特殊搜索引擎(机器人)

Google Image
Google Mobile
Yahoo MM
Yahoo Blogs
MSN PicSearch

   

提示:请将以下结果保存到记事本,命名为robots.txt上传到网站根目录(点击复制可复制全部结果)
生成的robots结果:

robots.txt 在线生成器介绍

什么是robots.txt文件

robots.txt(统一小写)是一种存放于网站根目录下的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎蜘蛛获取的,哪些是可以被(蜘蛛)获取的。

因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。

如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据。

robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有与没有斜杠“/”表示的是不同的URL。robots.txt允许使用类似"Disallow: *.gif"这样的通配符。

Robots协议是国际互联网界通行的道德规范,基于以下原则建立:1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;2、网站有义务保护其使用者的个人信息和隐私不被侵犯。

robots.txt文件内容

搜索引擎蜘蛛的是否可访问性或者说可爬行性。

搜索引擎蜘蛛针对目录或者文件的可访问性。

网站站点地图sitemap路径定义。

搜索引擎蜘蛛爬行的时间间隔限制。

关于robots.txt文件生成器

通过web界面设置好要配置的数据, 点击生成器的生成即可在最下方的文本输入框获得robots.txt的文件内容。

现在,你创建一个空白的文本文件,命名为:“robots.txt”,然后把上面的内容,复制并粘贴到“robots.txt”中去。

把“robots.txt”放在你网站的根目录,访问robots.txt,确保他能让访问者(如搜索引擎)访问到。

最近使用: