配置网站Robots.txt文件
现在很多站长都不重视robots.txt,robots.txt是一个重要的文件,每个网站都应当有一个设置正确的robots.txt。
当搜索引擎来抓取你的网站文件之前,它们会先来看看你网站的robots.txt文件的设置,以了解你所允许它抓取的范围,包括哪些文件,哪些目录。那么如何配置您的robots.txt文件呢?
让我们看一个例子:
以下为引用的内容:
- # robots.txt file start
- # Exclude Files From All Robots:
- User-agent: *
- Disallow: /admin_login/
- Disallow: /admin/
- Disallow: /admin.htm
- Disallow:/admin.aspx
- # End robots.txt file
有#号的都是注释,方便阅读。
User-agent就是搜索引擎的蜘蛛,后面用了*号,表示对所有的蜘蛛有效。
Disallow就是表示不允许抓取,后面的目录或者文件,表示禁止抓取的范围。
编辑好这个文件,然后保存在你的网站的根目录下(一定是根目录下,当然你也可以调整),那么搜索引擎就会来看的。
如果你没有robots.txt文件,在你的网站访问日志文件里,你会看到蜘蛛访问robots.txt文件不成功的纪录。
好了,现在就去设置你的robots.txt文件吧
- 网站建设的三十六条原则您知道吗?
- 如何向Alexa提交网站信息
- 优化网站排名上不去?您的网站可能存在以下问题
- 盘点:网红经济未来发展趋势
- 新手建站怎么做内容和外链
- 挂据:医疗行业站外推广技巧之软文推广
- XHTML 2.0新功能抢先预览
- 将XHTML+CSS页面转换为打印机页面
- 交换友链网站需要注意什么事项
- ICP备案和经营性ICP有何不同
- 浅析:微商定义 非法传销or电商颠覆者?
- 小米大力做广告 是为了搞创收吗?
- 访问统计是什么,如何实现
- XHTML入门学习教程:简单网页制作
- XHTML+CSS制作样式风格切换的WEB站点
- 网站数据分析都能查询出网站的什么情况
- Papi酱都招人做内容 内容为王已成定局
- 实战:大数据下如何做好电商营销
- 分析:网红经济决不能只是一个“炒”字
- 运营网站要会花钱 不能光靠一个烧