一般优化技巧-Robots.txt
Robots.txt指示了网络蜘蛛在特定网址上的索引许可级别,例如,网络管理员能够识另9网站的一些绝对不能被蜘蛛索引到的特殊区域。Robots.txt能够被任何文字处理器创建。这个文件必须遵守下列基本语法。
user-agent:*
disallow:
这表示网站可以无限制地被任何搜索引擎分析。有些开发者还建议这样写:
●User-agent:*
●Disallow:
●Allow:/
“/"是“全部”的意思,由于某些原因,并不是所有的网络蜘蛛都能识别“Disallow”这个口令。
如果网站管理员希望用一个特定的搜索引擎来索引,不允许带有私人信息,或者仅仅是用一些操作编程数据的目录来访问。他们会这样写文件:
● User--agent:Googlebot
●Disallow:/cgi-bin/
●Disallow:/privatefiles/
你必须为每一个目录添加一个独立的Disallow指令来保护其不被蜘蛛抓取
到。想了解更多的关于robots.txt的信息可以访问www.robotstxt.org。
- 实战:大数据下如何做好电商营销
- 分析:网红经济决不能只是一个“炒”字
- 将XHTML+CSS页面转换为打印机页面
- 如何向Alexa提交网站信息
- 运营网站要会花钱 不能光靠一个烧
- 新手建站怎么做内容和外链
- 浅析:微商定义 非法传销or电商颠覆者?
- Papi酱都招人做内容 内容为王已成定局
- XHTML+CSS制作样式风格切换的WEB站点
- 交换友链网站需要注意什么事项
- 优化网站排名上不去?您的网站可能存在以下问题
- XHTML 2.0新功能抢先预览
- 盘点:网红经济未来发展趋势
- 网站数据分析都能查询出网站的什么情况
- 访问统计是什么,如何实现
- 网站建设的三十六条原则您知道吗?
- 挂据:医疗行业站外推广技巧之软文推广
- 小米大力做广告 是为了搞创收吗?
- XHTML入门学习教程:简单网页制作
- ICP备案和经营性ICP有何不同