Robots文件是否支持中文目录

发布时间:2018-08-05 15:22:43访问人数:作者:百度搜索资源平台

文章来源:百度搜索资源平台

作者:百度搜索资源平台

robots文件.jpg

有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

原文地址:https://ziyuan.baidu.com/college/articleinfo?id=1158

赞+1
分享:

版权:【注明为本站原创的文章,转载请注明出处与原文地址!本站部分转载文章能找到原作者的我们都会注明,若文章涉及版权请发至邮箱:345920555@qq.com,我们以便及时处理,可支付稿费。向本站投稿或需要本站向贵司网站定期免费投稿请加QQ:345920555】

本文标签;robots文件、中文目录
上一篇
下一篇
SEO按天计费
域名注册
网站建设

华夕网络 Copyright © 2014-2028. 未经许可,不可拷贝或镜像  沪ICP备15005556号

友情链接:
  • QQ
  • 电话
  • 首页
  • 留言
  • 返回顶部