贵阳SEO优化百度蜘蛛不能识别robots文件中的中文目录-东莞市优化之家网络科技江苏快3平台

江苏快3平台

贵阳SEO优化百度蜘蛛不能识别robots文件中的中文目录

来源: | 发布时间:2018-12-18 | 10741 次浏览

大家都知道可以通过(tōng guò)robots文件设置(set up)允许百度蜘蛛(baiduspider)的抓取规则(rule),有一些站点是使用了中文目录,那么百度蜘蛛能识别robots文件中的中文目录吗 答案是否定的,请看百度官方(authority)的回答。seo优化为网站提供生态式的自我营销解决方案,让网站在行业内占据领先地位,从而获得品牌收益
有SEO(搜索引擎优化)(搜索引擎优化)er问百度(BIDU)站长(webmaster)学院一个关于robots的问题:我们有个站点的目录结构(Structure)使用的是中文,这样式儿的:“www.***.com/网站SEO优化(optimalize)/123.html”,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:百度蜘蛛(baiduspider)能识别robots文件中的中文目录吗?
百度(BIDU)搜索(search)引擎(Engine)工程(Engineering)师解答:Baiduspider目前(Nowadays)(2016年10月)在robots里是不支持中文的(即,百度蜘蛛(baiduspider)不能识别robots文件中的中文目录)。SEO优化为网站提供生态式的自我营销解决方案,让网站在行业内占据领先地位,从而获得品牌收益
seo(搜索引擎优化)(搜索引擎优化)工作者追问:那我们进行UrlEncode编码会不会支持呢?比如这种:www.***.com/%E7%BD%91%E7%AB%99SEO%E4%BC%98%E5%8C%96/123.html
百度(BIDU)搜索引擎(search engine)(Engine)工程(Engineering)师解答:robots文件支持这种写法。SEO优化为网站提供生态式的自我营销解决方案,让网站在行业内占据领先地位,从而获得品牌收益但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码(coding)就可以生效,如果是中文就非常不幸了,百度蜘蛛(baiduspider)不能识别robots文件中的中文目录。
《百度(BIDU)蜘蛛(baiduspider)不能识别robots文件中的中文目录》
产品推荐