使用canonical标签还是robots来处理重复页面?
使用canonical标签还是robots来处理充分页面?
robots应用的比较多,而canonical在国内应用的比较少,不过要解决重复页面的问题,我感觉canonical更准一些,robots有屏蔽失败的概率。
我感觉如果不是必须要屏蔽很多页面,可以使用robots来处理重复页面,这样调整起来也比较简单,直接修改robots协议即可。
这两个标签的本质作用还是不同的,canonical标签是指导搜索引擎抓取页面的,而robots是限制蜘蛛抓取页面,robots不仅可以屏蔽页面,还能屏蔽一些特殊符号。
这个要看需求,如果你网站有大量重复url,可以使用canonical标签,而只是对某几个页面进行屏蔽,则使用robots来处理。
非特殊说明,本文为本站原创(翻译)文章,转载请注明:本文转自:
:http://www.gbsseo.com/seoyouhua/4276.html
想了解更多请点击===>>
上一篇:使用canonical标签还是robots来处理重复页面?
下一篇:canonical适合全站通用吗?
网友留言: