摘要:一、网站页面重复收录的原因是什么?在网站优化过程中,搜索引擎并不喜欢重复内容的收录,一直强调的也是原创,那为什么网站同一页面还会重复收录呢?4.网站改版—网站改版可能会导致一些URL地址的重复收录。二、网站页面重复收录该如何处理?所以,及时清除缓存可以很大程度上减少网页被重复收录。
1、网站页面重复收录的原因有哪些?
在网站优化的过程中,搜索引擎不喜欢包含重复的内容,总是强调原创性。 那么为什么网站的相同页面会被重复收录呢?
一般后缀中出现问号或其他字符串是因为百度收录文章时会给文章添加标签,但访问网站时会自动跳转回原来的网站、首页或内页。 至于首页可能会包含内页的链接哪个网址易被百度收录,因为文章设置为显示在首页,所以最终的链接地址指向首页。
1、搜索引擎识别问题——搜索引擎毕竟只是人类编写的一套规则哪个网址易被百度收录,并不能完全识别,所以会重复收录一些URL地址的内容。
2、程序设计问题——有些程序为了方便“预览”,设计了后台动态页面。 但由于设计不当,搜索引擎仍然可以通过目录的索引发现这个存在,然后对其建立索引。
3、模板问题——这个问题在模板制作中经常被忽视。 模板完成后,会有动态页面和静态页面。 怎么能不被搜索引擎重复收录呢?
4. 网站修改 - 网站修改可能会导致某些 URL 地址重复包含。
2、网站页面重复收录如何处理?
可以从以下四个方面入手:
1.URL标准化
在网站建设过程中,尽量统一URL地址,不要使用动态页面进行链接。 一方面,搜索引擎青睐静态页面。 另一方面,也可以防止相同内容被搜索引擎重复收录。
2.使用robots.txt拦截动态文件
使用robots.txt阻止动态文件,例如:“Disallow:/?” 它会用“?”阻止页面在根目录中。 这个可以自己灵活设置。
3.及时清除缓存
每个网站都会有两个 URL。 一般网站更新文章后需要生成静态URL。 本身就有一个动态 URL。 自然,生成静态URL后,就会多出一个URL。 这种情况下,如果不及时清除缓存,有可能同一个页面的静态和动态URL都会被收录,因为搜索引擎把同一篇文章的两个URL视为独立的,自然都会被收录。包括。 因此,及时清除缓存可以大大减少网页的重复收录。
4.使用站点地图引导蜘蛛
站点地图的作用不仅仅是概括整个站点的内容,还可以让蜘蛛爬行更加顺畅、有序地爬行站点内的各个页面,从而减少蜘蛛重复采集站点页面的概率。