网站链接分析时为什么百度会抓取不存在链接
时间 :
2016-09-13,06:44:27
访问次数 :500
网站链接分析是我们在后期分析网站的重要手段,而通常我们都会通过网站日志来进行分析,通过分析百度蜘蛛的访问路径和返回状态来分析如何用百度robots协议来进行调整。但是有时候会遇到百度抓取了不存在的链接,会让我们摸不着头脑,究竟这是怎么回事?
做seo优化的我们需要经常性的去看我们网站的服务器日志,也就是iis日志,因为我们需要很好的掌握蜘蛛爬取了我们网站的什么地方,哪个页面。但是有些朋友有的时候在进行例行检查的时候,却发现蜘蛛爬取了一些我们网站并不存在的页面,今天SEO云优化就讲解下为什么百度蜘蛛会爬取我们网站没有的页面。
1、蜘蛛是怎么发现我们网站的链接的
我们都知道,蜘蛛是沿着链接爬来爬去的,他会自动提取网站中所有的链接,保存入库,然后进行爬取,这也就是为什么我们觉得网站的收录少了或者刚发布的文章没有被收录,我们就会说“引蜘蛛”了,其实引蜘蛛就是发外链了,当这条链接呗蜘蛛发现之后,他就会进行爬取,然后通过一系列复杂的算法之后,决定是否放出该页面的收录。
2、为什么会爬到不存在的页面
一般情况下,有这么几个问题
a、被对手恶意刷外链,也就是说竞争对手恶意的给你发了很多的不存在的页面链接,当蜘蛛发现之后就会来爬取
b、以前做的外链,后来由于网站改版而某些链接没有及时的去除,蜘蛛定期回访的时候爬取了这条链接
c、此种仅限老域名,之前的网站结构和我们现在的网站结构不一致,也类似于b中的说法
d、robots文件没有对蜘蛛进行限制
e、程序的原因,导致搜索引擎蜘蛛掉入黑洞
f、url提交或者ping给百度地址有误
蜘蛛爬取不存在的页面,一般情况下都是由于这些问题导致的,其中最主要的原因就是外链部分,所以我们要经常性的去检查下我们网站的外链情况。
下面提供解决办法:
这些方面综合来讲,一般我们只需要这么做,基本就能够减少这种情况的发生,如果是链接导致的,那么就去百度站长平台使用外链拒绝工具拒绝掉,并提交网站的死链接,同时使用robots屏蔽蜘蛛抓取这些内容;如果是程序问题,就修复程序。
现在网站优化,已经进入精细化营销的范畴之内,如何让网站按着自己的意愿去达成自己的目的,已经显得很重要,也是网站优化seo的重要手段,而那些陈旧的技术早已跟不上社会的潮流。