问题:20天的新站为什么蜘蛛只访问首页?
回答:搜索引擎对于新站的考察会比较严,通常20天的新站 蜘蛛抓取 的份额会很少,基本也就停留在首页,具体的抓取通常在个位数。那么究竟20天的新站为什么蜘蛛只访问首页呢?笔者认为这个问题没有深入研究的必要,因此大部分新站都是这样的情况,我们只要知道搜索引擎对于新站的态度就行了。
这里有朋友可能就会觉得笔者只是敷衍了事,或者是根本不懂!事实上这真的没有必要。为什么这么说呢?是基于两个方面的考虑:首先不管是百度还是其他搜索引擎,对于新站就是这样的策略,不管是蜘蛛抓取、 页面收录 还是 关键词排名 等,都需要过程,绝非上来就有好的数据体现;其次,做新站很大的忌讳就是整天盯着相关的数据看,看不到蜘蛛来抓取,或者蜘蛛抓取不是按照自己的期望去的,就会觉得网站出了问题,然后就想着怎么去改进,这样做的后果是让搜索引擎更加不适应网站,从而延长综合分析的时间。
根本笔者的经验,20天的新站蜘蛛只访问首页是很正常的,不代表网站出了什么问题。当然,大家也要去做好检查,具体比如说看看 网站服务器 是否稳定,比如说在robots里面是否做了限制等等。这里要说明下,即便robots文件里限制了蜘蛛抓取任何页面,但是 百度蜘蛛 仍然会去抓取网站首页,只是不会保留 百度快照 ,对于内页就不会去抓取了。
在搜索引擎完成对新站的初步评价之后,就会尝试着去抓取更多的内页,也开始放出部分收录。至于这个时间多久,没有统一的标准,如果 网站更新 比较有规律,并且更新内容的质量度高,那么这个时间就会缩短。因此,我们在做新站seo的时候,如果想要各方面更快的出现效果,请务必做好两件事情:首先是确保服务器是没有问题的,并且robots设置正常;其次就是有有规律的更新高质量的内容。如果能够做到这两点,搜索引擎蜘蛛就会更快的去抓取和收录内容页,同时也有可能出现部分关键词排名。
关于20天的新站为什么蜘蛛只访问首页的问题,笔者就简单的说这么多。总之来说,20天的新站蜘蛛只访问首页是正常情况,大家不要因此而去调整网站。这个时候可以去检查下网站服务器和robots文件,如果这两方面没有问题,那么就只管更新高质量的内容就可以了。至于 抓取频次 、 网站收录 以及排名等,那是水到渠成的事情!
相关知识点
网络爬虫:网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。