假如网站只收录首页不收录内页你一定要这样做
发布时间:2023-08-02 09:41:13 | 发布者:往流科技
很多在做SEO优化的时候都会遇到网站只收录首页不收录内页的这种情况,这种现象一般主要出现于对新站进行的时候。每当遇到网站只收录首页不收录内页的时候,SEOR们都开始乱了阵脚,疯狂的去网上找寻解决办法、去请教一些所谓的SEO大神,所谓病急乱投医。正因为大家都关心的问题,所以下面我们来说说究竟这个现象是什么原因所造成的。
一、新站的考核
这个问题相信凡是接触SEO的人大家都会了解的,新站的考核期,其实也是很多人所说的百度沙盒。这个时间段就比如你刚刚入职一家公司,那么公司里面都会有一个试用期,以此来推断你是否符合公司要求,来验证你的价值。所以这段时间是每个网站都要经历的,在这个时间段之内我们千万不能过于焦躁。坚持自己的方式,坚持更新内容。正所谓是:“贵有恒,何必三更起五更眠;最无益,只怕一日曝十日寒”。这样也是快速度过搜索引擎考核期的方式。
二、网站存在过度优化
网站优化过度是网站不被搜索引擎收录一个重要的方面,目前的搜索引擎更多的在向用户需求、用户体验等方面靠拢,相对而言,搜索引擎对为了排名而做SEO,为了优化而优化特别的反感,现在的搜索引擎跟原来也不一样了,经过了多次的改版,算法也是几经升级变得更智能化了,原来的通过堆砌关键词,大量的建立外部垃圾连接,已经被列入了搜索引擎的处罚行列。
三、内容的质量度
搜索引擎喜欢原创的内容,当然对于众多的SEOR来说,写原创内容可谓是相当困难的。不过在这个时候我们最好也是能伪原创一下。且不可直接从别的网站上复制的内容,直接粘贴到我们文章里发送,这种复制与粘贴的方式也是目前搜索引擎最排斥的,也是对源作者的侵犯,是目前最新的星火计划2.0所主要清理的对向。具体可参考《》
四、代码混乱不利于抓取
页面中存在大量的不利于蜘蛛爬行的代码比如:大量的框架、表格、特效等代码,是对搜索引擎爬行抓去很不利的,类似于框架,当蜘蛛爬行框架的内容后就会跟随框架里面的内容跳出我们的网站或者页面,从而也会导致页面抓去不完全,而在框架里面也会造成蜘蛛循环,这个是SEOR们的大忌。
五、蜘蛛被屏蔽,无法爬行页面
很多站长都会在网站中使用robots.txt这个文件,用来阻止我们一些不想让搜索引擎抓去的目录或者页面,小编在做网站优化的时候也经常用到这个文件。不过robots.txt文件利用一定要在设置了以后,通过站长工具来检查是否禁止了我们需要搜索引擎收录的内容。记得有一次小编的一个朋友说网站最近一段时间不知道是怎么了,收录大量的掉,而且蜘蛛的爬行频率也少了很多,刚开始的时候以为是降权了,很着急,也是跟无头苍蝇死的,到处请教大神,想办法,可是到最后,我通过对他robots.txt文件的分析,发现他误写将网站的大量页面所禁止《》,于是我就让他赶紧把这个改回来,接下来的一段时间,收录又逐渐恢复了。
六、死链接与隐藏连接
其实连接方便导致搜索引擎收录不好也是比较主要的关键所在,比如网站内存在大量的死链接,黑链,隐藏连接,搜索引擎在爬行的时候一次次受挫就会对这个网站的整体评分产生质疑,因为在蜘蛛判断,大量的存在打不开的页面是很不利于用户获取信息的,而隐藏连接与黑链也是被搜索引擎认为是作弊的一种。
七、网站结构
一旦遇到网站收录不好的时候很多站长就会说,我网站文章都是原创的啊,为什么搜索引擎收录一直不好呢,很多网站搜索引擎收录的数量不到整体的40%。小编也去分析过这类的问题,当对网站日志进行分析的时候,发现很多没有收录的页面,都是蜘蛛没有爬到过的页面,那么类似这样的页面又怎么能被收录呢。这个原因的源头,一般都是网站结构在作祟,首先我们要让自己的网站,减少页面链接的深度,这个时候我们就可以多做一些入口,让搜索引擎抓去,减少页面目录的深度,将内链做的合理一些,增加面包削导航,这些都可以增加蜘蛛对我们页面的抓取量。
八、服务器速度与稳定性
说到重点,网站速度与服务器的稳定度也是能决定网站命运的重要一环,我们都在不同的培训机构或者论坛等等的了解到过蜘蛛对一个页面的有效的等待时间是5000ms,当超过了这个时间蜘蛛就会对这个页面放弃。如果长此以往,蜘蛛本来是放弃两个小时,如果在打不开就放弃5个小时然后以此类推,如果长久下去,那么蜘蛛也就不会来访问我们的网站,或者要相隔很长一段时间才回来爬行,那么又怎么会有好的效果呢?
郑州SEO总结:
网站只收录首页不收录内页其实原因很多,我们要做的就是要持之以恒,发现问题解决问题,这样只有把很多细微的问题做到淋漓尽致了以后,那么我们想不让搜索引擎收录都难,说到底还是要耐得住寂寞,有良好的执行力,任何一个成功的网站其实背后都有一段不为人知的辛酸史。
未经允许不得转载: »