新站如何更快收录内页

 杭州seo优化   2014-09-14 07:19   569 views 人阅读  4 条评论

 最近做新站的SEOer是否发现百度开始只收录首页不收录内页了,在1,2年之前百度是很快就开始收录,不管文章质量只管数量,但是现在站长是否发现收录内页已经开始增加了很大的难度,甚至一两个月只有一篇首页被收录,内页完全看不见踪影?笔者估计这应该是百度最近一年的算法调整导致的结果,先观察网站质量,再决定是否放出内页并且给予排名。

    1、百度信任期

    以前谷歌还在国内时,出现新网站都会出现一个沙盒期间,这个期间一般可以达到6个月以上,在6个月以内不给予新站任何权重,现在的百度也开始模仿谷歌算法,让网站先建立信任,观察网站质量,再决定是否给予放出内页并且排名。如果一个新站无法坚持到度过“信任期”很可能直接被百度放弃。最简单检查百度是否抓取页面得方法,就是查看网站日志返回代码,是200,还是其他代码,如果返回200表示百度搜索引擎已经抓取,并且放到搜索引擎的数据库。

    2、内容质量问题

    真正考验网站质量如何的就是内容质量,如果网站的内容无法达到百度要求,或者质量太低,百度直接放弃该网站的。从搜索引擎最近两三年的算法可以看出来,百度越来越在乎用户体验,凡是以用户为主的网站,只要坚持就会成功。相反完全依靠采集,伪原创工具等类网站,被K站已经成为了时间问题。内容质量就要注意文章的质量,可读性和相关性等等。高质量原创文章才是搜索引擎和用户喜爱的。

    3、内部结构

    内部结构重要之重,如果一开始内部结构使用了大量的JS,FLASH,IFRAME框架结构等等不利于蜘蛛爬行,这些代码虽然可以让网站看着更加精美,但是完全无法让蜘蛛读取内容,如果是一个优秀的SEOer应该明白JS是百度不允许的,FLASH是无法读取的,框架结构有更好的DIV+CSS代替了。

    4、robots.txt协议

    robots.txt协议是所有搜索引擎通用的一种协议,主要意义就是禁止蜘蛛爬行,这种协议一般用于屏蔽掉一个没有用处的链接,比如:版权信息,联系方式,公司介绍等等。这样可以集中内页权重。但是robots.txt协议不能胡乱使用,比如不小心屏蔽掉首页,或者被黑客攻击之后修改了,都可能导致蜘蛛不再来临。经常检查robots.txt协议是站长必做的事。

    总结:只要网站做的好,结构没有对蜘蛛不利,robots.txt协议正确,服务器空间可以打开,质量完全原创并且高,那么如果你现在仅仅收录了首页,请不用担心,努力坚持,百度是肯定会放出你所有高质量内页的。

写在结尾:以上就是新站如何更快收录内页的详细内容,更多请关注【杭州SEO博客】其它相关文章!
本文地址:http://seo.youqingshuyuan.com/794.html
版权声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系我们。


 发表评论


表情

  1. 烘干机设备
    烘干机设备 【农民】 @回复

    打多少字才显的和这边文章一样有文采啊!

  2. 选矿球磨机价格
    选矿球磨机价格 【农民】 @回复

    第一次评论啊,好紧张啊,该怎么说啊,打多少字才显的有文采啊,这样说好不好啊,会不会成热贴啊,我写的这么好会不会太招遥

  3. 铜矿浮选机
    铜矿浮选机 【农民】 @回复

    在看完这帖子以后,我没有立即回复,因为我生怕我庸俗不堪的回复会玷污了这网上少有的帖子。但是我还是回复了,因为觉得如果不能在如此精彩的帖子后面留下自己的网名,那我死也不会瞑目的!

  4. 煤泥浮选机价格
    煤泥浮选机价格 【队长】 @回复

    只要有你在世界就不会停止苦难