如何避免蜘蛛陷阱让网站内容更容易被百度蜘蛛抓取呢?
如何避免蜘蛛陷阱让网站内容更容易被百度蜘蛛抓取呢?
:首页我们要了解百度蜘蛛抓取规则
1、百度蜘蛛抓取优先级合理使用
由于互联网信息量十分庞大,在这种情况下是无法使用一种策略规定哪些内容是要优先抓取的,这时候就要建立多种优先抓取策略,目前的策略主要有:深度优先、宽度优先、PR优先、反链优先,在我接触这么长时间里,PR优先是经常遇到的。
2、识别url重定向
互联网信息数据量很庞大,涉及众多的链接,但是在这个过程中可能会因为各种原因页面链接进行重定向,在这个过程中就要求百度蜘蛛对url重定向进行识别。
3、对网站抓取的友好性
百度蜘蛛在抓取互联网上的信息时为了更多、更准确的获取信息,会制定一个规则大限度的利用带宽和一切资源获取信息,同时也会仅大限度降低对所抓取网站的压力。
4、无法抓取数据的获取
在互联网中可能会出现各种问题导致百度蜘蛛无法抓取信息,在这种情况下百度开通了手动提交数据。
5、对作弊信息的抓取
在抓取页面的时候经常会遇到低质量页面、买卖链接等问题,百度出台了绿萝、石榴等算法进行过滤,据说内部还有一些其他方法进行判断,这些方法没有对外透露。
第二:如何有效避免蜘蛛陷阱,让网站内容更容易被抓取?
1、提高网站和页面的权重
网站和页面的权重越高的话,蜘蛛一般会爬行的越深,被蜘蛛收录的页面也更多一些。但是一个新的网站,权重达到1的话是相对容易的,但是如果想要把权重再网上增加则会越来越难。
2、尽量避免Flash蜘蛛陷阱
如果你的网站某个广告或图标是用Flash做的,用来增强视觉效果起点缀效果,那是没有多大问题的。但如果你的网站整站都是用大的Flash文件,就构成了蜘蛛陷阱,页面效果可能看起来很绚丽,但搜索引擎可能看不懂,没办法收录。所以,用CSS效果已经可以做的很好看啦,尽量不要采用Flash做网站;如果非要用Flash,那么就在首页加上一个通往html版本的页面,比如首页的导航栏用html版本,下面网页中再用Flash。
3、注意页面的更新度和更新频率
实际上,蜘蛛每次爬行网站的时候都会把这些页面的数据保存在数据库中,下次蜘蛛再次爬行此网站的时候则会与上次爬行的数据进行对比,如果页面与上次的页面是一样的,这就说明网页没有更新,这样的页面蜘蛛会减少抓取的频率,甚至不抓取。相反的,如果页面有更新,或者有新的链接的话,蜘蛛会根据新的链接爬向新的页面,这样就很容易增加收录量了。
4、避免各种跳转的蜘蛛陷阱
只有301转向是搜索引擎喜欢的,其他转向都是使搜索引擎警惕,比如302跳转、JavaScript跳转,Flash跳转等。尽量不要使用301之外的转向,当然比如基于地理位置的跳转还是可以的,但前提是你的网站在搜索引擎心目中权重比较高。
5、避免外链和友情链接陷阱
很多所谓的SEO人员认为做网站优化就是不断的发外链,发大量的外链排名固然会好,我们可以肯定的是外链对网站的排名和收录是有好处的,但是并不是说SEO就是发外链,实际上真正的网站优化SEO,即使不发外链也是会有很好的排名的。
所以,不管是发布外链和友情链接都要适可而止,在网站外链建设时要侧重友情链接建设,因为友情链接实际上比外链的效果更佳。
第三:什么情况下会造成百度蜘蛛抓取失败等异常情况?
1、IP封禁:IP封禁就是限制该IP,只有在特定情况下才会进行此操作,所以如果希望网站百度蜘蛛正常访问您的网站好不要进行此操作。
2、服务器连接异常:出现异常有两种情况,一是网站不稳定,造成百度蜘蛛无法抓取,二是百度蜘蛛一直无法连接到服务器,这时候您就要仔细检查了。
3、网络运营商异常:目前国内网络运营商分电信和联通,如果百度蜘蛛通过其中一种无法访问您的网站,还是赶快联系网络运营商解决问题吧。
4、死链:表示页面无效,无法提供有效的信息,这个时候可以通过百度站长平台提交死链。
5、无法解析IP造成dns异常:当百度蜘蛛无法解析您网站IP时就会出现dns异常,可以使用WHOIS查询自己网站IP是否能被解析,如果不能需要联系域名注册商解决。