新站内页如何快速被收录
一、原创内容
很多新手站长都喜欢大量转载或采集文章,笔者认为这样是不行的。在网站建设初期最好先准备大量的文章,在网站正式上线后,定时定量按规律把内容填充好。文章的原创度一定要高,即使是伪原创,最起码也要高质量伪原创。
二、提交网站到搜索引擎站长平台
目前主流的搜索引擎都有站长平台,所以对于新网站还是应该主动提交网址到搜索引擎,做好网站主动推送。这样可以吸引搜索引擎蜘蛛抓取网站,提升收录。至于怎样提交,可以参考搜索引擎站长平台官方文档,这个基本上没什么难度的。
三、发布外链引导收录
虽然说搜索引擎一直在打击垃圾外链,同时我们发现很多平台也在打击外链推广行为。但是适当的发布有效的外链还是非常重要的。目前常规方法有:博客等平台发布外链,新闻源平台发布外链,交换友情链接等。对于论坛类平台发布外链效果已经很差了。适当的发布外链对搜索引擎蜘蛛抓取收录也是有一定的提升作用的。
如何提升新站收录量
1、不断给网站注入新内容
首先需要说明一点的是,这里的新内容,并不是简单的复制粘贴拼凑的内容,而是一些有点质量的原创文。相较而言,百度会比谷歌更注重原创。百度喜欢有规律的网站,如果你每天固定的更新一些原创文章,如此下来,百度对你网站的印象改观肯定比你在短时间内大量增加的要快。
2、通过关键词来增加收录量
关键词是搜索引擎优化里面的一个重要项目,因为在百度,会有许多工具来关注时下的流行元素,譬如百度指数、百度排名、百度新闻等等这些工具都是监控现在网络上流行的是什么。因此,百度对目前流行的热门关键词会比其它的普通关键词要灵敏得多,关注度也会高很多。
3、优质外链把收录量扯过来
百度收录不收录网站,或者收录网站的多少内容,许多时候都是根据网站的权重来决定的,对于权重高的网站,收录并不是什么大问题,但是对于权重低的网站,这就需要做点外链的功夫,给网站带来点流量了。平时在发布外链的时候,多使用不同的栏目页地址,频道页或者文章地址,长此以往会对网站的百度收录有不错的帮助。
这些操作会使百度不收录新站内容
1.Robots.txt只能禁止抓取,无法禁止收录
很多人认为rohots.txt也已禁止百度收录,这是严重的误解,robots.txt文件可以告诉搜索引擎哪些目录和文件可以抓取,哪些不可以。经过实践发现,即使禁止搜索引擎抓取根目录,robots文件也并不能实现禁止百度等搜索引擎收录。如果一个网站的外链较多,基本上无法通过正常手段禁止百度收录,淘宝便是一个典型的案例(淘宝的robots.txt设置为禁止抓取根目录,但首页依然被收录)。关于robots.txt的作用、文件格式、使用方法,可参考百度站长平台的说明。
2.通过Nginx判断user_agent禁止百度等搜索引擎访问,实现禁止收录
既然不能直接禁止抓取,那就干脆禁止百度蜘蛛等搜索引擎访问,思路是:判断user_agent,如果是百度蜘蛛、谷歌机器人等搜索引擎的user_agent,就返回403或者404,这样百度等搜索引擎就会认为这个网站无法打开或者不存在,自然也就不会收录了。