来源:自学PHP网 时间:2015-04-15 10:58 作者: 阅读:次
[导读] 最近有件事情一直困扰着笔者小丹,其根源就是新上线的网站中至今没有一个被收录。即便笔者记得抓耳挠腮,搜索引擎依然固我的按照本身的规则来运行。 对于新站的优化至今尚未正...
最近有件事情一直困扰着笔者小丹,其根源就是新上线的网站中至今没有一个被收录。即便笔者记得抓耳挠腮,搜索引擎依然固我的按照本身的规则来运行。 对于新站的优化至今尚未正式开始,这是笔者的痛啊!这种情况不知道是否有朋友与我相似,因找不缘由而将问题的根本归咎于搜索引擎本身,真的是如此吗?倘若有与笔者小丹有一样难题的朋友,那么我们今天来一起分析一下吧! 搜索引擎的收录工作一般就是发现网站—抓取—过滤信息—收录—输出索引内容,而若你的网站没有被收录,那么就意味着你的网站没有被搜索引擎发现,或者是因为某些原因致使即便网站明明被爬行却依然没有被收录。这个时候我们多会采用两种方式来推出我们的网站:第一,主动出击,提交网站和sitemap到站长平台;第二,被动抓取,就是通过制作外链来吸引蜘蛛爬行。如果要问这两种形式的高低之效,那笔者可以告诉你两种方式各有侧重,评分秋色,而两种方法一起使用则效果更佳。 明白了如何来加速新站被收录的方式,那么就要重点来剖析一下为何网站不能被收录的原因了? 网络世界数以千万,在数亿个网站中找到你确实不易,但是我们都直达,强大的搜索引擎就是有如此能力,一般会在上线后的4—6周将其收录,如果没有收录,那就证明我们的网站存在着问题。 第一,域名问题。一般来说,若你的网站域名在之前被处罚过,那么相对于全新域名来说去收录就会比较困难。这类域名需要一定的考核期,这有在确定该域名下的网站不存在违规现象时,才能将网站重新划为信任网站,将其收录。 第二,预收而不能。很多SEOer可能发现网站明明有蜘蛛爬行过的痕迹,为何依然不能被收录。这个就涉及到了蜘蛛的真假问题,今天笔者暂不详谈。我们主要来看看那些为什么蜘蛛不能爬行网站,首先要了解一下蜘蛛爬行过程,要域名转为IP,转化成相应的服务器,DNS解析,域名转为IP,找到IP所在服务器进行访问,若DNS出现问题或则是空间服务商出现了差错就会导致蜘蛛无法抓取。遇到这样的情况,那么你只需更改空间商,收录问题就迎刃而解了。 第三,robot效应。如果是因为网站设置了robot文件而造成的网站不能被收录现象,我们就只能为自己的粗心大意默哀了。在网站上线之初,因为网站尚未完善,很多SEOer会先在网站根目录中放入robot文件禁止搜搜引擎抓取,来避免因为网站不完整而造成的延长考核期现象。所以当你网站要正式上线的时候,希望站长先检查一下是否去除了robot文件。 (转载请注明转自:www.wangzhan.net.cn,谢谢!珍惜别人的劳动成果,就是在尊重自己!) |
自学PHP网专注网站建设学习,PHP程序学习,平面设计学习,以及操作系统学习
京ICP备14009008号-1@版权所有www.zixuephp.com
网站声明:本站所有视频,教程都由网友上传,站长收集和分享给大家学习使用,如由牵扯版权问题请联系站长邮箱904561283@qq.com