杭州it培训
达内杭州it培训中心

13732203138

热门课程

如何解决搜索引擎蜘蛛不抓取网站

  • 时间:2018-06-26 15:26
  • 发布:杭州达内电商运营培训
  • 来源:知识库

搜素引擎蜘蛛不抓取网站的原因有一下几个:

第一:网站使用框架

网站使用了frame和iframe框架结构,通过iframe显示的内容可能会被百度丢弃

第二:网站内容质量不高

网站内容如果全部为采集、图片、视频等信息,对于搜索引擎来说是不好的,毕竟搜索引擎蜘蛛只是一个程序,它并没有太智能,所以不能识别出图片、视频到底表达的是什么内容。

第三:robots限制

robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;所以,如果你的网站的robots限制指令禁止了搜索引擎蜘蛛抓取,那么搜索引擎蜘蛛是不会抓取你等等网站的。

第四:网站被K

网站被K,说明你的网站已经进入了搜索引擎的黑名单,搜索引擎已经判定你的网站是垃圾网站,所以,在你没有从良之前,搜索引擎蜘蛛是不会再来抓取的。

第五:数据库禁止抓取

那么,通过上面我们知道了搜索引擎蜘蛛不抓取网站的原因了,下面我们就针对原因一一解决即可。

如果是框架问题,我们在建站的时候就要确定要使用什么程序、什么框架搭建网站;如果是采集、内容质量不高问题,我们就要围绕关键词写高质量的原创文章,并且在网站中不要单纯使用图片、视频等布局;最好做到图文结合,并且合理布局关键词;

robots限制原因,我们要检查网站robots文件是否限制蜘蛛的抓取,如果有,修改并重新提交;

网站被K原因,我们要检查网站哪里出现了问题导致网站被K,是使用了黑帽子还是被别人连累,检查出问题,并一一处理。

假如数据库我们不熟悉,不懂,可以请教程序员或者技术人员解决。

如果是新站,搜索引擎蜘蛛没有那么快抓取我们的网站,我们可以通过网站地图提交、新建百度推荐、外链等方式引导蜘蛛抓取网站。

上一篇:如何优化网站内容页面
下一篇:网络营销SEO优化实现百度霸屏的六大方法
选择城市和中心
贵州省

广西省

海南省