网站不被搜索引擎收录的原因

  • 内容
  • 相关

网站收录的原因一旦意识到有问题,就需要找出原因.下面是小编分享的网站不被搜索引擎收录的原因.

被robots.txt文件禁止

检查你网站的robots. txt文件,看是否阻止了蜘蛛访问.实际上想让它们访问的网站的某部分内容.这个错误相当常见.

百度站长工具提供检查robots. txt文件是否禁止它们爬行某些内容工具.

当网站内容有链接(无论内部或者外部链接)但搜索引擎被robots. txt文件禁止所以没有爬行时,这些报告很有帮助.解决方案很简单.找出robots. txt文件中哪一行禁止搜索引擎蜘蛛,删除它或者修改使内容不再被屏蔽.

被robots meta标签禁止

robots meta标签可能是这样:meta name=" robots’‘content="noindex,nofottow">index告诉搜索引擎不允许在索引库中包含这个页面.显然,你应该检查是否犯了这个错误.

另外,NoFollow这个标签告诉搜索引擎,页面上的链接不传递链接权重到被链接页面.如果网站上连向特定内容的所有链接都是NoFollow,这个页面就没有获得任何链接权重.这告诉搜索引擎,你认为这些页面没有价值,因此搜索引擎也不会费精力去索引这个内容(除非有其他人用不带NoFollow的链接连向它).

解决这个问题需要找到网站上有这种robots meta标签的地方并删除.注意robotsmeta标签的默认设置是"index, follow",因此如果这是你想要的设置,就不需要用这个标签,只要确认你没有用robots meta标签改变默认值.

没有文字链接

网站某篇内容没有链接,或者所有指向这篇内容的链接都是NoFoilow的.你也可以使这些链接无法被搜索引擎看到,比如只向支持JavaScript或cookie的用户显示,或者将链接以某种方式编码加密.解决方法是确保使用普通文字链接指向内容.如果能有第三方网站链接到内容页面就更好了.

网站没有足够链接的权重

搜索引擎可以正常看到页面,但是页面没有足够链接权重使其值得被包括在主索引中.这比人们想象得更常见.搜索引擎并不试图索引所有的页面.

没有足够的链接权重的内容

这会被排除在主索引之外.解决方案是增加内部链接以及为内容获得外部链接,使页面在搜索引擎眼里更重要.另一个有关的状况是,页面被搜索引擎认为是重复内容,因此被过滤出去.最好解决方法是给这些页面增加独特内容.

要注意的是页面内容是否存在采集及无价值内容百度在算法中明确表明,过多的采集会被百度认为是垃圾站.建议,提交些有价值、以用户需求为目的的内容.

本文标签:

版权声明:若无特殊注明,本文皆为《枫叶》原创,转载请保留文章出处。

本文链接:https://www.maple5.com/seo/479.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

允许邮件通知