当前位置: 网站首页 >>seo >>武汉seo

在做seo的过程中如何使用Robots

时间:2022-10-29 11:10:33 点击:169次

怎么运用Robots防止蜘蛛黑洞?

蜘蛛黑洞:

蜘蛛黑洞指的是网站经过极低的成本运营,制造出很多和内容相识但参数不同的动态URL ,像一个无限循环的“黑洞”将蜘蛛困住,蜘蛛花费太多的时间在网站,浪费了很多资源抓取的网页为无效网页武汉seo优化。

假如你的网站存在蜘蛛黑洞现象,赶快的处理好,蜘蛛黑洞不利于网站的收录,也会影响搜索引擎对网站的评分。

怎么运用Robots防止蜘蛛黑洞?

怎么利用Robots防止蜘蛛黑洞操作:

一般的挑选结果页根本都是运用静态链接,比方:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

当用户挑选不同排序后,会自动生成带有不同参数的动态链接,即便挑选是同一种排序条件,生成的参数也有不同的,比方:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把带有不同参数的结果排序页面运用robots规矩回绝,告知搜索引擎,让搜索引擎只抓取挑选结果页,为用户和搜索引擎节省时间。武汉seo


Robots文件写法中Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址,经过这种方式,假如网站的无效页面不期望被搜索引擎收录,能够屏蔽掉低质量的页面,告诉搜索引擎哪些页面能够抓取,有用的防止黑洞的构成。


我们已经准备好了,你呢?

让我们与您携手共赢,为您的企业形象保驾护航!

在线客服
联系方式

热线电话

18971157090

上班时间

周一到周日

公司电话

18971157090

二维码
线
在线留言
亿鸽在线客服系统