Categories


Tags


如何使用Robots避免蜘蛛黑洞?

蜘蛛黑洞:

蜘蛛黑洞指的是网站通过极低的成本运营,制造出大量和内容相识但参数不同的动态URL ,像一个无限循环的“黑洞”将蜘蛛困住,蜘蛛花费太多的时间在网站,浪费了大量资源抓取的网页为无效网页。

如果你的网站存在蜘蛛黑洞现象,尽快的处理好,蜘蛛黑洞不利于网站的收录,也会影响搜索引擎对网站的评分。

如何使用Robots避免蜘蛛黑洞?

如何利用Robots避免蜘蛛黑洞操作:

普通的筛选结果页基本都是使用静态链接,比如:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

当用户选择不同排序后,会自动生成带有不同参数的动态链接,即使选择是同一种排序条件,生成的参数也有不同的,比如:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把带有不同参数的结果排序页面使用robots规则拒绝,告知搜索引擎,让搜索引擎只抓取筛选结果页,为用户和搜索引擎节省时间。

Robots文件写法中Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址,通过这种方式,如果网站的无效页面不希望被搜索引擎收录,可以屏蔽掉低质量的页面,告诉搜索引擎哪些页面可以抓取,有效的避免黑洞的形成。

来源:搜外网


Public @ 2014-02-24 16:09:26

网站如何做好 301/302 跳转

1. 理解 HTTP 状态码 301/302: HTTP 状态码是用来告知浏览器服务器返回的状态信息,它是用来表示网络交互中出现的状态。301 是永久性跳转,指示浏览器所请求的页面已永久性移到新位置。302 是临时跳转,表示浏览器访问新的页面时会被重定向到另一个暂时的网址,会在指定的时间后返回原来的网址。 2. 定义 301/302 跳转: 要定义 301/302 跳转,首先要明确目的,

Public @ 2023-02-25 07:12:42

网站设置301重定向怎么操作?301设置需要注意的事项

网站的301重定向是很多程序员都知道的一种网页跳转技术,作为站长,相信对于301跳转的作用理解的更加透彻,网站301对于SEO优化的作用也是非常大的,那么在网站SEO优化中301跳转怎么才能用好呢?今天聚名网就来跟大家介绍一下吧!301重定向是一种很是重要的“自动转向”技术。网址重定向最为可行的一种法子。当用户或搜索引擎向网站处事器公布揭晓阅读哀告时,处事器返回的HTTP数据流中头信息(heade

Public @ 2013-03-01 16:09:39

robots.txt文件的格式

robots.txt文件的格式为: User-agent: [user-agent-name] Disallow: [URL path] 其中,[user-agent-name]指代搜索引擎爬虫的名称,[URL path]指代禁止访问的URL路径。在文件中可以定义多条User-agent和Disallow规则,每一条规则占一行,每一对规则之间要有一个空行。示例: User-agent: *

Public @ 2023-05-28 01:50:08

搜索问答剧场【七】“robots文件”常见问题解析

哈喽大家好!【搜索问答剧场】最新一集如期而至,平小雕又带着满满的知识干货回来啦!准备好迎接知识的洗礼了嘛?第五集【搜索问答剧场】中,跟大家提到了【Robots】工具。本期就来详细教大家如何灵活地使用【Robots】工具,以及如何正确设置网站整体的抓取范围。一、了解robots文件1、Q:什么是robots文件?A:robots文件用于指定spider在网站上的抓取范围,在文件中可以声明网站中不想被

Public @ 2015-05-15 15:16:25

更多您感兴趣的搜索

0.512041s