Categories


Tags


robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接(搜外网)


Public @ 2019-03-13 16:09:27

Sitemap协议类型及包含范围

百度Sitemap协议支持提交收录网页列表以及死链列表。收录网页列表用于指引百度搜索引擎快速、全面的抓取网站上内容。您可以使用XML格式、文本格式以及Sitemap索引文件提交。死链列表用于提交您网站上被删除或者权限发生变动的网页列表,指引百度搜索引擎快速屏蔽这些网页。死链列表目前只能使用文本格式在百度站长平台提交。Sitemap文件的包含范围以主域为单位。如果您验证了 http://www.ex

Public @ 2021-01-23 16:11:58

站点地图特点

可视化这是站点地图所应具备的一个重要特点。因为对于图形的理解要比文字更迅速与准确。虽然我们这里所说的站点地图的内容是文字表达的,但是它却是以地图的形式出现的,并列出了各栏目的相关类目及下属子栏目.明确地表示出了它们彼此间的相互关系。它具有很强的可视性.是用户找到自己所需信息资源的便捷方式。快速化这一特点在站点地图上体现的尤为明显。网页内容都明确显示在“地图”上,用户对主页信息一目了然。在站点地图上

Public @ 2015-03-05 16:11:50

禁止搜索引擎收录的方法

以下是禁止搜索引擎收录网站的方法: 1. Robots.txt文件 在网站根目录下建立一个名为“robots.txt”的文件,通过添加禁止搜索引擎收录的指令来控制搜索引擎抓取页面的行为。 2. HTML标签 在网页头部添加的标记,使其被搜索引擎识别为不允许被收录的页面。 3. 登录权限 通过设置网站登录权限,使未登录用户无法访问该网页,从而使搜索引擎无法抓取该页面内容。 4. 封锁I

Public @ 2023-06-26 06:50:17

更多您感兴趣的搜索

0.412310s