Categories


Tags


robots.txt语法教程

  robots.txt语法教程

整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容及代码片段有且仅有借鉴意义。

  robots.txt 是一个文件,它位于网站的根目录下,用于告诉搜索引擎和机器人哪些页面可以被访问或哪些不应该被访问。以下是 robots.txt 语法教程。

1. User-agent

User-agent 表示搜索引擎或机器人的名称。当网站管理员想要禁止某个搜索引擎或机器人访问网站时,可以使用 User-agent 指定名称。

例如:

User-agent: Googlebot
Disallow: /

这将告诉谷歌机器人不要访问网站的任何页面。

2. Disallow

Disallow 表示哪些页面或目录不允许访问,可以使用通配符来表示多个页面或目录。

例如:

User-agent: *
Disallow: /private/
Disallow: /login.php

这将告诉所有搜索引擎和机器人不要访问网站的 /private/ 目录和 login.php 页面。

3. Allow

如果某些特定的页面或目录需要被搜索引擎或机器人索引,可以使用 Allow 指定它们。

例如:

User-agent: *
Disallow: /temp/
Allow: /temp/index.html

这将告诉所有搜索引擎和机器人禁止访问网站的 /temp/ 目录,但还允许访问 /temp/index.html 页面。

4. Sitemap

Sitemap 指定网站地图的位置。

例如:

Sitemap: http://www.example.com/sitemap.xml

这将告诉搜索引擎网站地图位于 http://www.example.com/sitemap.xml。

总结:

这是 robots.txt 的基本语法。此外,您还可以在 robots.txt 中包含注释,例如:

# This is a robots.txt file
User-agent: *
Disallow: /private/
Disallow: /login.php
Allow: /temp/index.html
Sitemap: http://www.example.com/sitemap.xml

注释以“#”开头,可以帮助网站管理员和其他人了解 robots.txt 的内容。

Public @ 2023-06-06 11:00:02 整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容有且仅有借鉴意义。

Sitemap协议类型及包含范围

百度Sitemap协议支持提交收录网页列表以及死链列表。收录网页列表用于指引百度搜索引擎快速、全面的抓取网站上内容。您可以使用XML格式、文本格式以及Sitemap索引文件提交。死链列表用于提交您网站上被删除或者权限发生变动的网页列表,指引百度搜索引擎快速屏蔽这些网页。死链列表目前只能使用文本格式在百度站长平台提交。Sitemap文件的包含范围以主域为单位。如果您验证了 http://www.ex

Public @ 2021-01-23 16:11:58

哪些网站的目录需求运用robots.txt文件制止抓取

以下是一些可能需要使用robots.txt文件制止抓取的网站目录: 1. 敏感网站:包括医疗机构、政府机构、银行和其他敏感机构的网站。 2. 私人网站:包括个人博客、论坛和社交媒体账号。 3. 用户数据:包括个人信息、照片、视频和其他敏感数据。 4. 搜索引擎排除页面:包括不想在搜索引擎结果中出现的页面。 5. 网站目录:包括一些不需要搜索引擎索引的目录,如网站的管理员和内部页面。 6

Public @ 2023-06-13 02:50:20

robots使用误区

1. 不需要在每个页面都添加robots.txt文件:robots.txt文件只是一份给搜索引擎看的指令,如果不希望搜索引擎从该页面抓取数据,那么每一页都是可以不用添加robots.txt文件的。 2. 不能用于移动设备:robots.txt文件可用于搜索引擎爬虫,但也可以在部分机型的移动设备上进行yu处理,可以用于控制移动设备的蜘蛛爬行进行内容抓取。 3. 不应该将robots保存到公用

Public @ 2023-03-03 14:00:19

更多您感兴趣的搜索

0.456576s