Categories


Tags


robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接(搜外网)


Public @ 2019-03-13 16:09:27

面包屑导航的原理与作用

面包屑导航是一种网站或应用程序的导航方式,它通过在页面上显示当前位置和历史路径,帮助用户快速理解网站结构和内容,并方便用户回到之前访问的页面。面包屑导航通常出现在页面的顶部或侧边,在用户浏览网站时一直存在。它的原理是在用户进入每个页面时,记录下之前访问的路径和页面层级关系,然后将这些信息用面包屑导航的形式展示给用户。 面包屑导航的作用主要有以下几点: 1. 帮助用户了解网站结构:通过显示当前页

Public @ 2023-06-07 01:50:15

robots.txt文件的格式

robots.txt文件的格式为: User-agent: [user-agent-name] Disallow: [URL path] 其中,[user-agent-name]指代搜索引擎爬虫的名称,[URL path]指代禁止访问的URL路径。在文件中可以定义多条User-agent和Disallow规则,每一条规则占一行,每一对规则之间要有一个空行。示例: User-agent: *

Public @ 2023-05-28 01:50:08

更多您感兴趣的搜索

0.620435s