Categories


Tags


Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2013-01-02 16:08:54

网站如何做好 301/302 跳转

概念解释301跳转是指页面永久性移走(永久跳转),通常叫做301跳转,也叫 301重定向 ,301转向。301跳转多用于旧网址在废弃前转向新网址以保证用户的访问,在诸多服务器中,均支持本跳转方法。302重定向又称之为暂时性转移(临时跳转),英文名称:302 redirect。 也被认为是暂时重定向 ,一条对网站浏览器的指令来显示浏览器被要求显示的不同的URL,当一个网页历过短期的URL的变化时使用

Public @ 2011-02-23 16:09:05

站点地图的构建技巧

重要页面如果站点地图包含太多链接,人们浏览的时候就会迷失。因此如果网站页面总数超过了100个的话,就需要挑选出最重要的页面。建议挑选下面这些页面放到网站地图中去:产品分类页面;主要产品页面;FAQ和帮助页面;位于转化路径上的所有关键页面,访问者将从着陆页面出发,然后沿着这些页面实现转化;访问量最大的前10个页面;如果有站内搜索引擎的话,就挑选出从该搜索引擎出发点击次数最高的那些页面。地图布局站点地

Public @ 2013-11-27 16:11:49

哪些网站的目录需求运用robots.txt文件制止抓取

以下是一些可能需要使用robots.txt文件制止抓取的网站目录: 1. 敏感网站:包括医疗机构、政府机构、银行和其他敏感机构的网站。 2. 私人网站:包括个人博客、论坛和社交媒体账号。 3. 用户数据:包括个人信息、照片、视频和其他敏感数据。 4. 搜索引擎排除页面:包括不想在搜索引擎结果中出现的页面。 5. 网站目录:包括一些不需要搜索引擎索引的目录,如网站的管理员和内部页面。 6

Public @ 2023-06-13 02:50:20

robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。| 为什么要做robots文件?网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。| 如何制作 robots文件?编写robots.txt文件并上传到网站根目录。| 制作 robots.txt注意事项● 所有搜索引擎则用星号表示● All

Public @ 2019-03-13 16:09:27

更多您感兴趣的搜索

0.433482s