Categories


Tags


搜索引擎的Robots协议

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。

robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。

对于Google来说,使用robots也未必能阻止Google将网址编入索引,如果有其他网站链接到该网页的话,Google依然有可能会对其进行索引。按照Google的说法,要想彻底阻止网页的内容在Google网页索引中(即使有其他网站链接到该网页)出现,需要使用noindex元标记或x-robots-tag。例如将下面的一行加入到网页的header部分。

<meta name="googlebot" content="noindex">

如果Google看到某一页上有noindex的元标记,就会将此页从Google的搜索结果中完全丢弃,而不管是否还有其他页链接到此页。

搜索引擎的Robots规则

对于百度来说,情况和Google类似,如果有其他网站链接目标网页,也有可能会被百度收录,从百度的说明页面上看,百度并不支持像Google那样通过noindex完全将网页从索引上删除,只支持使用noarchive元标记来禁止百度显示网页快照。具体的语句如下。

<meta name="Baiduspider" content="noarchive">

上面这个标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

例如,淘宝网目前就通过robots.txt来屏蔽百度爬虫,但百度依旧收录了淘宝网的内容,百度搜索“淘宝网”,第一个结果也是淘宝网首页地址,只是该页面没有网页快照,因此看来,网站只能禁止百度的快照,而无法禁止百度为网页建索引。

来源:月光博客


Public @ 2018-04-08 16:09:21

URL是什么?URL里包含关键词对收录有帮助吗?

URL是什么URL是统一资源定位符,对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示,是互联网上标准资源的地址。互联网上的每个文件都有一个唯一的URL,它包含的信息指出文件的位置以及浏览器应该怎么处理它URL结构由两部分组成,第一部分是协议,就是大家在网址前边看到的一串字母,最常见的就是HTTP和HTTps,一般在下图所示的位置。第二部分就是大家最常见的服务器名称或者IP地址,通俗点来说

Public @ 2013-12-29 16:11:13

什么是错误链接?

根本不存在的链接,就是错误链接。错误链接与死链接的区别:错误链接是由于用户的疏忽,请求的链接不存在。死链接是原来访问正常,后来因为网站的变故而不能访问。发生错误链接的情况:用户对域名拼写错误。URL地址书写错误。URL后缀多余了或缺少了斜杆。URL地址中出现的字母大小写不完全匹配。来源:搜外网

Public @ 2018-05-24 16:21:34

robots.txt文件有什么必要?

什么是robots.txt文件?搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。robots

Public @ 2018-10-22 16:09:22

头条搜索Robots匹配说明

在今日头条中,根据用户输入的关键字进行搜索,系统针对关键字进行多维度搜索,内容形成聚合后,统一展示给用户。同时,今日头条采用了多种Robot来爬取和抓取用户的相关关键字,然后精确的匹配给用户,技术上主要是Robot学习算法,和文本分析算法。 Robot算法主要是爬取网站上的关键字,并根据搜索词语进行匹配。Robot算法还可以根据语义分析算法来进行分析和匹配,优化搜索效果。Robot算法也可以

Public @ 2023-02-26 03:54:31

更多您感兴趣的搜索

0.530913s