Categories


Tags


未来SEO也许不用再操心爬行、抓取问题?

SEO每天一贴很少写关于必应Bing或雅虎Yahoo!的事,原因显而易见:他们那可怜的市场份额真不大值得写。

微软虽然一直对搜索不离不弃,投入重金和时间,但到目前为止,Bing在搜索市场从来都是个陪衬。Yahoo!就更甭提了,在收购了除Google、Bing以外的所有搜索引擎之后,Yahoo!竟然自废武功,把自己多年积累、收购的所有搜索技术彻底放弃了,雅虎网站的搜索功能转为使用Bing的技术 – – 不禁让人心里嘀咕:确定不是Google卧底干的吗?一个最重要的对手就这么没了?

不过Bing对SEO们一直都是挺友好的,而且Bing工程师们给SEO行业不少很有建设性的意见。比如,关于外链建设,我觉得最精彩的一句话就是某位必应工程师说的,大意是,最好的外链是那些你根本不知道其存在的外链。

必应大幅提高URL提交限额

一月底Bing站长博客发了一篇帖子,表示Bing站长工具URL提交工具做了升级,大幅提高站长可以提交的URL数目上限,从原来的每天只能提交10个,每个月最多50个,增长1000倍,现在每天可以提交10,000个,没有月上限。唯一的限制是,网站需要在Bing站长工具注册验证180天以上:

Bing提高URL提交上限

帖子还说了很有意思的一段话,如果以后搜索引擎按这个方向发展的话,SEO们未来可能不用再操心页面爬行、抓取的问题了:

We believe that enabling this change will trigger a fundamental shift in the way that search engines, such as Bing, retreive and are notified of new and updated content across the web. Instead of Bing monitoring often RSS and similar feeds or frequently crawling websites to check for new pages, discover content changes and/or new outbound links, websites will notify the Bing directly about relevant URLs changing on their website. This means that eventually search engines can reduce crawling frequency of sites to detect changes and refresh the indexed content.

翻译过来大意是:

我们相信这个变化会引发搜索引擎发现及抓取新内容(包括新建或更新的内容)方式的根本性变革。站长将可以直接通知Bing网站上有了URL变化,而不需要Bing通过监控RSS或频繁爬行来发现新页面。这实际上意味着搜索引擎在发现、更新索引内容时,可以降低对网站的爬行频率。

内容索引不再依靠爬行?

一直以来,我觉得SEO有三大难点:内容、内部链接结构、外链建设。其中,网站内部链接结构就是要解决搜索引擎有效爬行、抓取的难题,既要抓得全,抓得快,又要避免抓取不必要的内容,还得合理分配权重。越是大站,这个问题越难完美解决。做过大站的SEO一定都深有体会,不管怎样调整网站结构,都无法做到页面100%被索引。

必应的这篇帖子在告诉SEO们,以后很可能不用担心抓取的问题了,有了新页面,或者旧页面有了更新,直接提交URL就行了(通过站长工具或API),不必依靠Bing蜘蛛爬行抓取,实际上,Bing蜘蛛会大大减少爬行,却不耽误索引新内容。

后续SearchEngineLand对Bing搜索工程师的访谈证实,减少爬行,确实是Bing的目标。他们希望未来几年内,Bing不再依靠爬行来发现新内容。Bing认为,对网站爬行的方法低效、费资源,不如站长直接提交内容。Bing表示,提交URL是页面抓取的“很强”的信号,要想内容被快速索引,就赶紧用提交工具吧。

确实,大型网站,页面被抓取一遍,可能需要几个星期,甚至更长时间,那么网站上有新页面,或老页面内容有更新,要被抓取,也可能会有几个星期的延迟。提交URL是个更快的方法。

其实百度早就在做类似的事,在百度资源平台提交内容是快速抓取新页面的很好方法,小时级收录确实可以在几小时内收录,有时几分钟就收录。不过百度资源平台提交好像不支持老的但有更新的页面。

对SEO行业的潜在影响

如果Google以后也跟进采取这个方法,可能会对SEO行业产生不小的影响。搜索引擎发现、抓取、索引新内容的方式变得更加简单直接,SEO们调整网站结构的必要性和难度将大大降低。

不过也有潜在问题。比如,黑帽SEO们显然不会放过这个机会。以前垃圾内容靠爬行被抓取越来越困难,因为从一个页面到另一个页面的爬行就是个鉴别、过滤的过程。大量主动提交垃圾页面成为可能后,搜索引擎该怎么处理?

再比如,搜索引擎减少爬行,倒是节省资源了,但老的、不更新的页面被重新抓取的次数将大大减少,这会不会导致链接关系计算的不准确、不及时?顺便提一句,不知道为什么总是有人说链接对排名已经不重要了,其实依然很重要。

SEO的基本方法过去十多年没有大变化,但SEO依然是个不断变化的行业。

来源:SEO每天一贴 Zac 昝辉


Public @ 2019-10-14 15:54:26

统计数据:Google排名高的是什么样的页面?

打开自己博客一看,竟然又是半年没更新了,真是惭愧。2016年争取勤快一点,但年近半百的人了,没那么大精神头儿了,不知道明年这个时候是不是又只能惭愧一下……今天backlinko发布了一份根据1百万搜索结果统计出来的Google排名数据,说明了什么样的页面倾向于有好的Google排名。这里简单做个笔记,加强记忆,也可能对其他SEO爱好者有帮助。两个说明:相关性不说明因果性。统计数据只说明这样的页面通

Public @ 2020-04-04 15:54:37

不同的人会看到不同的搜索结果

,Google会根据搜索者对搜索关键字的行为,来展现更加精准的搜索结果。因为Google会收集并储存搜索者的个人信息,例如兴趣、移动位置和地区等。例如,如果某人经常搜索和酒店有关的信息,那么他再次搜索关于酒店的信息时可能会看到和他更加精准的结果。

Public @ 2023-02-24 01:00:14

统计数字的误读和误导

前几天说过,我越来越觉得SEO是门艺术,而不是,或不仅是,技术。原因之一是,很多时候我发现统计数字越来越不能说明问题。明明统计数字表明应该增加关键词密度(只是举个例子),可你这么做了,不一定有效果,还可能事与愿违。单纯看某一个统计数字,往往会误读,导致错误结论。要准确从统计数字中看出实质和真相,得考虑统计之外的很多因素。关于SEO的例子,下次再说。今天说说前两天Google股价大跌的事。2月28号

Public @ 2011-07-30 15:27:42

想做搜索引擎优化专家的十大原因

想做搜索引擎优化专家的十大原因。10)你能把你自己的网站先做到前十名去。看着越来越多人来你的网站是一件很让人洋洋得意的事情。9)你可以和别人说你非常了解Google,百度和雅虎。8)绝大部分人永远搞不懂你到底是干什么的。有时候这是一件坏事,有时候这是一件非常大的好事。7)差不多每个人都可以说,自己是一个专家。因为这个行业里,最有经验的人也超不过十年经验。6)你得经常看一大堆博客和论坛。时间很快就过

Public @ 2017-08-19 15:27:36

更多您感兴趣的搜索

0.504814s