Categories


Tags


SEO实验的可行性

昨天谈到统计数字在SEO中的局限,其实这牵扯到另外一个问题,也就是SEO实验的可行性和可信度。

无数的人都在试图通过实验来解读搜索引擎算法。这有个专门的词,逆向工程,reverse engineering,也就是在可控条件下,改变网页某些参数,然后观察搜索排名变化,试图分析出搜索引擎排名算法。

这些逆向工程和SEO实验,很多高手和大公司都在不停的做着,有的也很有成果。可是说到底,这种实验数据是不能百分之百可靠的。

这就像解数学题:AxB=C。当我们知道结果C(也就是搜索引擎排名)和A或B中一个数据时,我们能计算出A或B中另外一个数。但是当我们对A和B中两个数都不知道时,只能列出一堆可能性,却不可能得到唯一的AB数值答案。

更何况搜索引擎算法考虑的不是两个数值,而是一两百个参数。而我们这些外人对这一两百个参数能确切知道的没几个。所以想通过反向工程推论出这些参数是怎么设置的?在排名算法中占有的比重?理论上是不可能的。

举个简单例子,假设我们想实验关键词密度是3%好还是5%好。一个可以设想的实验模型是,用两个同时注册的域名,放上相同长度的文章内容,其中一个目标关键词密度3%,另一个密度5%,在同一个网页上放上这两个新域名的链接。等收录后查询目标关键词,看哪个网页排的靠前。这关键词的选择最好是很冷门生僻的词,甚至是唯一的词,在其他网页上没出现过。

可是这样一个看似还算合理的模型,却忽略了很多可能影响试验结果的因素。比如,同一个网页上放两个链接,必然有前有后,这两个链接的权重会不会不同?新域名收录时间会不会造成不同?而收录时间又会不会造成域名权重不同及排名不同?

一旦网页上出现这两个域名的链接,怎么保证没有其他人,其他任何地方出现这两个域名的链接?因为一旦出现,实验者就不能保证这两个域名的链接数目和权重完全一样。

另外,这两个新域名网页内容要不要是一样的内容?还是不同的内容?如果是一样,或者是大部分一样的内容,是不是会造成复制内容网页?而对复制内容,搜索引擎将选择其一为原创,另外一个为复制。在其他条件完全相同时,这个选择是不是是随机的?如果内容放不一样,由语义分析带来的微妙差别怎样计算?

这种种因素其实都很难控制,会对实验结果造成什么影响很难讲。严格来说,要在完全受控条件下进行SEO实验,是我们这些做网站的人办不到的。SEO实验结果有时有很高的参考意义,有时也很误导。

来源:seo每天一贴 Zac 昝辉


Public @ 2015-06-05 15:27:44

推荐十个网站日志分析工具

网站的SEO优化过程中不免会分析网站日志,网站日志的分析和诊断就像给网站看病一样,我们通过网站日志的分析,可以更加清楚的知道网站的健康状况,使用这些数据更有利于开展网站SEO优化。通过网站日志可以清楚的得知用户在什么IP、什么时间、用什么操作系统、什么浏览器、什么分辨率显示器的情况下访问了你网站的哪个页面,是否访问成功。对于专业从事搜索引擎优化工作者而言,网站日志可以记录各搜索引擎蜘蛛机器人爬行网

Public @ 2013-05-14 15:32:54

整合搜索与SEO

搜索引擎优化(SEO)和搜索引擎营销(SEM)都是整合搜索的重要方面。 SEO是通过优化网站和内容,提高其在搜索引擎搜索结果中的排名,从而获得更多的有机流量。 然而,SEM是指为了在搜索引擎中获得更多的流量,而采用付费广告等有偿推广手段来实现的。 在整合搜索的过程中,SEO和SEM是相互影响的。一方面,SEO可以帮助搜索引擎更好地理解网站的内容,从而提高网站在搜索结果中的排名。而SEM可以帮

Public @ 2023-04-05 09:50:13

学SEO优化知识不能过于盲目!

SEO教程网的泛滥,我问过几个做SEO网站的站长,手里有好几个SEO教程网,而且质量参差不齐,大家无法得知教程中的某些SEO优化知识是否对网络优化有积极的效果。SEO人员利用自媒体和高权重平台投稿,将一些所谓的“SEO优化知识”推荐给大家,在某些情况下,这些知识是有用的,在某些情况下,可能成了累赘,比如大站和小站的做法就差别很大,再如过多使用某种技巧,就会导致过度优化。学SEO优化知识不能过于盲目

Public @ 2012-10-10 15:54:28

更多您感兴趣的搜索

0.448848s