Categories


Tags


自然排名是全部由机器完成还是存在人工干预

夫唯:第一个就是说经常好不容易找到了一些新的想法,用我们这些草根的话讲找到了百度的漏洞,好不容易排名上去了,过两天就会波动。有些人就怀疑说在百度的整体算法里面是不是有人工干预行为,还是说完全整个过程都是机器在判断?请我们的王淘给我们解释一下这里到底有没有人工干预?

王淘:我来说一下,其实实话实说不存在人工干预的搜索引擎在中国是无法存活的,因为政府会时不时的要求你。基本上是真的无法存在下去的,如果说哪个搜索引擎的人工干预系统有一天出了问题,基本上第二天就准备等着被叫去罚款。当然这个东西跟大家的网站排名其实基本上没有什么关系,我们人工干预系统基本上都是为法律服务的。你们能看到的东西基本上是算法算出来的,没有任何人工干预。除非有非常特殊的情况,比如说某个网站被黑了,它突然出现大量的垃圾,这个情况可能有人工干预情况。除了极端的情况之外,基本上可以说百分之百是没有人工干预的。(夫唯seo特训营)


Public @ 2009-04-19 15:54:23

网站抓取了一些不存在的目录跟页面?

1. 重新编辑robots.txt文件,将网站中不需要抓取的页面和目录添加进去; 2. 如果抓取的网站带有反爬虫功能,建议可以设置User-Agent,以区分人为访问和爬虫程序进行访问; 3. 设置深度抓取,让程序对某个网页进行抓取时,只抓取它指定难度及深度的URL; 4. 不定时发起网站扫描任务,用来检查异常的URL,以及分析抓取URL的情况,同时将发现的问题处理掉; 5. 合理设置

Public @ 2023-02-24 22:36:31

文章能不能先给搜索引擎看了,再给读者看?

您提到,搜索引擎判断原创的根据有很多,可以是时间、权威度、pr值。跟据这个理论的话,在您的原创刚发布后的几个小时内,我拷备您的文章发到我的网站上,至少也有40%被误认为是原创的机会,如果我有一个比您更权威的网站,我的机会就更大。是不是应该有一个方法来防止您的这种损失呢? 比如,您可以将先您的文章交给搜索引擎过目再公开。方法是,当您建立一个页面的时候,并不公布这个页面的url,而是通过我第一个问题里

Public @ 2020-03-04 16:04:43

如果你是百度,你会让什么排在前面?

昨天我上百度站长社区看到一个帖子,这个帖子是在讨论SEO未来的发展方向,比较有争议的两个论点,一个继续深发搜索引擎的技术,另一个是转型开始做内容创作。技术帮的人更加强调的是通过优化的手段以冲击网站的排名,由此获取更多的用户流量,提高产品的曝光率,在领导和老板面前也能拿出一份好成绩。而内容派系则认为如今网络垃圾内容扎堆,很多用户被搜索引擎给予的排名所诱导,之后发现根本不是自己想要的答案,纷纷跳转,导

Public @ 2013-04-09 16:17:25

更多您感兴趣的搜索

0.474514s