Categories


Tags


站内搜索漏洞造成的影响要怎样才能算清理干净呢

muriel 提问于 3年 之前

1220 我的一个shopify网站因为站内搜索漏洞被攻击,具体表现是在ahrefs上发现大量垃圾外链指向网站内带有search?q 的页面。导致网站ahrefs排名下降严重。

目前情况如下: 1. robots文件中有禁止抓取

2. 我们做了站内搜索页面的跳转,如果搜索的是垃圾内容,站内没有内容与之对应,则会跳转到404页面。

3.在search页面做了noindex。之前没有做404跳转时在search页面源码中还能看到noindex,但是做了404跳转之后,search页面源码上没有了

4. 谷歌站长工具在提交拒绝垃圾外链

问题:

到底怎样处理才算正确的呢, 404与noindex哪个是最合适的,还是要任选其一呢?

这种情况能与谷歌发邮件说明情况吗

怎样才能彻底清除这些垃圾链接带来的影响呢

如果哪位小伙伴看到了,有解决办法的话麻烦回复一下,不胜感激

1 个回答

Zac 管理员 回答于 3年 之前

你采取的措施是互相矛盾的。如果robots文件禁止抓取搜索页面,那搜索引擎不抓取,怎么看到noindex标签或者404呢?而禁止抓取,并不能禁止索引页面。

正确的做法是,搜索页面用noindex标签禁止索引,不要用robots文件禁止抓取,也不要做转向,也不要转向到404。

不过,网站排名下降不一定是这个原因,通常谷歌是能判断出这种搜索页面漏洞造成的垃圾URL的。noindex了搜索页面过一两个月还不行的话,建议找找其它原因。

muriel 回复于 3年 之前

看到zac老师的回复了,非常感谢。近期网站排名已经有所上升了,我怀疑应该是内容质量的问题。感谢

来源:SEO每天一贴 Zac 昝辉


Public @ 2015-04-30 15:53:43

如何解决百度spider无法抓取的问题?

1. 检查 Robots.txt 文件:确保 Robots.txt 文件中没有阻止百度蜘蛛访问您的网站。您可以使用“robots.txt 分析器”来检查文件是否正常工作。 2. 确保网站可访问:确保您的网站可以访问,并且没有被服务器防火墙或CDN屏蔽。 3. 站点结构优化:确保您的网站结构清晰,页面链接符合标准。由于百度蜘蛛是基于链接方式爬行的,所以优化网站内部链接是提高抓取效率的关键。 4

Public @ 2023-04-08 08:50:38

挖掘的长尾关键词怎么样操作有利于核心词的SEO?

赵 提问于 12月 之前SEO中挖掘的长尾关键词,怎么样操作有利于核心词的排名靠前?豆豆丫 回复于 12月 之前尽可能多的多围绕长尾词布局,要复合用户体验2 个回答Zac 管理员 回答于 12月 之前除了给核心词页面增加不少内部链接,长尾关键词页面对核心词的排名帮助很小。增加内部链接,是正常网站导航系统的一部分,核心词一般都在首页、栏目页、专题页等地方,所有页面的导航系统都应该有指向这些重要页面的

Public @ 2019-01-07 16:04:20

独立移动站的SEO可以是子目录形式吗?

谢辉 提问于 1年 之前ZAC老师,在你博客学习了很多SEO知识,也买了你的《SEO实战密码》,感谢您无私的奉献,现在对于移动搜索优化,还有几个问题想咨询下您:1、移动站,除了你说的三种模式外,还有一种情况,移动站URL是在PC域名下的一个子目录,如:PC站域名是http://www.xxx.com/ 移动站域名是http://www.xxx.com/mobile/,请问这种目录格式的移动站和二级

Public @ 2015-05-29 16:04:13

网页源文件过大是否影响蜘蛛抓取与建立索引?

石野 提问于 3年 之前zac老师,我想请教一下,首页网页源文件过大如290k左右、网页内容较多页面较长,百度快照显示不完整,这样的情况是否影响蜘蛛程序的抓取与建立索引?1 个回答Zac 管理员 回答于 3年 之前页面文件过大,当然有可能影响抓取和收录。不过通常1-2M的文件都不是问题,甚至更大点。你的页面只是290K的话,属于正常范围,不应该有什么影响。你可以检查一下原始日志,看看百度蜘蛛抓取的

Public @ 2011-08-26 16:04:05

更多您感兴趣的搜索

0.495912s