Categories


Tags


谷歌站长平台提示页面被黑:内容注入。该怎么解决?

迪迪 提问于 1年 之前

补上alt,h1,h2标签后,谷歌站长平台提示页面被黑,被黑方式:内容注入。请问怎么解决?

谷歌站长平台的提示如下:

“Google 在您网站上的部分网页中检测到了有害内容。我们建议您尽快将其移除。在您移除这些内容之前,当用户访问您的网站或从中下载某些文件时,Google Chrome 等浏览器会向他们显示警告。”

没有看到谷歌有申诉入口,我网站并没有被黑,只是补上了alt,h1,h2标签,也没有关键词堆砌。目前只能回滚代码,不动alt、h1、h2标签了。难道是我的页面文字性内容太少了,补充alt,h1,h2标签会让谷歌认为我在做过度seo优化?不知道谷歌是否真的有这样的机制。针对已经上线的页面,代码是否无法做个别标签优化了?希望zac老师能够指点下迷津,感谢。

1 个回答

Zac 管理员 回答于 1年 之前

说实话,我不大相信,仅仅因为加了alt、h1、h2标签而被判断被黑了。高度seo优化也不会。

建议你还是仔细检查代码,CMS在加alt、h1、h2的时候是否还加了别的什么东西。可以试一下人工加alt、h1、h2,确保不会加上别的东西。

来源:SEO每天一贴 Zac 昝辉


Public @ 2009-05-31 16:04:15

谷歌工具显示某关键词排名第一,人工搜索却没有排名

这种情况可能是由于以下原因: 1. 谷歌工具可能存在错误或数据延迟,导致显示的排名不准确。 2. 搜索结果因个人搜索历史、地理位置等因素而不同,可能导致谷歌工具和人工搜索结果不一致。 3. 某些搜索引擎优化技术可能会影响谷歌工具的显示结果,但在人工搜索中可能不会出现。 建议在不同时间段和设备上进行多次搜索,并检查其他关键词排名情况,以获得更准确的结果。同时,可以考虑重新优化页面以提高排名。

Public @ 2023-06-25 16:00:12

如何解决百度spider无法抓取的问题?

要解决百度蜘蛛无法抓取的问题,可以考虑以下几个方面: 1. 确保网站存在合适的 robots.txt 文件:robots.txt 是一个协议,用于向搜索引擎指明哪些页面可以被抓取。检查一下该文件是否正确设置,且不会阻止百度蜘蛛的抓取。 2. 检查网站的反爬虫策略:有时候网站会使用反爬虫机制来防止被搜索引擎抓取,如验证码、IP 封禁等。确保网站没有设置过于严格的反爬虫策略,或者将百度蜘蛛的抓取排

Public @ 2023-06-30 13:00:19

移动端排名和电脑端排名不一致

woden 提问于 3年 之前移动端是m.域名.com,有些关键词电脑端排到第一页了,移动端还是无动于衷,排在三四页四五页,移动端和电脑端为啥会有这么大差距呢,有什么好的解决方法?目前移动端流量占得比例越来越大。。。十二君 回复于 3年 之前建议去看移动端落地页规范白皮书,这样更具体点1 个回答Zac 管理员 回答于 3年 之前一般来说,移动端排名就是看电脑端排名,加上页面移动友好程度。建议你检查

Public @ 2019-04-20 15:53:27

TF-IDF分词加权算法有用吗?

TF-IDF分词加权算法是一种常用的文本挖掘算法,可以衡量一个词语在文本中的重要程度。该算法基于词频(TF)和逆文档频率(IDF)两个因素进行计算,并对每个词语进行加权处理,以便在文本检索和分类等领域使用。 这个算法是有用的,因为它可以帮助提高文本处理任务的准确性和效率。例如,在搜索引擎中,TF-IDF算法可以通过识别文档中的重要关键词来提高搜索结果的相关性和准确性。而在文本分类任务中,该算法可

Public @ 2023-06-28 06:00:27

更多您感兴趣的搜索

0.441813s