Categories


Tags


通过robots.txt文件屏蔽蜘蛛抓取不存在的后缀

通过网站日志分析,会发现搜索引擎蜘蛛抓取了一些网站上不存在的文件后缀,如:.php、.asp、.aspx等。

搜外网站后台日志分析结果如下图:

image.

搜外主站实际上不存在php后缀的URL地址。

可通过robots.txt文件禁止蜘蛛抓取不存在的后缀,减少出现404返回值。

在robots.txt文件填写屏蔽规则如下:

Disallow: /*.asp$

Disallow: /*.php$

Disallow: /*.aspx$

注意前面一个*,后面一个$,代表后缀。

参考搜外的robots.txt文件写法,点击这里

来源:搜外网


Public @ 2015-07-18 16:09:24

JavaScript链接的作用

由于JavaScript可以创造很多吸引人的视觉效果,有些网站喜欢使用JavaScript脚本生成导航。这也是严重的蜘蛛陷阱之一。据观察,有的搜索引擎在技术上可以获得JavaScript脚本中包含的链接,甚至可以执行脚本并跟踪链接,但对权重低的网站,搜索引擎觉得没必要,不会费那个劲。所以网站上的链接必须使用最简单标准的HTML链接,尤其是导航系统。用CSS做导航同样可以实现很多视觉效果。JavaS

Public @ 2010-01-14 16:21:35

内部链接(站内链接)的优化

内部链接(站内链接)的优化指的是在网站内部页面之间加入链接,以便提升网页的流量和搜索引擎排名。以下是内部链接优化的几个方法: 1. 添加相关内部链接:在每个页面中添加与此页面相关的内部链接,使读者更容易流转到其他相关的页面,也有利于搜索引擎对网站内容进行分类分析。 2. 在导航栏添加链接:在网站顶部的导航栏上添加内部链接,以便访问者可以快速找到网站的相关内容。 3. 使用关键词进行链接:使用

Public @ 2023-06-18 00:00:28

360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点

Public @ 2023-05-29 17:00:21

更多您感兴趣的搜索

0.467135s