Categories


Tags


360搜索对Robots协议的支持

360搜索支持Robots协议的主要命令,以下为具体说明:

1. user-agent

360搜索各产品的爬虫user-agent为:

- 网页搜索 360Spider

- 图片搜索 360Spider-Image

- 视频搜索 360Spider-Video

2. Allow

站长可通过Allow命令指定建议收录的文件、目录 。

3. Disallow

站长可通过Disallow命令指定不建议收录的文件、目录。


Public @ 2019-06-30 16:09:34

百度对301转向反应缓慢的再观察

众所周知,百度对301转向反应非常缓慢,网上站长和SEO们的抱怨大把大把的。最近对这个问题又注意观察了一下。我这个SEO每天一贴是2006年开始写的,但那时候不是在seozac.com这个域名上,当初是在另一个域名的二级目录上。2011年1月才搬到这个域名。2011年3月的这篇帖子对换域名并做301转向的后续情况做过一些记录,简单说,百度和Google都在两个月之内完成了内容、权重等的传递。不过,

Public @ 2010-05-22 16:09:11

Apache IIS/.net 制作404页面

Apache制作404页面: 1. 在网站根目录下创建一个名为“errors”的文件夹。 2. 在“errors”文件夹中创建一个名为“404.html”的文件,这将是你的404错误页面。 3. 在“404.html”文件中添加自定义内容,例如:您所寻找的页面不存在或已被删除。 4. 在httpd.conf文件中添加下面的代码: ``` ErrorDocument 404 /errors

Public @ 2023-06-04 16:50:19

robot.txt在SEO中的作用

鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文

Public @ 2023-01-27 16:09:31

常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:1、禁止所有搜索引擎抓取网站的任何部分User-agent: *Disallow: /这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)User-agent: *Allow: /这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以

Public @ 2010-05-21 16:09:23

更多您感兴趣的搜索

0.489597s