Categories


Tags


搜索引擎中各关键功能模块功能简介

(1)爬虫:从互联网爬取原始网页数据,存储于文档知识库服务器。

(2)文档知识库服务器:存储原始网页数据,通常是分布式Key-Value数据库,能根据URL/UID快速获取网页内容。

(3)索引:读取原始网页数据,解析网页,抽取有效字段,生成索引数据。索引数据的生成方式通常是增量的,分块/分片的,并会进行索引合并、优化和删除。生成的索引数据通常包括:字典数据、倒排表、正排表、文档属性等。生成的索引存储于索引服务器。

(4)索引服务器:存储索引数据,主要是倒排表,通常是分块、分片存储,并支持增量更新和删除。数据内容量非常大时,还根据类别、主题、时间、网页质量划分数据分区和分布,更好地服务在线查询。

(5)检索:读取倒排表索引,响应前端查询请求,返回相关文档列表数据。

(6)排序:对检索器返回的文档列表进行排序,基于文档和查询的相关性、文档的链接权重等属性。

(7)链接分析:收集各网页的链接数据和锚文本(Anchor Text),以此计算各网页链接评分,最终会作为网页属性参与返回结果排序。

(8)网页去重:提取各网页的相关特征属性,计算相似网页组,提供离线索引和在线查询的去重服务。

(9)网页反垃圾:收集各网页和网站历史信息,提取垃圾网页特征,从而对在线索引中的网页进行判定,去除垃圾网页。

(10)查询分析:分析用户查询,生成结构化查询请求,指派到相应的类别、主题数据服务器进行查询。

(11)页面描述/摘要:为检索和排序完成的网页列表提供相应的描述和摘要。

(12)前端:接受用户请求,分发至相应服务器,返回查询结果。


Public @ 2017-08-24 16:22:25

百度搜索引擎工作原理-2-抓取建库

Spider抓取系统的基本框架互联网信息爆发式增长,如何有效的获取并利用这些信息是搜索引擎工作中的首要环节。数据抓取系统作为整个搜索系统中的上游,主要负责互联网信息的搜集、保存、更新环节,它像蜘蛛一样在网络间爬来爬去,因此通常会被叫做“spider”。例如我们常用的几家通用搜索引擎蜘蛛被称为:Baiduspdier、Googlebot、Sogou Web Spider等。Spider抓取系统是搜索

Public @ 2022-09-10 16:21:47

爬行、抓取、索引、收录,指的都是什么?

一位读者在蜘蛛抓取配额是什么这篇帖子留言:不对呀,这个index标签,是指告诉蜘蛛可以抓取该页面,那么noindex不就是不允许抓取该页面吗?!那么为什么文章最后的几个说明里有“noindex标签不能节省抓取份额。搜索引擎要知道页面上有noindex标签,就得先抓取这个页面,所以并不节省抓取份额。”留言说明,这位读者并没有太明白什么是抓取,什么是索引,index和noindex标签的意义又是什么。

Public @ 2021-09-23 16:21:52

搜索引擎工作的基础流程与原理

搜索引擎的基本工作原理是:用户向搜索引擎输入一系列关键词,搜索引擎会从自身拥有的网页数据库中根据相关算法去检索出匹配度最高的搜索结果进行显示和返回给用户。 搜索引擎的基本流程包括: 1. 网页爬虫:搜索引擎会通过程序自动爬取网页上的数据。 2. 网页索引:搜索引擎会把所有爬取的数据进行索引,并在索引中建立统一的编号,以便后续的检索。 3. 网页分类:搜索引擎会把所有索引的内容进行分类,

Public @ 2023-03-01 20:00:35

了解搜索引擎来进行SEO

搜索引擎的工作的过程非常复杂,而简单的讲搜索引擎的工过程大体可以分成三个阶段。爬行和抓取:搜索引擎蜘蛛通过跟踪链接访问页面,获取页面HTML代码存入数据库。预处理:搜索赢球对抓取来的页面数据文字进行文字提取、中文分词、索引等处理,以备排名程序调用。排名:用户输入关键字后,排名调用索引库数据,计算相关性,然后按一定格式生成搜索结果页面。爬行和抓取爬行和抓取是搜索引擎工作的第一步,完成数据收集任务。蜘

Public @ 2018-03-18 16:21:53

更多您感兴趣的搜索

0.498832s