搜索引擎抓取系统概述(一)
编者按站长朋友们,今后定期都将在这里跟大家分享一些有关搜索引擎工作原理及网站运营相关的内容,今天先简单介绍一下关于搜索引擎抓取系统中有关抓取系统基本框架、抓取中涉及的网络协议、抓取的基本过程三部分。
互联网信息爆发式增长,如何有效的获取并利用这些信息是搜索引擎工作中的首要环节。数据抓取系统作为整个搜索系统中的上游,主要负责互联网信息的搜集、保存、更新环节,它像蜘蛛一样在网络间爬来爬去,通常会被叫做“spider”。例如我们常用的几家通用搜索引擎蜘蛛被叫做Baiduspdier、Googlebot、Sogou Web Spider等。
Spider抓取系统是搜索引擎数据推火专家的重要保证,如果把web理解为一个有向图,那么spider的工作过程可以认为是对这个有向图的遍历。从一些重要的种子 URL开始,通过页面上的超链接关系,不断的发现新URL并抓取,尽最大可能抓取到更多的有价值网页。对于类似百度这样的大型spider系统,因为每时 每刻都存在网页被修改、删除或出现新的超链接的可能,,还要对spider过去抓取过的页面保持更新,维护一个URL库和页面库。
1、spider抓取系统的基本框架
如下为spider抓取系统的基本框架图,其中包括链接存储系统、链接选取系统、dns解析服务系统、抓取调度系统、网页分析系统、链接提取系统、链接分析系统、网页存储系统。
2、spider抓取过程中涉及的网络协议
搜索引擎与资源提供者之间存在相互依赖的关系,其中搜索引擎需要站长为其提供资源,否则搜索引擎就无法满足用户检索需求;而站长需要通过搜索引擎将自己的 内容推广出去获取更多的受众。spider抓取系统直接涉及互联网资源提供者的利益,为了使搜素引擎与站长能够达到双赢,在抓取过程中双方必须遵守一定的 规范,以便于双方的数据处理及对接。这种过程中遵守的规范也就是日常中我们所说的一些网络协议。推火网以下简单列举
http协议超文本传输协议,是互联网上应用最为广泛的一种网络协议,客户端和服务器端请求和应答的标准。客户端一般情况是指终端用户,服务器端即指网 站。终端用户通过浏览器、蜘蛛等向服务器指定端口发送http请求。发送http请求会返回对应的httpheader信息,可以看到包括是否成功、服务 器类型、网页最近更新时间等内容。
https协议实际是加密版http,一种更加安全的数据传输协议。
UA属性UA即user-agent,是http协议中的一个属性,代表了终端的身份,向服务器端表明我是谁来干嘛,进而服务器端可以根据不同的身份来做出不同的反馈结果。
robots协议robots.txt是搜索引擎访问一个网站时要访问的第一个文件,用以来确定哪些是被允许抓取的哪些是被禁止抓取的。 robots.txt必须放在网站根目录下,且文件名要小写。详细的robots.txt写法可参考 http://.robotstxt. 。百度严格按照robots协议执行,,同样支持网页内容中添加的名为robots的meta标 签,dex、follow、nofollow等指令。
3、spider抓取的基本过程
spider的基本抓取过程可以理解为如下的流程图
如果大家对搜索引擎抓取还有别的疑问,大家可以到[学堂同学汇][学习讨论] 《 搜索引擎抓取系统概述(二)》讨论帖中发表自己的看法,我们的工作人员会关注这里并与大家进行探讨。
推火专家百度搜索资源平台 百度搜索学堂
网站seo
- google关键词分析 什么是Google关键词分析
- 专业seo关键词优化 专业seo关键词优化策略
- seo菜鸟论坛:菜鸟论坛的核心优势
- 石狮SEO:石狮seo排名
- 汕头网站优化:汕头网站优化公司
- 什么是seo:什么是seo优化
- 新手做seo怎么做 新手seo如何操作
- 网站seo优化:seo网站优化怎么做
- 如何进行seo:如何进行seo搜索引擎优化
- 日照网站优化:日照seo公司
- 哪里有seo排名优化 seo排名优化哪里好
- 辽宁网站优化:沈阳网站优化排名
- 网站seo整站优化 网站seo整站优化怎么做
- 免费seo在线优化 免费seo在线优化方案
- 贵州网站优化:贵州网站优化的必要性
- 莆田SEO:莆田seo快速排名