欢迎来到上海木辰信息科技有限公司!我司专业做企业邮箱、网站建设、网站设计、云服务器、域名注册等互联网业务。

搜索引擎工作原理什么?网络爬虫,“蜘蛛”又是什么?

作者:木辰建站    发布时间:2021-06-21 14:34:12  访问量:3722  来源:

  当我们在输入框中输入关键词,点击搜索或查询时,然后得到结果。深究其背后的故事,搜索引擎做了很多事情。

 搜索引擎工作原理什么?网络爬虫,“蜘蛛”又是什么?

  首先在互联网中发现、搜集网页信息;同时对信息进行提取和组织建立索引库;再由检索器根据用户输入的查询关键字,在索引库中快速检出文档,进行文档与查询的相关度评价,对将要输出的结果进行排序,并将查询结果返回给用户。

  在搜索引擎网站,比如百度,在其后台有一个非常庞大的数据库,里面存储了海量的关键词,而每个关键词又对应着很多网址,这些网址是百度程序从茫茫的互联网上一点一点下载收集而来的,这些程序称之为“搜索引擎蜘蛛”或“网络爬虫”。

  这些勤劳的“蜘蛛”每天在互联网上爬行,从一个链接到另一个链接,下载其中的内容,进行分析提炼,找到其中的关键词,如果“蜘蛛”认为关键词在数据库中没有而对用户是有用的便存入数据库。反之,如果“蜘蛛”认为是垃圾信息或重复信息,就舍弃不要,继续爬行,寻找最新的、有用的信息保存起来提供用户搜索。当用户搜索时,就能检索出与关键字相关的网址显示给访客。

  一个关键词对用多个网址,因此就出现了排序的问题,相应的当与关键词最吻合的网址就会排在前面了。在“蜘蛛”抓取网页内容,提炼关键词的这个过程中,就存在一个问题:“蜘蛛”能否看懂。如果网站内容是flash和js,那么它是看不懂的,会犯迷糊,即使关键字再贴切也没用。相应的,如果网站内容是它的语言,那么它便能看懂,它的语言即SEO。

 搜索引擎工作原理什么?网络爬虫,“蜘蛛”又是什么?

  搜索引擎的基本工作原理包括如下三个过程:

  抓取网页。每个独立的搜索引擎都有自己的网页抓取程序爬虫(spider)。爬虫Spider顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。

  处理网页。搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索引。其他还包括去除重复网页、分词(中文)、判断网页类型、分析超链接、计算网页的重要度/丰富度等。

  提供检索服务。用户输入关键词进行检索,搜索引擎从索引数据库中找到匹配该关键词的网页;为了用户便于判断,除了网页标题和URL外,还会提供一段来自网页的摘要以及其他信息。




声明:本文由收集整理的《 搜索引擎工作原理什么?网络爬虫,“蜘蛛”又是什么?》,如转载请保留链接:http://www.mcexmail.com/news_in/682

点赞  0  来源:木辰建站

上一篇:HTML常用特殊字符

下一篇:企业网站设计的构造要素有哪些?

相关搜索:

上海木辰信息科技有限公司

  • 地址:上海市徐汇区龙吴路1500号交大科技园A幢310室
  • 电话:4009002208
  • 手机:15821486756
  • 邮箱:tengxi@qq366.cn

售前咨询

售后客服