深圳SEO优化公司

蜘蛛抓取的原理及规则

浏览 / 2020-05-11

  并不是所有的网页对用户都有意义,比如一些明显的欺骗网页、死链接、空白内容页等。这些网页对用户、站长和百度来说都不够有价值,所以百度会自动过滤这些内容,避免给用户和你的网站带来不必要的麻烦。

e95642e2710db6c0e8ad7e97eadd28db.png
  搜索引擎为用户显示的每个搜索结果都对应于互联网上的一个页面,每个搜索结果都需要四个过程:抓取、过滤、索引和输出。
 
  1、抓取
 
  百度蜘蛛,或称百度蜘蛛,将通过计算确定哪些网站需要爬行,以及爬行的内容和频率,通过搜索引擎系统进行计算。搜索引擎的计算过程将参考您网站在历史上的表现,如内容是否足够好,是否有用户友好的设置,是否有过度的搜索引擎优化行为等。
 
  当你的网站生成新内容时,baiduspider会通过一个链接访问并爬行到互联网上的页面。如果你没有设置任何外部链接到网站上的新内容,Baiduspider就无法对其进行爬行。对于已捕获的内容,搜索引擎将记录捕获的页面,并根据这些页面对用户的重要性,安排不同频率的捕获更新。
 
  需要注意的是,有一些爬行软件,出于各种目的,会伪装成baiduspider来爬行你的网站,这可能是不受控制的爬行行为,严重影响了网站的正常运行。点击此处确认白杜鹃的真实性。
 
  2、过滤
 
  并不是所有的网页对用户都有意义,比如一些明显的欺骗网页、死链接、空白内容页等。这些网页对用户、站长和百度来说都不够有价值,所以百度会自动过滤这些内容,避免给用户和你的网站带来不必要的麻烦。
 
  3、索引
 
  百度对检索到的内容逐一进行标记和识别,并将这些标记存储为结构化数据,如标记标题、元描述、外部链接、描述和捕获记录。同时,网页中的关键字信息将被识别和存储,以便与用户搜索的内容相匹配。
 
  4、输出
 
  百度将对用户输入的关键词进行一系列复杂的分析,并根据分析结论在索引数据库中找到一系列与之最匹配的页面。关键字根据用户的需求和页面的优缺点进行评分,并根据最终得分进行排列,并显示给用户。

阅读"蜘蛛抓取的原理及规则"的人还阅读

下一篇:robots.txt协议怎么写?robots.txt协议文件作用是什么?robots.txt协议怎么写