搜索引擎的工作原理:爬行、索引和排名

老飞博客 2019-1-2 15:27:16 SEO网站优化 0 评论
正文 点这评论

  搜索引擎的存在是为了发现、理解和组织互联网的内容,以便向搜索者提供最好的答案结果。SEO工作者十分有必要了解搜索引擎原理这方面内容。

  为了在搜索结果中显示,您的网站内容首先要在搜索引擎中可见,这可以说是SEO最重要的部分,如果你的网站找不到,你就不可能出现在搜索引擎结果页面中。

  搜索引擎是如何工作的?

搜索引擎的工作原理

(搜索引擎的工作原理)

  1、爬行:在互联网上搜索内容,找到每个页面的URL及内容。

  2、索引:存储和组织在爬行过程中找到的内容。页面只有被搜索引擎存储在索引中,才有可能被搜索显示出来。

  3、排列:提供最能回答搜索者查询的内容,以最有帮助的搜索结果页面进行排序。

  什么是搜索引擎爬行?

  爬行,是搜索引擎派出一组机器人(爬虫或蜘蛛)寻找新的页面和内容。它可以是一个网页,一个图像,一个视频,一个文件等。但不管格式如何,它们都是通过链接发现的。

  爬虫从获取几个网页开始,然后跟踪这些网页上的链接找到新的URL。通过链接爬虫可以找到新的内容并将其添加到索引中—以便在搜索者寻找该URL上的内容与之匹配的信息时被检索。

  什么是搜索引擎索引?

  搜索引擎索引是一个庞大的数据库,包含了他们发现的所有内容,并且认为这些内容足够好,可以为搜索者提供服务

  什么是搜索引擎排名

  当有人搜索某个关键词时,搜索引擎会检索他们的索引,提供最相关的内容,希望能够解决搜索者的查询。这种按相关性排序的搜索结果成为搜索引擎排名(排序)。一个网站排名越高,搜索引擎就越相信该网站与查询相关。

  当然,你可以阻止搜索引擎抓取你的网站或者网站的部分内容,大部分搜索引擎都遵循robot协议

  搜索引擎能找到你的网站吗?

  确保您的站点被爬行和索引是在搜索结果出现的先决条件。首先要做到的是尽可能多的页面被收录。如果您的网站或者页面没有被索引收录,那么可能是以下的几个原因:

  1.您的网站是全新的,还没有被爬行。

  2.您的网站没有外部链接,爬虫没有发现您的网站。

  3.您的网站导航结构使爬虫很难有效的爬行。

  4.robot.txt文件阻止搜索引擎抓取页面。

  5.网站因为垃圾外链受到搜索引擎的惩罚。

  如果您的网站是全新的,可以通过向搜索引擎提交URL,被搜索蜘蛛尽快发现您的站点。

  robots.txt

  该文件位于网站根目录,并建议搜索引擎哪些可以抓取或不被抓取。

  温馨提示:

  如果爬虫蜘蛛找不到网站的robots.txt文件(http状态码为40X),它继续爬行站点。

  如果爬虫蜘蛛找到站点的robots.txt文件(http状态码为20X),它会遵守建议,并继续爬行网站。

  如果爬虫蜘蛛没有找到20X或40Xhttp状态码(通常是服务器错误),则不会爬行您的站点。

  关于外部链接

  目前为止,外部链接还是搜索引擎排名算法中最为重要的一部分。关于外部链接请参考以下说法:

  1.权威人士说你好,才是真的好。(注:获取权威站点的单向链接)

  2.自己夸自己好,有可能好。(注:自己网站的站内链接)

  3.有污点的人说你好,并不好。(注:低质量的外部链接)

  搜索引擎的算法一直在变,但不变的是,为用户提供最满意的搜索结果。当我们了解了搜索引擎的工作原理后,我们便知道,只有为用户提供最满意的内容(答案),我们才有可能永远立于不败之地。


  推荐阅读相关文章:

  网站SEO优化人员必须了解的一些知识

  SEO入门:了解和认识SEO


  版权声明:除非特殊注明,老飞博客均为原创,转载请以链接形式注明本文地址及本声明。

 

猜你喜欢

发表评论

必填

选填

选填

必填,不填不让过哦,嘻嘻。

记住我,下次回复时不用重新输入个人信息

网站分类
最近发表
网站收藏
老飞博客
在线咨询QQ咨询
扫一扫扫一扫