了解搜索引擎工作原理有助于我们更好的进行SEO优化。
1.抓取网页数据
互联网的信息呈爆发式的增长,那么如何有效的获取并利用这些信息,这是搜索引擎工作中的首要环节,数据抓取系统作为整个系统中的上游,它主要负责互联网信息的收集、保存、更新的环节,想蜘蛛一样在网络间爬来爬去,因此通常叫做Web spider也就是网络蜘蛛或者是Robot机器人。
常见的搜索引擎抓取程序:Baiduspider(百度蜘蛛)、360spider(360蜘蛛)、Sougou Web Spider(搜狗网络蜘蛛)、Googlebot(谷歌机器人)。spider抓取它是从一些重要的url开始,通过页面上的超链接关系不断的发现新的url并进行抓取,它会尽最大的可能抓取到更多有价值的网页。
2.建立索引库
其实搜索引擎的蜘蛛抓了多少页面并不是最重要的,重要的是有多少页面被建索引库。
索引库层级:优质的网页会被分配到重要的索引库,普通的网页会待在普通库,较差的网页会分配到低级库中充当补充材料。目前60%的检索需求只需调用优质索引库即可满足。
哪些网页可以进入优质的索引库:
1.有时效性且有价值的页面、
2.内容优质的专题页面
3.高价值原创内容页面
4.重要的个人页面
3.页面排序
用户通过关键词进行检索,搜索引擎在排序环节要做的是把相关的网页从索引库中提取出来,把提取出来的不同网页按照不同的纬度结合相关因素进行综合排序。
4.展示搜索结果
以百度为例:百度搜索结果左侧结果展现形式:竞价、凤巢、品牌专区、自然搜索等。
标签: 天水网站优化 百度快速排名是怎么操作的 动态网站优化 网站优化如何
还木有评论哦,快来抢沙发吧~