自动秒收录

Google技术副总裁谈Google排名算法


文章编号:881 / 更新时间:2023-04-11 / 浏览:

今天是Google新闻发布日2006,大家可以看新闻发布会的实况,长达3个多小时。在发布会上Google总裁EricSchmidt谈到Google的核心还是搜索,相关人员介绍了四个新产品,其中GoogleTrend对关键词研究很有用。

最感兴趣的是Google技术部门副总裁AlanEustace谈Google排名的情况。所以我只跳到这个部分看了一下,大概半小时。下面拣记得的重点介绍给大家。

Alan首先谈到的是蜘蛛爬行,基本上就是跟踪所发现的链接。

爬行时的另外一个问题是,大概有50%的网页都是重复内容。所以Google所收录的80亿其实是已经丢掉了一半后的数字,真正爬行的有可能是200亿文件。

10%到20%的网站每个月都会更新内容,更新度也很重要。

然后是索引,索引就和一本书的索引差不多。比如说用户搜索heartattack(心脏病暴发),heart出现在文件5,9,25,attack出现在文件7,9,22,那么很明显第九个网页是符合条件的网页,这样搜索范围就已经限制在包含搜索词的网页内。

当然这个数量还是巨大的,再怎么从这里面挑出最好的结果呢?也就是进一步计算排名。

Google用两百多个信号来计算排名,这是新信息。

举斯坦弗大学网页作为例子,很多其他网站会连向斯坦弗大学的网页,那么可以合理假定斯坦弗大学的网站权威性比较高,这也就是PR的意义。

然后是锚文字,也就是链接文字。比如在斯坦弗大学的网页上,一个以“Knightfellows”为链接文字的链接到其他网站,那么这个链接文字本身就在一定程度上说明了那个网页的主题,就算在那个网页上面Knightfellows这个词根本没有出现。

这个排名过程必须是自动的,不可能人工去调节这些排名。

Alan谈到大约20%到25%的搜索关键词都是独特的,也就是说以前从来没有别人所搜索过的。用户都非常有创意,会以各种各样形式组合的词来做搜索。

一个关键词搜索是由上千架机器所处理的。

Alan接着谈到垃圾技术,比如说在留言本里留下垃圾链接,这种技术对Google来说早就不起作用了。再比如有的作弊的人建立大量的网站,在这些网站之间互相链接,这对Google也不起作用。

他加了一句:对别的搜索引擎起不起作用,那就不知道了。

Google在做算法调整的时候,依据是多少人受益。比如说做某个调整,40%的人会觉得搜索质量提高,40%的人觉得没什么变化,20%的人觉得搜索质量降低,Google的决定就会是进行这个调整。

不可能在100%的搜索词下满足100%的人。

Alan还提到很多其他语言的搜索也非常困难,比如中文分词技术。

这段谈话倒没有很出人意料的地方,但Google负责技术的副总裁自己谈Google排名算法就已经很难得了。

等有时间再完整看一遍,看有什么新东西。

扫描二维码推送至手机访问。

3浏览自媒体运营与推广

2浏览网站结构优化

2浏览外部链接建设

2浏览自媒体运营与推广


相关标签: 谷歌seo

本文地址:https://www.badfl.com/article/cbc920617a6b1096a27f.html

上一篇:SEO谬误搜索引擎优化软件...
下一篇:搜索引擎优化项目的困扰...

发表评论

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="https://www.badfl.com/" target="_blank">自动秒收录</a>