行业动态

CRM-客户关系管理系统


crm客户关系管理系统

1.提高效率,缩短销售周期,减少不确定性
2.整合市场营销、销售、客户服务和企业管理.
3.加强与销售团队的配合,有效衡量投资回报率.
4.提升客户满意度,同时控制成本.
5.报表监控并衡量业务运行中的关键数据
6.协作办公,全公司为客户通力协作.
7.移动办公:任何时间,任何地点均可登录.
你不知道的排名算法
用户评价: / 38
好 
作者:深圳网站建设   
周三, 2010年 11月 03日 11:25
在Google 诞生以前,传统搜索引擎主要依靠页面内容中的关键词匹配搜索词进行排名。这种排 名方式的短处现在看来显而易见,那就是很容易被刻意操纵。黑帽SEO 在页面上堆积关键词, 或加入与主题无关的热门关键词,都能提高排名,使搜索引擎排名结果质量大为下降。现在的 搜索引擎都使用链接分析技术减少垃圾,提高用户体验。这一节就简要探讨链接在搜索引擎排名中的应用原理。 在排名中计入链接因素,不仅有助于减少垃圾,提高结果相关性,也使传统关键词匹配无法排 名的文件能够被处理。比如图片、视频文件无法进行关键词匹配,但是却可能有外部链接,通 过链接信息,搜索引擎就可以了解图片和视频的内容从而排名。 不同文字的页面排名也成为可能。比如在百度或Google搜索“SEO”,都可以看到英文和其他文字的SEO 网站。甚至搜索“搜索引擎优化”,也可以看到非中文页面,原因就在于有的链 接可能使用“搜索引擎优化”为锚文字指向英文页面。 链接因素现在已经超过页面内容的重要性。不过理解链接关系比较抽象。页面上的因素对排名 的影响能看得到,容易直观理解。举个简单例子,搜索一个特定关键词,SEO 人员只要观察前 几页结果,就能看到关键词在标题标签中出现有什么影响?出现在最前面又有什么影响?有技 术资源的还可以大规模的统计,计算出关键词出现在标题标签中不同位置与排名之间的关系。 虽然这种关系不一定是因果关系,但至少是统计上的联系,使SEO 人员大致了解如何优化。 链接对排名的影响就无法直观了解,也很难进行统计,因为没有人能获得搜索引擎的链接数据库。 下面介绍的一些搜索引擎排名中的算法。

李彦宏超链分析专利


百度创始人李彦宏在回国创建百度之前就是美国最顶级的搜索引擎工程师之一。据说李彦宏在 寻找风险投资时,投资人询问其他三个搜索引擎业界的技术高人一个问题:要了解搜索引擎技 术应该问谁。这三个被问到的高人中有两个回答:搜索引擎的事就问李彦宏。由此投资人断定 李彦宏是最了解搜索引擎的人之一。 这其实就是现实生活中类似于链接关系的应用。要判断哪个页面最有权威性,不能光看页面自 己怎么说,而要看其他页面怎么评价。 李彦宏1997 年就提交了一份名为“超链文件检索系统和方法”的专利申请,这比Google 创始人发明PR 要早得多,不得不说这是非常具有前瞻性的研究工作。在这份专利中,李彦宏提出 了与传统信息检索系统不同的基于链接的排名方法。

这个系统除了索引页面之外,还建立一个链接词库,记录链接锚文字的一些相关信息,如锚文字中包含哪些关键词,发出链接的页面索引,包含特定锚文字的链接总数,包含特定关键词的 链接都指向哪些页面。词库不仅包含关键词原型,也包含同一个词干的其他衍生关键词。 根据这些链接数据,尤其是锚文字,计算出基于链接的文件相关性。在用户搜索时,将得到的 基于链接的相关性与基于关键词匹配的传统相关性综合使用,得到更准确的排名。 在今天看来,这种基于链接的相关性计算是搜索引擎的常态,每个SEO人员都知道。但是在十 三四年前,这无疑是非常创新的概念。当然现在的搜索引擎算法对链接的考虑,已经不仅仅是 锚文字,而要复杂得多。 这份专利所有人是李彦宏当时所在的公司,发明人是李彦宏本人。
可以在这个地址查看美国专利局发布的“超链文件检索系统和方法”专利详情: http://patft.uspto.gov/netacgi/nph-Parser?patentnumber=5,920,859

HITS 算法


HITS 是英文Hyperlink-Induced Topic Search 的缩写,意译为超链诱导主题搜索。HITS 算法由 Jon Kleinberg 于1997 年提出,并申请了专利: http://patft.uspto.gov/netacgi/nph-Parser?patentnumber=6,112,202 按照HITS 算法,用户输入关键词后,算法对返回的匹配页面计算两种值,一是枢纽值(Hub Scores),二是权威值(Authority Scores),这两个值是互相依存、互相影响的。所谓枢纽值指 的是页面上所有导出链接指向页面的权威值之和。权威值指的是所有导入链接所在页面的枢纽 值之和。 上面的定义比较拗口,我们可以简单的说,HITS 算法会提炼出两种比较重要的页面,也就是枢 纽页面和权威页面。枢纽页面本身可能没有多少导入链接,但是有很多导出链接指向权威页面。 权威页面本身可能导出链接不多,但是有很多来自枢纽页面的导入链接。 典型的枢纽页面就是如雅虎目录、开放目录或好123 这样的网站目录。这种高质量的网站目录 作用就在于指向其他权威网站,所以称为枢纽。而权威页面有很多导入链接,其中包含很多来 自枢纽页面的链接。权威页面通常是提供真正相关内容的页面。 HITS 算法是针对特定查询词的,所以称为主题搜索。 HITS 算法的最大缺点是,它是在查询阶段进行计算,而不是在抓取或预处理阶段。所以HITS算法是以牺牲查询排名响应时间为代价的。也正因为如此,原始HITS 算法在搜索引擎中并不 常用。不过HITS 算法的思想很可能融入到搜索引擎的索引阶段,也就是根据链接关系找出具 有枢纽特征或权威特征的页面。 成为权威页面是第一优先,不过难度比较大,唯一的方法就是获得高质量链接。当你的网站不 能成为权威页面时,就让它成为枢纽页面。所以导出链接也是当前搜索引擎排名因素之一。绝 不链接到其他网站的做法,并不是好的SEO 方法。

TrustRank 算法


TrustRank 是近年来比较受关注的基于链接关系的排名算法。TrustRank 中文可以翻译为信任指 数。 TrustRank 算法最初来自于2004 年斯坦福大学和雅虎的一项联合研究,用来检测垃圾网站,并 且于2006 年申请专利。TrustRank 算法发明人还发表了一份专门的PDF 文件,说明TrustRank 算法的应用。
TrustRank 算法并不是由Google 提出,不过由于Google 所占市场份额最大,而且TrustRank 在 Google 排名中也是一个非常重要的因素,所以有些人误以为TrustRank 是Google 提出的。更让 人糊涂的是,Google 曾经把TrustRank 申请为商标,但是TrustRank 商标中的TrustRank 指的是 Google 检测含有恶意代码网站的方法,而不是指排名算法中的信任指数。 TrustRank 算法基于一个基本假设:好的网站很少会链接到坏的网站。反之则不成立,也就是说, 坏的网站很少链接到好网站这句话并不成立。正相反,很多垃圾网站会链接到高权威、高信任 指数的网站,意图提高自己的信任指数。 基于这个假设,如果能挑选出可以百分之百信任的网站,这些网站的TrustRank 评为最高,这 些TrustRank 最高的网站所链接到的网站信任指数稍微降低,但也会很高。与此类似,第二层 被信任的网站链接出去的第三层网站,信任度继续下降。由于种种原因,好的网站也不可避免 地会链接到一些垃圾网站,不过离第一层网站点击距离越近,所传递的信任指数越高,离第一 级网站点击距离越远,信任指数将依次下降。这样,通过TrustRank 算法,就能给所有网站计 算出相应的信任指数,离第一层网站越远,成为垃圾网站的可能性就越大。 计算TrustRank 值首先要选择一批种子网站,然后人工查看网站,设定一个初始TrustRank 值。 挑选种子网站有两种方式,一是选择导出链接最多的网站,因为TrustRank 算法就是计算指数 随着导出链接的衰减。导出链接多的网站,在某种意义上可以理解为“逆向PR 值”比较高。虽然TrustRank 算法最初是作为检测垃圾的方法,但在现在的搜索引擎排名算法中,TrustRank 概念使用更为广泛,常常影响大部分网站的整体排名。TrustRank 算法最初是针对页面级别,现 在在搜索引擎算法中,TrustRank 值也通常表现在域名级别,整个域名的信任指数越高,整体排名能力就越强。
可以在这个网址下载TrustRank PDF 文件: http://www.vldb.org/conf/2004/RS15P3.PDF

Google PR


PR 是PageRank 的缩写。Google PR 理论是所有基于链接的搜索引擎理论中最有名的。SEO 人员可能不清楚本节介绍的其他链接理论,但不可能不知道PR。 PR 是Google 创始人之一拉里佩奇发明的,用于表示页面重要性的概念。用最简单的话说就是, 反向链接越多的页面就是最越重要的页面,因此PR 值也越高。 Google Pr 有点类似于科技文献中互相引用的概念,被其他文献引用最多的文献,很可能是比较 重要的文献。Google PR PR 是PageRank 的缩写。Google PR 理论是所有基于链接的搜索引擎理论中最有名的。SEO人员可能不清楚本节介绍的其他链接理论,但不可能不知道PR。 PR 是Google 创始人之一拉里佩奇发明的,用于表示页面重要性的概念。用最简单的话说就是, 反向链接越多的页面就是最越重要的页面,因此PR 值也越高。 Google Pr 有点类似于科技文献中互相引用的概念,被其他文献引用最多的文献,很可能是比较重要的文献。

Hilltop 算法


Hilltop 算法由Krishna Baharat 在1999 年到2000 年左右所研究,于2001 年申请了专利,并 且把专利授权给Google 使用,后来Krishna Baharat 本人也加入了Google。 Hilltop 算法可以简单理解为与主题相关的PR 值。传统PR 值与特定关键词或主题没有关联,只 计算链接关系。这就有可能出现某种漏洞。比如一个PR 值极高的关于环保内容的大学页面,上 面有一个链接连向一个儿童用品网站,这个链接出现的原因可能仅仅是因为这个大学页面维护 人是个教授,他太太在那个卖儿童用品的公司工作。这种与主题无关,却有着极高PR 值的链接, 有可能使一些网站获得很好排名,但其实相关性并不高。 Hilltop 算法就尝试矫正这种可能出现的疏漏。Hilltop 算法同样是计算链接关系,不过它更关 注来自主题相关页面的链接权重。在Hilltop 算法中把这种主题相关页面称为专家文件。显然, 针对不同主题或搜索词有不同的专家文件。 根据Hilltop 算法,用户搜索关键词后,Google 先按正常排名算法找到一系列相关页面并排名, 然后计算这些页面有多少来自专家文件的、与主题相关的链接,来自专家文件的链接越多,页 面的排名分值越高。按Hilltop 算法的最初构想,一个页面至少要有两个来自专家文件的链接, 才能返回一定的Hilltop 值,不然返回的Hilltop 值将为零。 根据专家文件链接计算的分值被称为LocalRank。排名程序根据LocalRank 值,对原本传统排名算法计算的排名做重新调整,给出最后排名。这就是前面讨论的搜索引擎排名阶段最后的过 滤和调整步骤。 Hilltop 算法最初论文和申请专利时对专家文件的选择有不同描述。在最初的研究中,Krishna Baharat 把专家文件定义为包含特定主题内容,并且有比较多导出链接到第三方网站的页面, 这有点类似于HITS 算法中的枢纽页面。专家文件链接指向的页面与专家文件本身应该没有关联, 这种关联指的是来自同一个主域名下的子域名,来自相同或相似IP 地址的页面等。最常见的专 家文件经常来自于学校、政府以及行业组织网站。 在最初的Hilltop 算法中,专家文件是预先挑选的。搜索引擎可以根据最常见的搜索词,预先 计算出一套专家文件,用户搜索时,排名算法从事先计算的专家文件集合中选出与搜索词相关 的专家文件子集,再从这个子集中的链接计算LocalRank 值。 不过在2001 年所申请的专利中,Krishna Baharat 描述了另外一个挑选专家文件的方法,专家 文件并不预先选择,用户搜索特定查询词后,搜索引擎按传统算法挑出一系列初始相关页面, 这些页面就是专家文件。Hilltop 算法在这个页面集合中再次计算哪些网页有来自于集合中其 他页面的链接,赋予比较高的LocalRank 值。由于传统算法得到的页面集合已经具备了相关性, 这些页面再提供链接给某一个特定页面,这些链接的权重自然应该很高。这种挑选专家文件的 方法是实时进行的。 通常认为Hilltop 算法对2003 年底的佛罗里达更新有重大影响,不过Hilltop 算法是否真的已 经被融入进Google 排名算法中,没有人能够确定。Google 从来没有承认,也没有否认自己的 排名算法中是否使用了某项专利。不过从排名结果观察以及招揽Krishna Baharat 至麾下等迹 象看,Hilltop 算法的思想得到了Google 的极大重视。 Hilltop 算法提示SEO,建设外部链接时更应该关注主题相关的网站。最简单的方法是搜索某个 关键词,目前排在前面的页面就是最好的链接来源,甚至可能一个来自竞争对手网站的链接效 果是最好的。当然,获得这样的链接难度最大。

 

评论信息

分享到: