搜寻引擎最佳化(又称搜索引擎优化, 其英文叫 Search Engine Optimization,简称SEO)是一种利用搜索引擎的搜索规则来提高目的网站在有关搜索引擎内的提名的方式。由于不少研究发现,搜索引擎的用户往往只会留意搜索结果最开首的几项条目,所以不少网站都希望透过各种形式来影响搜索引击的排序。当中尤以各种依靠广告维生的网站为甚。
所谓“针对搜寻引擎作最佳化的处理”,是指为了要让网站更容易被搜寻引擎接受。搜寻引擎会将网站彼此间的内容做一些相关性的资料比对,然后再由浏览器将这些内容以最快速且接近最完整的方式,呈现给搜寻者。
搜索引擎优化对于任何一家网站来说,要想在网站推广中取得成功,搜索引擎优化都是至为关键的一项任务。同时,随着搜索引擎不断变换它们的排名算法规则,每次算法上的改变都会让一些排名很好的网站在一夜之间名落孙山,而失去排名的直接后果就是失去了网站固有的可观访问量。所以每次搜索引擎算法的改变都会在网站之中引起不小的骚动和焦虑。可以说,搜索引擎优化是一个愈来愈复杂的任务。
早期搜寻引擎
网站管理员以及网络内容提供者在90年代中期开始使用搜寻引擎来优化网站。此时第一代搜寻引擎开始对因特网分门别类。一开始,所有网站员得做的事只有提交所属网站到各家搜寻引擎。这些引擎跑一些蜘蛛机器人(spider)──撷取于网页程式中找到连至其他网页的连结──并且储存所找到的资料。过程中同时包含了将网页下载并储存至搜寻引擎拥有者的服务器中,这时有另外一个软件称为Indexer来撷取页面中不同的资讯——页面中的文字、文字的位置、文字的重要性以及页面所包含的任何连结,之后将页面置入清单中等待过些时日后,再来撷取一次。随着线上文件数目日积月累,越来越多网站员意识到基本搜寻 (organic search,亦翻为随机搜寻[1]) 条目的重要性,所以较普及的搜寻引擎公司开始整理他们的列表,以显示根据最洽当适合的网页为优先。搜寻引擎与网站员的战争就此开始,并延续至今。
一开始搜寻引擎是被网站管理员本身牵着走的。早期版本的搜寻算法有赖于网站员提供资讯,如关键字的基本定义标签(Meta tag)。当某些网站员开始滥用标签,造成该网页排名与连结无关时,搜寻引擎开始舍弃标签并发展更复杂的排名算法。由于数繁不及备载,仅列举数个分析目标如下:
在标题签里的文字,如:引擎 域名,如:Wikipedia.org 统一资源定位符下属的目录与档名,如:http://blog.myspace.cn/1309101722/ 关键字密度 关键字接近度,如:'软盘、软碟' '硬盘、硬盘' 图形连结的Alt属性,如: 由于这些都还在网站员的眼皮下打滚,搜寻引擎陆陆续续碰到诸多滥用与操纵排名等难题。为了要提供较好的结果给使用者,搜寻引擎必须调适到让他们的搜索结果表现出最适当的结果,而非某些不道德的网络员产生的、只有塞满关键字的无用网页。由此,新种类的搜寻引擎应运而生。
当代搜寻引擎
Google 由两名在斯坦福大学的博士生佩吉 (Larry Page) 和布林 (Sergey Brin) 开始。他们带来了一个给网页评估的新概念。这个概念, 称网页级别 (PageRank), 是从Google 算法[2]重要的开端 。网页级别十分倚赖导入链结 (incoming link) ,并利用这种每个导入某网页的链结相当于给该网页价值投一票的理论建立起逻辑系统。越多导入链结意味着该网页越有“价值”。而每个导入链结本身价值直接根据该链结从何而来的网页级别,以及相反的该页导出链结 (Outgoing link) 。
在网页级别帮助下,Google 在服务相关的结果上证明它相当优异。Google 成为了最普遍和最成功的搜索引擎。由于网页级别度量了站点外因子, Google 感到它会比页内因子难以动手脚。
然而道高一尺魔高一丈。网站员们已经开发出对付Inktomi 搜索引擎的链结操作工具和计划。这些方法证明对Google 算法一样管用。许多站集中于交换、买卖大量链接。随着‘网站员寻求获取链结只单单要影响Google送更多流量给该站,而不管是否对站点访客有用否’这种行为增加,网页级别对原始算法的信赖度渐渐被破坏了。
此时,是Google 和其它查寻引擎对广大范围的站外因子仔细检视的时候。开发更加聪明的算法有其他原因。因特网已经膨胀到拥有非技术的广大族群。他们经常无法使用先进的提问技术来取得资讯;而且他们得面对比起发展早期更庞大资料、更复杂的索引。搜寻引擎必须开发具备预测性、语义性、语言性和启发性算法。
目前,网页级别的缩小版仍然被显示在Google 工具条上,不过网页级别只不过是Google考虑在网页分级时超过100个因素里中的一个。
今天,大多数搜寻引擎对它们的如何评等的算法保持秘密。搜索引擎也许使用上百因素在排列目录;每个因素本身和因素所占比重可能不断的在改变。
大部分当代搜寻引擎优化的思路──哪些有效、哪些没效──这些很大部分在于观察与根据内线消息来的猜测。某些优化员得执行控制下的实验以取得不同优化方法的结果。
尽管如此,以下是搜寻引擎发展它们算法时的一些考虑,另,这份Google 专利清单[3]也许读者可猜出他们会走哪条路线:
站点的年龄 自该网域注册后过多久 内容的年龄 新内容增加的规律性 链接的年龄,连接站点的名誉和其相关程度 一般站内因素 负面站内因素 (例如,太多关键字汇标(Meta tag),很显然被优化过,会对站点造成伤害) 内容的独特性 使用于内容的相关术语 (搜寻引擎关联到的术语的方式视同如何关联到网页的主要内容) Google网页级别 (只被使用在Google 的算法) 外在链接、外部链接的链结文字、在那些和在站点/网页包含的那些链接 引证和研究来源(表明内容是研究性质) 在搜索引擎数据库里列举的词根与其相关的术语(如 Finance/Financing) 导入的逆向链结,以及该链结的文字 一些导入链结的负面计分 (或许那些来自低价值页、被交换的逆向链结等) 逆向链结取得速率:太多太快意味着“不自然”的链结购买活动 围绕在导出链结、导入的逆向链结周围的文字。例如一个链结如果被 "Sponsored Links" (赞助商连结)包围,该链结可能会被忽略。 用 "rel=nofollow" 建议搜寻引擎忽略该链接 在站点该文件的结构深度 从其他资源收集的网格表,譬如监视当搜寻结果导引用户到某页后,用户有多频繁按浏览器的返回钮 从来源像:Google AdWords/AdSense、Google 工具条等程序收集的网格表 从第三方资料分享协议收集的网格资料 (譬如监测站点流量的统计程式提供商) 删除导入链结的速率 使用子网域、在子网使用关键字和内容质量等等,以及从这些活动来的负面计分 和主文件语意上的连结 文件增加或改动的速率 主机服务商 IP 和该 IP 旗下其它站点的数量/质量
其他链结站会员 (link farm / link affiliation) 与被链结的站 (他们分享IP吗? 有一个共同的邮递地址在"联络我们 (Contact Us)" 页吗?) 技术细节像利用301重定向被移除的网页、对不存在网页显示404服务器标头而非200服务器标头、适当的利用 robots.txt 主机服务商正常运行时间 是否站点对不同类的用户显示不同的内容 (掩饰 (cloaking)) 未及时矫正、无效的导出的链结 不安全或非法内容 HTML代码品质,以及错误出现数 由搜寻引擎自他们搜寻结果观察到的实际点击通过率评等 由最常存取搜寻结果的人手动评等
搜寻引擎优化和搜寻引擎之间关系
在第一代搜寻引擎发表后,搜寻引擎操作员变得对搜寻引擎优化社区感兴趣。在一些早期搜寻引擎, 譬如INFOSEEK, 要得到第一名不过是把顶尖的网页代码抓下、放在您的网站、并提交个URL让搜寻引擎立即索引并排名该页这么简单。
由于搜寻本身的高价值和标定性,搜寻引擎和搜寻引擎优化员间自始便存在对抗的关系。最近一次于2005 年召开的AirWeb年会,旨在谈论缩小这种敌对关系差距,和如何最小化某些太过于侵略性优化造成的损坏效果。
某些更具侵略性的优化员产生自动化的站点,或者使用某些最终会让该网域被搜寻引擎扫地出门的技术。而大多数优化公司则销售长期、低风险的策略服务,而且大部分使用高风险战略的优化公司,则在他们旗下的会员点使用、产生商业线索、或者纯内容站点,而非让它们客户站亲身涉险。
这里提供一个使用侵略性优化技术的优化公司让他们客户被取缔的案例。华尔街时报描述了某个使用高风险技术和涉嫌没有透露客户得承担那些风险的公司[4]。Wired报告了该公司起诉某部落格,因为提及该公司被取缔[5]。Google 的克特斯 (Matt Cutts) 稍后确认Google 确实取缔了Traffic Power以其他们的客户群[6]。
某些搜寻引擎对搜寻引擎优化产业提供了援助,而且是常常是优化会议和研讨会的赞助商和来访贵宾。实际上,自从付费收录 (Paid inclusion) 降临,一些搜寻引擎现在在网站优化社区的健康有了既得利益。所有主要搜寻引擎都提供资讯/指南以协助站点优化: Google[7] 、Yahoo [8], 和MSN[9]。Google提供了Sitemaps 程序[10]帮助网站员学习如果Google 有任何问题检索他们的网站时该如何做,并且提供Google流量与您网站关系间无价的丰富资料。雅虎的SiteExplorer[11],旨在提供一个免费方式递交您的URL, 该方法能让你决定打算让雅虎索引多少页、索引多深。雅虎的Ambassador Program[12] 与Google的Advertising Professionals[13] 提供专家级的认证。
搜寻引擎入门
新站点不需要"提交"到搜寻引擎才能登记上市。一个来自于以建立好的、其他站点的简单链结就会让搜寻引擎拜访新站点,并且开始‘爬’过该站内容。它可能得花几天甚或几周从这样一个已建立站点取得连结,并使所有主要搜索引擎开始拜访并索引新站点。
一旦搜索引擎发现了新站点,它一般将拜访和开始索引该站,直到所有标准的 超连结被链结的页索引到为止。只能透过Flash或JavaScript才能拜访的链结可能不会被蜘蛛机器人找到。
当搜索引擎的蜘蛛机器人爬过一个站点时会取决相当数量的不同因子,并且该站的许多页可能不会被索引到除非它们网页级别、连结、或流量增加到一个程度。从站点的根目录到该页的距离,以及其它比重考量,也许也是决定是否该页得到检索的因素。Cho et al.(Cho et al. 1998) [14] 描述了哪些页会被拜访、哪些会收入搜寻引擎索引的决定标准。
网站员可透过在网域根目录里标准robots.txt档案指示蜘蛛机器人不索引某些文件或目录。标准的实现要求是搜索引擎在拜访这个网域时参考这个文件,虽然搜索引擎的蜘蛛机器人当它拜访某站点网页时将保留这个文件的快取拷贝,并且更新速度没像网站员那么快。网站发展人员可能使用这个特性防止某些页,譬如购物车或其它动态、特定使用者的内容出现在搜索引擎结果中,并且防止机器人进入死循环和其它机器人陷阱。
对于某些有偿提交的查寻引擎(像雅虎),支付象征性费用提交也许会节省一些时间,虽然雅虎有偿提交方案不保证提交人/公司包括在他们的查寻结果中。中文的搜狐和新浪Ask等需要支付一定费用,但免费的非商业网站可以提供,当然搜索引擎方并不保证一定收录相应的网站。
新站点不需要"提交"到搜寻引擎才能登记上市。一个来自于以建立好的、其他站点的简单链结就会让搜寻引擎拜访新站点,并且开始‘爬’过该站内容。它可能得花几天甚或几周从这样一个已建立站点取得连结,并使所有主要搜索引擎开始拜访并索引新站点。
一旦搜索引擎发现了新站点,它一般将拜访和开始索引该站,直到所有标准的 超连结被链结的页索引到为止。只能透过Flash或JavaScript才能拜访的链结可能不会被蜘蛛机器人找到。
当搜索引擎的蜘蛛机器人爬过一个站点时会取决相当数量的不同因子,并且该站的许多页可能不会被索引到除非它们网页级别、连结、或流量增加到一个程度。从站点的根目录到该页的距离,以及其它比重考量,也许也是决定是否该页得到检索的因素。Cho et al.(Cho et al. 1998) [14] 描述了哪些页会被拜访、哪些会收入搜寻引擎索引的决定标准。
网站员可透过在网域根目录里标准robots.txt档案指示蜘蛛机器人不索引某些文件或目录。标准的实现要求是搜索引擎在拜访这个网域时参考这个文件,虽然搜索引擎的蜘蛛机器人当它拜访某站点网页时将保留这个文件的快取拷贝,并且更新速度没像网站员那么快。网站发展人员可能使用这个特性防止某些页,譬如购物车或其它动态、特定使用者的内容出现在搜索引擎结果中,并且防止机器人进入死循环和其它机器人陷阱。
对于某些有偿提交的查寻引擎(像雅虎),支付象征性费用提交也许会节省一些时间,虽然雅虎有偿提交方案不保证提交人/公司包括在他们的查寻结果中。中文的搜狐和新浪Ask等需要支付一定费用,但免费的非商业网站可以提供,当然搜索引擎方并不保证一定收录相应的网站。
白帽方法
搜寻引擎优化的白帽法包括遵循搜寻引擎哪些可接受哪些不能接受的指导方针。他们的建议一般是为用户创造内容,而非搜寻引擎、是让这些内容易于被蜘蛛机器人索引、并且不尝试对搜寻引擎系统耍花招。经常网站员于设计或构建他们的网站犯了致命错误、疏忽地"毒害" 该站以致排名不会很好。白帽法优化员企图发现并纠正错误,譬如机器无法读取的选单、无效链接、临时改变导向、或粗劣的导引结构。
因为搜寻引擎是以文本为中心,许多有助于网页亲和力的同样手段同样便利于搜寻引擎优化。这些方法包括最佳化图形内容、包括ALT 属性、和增加文本说明。甚至Flash动画可于设计该页时包括替代性内容──这本来用来给访客无法阅读Flash的环境用的──来帮助优化。
这里是一些搜寻引擎认为适当的方法:
在每页使用一个短、独特、和相关的标题。 编辑网页,用与该页的主题有关的具体术语替换隐晦的字眼。这有助于该站诉求的观众群,在搜寻引擎上搜寻而被 正确导引至该站。 在该站点增加相当数量的原创内容。 使用合理大小、准确描述的汇标,而不过度使用关键字、惊叹号、或不相关标题术语。 确认所有页可透过正常的链结来访问,而非只能透过Java 、JavaScript或Macromedia Flash应用程序访问。这可透过使用一个专属列出该站所有内容的网页达成(网站地图) 透过自然方式开发链结:Google不花功夫在这有点混淆不清的指南上。写封电子邮件给网站员,告诉他您刚刚贴了一篇挺好的文章,并且请求链接,这种做法大概很可能为搜寻引擎所认可。 参与其他网站的网络集团(译按:Web ring 指的是有相同主题的结盟站群)──只要其它网站是独立的、分享同样题目、和可比较的品质。
'黑帽方法
垃圾索引(Spamdexing)意指透过欺骗技术和滥用搜索算法来推销毫不相关、主要以商业为着眼的网页。许多搜索引擎管理员认为任何搜索引擎优化的形式,其目的用来改进网站的页排名者,都是垃圾索引。然而,随时间流逝,业界内公众舆论发展出哪些是哪些不是可接受的、促进某站的搜索引擎排名与流量结果的手段。
因为搜寻引擎以高度自动化的方式运作,网站员通常可以利用某些未被搜寻引擎认可的手段、方法来促进排名。这些方法经常未被注意除非搜索引擎雇员亲临该站点并注意到不寻常活动、或在排名算法上的某个小变化导致站点丢失以过去方式取得的高排名。有时某些公司雇用优化顾问评估竞争者的站点、和"不道德的" 优化方法向搜寻引擎报告。
垃圾索引经常与合法的、不介入欺骗的搜寻引擎优化技术搞混。垃圾索引专注于让该网站得到更多的曝光率,而非他们选用的关键词,这导致令人不满的搜寻结果;相对的,优化则专注于他们希望得到的排名,基于特定目标关键字上;这导致令人满意的搜寻体验。
当这些不好的垃圾索引被发现时, 搜寻引擎也许会对那些被发现使用不道德的优化手段者采取行动。在2006 年2月,Google拿掉了BMW 德国站和Ricoh 德国站,因为他们用了这些方法[15]。
斗蓬法(cloaking)简单来讲就是网站站长用了两版不同的网页来达到最佳化的效果。一个版本只给搜索引擎看,一个版本给人看。搜索引擎说这种做法是不正规,如发现,该网站会永远从搜索引擎名单中被剔除[16]。
关键字隐密字 (hidden text with keyword stuffing) 是另外一欺骗搜索引擎的做法。通常是指设定关键字的颜色和网页背景颜色一样,或透过 css hidden attribute (隐密特性) 来达到优化效果。这种做法一旦被Google发现,遭遇也会是该网站从Google的数据库中除名。
搜寻引擎优化与行销
当这篇文章倾向建立间的搜寻引擎优化师间戴哪种颜色帽子的区别,这些产业写照实际上对于某些促成业界某些影响巨大成就部分的工作者着墨不多。
有相当多的优化实践者只是认为把搜寻引擎当作该站的另一个访客,并设法让该站点亲和如同真正访客拜访那些网页一般。他们的工作焦点不集中于将许多术语于搜寻引擎排名最高,而是帮助站点拥有者达到该站点的商业目标。这也许以实现导引基本搜寻结果、甚或利用在搜寻引擎做有偿广告的形式到某些页。至于其他页,建立高品质网页吸引参与和说服, 阐明技术问题,这些手段可让搜寻引擎继续爬过并检索这些站。另,设定分析程序可以让网站主衡量该网站成就,并且让该站更亲和更有用。
这些搜寻引擎优化员可能是某组织的一员,或者是个顾问,而搜索引擎优化也许只是他们每天例行工作的一部分。通常他们有关搜寻引擎功能的知识来自于论坛、部落格、一般的会议和研讨会间的互动和讨论主题、甚或经由在他们自己的站点实验获得。目前极少的大学课程涵盖电子交易观点的网上行销,可能肇因于网络上一日数变的关系。
当许多人检阅和致力于符合搜寻引擎指南时──这可帮助某人于网络上的成功打造坚实基础──跟随这些指南的结果实际上不过只是个开始。许多人认为搜索引挚行销不过是个搜寻优化下较大一点的支部而已,但它可能是许多主要集中于搜寻引擎优化的老兵,集合了更多更多的行销灵感所带来的成就。搜寻引擎因为认知到这一点,他们扩展了搜寻引擎覆盖面,包括了RSS提供元、录影搜寻、地方结果、地图、和更多他们必须提供的功能。
高品质网站通常排名很优
对许多有心于最大化网站附加价值的网站管理员们,可阅读由搜寻引擎出版的、以及W3C发行的编码指南。如果该指南被遵循,站点频繁地更新,有用、原创的内容,和建立几个实用、有意义的导入链接,获得相当可观数目的基本搜寻流量不是什么难事。
当站点拥有有用的内容,其它站点员自然而然会连结至该站,进而增加访客它的网页级别和访客流。当访客发现一个有用的网站,他们倾向于利用电子邮件或者及时讯息连结介绍给其它访客。
总括来说,增进网站品质的搜寻引擎优化实现很可能比直接寻找操控搜寻排名手段的短期实现要活得长久。顶尖的搜寻引擎优化员们找寻的目标与搜寻引擎追求发扬光大的东西二者不约而同。他们是:相关性、对他们用户有用的内容。
附加研究资源
(英文)Google: 公司概述
(英文)Yahoo! 专利书 - 垃圾连结侦测 2006年5月4日
搜寻引擎指南集
(英文)Google网站设计指南 (简体中文)Google网站设计指南
(英文)Google搜寻引擎优化员指南
(英文)MSN搜寻指南:成功的列入索引
(正体中文)MSN给网站拥有者的说明:成功列入索引的指导原则
(正体中文)Yahoo!奇摩搜寻服务说明
暂无评论,点击讲两句