`

淘宝秒杀解决办法和架构

阅读更多
所谓“秒杀”,就是淘宝网络在首页发布一些物美价廉的商品,所有买家在同一时间网上抢购。由于商品价格低,往往一上架就被抢购一空,有时只用一秒钟,故称“秒杀”。

  除去“秒杀”活动的争议性之外,该活动给淘宝网的服务器带来巨大压力。林昊形容:“就如一秒钟山洪爆发那样”,大量数据纷蜂拥而至,犹如DDoS攻击淘宝网,甚至严重阻碍了正常交易的进行。

  林昊说,由于淘宝网的“秒杀”活动在中央电视台刊登了广告,点击量超出预期的10倍。就在秒杀的当天,林昊和部门20多人整夜不合眼,守在服务器旁边,调整架构,分流数据,缓解压力。

  最后的解决办法是,林昊将“秒杀”的流量与正常业务的流量隔离开,增加了服务器的投入,避免了对正常业务的影响。这也是林昊一直在尝试做的事情—服务器上采用的云计算技术。

架构发展方向

  林昊担任系统架构师至今,首次挑战即是将淘宝网单系统转向分布式系统。

  那是淘宝网系统架构最艰难的时候,“如果系统不改造,按照当时的发展速度,淘宝网会在2008年完全挂掉。”林昊解释说,业务量的增加迫使淘宝增加服务器,“之前是不断加服务器,但系统仍旧是一个。结果是系统越来越庞大,这种增加服务器的做法马上遇到了瓶颈。”


  在该次重构后,淘宝网采用了分布式服务平台,将原有系统区隔成200个左右的小系统。这种分布式服务承担了淘宝几乎所有Java远程调用的支撑及管理。而林昊则负责将这一全亚洲最大的Java系统调理顺当,并逐步提高淘宝网的系统可用性和运行效率。

为了应对数据大并发量的压力与成本控制,淘宝网的中间件系统、文件储存系统、搜索、分布式框架、缓存系统都采用了自主开发的产品,而不是采用商用产品。同时这也给像林昊这样的工程师以大量的机会,可以让他们看到软件的源码,研究了解软件内部的工作过程和原理,这对于网站的应用设计、开发、查错、优化都是非常有益的。
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics