双11热闹过后:揭秘阿里技术的极限

标签:马云阿里巴巴双11

访客:73403  发表于:2015-11-16 10:32:04

18秒过亿,1分12秒过十亿,12分28秒过百亿……2015年天猫全球狂欢节在刷新世界零售纪录的同时,也正在创造着无数个全球技术奇迹。

双11热闹过后:揭秘阿里技术的极限

数据显示,自阿里巴巴首创“双11”购物狂欢节以来,交易额、交易峰值、支付峰值这三项指标连续7年一路走高:交易额从2009年的0.6亿元人民币狂飙至去年的571亿元,而这一纪录今年在11:50分就已被打破。

更能体现技术能力的订单创建峰值指标则从2009年每秒钟400笔飙升至14万笔,支付峰值从每秒200笔提高到8.59万笔。

从2009年到2015年,“双11”订单创建峰值增长了350倍,支付峰值增长了430倍。

阿里巴巴集团首席风险官、技术战略执行小组组长刘振飞在“双11”媒体见面会上透露,今年的系统支撑能力再创新高,订单创建峰值能力突破了每秒钟14万笔,支付宝的支付峰值达到了每秒8.59万笔,远远领先世界纪录。

资料显示,Visa最新的实验室测试数据是每秒5.6万笔,另一家全球性支付清算平台MasterCard的实验室测试数据为每秒4万笔,在实际应用中,Visa处理的峰值为每秒1.4万笔。支付宝此次创造的纪录比Visa快大约6倍。

在力保全球“剁手党”顺畅购物的同时,阿里巴巴的程序猿还借此机会验证了多项开创性技术。

“我们用中国的计算力量支撑了商业史上的又一个新纪录。而这些世界顶尖的技术,正在通过阿里云加速向外输出。我们希望将这些技术变成普慧科技,以此催生1万个阿里巴巴”,阿里云总裁胡晓明表示。

混合云架构实践

全球最大规模

今年双11淘宝天猫核心交易链条和支付宝核心支付链条的部分流量,直接切换到阿里云的公共云计算平台上。

通过将公共云和专有云无缝连接的模式,全面支撑双11.

因此,如果从技术层面来看,今年双11成为了一场全球最大规模的混合云弹性架构实践。

阿里巴巴也成为了全球大型互联网公司中,首个将核心交易系统放在云上的企业。

异地多活

给1000公里外的飞机换引擎

去年双11,阿里巴巴在全球首创交易系统“异地双活”。

今年更是在支付宝这样高度复杂与严谨的金融系统中,实现1000公里以上的“异地多活”能力。

“异地多活”已经超越了两地三中心等传统灾备概念,可实现多地数据中心像一个数据中心一样工作,即使某一处数据中心出现故障,双11在线业务仍然能够快速恢复正常运转。

“数据中心的切换,要在用户毫无感知的情况下进行,这就像为正在飞行的波音747飞机更换引擎。不仅不能影响飞行,飞机上的乘客也不能有感觉”。

目前,阿里巴巴支撑双11的多地数据中心,最远距离已超过1000公里,这就意味着阿里巴巴具备了在全国任意节点部署系统的能力。

同时,阿里巴巴正在将这一过程中积累的技术逐步开放。

比如,可以在较长延时的情况下解决多点数据同步的技术,已经通过阿里云数据传输产品(Data Transmission)对外开放,能够让云用户轻松实现远距离、毫秒级异步数据传输。

OceanBase

双11背后的中国自研数据库

今年双11的核心交易流量,将100%由金融级海量数据库OceanBase承载。这一事件将对全球IT业的格局产生深远影响。

OceanBase由阿里巴巴自主研发,是中国首个具有自主知识产权的数据库,也是全球首个应用在金融业务的分布式关系数据库。

OceanBase 2010年诞生,2014年支撑了10%的双11交易流量。

与传统数据库相比,OceanBase的系统维护,不需要昂贵的共享存储设备和高性能服务器,还能节省数据库软件的许可费,和常用的商业数据库相比,成本不到其一半。

同时,分布式的系统,可以更好地应对双11这类大流量冲击:弹性能力可保证大促之前完成一键扩容、大促之后实现一键缩容。

OceanBase计划明年通过阿里云的公共云计算平台对外界开放。

一键建站

90分钟再造淘宝天猫

每年双11,为了应对巨大的流量冲击,阿里都需要新建淘宝和天猫的交易单元,与原有的系统一起“协同作战”,以便分散流量,减轻系统负担。

以往,重新部署一套交易单元至少需要提前1个月的时间准备。

今年双11,由于采用了“一键建站”的技术,使得这项费时费力的巨大工程,得以在90分钟之内自动化完成。

一键建站,是指在基础设施具备的条件下,通过阿里自研的自动化软件,将中间件、数据库数据库查看更多

数据库是指长期存储在计算机内有组织的、可共享的数据集合。数据库中的数据按一定的数据…

、商品交易系统、商品展示系统等上百个电商核心系统,像搭积木一样部署完成。整个过程一键完成,基本无需人工干预,所需时间不到90分钟。

计算能力输出

商家可日处理400万订单

今年,阿里云继续通过聚石塔向双11商家输送充足的计算能力。

搭建在阿里云平台上的聚石塔,今年预计将处理99%以上的双11订单,可支持单个天猫商家日处理订单超过400万单。

2012年开始,聚石塔以阿里云为基础推出一整套的解决方案,为天猫、淘宝平台上的服务商及商家服务。

聚石塔部署在阿里云的远程数据中心中,安全条件、稳定性、性能远超过商家的办公环境和传统IDC,针对设备故障,断网断电等均有应急预案。

在传统模式下,商家做促销时要进行服务器扩容,小卖家要去电脑城买几台机器扛回家,大卖家则需要临时寻找IDC资源,在应对了促销节点之后,业务量回落,服务器又会闲置无用,造成了很大浪费。

通过聚石塔,商家可随时线上扩充服务器资源,想用几天就用几天,用后再缩回去,低碳环保又省钱。

2014年,聚石塔处理了96%的双11订单,无一故障、无一漏单。

2015年,通过云计算系统的优化,中间件能力的使用,服务商应用系统整体性能比之前提升62%,能支持单个商家每天400万以上的订单处理能力。

金融云架构

日支付处理能力达10亿笔

据介绍,目前支付宝在技术上已全面升级到金融云架构,可以支持每日十亿笔以上的支付处理能力,并且具备了金融级的“异地多活”容灾能力。

跟支付宝有合作的200多家银行,一直是双11支付保障的主力军。

今年各家银行的系统容量在去年双11的基础上扩大了一倍。

从8月份开始,各家银行就逐步对扩容后的系统进行仿实战的高强度压力测试。

压测覆盖了用户从开始购物到创建交易、访问收银台到最终完成支付的整个链路,确保包含基础设施、业务系统和银行渠道在内的整个系统可以稳定支撑双11的惊人支付洪峰。

ODPS

数据狂欢背后的超强计算引擎

在数据科学家们看来,双11是无数个“0和1”、成千上万套算法的叠加。

这是一场机器和数学公式主导的全球购物狂欢。

今年双11,无线端的交易将占主导地位。

今年双11,淘宝、天猫、支付宝、菜鸟等所有大数据处理工作,都将由阿里云ODPS来完成。

此外,ODPS的实时计算系统StreamSQL,双11当天预计日消息处理量将达上万亿条。而这一能力,正在通过阿里云逐步开放出来。

dataV

实时触摸数据世界的脉搏

在阿里巴巴每天海量的交易面前,如何精准把握由数据脉搏带来的趋势也成为极大的挑战。

对此,阿里巴巴研发了dataV数据可视化引擎,该引擎完全基于Web 技术 ,可快速、低成本的部署。用于内部的商品、交易、支付、数据中心等的可视化呈现和管理,帮助实现更精准的调控。

自2013年起,双11交易数据大屏成为对外直播狂欢节的重要窗口,而在2015年的全球狂欢节上,这一巨型数据大屏还将移植到水立方,以实时动态可视图的方式向全球用户直播双11的数据魅力。

据悉,水立方数据大屏上,该数据可视化引擎既可以利用3D webgl技术从宏观角度展示双十一平台总体交易订单实时流向的全量展示,也可以通过便捷的交互手段,深入到城市级别进行微观的人群画像分析。

目前,这一技术已计划通过阿里云向外输出,很快将会有标准化产品推出。

全站Https加密

保全球用户访问安全

为提供更安全快速的访问体验,阿里云今年在全球部署CDN的国家和地区增加到30多个,可从容应对越来越多的海外用户同时访问。

在国内,阿里云拥有近500个CDN节点,单节点带宽达到40G以上,实现毫秒级响应。

不仅要快,还要安全,阿里云CDN为保障此次双11狂欢节,帮助淘宝、天猫、聚划算等阿里电商平台全面实现了HTTPS加密访问,能有效防止资源被劫持,使用户端与服务器之间收发的信息传输更加安全。

据悉,这也是全球首家大型电商网站实现全站Https加密访问。

精准识别流量

是用户还是黑客攻击

遇到双十一类似的重大促销节点,不少电商平台流量激增。

此时此刻,如何分辨哪些是正常流量,哪些是黑客借机恶意攻击捣乱,过去一直是个老大难。

今年双十一期间,阿里云安全团队通过数据模型实现了DDoS的检测。

当流量来袭,在进行安全防御之前,系统通过好人行为模型,恶意IP地址比对等技术手段,完成了对流量成分的分析,并最终实现了每次大促不放过一个黑客攻击,更不让一个用户正常访问受阻的愿景。

细心的淘宝用户可能已经发现,今年双十一省略了繁琐的验证码输入,买买买的体验更顺滑了。这背后就是阿里云安全团队反欺诈产品的“功劳”。

过去,设置手动输入验证码主要是为了帮助系统识别正在交易的究竟是用户还是机器。

随着反欺诈产品通过数据模型从用户敲击键盘、滑动鼠标、点击浏览页面等行为中计算分析出电脑前的究竟是真实的用户还是一台机器,验证码终将逐渐完成使命,退出风控防御的历史舞台。

目前,阿里云安全团队为双十一护航的各项能力已通过安全品牌云盾对外输出。

手机淘宝

1秒打开

为了让今年双11消费者始终能保持飞一般的体验,手机淘宝搭建了一个世界级无线云平台,能够同时服务亿级用户,并实现了一系列技术优化:内存节省50%,滑动提速20%,1秒打开手淘页面。

除此之外,双11会场全面个性化,让消费者在手机屏幕上也能轻松到自己喜欢的宝贝。

此外,手淘的攻城狮们还建立了2G网络实验室,通过不断模拟测试,实现2G弱网环境下的手机也能实现1秒建立连接,让没有智能手机和高速网络的消费者,也能拥有更流畅的购物体验。

来源:经理人分享

双11热闹过后:揭秘阿里技术的极限

评论(0)

您可以在评论框内@您的好友一起参与讨论!

<--script type="text/javascript">BAIDU_CLB_fillSlot("927898");