大数据流量成数据中心发展的瓶颈

标签:大数据技术前沿数据中心IT业务

访客:20649  发表于:2012-07-02 09:32:50

我们都知道,大数据通常与数据中心不断增长的结构和非结构化工作负载相关。而网络负责处理传输到服务器、存储阵列和云服务的数据流量。服务器之间的密集型I/O吞吐量常常发生在数据中心或者广域网之间。伴随着大数据的来临和 应用的不断增长,新的问题将会出现。由于传统的IT设施在当初设计的时候,没有考虑到大数据的情形,瓶颈问题将变得更加普遍,尤其是在存储一端,问题更加 明显。

这样一来,IT业务中就会出现一种新的分支:面向新一代数据中心的数据管理。下面,我们就给大家介绍大流量阻碍数据中心发展的几大缘由:

一、大流量是一种新型工作负载

大流量是指横跨广域网连接的数据中心内服务器间的通信流量,它不同于通常情况下的大数据工作负载--也就是用户对机器或者机器之间的通信流量。

二、传统IT不能胜任大流量要求

导致大流量出现的主要原因是IT过去几年所形成的优势:虚拟化的广泛部署和扩展系统;远程实时迁移;数据复制和备份;专门针对基于WAN分布式系统而编写的尖端应用,比如Hadoop,MapReduce,MongoDB和Cassandra.

三、大流量增长没有止境

大流量增长没有具体的指标可供参考,它的增长将永无止境。ForresterResearch预测说,在未来几年,由机器运行产生的应用数据将达到 50%的年增长。而且,存储巨头EMC官方发布过一份报告,认为在2009至2020年间,将实现44倍数据扩容,这意味着数据带来的流量增长将是一个巨 大挑战。

评论(0)

您可以在评论框内@您的好友一起参与讨论!

<--script type="text/javascript">BAIDU_CLB_fillSlot("927898");