新一代数据中心当中必将出现的那些趋势

随着新基建时代的来临,云计算已然大行其道。阿里,腾讯等巨头纷纷开始布局更大规模的新一代云计算数据中心。这将是一种基于高密度,大容量,且前所未见的网络应用集合体。和传统数据中心相比,其对于网络带宽、端口密度、安全防护以及运维管理等诸多领域都提出了更高的要求。比如,对于新一代云计算数据中心而言,传统的制冷方式将限制其计算力的发挥,而液冷将走向前台;再比如,从流量的角度来说,传统数据中心属于简单的汇聚型流量。但现在,流量将呈现不定向的突发性,传统城域网交换机的性能将变得捉襟见肘。那么归根到底来说,和现有数据中心相比,新一代云计算数据中心将呈现哪些新趋势呢?

创新互联专注于政和网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供政和营销型网站建设,政和网站制作、政和网页设计、政和网站官网定制、重庆小程序开发公司服务,打造政和网络公司原创品牌,更为您提供政和网站排名全网营销落地服务。

统一交换将成为必然,万兆端口即将翻倍

网络的建设将是新一代数据中心最直观的改变。首先,计算网络,存储网络和业务网络将同时存在于新一代云计算数据中心当中。其次,传统的建网方式将使得其建设成本如火箭般上升,同时技术异构的网络也无法实现统一的虚拟化。对于云计算价值的发挥将产生严重的掣肘作用。在这样的背景下,Ethernet的统一交换网将成为新一代云计算数据中心组网的选择。

既然高密度将是新一代云计算数据中心的趋势,那服务器数量未来必然出现暴增。君不见阿里,腾讯这些巨头的数据中心动辄数万台服务器规模皆尤嫌不足。同时,单台服务器核心数量的增长,必然带动其带宽消耗同步增长。这对于目前的网卡而言,将产生极大压力。

假如某个数据中心拥有2万台服务器,收敛比为1:4。那么其基本的万兆汇聚端口数量将至少需要500个,如果考虑到安全防护以及IP存储等设备,那么万兆端口的数量至少还得再增加1.5倍。

40G/100G接口将迎来高光时刻

在未来,随着5G和边缘计算的落地,数据中心的数据处理能力将是一个天文数字。在这样的背景下,作为数据交互的关键节点,出口带宽的压力也将骤然增大。目前,大部分数据中心的出口带宽都已经达到了100G以上,并且每年还在以超过100%的速度激增。传统的10G接口显然无法满足这样的需求。那么,40G/100G接口的普及将迎来高光时刻。

流量特征更为复杂,需部署专门的交换机

由于服务器资源动态调配的特性,在云计算环境下,流量的特征将比之前更为复杂,也更加难以预测。由此带来的突发性也更为明显。所以未来的网络,必然要求部署更为专业的交换机。和传统交换机相比,这些交换机至少应该具备以下特点:

1.完全无阻塞交换网

数据中心级交换机采用CLOS交换网,这是一种完全无阻塞交换架构,从而保证在任何流量特征的环境下,交换网都是可以实现无阻塞交换。

2.分布式大容量缓存的数据中心级交换机将成为趋势

缓存的价值在传统PC上早已为人们所熟知。在云计算时代,交换机之间的流量交互将无比巨大。甚至多端口同时向一端口转发的几率也大为增加,突发的流量会给端口造成巨大压力。传统的城域网交换机在出口端的小容量缓存,每板一般不超过64兆。一旦出现流量洪峰,缓存的堵塞丢包将不可避免。一旦如此,势必形成骨牌效应,从而导致应用层的数据重传并引起更为严重的网络堵塞。

数据中心级交换机采用的分布式大缓存架构,其平均每个10G端口的入缓存可达256M,GE端口的缓存达20M,再复杂的流量模型,端口缓存时间均可达到200mS以上。只有这样,才能满足未来5G时代,大型云计算数据中心的需求。

“天下赋,半三番”的能耗现状将被液冷终结

既然计算力将加速上升,那么数据中心的能耗自然也会水涨船高。信通院云大所的何宝宏博士曾经说过,“再大的风也吹不冷滚烫的‘芯’”。的确,对于未来大型云计算数据中心恐怖的功耗而言,风冷的瓶颈将限制数据中心计算力的提升。同时,由此带来的耗电量也将让一线城市难堪重负。

目前IT设备功耗占到数据中心总体能耗的比例为31%左右,而制冷设备的能耗却已经超过了40%。也就是说,数据中心的能耗大部分都消耗在了“降温”领域。这样的现状颇有几分“天下赋,半三番”的感觉。

在这样的背景下,液冷技术将走向前台。经过数年的发展,今天的液冷技术已经相对成熟。目前,全球各大企业已经在液冷领域展开了诸多尝试,市场化产品层出不穷。何宝宏博士认为,“实际应用显示,浸没式液冷的优势非常明显,可以将单体计算密度提升10倍以上,同时IT设备占地面积减少75%以上,即缩减为原来的四分之一。”

目前浸没式液冷技术上已经比较成熟了,只是生态系统还不够完善。随着大型云计算数据中心的发展步入快车道,这种情况势必改变。生态建立以后价格必将下跌,而趋势也将随之成立。


网站题目:新一代数据中心当中必将出现的那些趋势
URL网址:http://cdiso.cn/article/cjhccg.html

其他资讯