2017-06-28 09:10:52
来 源
至顶网
交换机
在这次测试中,不但对S12500的768个100G端口进行了转发性能测试,还在满端口转发测试的过程中加载了接近100百万条的BGP路由.

高密度满端口交换机的测试场景,给人的第一感观是什么?震撼!768根100G DAC线缆向两边分开,接向两侧的六台TestCenter测试仪表。有没有一种线(zhen)缆(zi)破屏欲出的感觉?

新华三S12500再创纪录为云数据中心能力跃升打下根基

测试中的数据中心核心交换机S12516X-AF

满端口测试,交换机的一次“大考”

即便是采用思博伦每块板卡上有12个100G端口,每个机框可以插11个测试板卡的高性能测试仪表,在本次测试中也采用了多达6台的测试设备。基本上征集了思博伦当前在全球的所有相关测试设备。花费如此高的代价,进行这样的测试到底是为什么?

“新华三在历史上就有一个传统,每当一款旗舰型的产品发布之后我们都会邀请世界著名的第三方测试机构来协助我们进行产品的测评,包括性能和软件功能方面。”新华三集团高级副总裁、首席技术官尤学军介绍说。作者有幸在09年的时候也参观过新华三这样的一次“大考”,也第一次了解到IRF“一虚多,多虚一”的神奇之处。同样是S12500,同样是六台测试仪表,不同的时那时候只有128个10G网络端口,但在当时,那同样是全球最高性能水平的代表。

新华三S12500再创纪录为云数据中心能力跃升打下根基

对于新华三而言,这种评测不是为了创造出新的交换机测试世界记录。而是考虑到核心交换机在实际应用中的特点,每个端口并不是个固定对某一个端口进行数据转发,而是可以和交换机上所有端口进行数据转发。因此在测试时不是采用“点对点”的模式进行设置,而是采用了更加严格的“全网状”测试模式,被测试的每个端口均会与其它所有端口进行数据传输。这也将更进一步的加重交换机的转发处理负担。从而对交换机的真实应用能力进行更高负荷的考验。而这种验证,并不是利用几个测试端口,通过串行的方式来进行测试就可以验证出来的。

所以说这种满端口测试,实际上是对交换机的一次终级“大考”。而在这样的考验中,S12500以满端口102Byte无丢包的优异成绩交出了一份令人满意的答卷。

在09年时,人们在考核交换机性能的时候,还在纠结于64小包线速。可随着应用可视化分析技术的进展,已经可以清楚的了解到,小包线速这种应用场景在实际网络使用中并不存在。与其将宝贵的转发性能在小包线速之上,还不如增加一下端口,拓展一下迫切需要的网络带宽,并且还可以减少很多不必要的硬件成本。

本次测试中,S12500的102Byte数据包线速就是这种务实产品设计的真实体现。当前网络应用中最高的转发速率要求,也不会达到200Byte数据包转发线速的要求,102Byte数据包线速已经为其留下了充分的转发性能余量。自然也可以用更高的性能价格比,为用户提供出高可靠性的转发服务。

应云而生的全新测试方案

当前的大规模云计算数据中心,不但需要核心交换具备大带宽高性能的转发处理能力,还需要交换设备提供更多的VXLAN连接处理能力与海量的IP地址数量。以满足大量用户网络隔离与海量虚机网络应用的实际使用需求。在这次测试中,不但对S12500的768个100G端口进行了转发性能测试,还在满端口转发测试的过程中加载了接近100百万条的BGP路由,从而考查S12500的大路由高性能转发能力。并且还对S12500在加载VXLAN连接的情况下的网络转发性能同样进行了测试。结果表明,这两项测试并未对S12500的转发性能造成影响。而百万路由是当前数据中心IP需求的4倍以上,充裕的路由表设计,满足了云计算数据中心对海量路由的实际应用需求。

满足数据中心供电的功耗设计

在国内主流的数据中心中,单机柜最大的可供电能力是2万瓦。超过这个范围,机房的供电就可能出现问题。而对交换机满端口转发时的功耗进行测试,可以真实的了解到产品的能耗是否可以满足数据中心供电要求。在这方面S12500的18000瓦能耗解决了用户在实际安装、工程安装部署上的问题。同时电耗对数据中心来说也是非常重要的运营成本的开销,S12500通过提升设备的端口密度和相关的散热的设计来降低整个设备的功耗,也帮用户在运维成本上面做出了节省。

高性能——研发实力真实体现

通过对H3C S12500满端口的转发、路由、VXLAN以及功耗测试,我们看到的是新华三的产品研发能力。不关注市场的研发是盲目的,只有了解市场需求,才可以研发出有针对性的产品,才可以得到这样出色的测试成绩。随着交换机带宽的增长,新的高带宽应用需求也会更好的得到满足,大流量、高带宽、高端口密度的需求在云数据中心时代会越来越迫切,在这里也希望新华三可以为我们带来更多更好的优异产品,推动云计算数据中心的能力跃升。

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。