2016-06-21 12:23:09
来 源
中存储
超级计算机
至于如何评价中国太湖之光到底有多强,可以看下论文中对比的美国最强HPC、中国前一代最强HPC及当前太湖之光的配置。

在今天公布的全球TOP500超算排名中,中国不仅保住了最强计算机的荣誉,而且在TOP500计算机数量上也实现了新突破,更关键的是在美国卡脖子之后中国用自己研发的处理器实现了超越,这次神威计算机不声不响地拿下TOP500冠军距离美国制裁中国超算中心不过一年零两个月。太湖之光超级计算的背后是中国国产处理器的大进步,它使用的是申威(跟计算机名别混了)SW26010处理器,260核心,64位架构,该系统的一大特色就是能效非常高,性能几乎是天河2号的三倍,但总功耗反而更低了。

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

神威太湖之光:不仅性能最强,能效也逆天

先来简单说说神威太湖太湖之光计算机,它坐落于太湖之滨的无锡市国家超算中心内,此前大出风头的天河2号则是在中国广州的国家超算中心。神威计算机的研发单位是中国国家并行计算机工程技术研究中心,在太湖之光之前该中心研发过神威蓝光计算机,2012年安装于济南的国家超算中心内,当年的浮点性能为1千万亿次,现在来看性能早已经不算领先了,不过当时蓝光也是国内自主研发的HPC,使用的就是国产处理器。

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

神威太湖之光超级计算机简介

在TOP500官网上可以找到太湖之光计算机的详细规格,其Linpack浮点性能为93PFLOPS,理论性能是125.4PLFOPS,而此前最强的天河2号性能分别是33.86LFOPS、54.9PFLOPS,也就是说太湖之光的实用性能几乎是天河2号的3倍,理论性能则是后者的2倍多,性能效率达到了74.2%,而天河2号只有55.8%。

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

神威太湖之光的能效比非常高

更关键的是,在性能大幅飙升的情况下,太湖之光的功耗反而从天河2号的17.8MW降低到了15.37MW,计算下来其单位性能功耗达到了6GFLOPS/W,而以能效比著称的“泰坦”单位性能不过是2.1GLOPS/W。太湖之光的能效就算放到以节能而非性能为指标的Green500计算机中也是拔尖的,后者最新榜单中排名第一的单位性能不过是7GFLOPS/W,第二名的是5.3GLOPS/W,太湖之光能成为第二,而这两台计算机的性能与太湖一号差太远了,最强的Shoubu也不过605TFLOPS(0.65PFOPS)。

申威处理器:国产260核处理器

神威计算机使用的处理器来源于上海江南计算所,神威蓝光计算机使用的是申威SW1600处理器,2010年问世,架构体系源于DEC Alpha(这个是喷点啊,喷子要注意了,申威指令集不是国产的),根据资料来看它使用的还是65nm工艺,16个RISC 64位核心,频率在975MHz到1200MHz之间,1.1GHz频率下浮点性能140.88GFLOPS。

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

▲太湖之光使用的是申威SW26010处理器

太湖之光显然不可能再使用神威1600处理器了,这次使用的是江南计算所研发的申威SW26010处理器,架构体系还是Alpha 64位RSIC,乱序执行,频率1.45GHz,260个核心,整个处理器包括4个MPE(Management Processing Element)管理单元、4个CPE(Computing Processing Element)计算单元及4个MC内存控制器单元组成,其中CPE单元又由8x8阵列的64核心组成,所以总计是260个核心(4x64+4=260)。

这样1个处理器就是1个节点,每个节点8GB DDR3内存,256个节点组成1个超级节点,160个超级节点互联连接,因此总计是40960个节点,10649600个核心,内存容量1.3PB。

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

▲每张计算卡上有2个节点

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

▲每块主板上可以布置上下4张计算卡

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

▲32张卡组成1个超级节点,或者说256个节点

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

▲4个超级节点组成1组机柜

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

▲太湖之光的整体布局

要想了解太湖之光的详细架构信息,可以读读田纳西大学这篇论文。

至于如何评价中国太湖之光到底有多强,可以看下论文中对比的美国最强HPC、中国前一代最强HPC及当前太湖之光的配置。

神威太湖之光超算揭秘:国产260核自研处理器,能效比超高

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。