2019-11-17 23:11:46
来 源
中存储
人工智能
Graphcore一直将其IPU定位为GPU竞争对手以及为机器智能训练和推理应用定制的AI芯片。该初创公司声称其性能比GPU和其他AI芯片提高了100倍。

英国AI芯片开发商Graphcore正在扩大与Microsoft的合作,以在Azure云上提供其智能处理单元,从而使Microsoft成为第一家提供为机器学习工作负载设计的IPU的大型公共云供应商。

Azure对IPU的支持是软件巨头与AI芯片初创公司之间超过两年合作的结晶。早期的开发工作集中于增强IPU上运行的自然语言处理(NLP)和机器视觉模型。

合作伙伴根据用于NLP预训练的BERT语言模型报告了模型的性能和准确性里程碑  。使用一台基于IPU的服务器配备了八张Graphcore C2 IPU处理器PCIe卡,在56小时内对模型进行了训练。合作伙伴说,结果是BERT推理的吞吐量增加了三倍,同时延迟得到了改善。

“自然语言处理模型对Microsoft至关重要,要在Microsoft Azure上运行内部AI工作负载和AI客户,” Azure Compute公司副总裁Girish Bablani说。

Graphcore一直将其IPU定位为GPU竞争对手以及为机器智能训练和推理应用定制的AI芯片。该初创公司声称其性能比GPU和其他AI芯片提高了100倍。

芯片制造商通过处理新兴的机器智能工作负载(包括空间AI以及机器人应用程序中同时使用的本地化和映射模型)来区别其并行处理设计。

进一步,AI芯片保留了带有处理器的完整机器学习模型,这意味着具有定制服务器链接的16处理器体系结构可以处理100,000多个独立程序,“所有程序都在机器智能知识模型上并行工作”,该初创公司声称11月14日的  一篇博客文章,  宣布了Microsoft Azure合作伙伴关系。

除了专注于自动化和金融应用的抢先体验客户外,Graphcore还表示,它正在与Dell Technologies合作,  以在硬件供应商的DSS 8440机器学习服务器上展示其IPU技术。

Graphcore表示,这种组合可以使用八张Graphcore C2 IPU PCIe卡提供1.6 petaflops的机器智能处理能力,每张卡具有两个IPU处理器,并通过在标准4U机箱上运行的Graphcore的IPU-Link技术进行高速连接。合作伙伴表示,该合并将针对本地机器学习工作负载。

他们将共同在Dell Technologies展位(#913)的SC19上演示该技术,

IPU在标记为Poplar的软件堆栈上运行。Graphcore说,结果就是“专门为机器智能设计的图形工具链”应用程序。Poplar与TensorFlow开源库和Open Neural Network Exchange一起使用,以帮助开发人员使用现有的机器学习工具和模型。

该初创公司表示,PyTorch  机器学习库的IPU初始支持  将于今年年底提供,而PyTorch的全面支持将于2020年初开始。

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。