2019-07-02 14:45:11
来 源
中存储
人工智能
英特尔试图通过增加其AVX-512矢量处理模块的扩展来加速DL计算,从而抵消深度学习推理所需的GPU的看法。

随着摩尔定律的良性循环很可能已经开始,英特尔正在寻找其他方法来提升其处理器的性能,而不是像其创始人曾经说过的那样,将晶体管“填塞”到芯片上。我们已经看到公司如何使用微代码来快速跟踪某些类代码的执行 - 例如,识别代码何时引用OpenSSL开源库并将其指向更快的基于硬件的微代码。现在,CPU领导者正在寻求以任何方式取得进展,即使它这一次意味着一个细分市场。

然而,随着4月推出的英特尔Xeon服务器处理器的DL Boost架构,该公司正试图对这种方法进行奇怪的新转变。从表面上看,DL Boost被用作某些第二代英特尔Xeon(以前代号为“Cascade Lake”)的功能,用于快速跟踪深度学习操作中使用的指令处理。

Marko Insights首席分析师Kurt Marko说:“英特尔试图通过增加其AVX-512矢量处理模块的扩展来加速DL计算,从而抵消深度学习推理所需的GPU的看法。”

英特尔正在将其Xeon CPU与Nvidia的GPU直接堆叠起来,后者近年来抓住了人工智能(AI)硬件市场,并将以前与游戏和PC爱好者相关的品牌转变为数据中心高性能服务器的关键参与者。 

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。