2021-03-15 09:19:23
来 源
中存储
人工智能
Nvidia AI Enterprise工具和vSphere 7 Update 2的结合意味着,传统上在裸机服务器上运行的AI工作负载现在可以在VMware的虚拟化平台上运行。

中存储网编译消息,近日,外媒报道,Nvidia和VMware正在将新的Nvidia AI Enterprise软件套件与VMware最新的vSphere 7 Update 2虚拟化平台结合在一起,使企业可以更轻松地虚拟化其扩展的AI工作负载。

Nvidia和VMware正在将新的Nvidia AI Enterprise软件套件与VMware最新的vSphere 7 Update 2虚拟化平台结合

两家公司称,Nvidia的新AI工具和框架套件于3月9日(星期二)宣布,将仅在VMware刚刚发布的vSphere 7 Update 2上运行。Nvidia AI Enterprise工具和vSphere 7 Update 2的结合意味着,传统上在裸机服务器上运行的AI工作负载现在可以在VMware的虚拟化平台上运行。两家公司表示,这将使这些工作负载直接访问Nvidia的CUDA应用程序,AI框架,预训练的模型和部署在混合云上的软件开发套件。

最新的Nvidia工具支持数据中心AI训练和推理,边缘AI推理以及数据分析和机器学习工作负载。

英伟达企业和边缘计算部门的总经理贾斯汀·博伊塔诺(Justin Boitano)表示,到目前为止,人工智能一直是“基础设施的孤岛,人们必须[自己动手]设置和管理它。” “与VMware的合作伙伴关系使我们能够真正构建人们习惯使用的基础架构(在vSphere上),但实际上会针对AI对其进行优化,因此您不必去创建一个孤立的项目就可以解决这一问题。”

最新更新的vSphere版本还经过认证,可以运行Nvidia的A100 Tensor Core GPU。 Nvidia 表示,还将为获得其新AI软件套件许可证的vSphere客户提供支持。

新的Nvidia VMware合作关系为vSphere虚拟机管理程序提供了迁移到多个GPU实例的支持,并允许根据工作负载要求将A100 GPU划分为多达七个实例。该选项将扩展跨多个节点的AI工作负载的培训,包括现在可以在VMware Cloud Foundation上运行的大型深度学习模型。

Boitano表示,Nvidia的AI软件套件将使构建AI模型和在企业数据中心扩展AI模型更加容易,将生产中部署AI模型所需的时间从80周减少到8周。

过去,此类AI工作负载传统上被设计为在裸机服务器上运行。Boitano补充说,新的Nvidia工具和对vSphere 7的更新改变了这一切。“ vSphere的性能与裸机几乎没有区别。”

这些收益与对Nvidia A100  GPU的支持有关 ,合作伙伴称其性能提高了20倍。

除支持A100外,vSphere 7更新还包括Nvidia的GPU互连,可直接访问GPU内存。“我们正在使用[GPU体系结构增强],并有效地确保GPU可以通过网络中的其他GPU进行通信,而不会受到系统中其他阻塞点的瓶颈,” Boitano说。

企业AI平台作为永久许可证提供,每个CPU插槽3,595美元。Nvidia表示,VMware客户可以在升级到最新版本的vSphere 7时申请早期访问。

另外,  VMware 宣布 对其vSAN虚拟存储进行与AI相关的更新,其中包括面向机器学习和云本机应用程序的兼容S3的对象存储。与Nvidia GPU互连类似,vSAN 7更新支持远程直接内存访问。随着性能的提高,RDMA旨在提高资源利用率。现在还可以进行存储升级。

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。