借助 VMware vSphere,您可以通过跨多个 GPU 和服务器扩展 AI/ML 工作负载来轻松提高训练性能。此演示展示了在 VMware vSphere 中使用 Tanzu 在多个 GPU 和节点上执行的图像分类训练作业。GPU 和 MPI 运算符用于自定义容器,可在数据中心内轻松标准化和复制训练作业。
要了解如何在实操实验“Kubernetes 上的 AI 多节点训练”中扩展 AI/ML,请访问:https://www.nvidia.com/en-us/launchpad/ai/multi-node-training-for-image-classification-on-kubernetes-with-vmware-tanzu/
单击以下网址,IT 管理员可以了解如何在实验“优化 AI 和数据科学工作负载”中构建此环境:https://www.nvidia.com/en-us/launchpad/infra-optimization/configure-optimize-and-orchestrate-resources-for-ai-and-data-science-workloads-with-vmware-tanzu/
企业还可以使用 NVIDIA AI Enterprise 构建 AI/ML 解决方案并将其用于生产。
https://www.nvidia.cn/data-center/products/ai-enterprise/
收起