Vultr新增GPU堆栈及容器注册表功能
Vultr近日又推出了一新的解决方案,要帮助全球企业和初创公司大规模构建、测试和运营人工智能和机器学习模型。那就是由 Vultr GPU 堆栈和 Vultr 容器注册表这两部分组成,前者包含部署时所需的所有必要驱动程序和软件,后者提供NVIDIA NGC 目录中的各种预打包框架和预训练 AI 模型和更多。两者均已可在vultr当前的32 个云数据中心中使用,这一功能将彻底改变了人工智能和机器学习模型开发和部署的速度和效率。
Vultr GPU堆栈可以简化 AI 模型开发,就是因为开发和部署人工智能和机器学习基础设施可能很复杂,所以推出了Vultr GPU堆栈,这是一个精心调整和集成了Ubuntu的操作系统,配有驱动程序和软件环境。该堆栈可立即配置完整的 NVIDIA GPU 阵列,并预先配置了NVIDIA CUDA 工具包、NVIDIA cuDNN和 NVIDIA 驱动程序,以便立即部署。该解决方案消除了配置 GPU、根据每个应用程序的特定模型要求进行校准以及将其与所选 AI 模型加速器集成的复杂性。模型和框架可以从NVIDIA NGC 目录、Hugging Face 或 Meta Llama 2引入,包括 PyTorch 和 TensorFlow。通过轻松配置这些资源,全球的数据科学和工程团队只需单击一个按钮即可开始模型开发和培训。
Vultr 容器注册表引入了基于 Kubernetes 的 Vultr 容器注册表,以进一步增强 AI 模型开发流程。该注册表包含公共和私有组件,提供无缝解决方案,用于从 NVIDIA NGC 目录中获取 NVIDIA ML 模型,并通过我们的全球云数据中心网络将其配置到 Kubernetes 集群。这使得数据科学、开发人员和工程团队能够在全球任何地方访问预先训练的人工智能模型,无论其物理位置如何。
此外,私有注册表允许组织将公共模型与专有数据集合并,从而促进基于敏感数据的模型训练和调整。其结果是人工智能模型实例化和调整的全球加速,每个区域的私有注册中心都是同步的。