Vultr联合Domino数据实验室创建MLOps大幅提高企业的AI

ChatGPT和生成式AI迎来了AI的“iPhone时刻”,更多的企业在努力通过AI获得竞争优势,随之也面临着更多的挑

战。虽然95%的CDO 和 CDAO表示他们的领导层期望通过AI 和 ML 应用程序带来收入增长,但只有 19% 的人表示他们

拥有了满足这些期望的资源。那么留住顶尖的人才、保持人才的生产力才是维持稳健的管理方式。《福布斯》预测芯片和

GPU 的需求激增,这种情况将持续到 2023 年底。

 

Domino和Vultr合作联合开发MLOps及计算解决方案

数据科学行业的Domino Data Lab,和云计算行业的Vultr这两家行业的领导者,宣布合作。新的集成MLOps和

GPU 解决方案将正式面世。此次合作将为客户提供更高的访问权限,价格便宜并且使用更加容易,访问Vultr上最先进

NVIDIA 基础架构,包括 NVIDIA A100 和 H100 Tensor Core GPU,来训练、部署和管理自己的深度学习模型、用于

生成 AI 的模型。

 

随着 AI 继续快速发展,训练和部署 AI/ML 模型的关键就在于访问强大的计算基础设施。Domino和Vultr的合作伙

伴关系具有独特的优势,为客户提供了在数周内访问尖端GPU的机会,使数据科学家和开发人员能够构建复杂的 AI 模型

,比超大规模的企业拥有更低的成本,来推动跨行业的创新。

 

Domino和Vultr的联合解决方案加快了数据科学效率,因此数据科学团队和 IT管理者对其的投资回报率充满信心。

数据科学团队和 IT管理者不需要再去单独购买用于AI/ML 的机器,这一点Domino & Vultr的解决方案就可以验证。

 

可以将Domino的MLOps 平台无缝集成到由Vultr提供支持的GPU云服务器上。MLOps平台和基于Vultr的NVIDIA

GPU基础架构结合在一起,集成了流行的数据科学软件和工具,如NVIDIA AI Enterprise、Anaconda的开源Python工

具等。

 

解决方案概述

Vultr Kubernetes Engine (VKE) 和Domino Nexus(Domino 的混合/多云 MLOps 产品)为基础。Domino 的

Kubernetes 原生平台在 VKE 上无缝运行,VKE 提供自动化容器,可以轻松的操作并扩展数据科学工作。

THE END