Vultr在迈阿密科学沙龙上展示AI解决方案

6e373080eeae8cb896bc17b253e6a1b6

Vultr迈阿密数据科学沙龙会议上,各地人工智能和机器学习的爱好者出席。分析数据科学创新和实践,迈阿密活动主题是在企业中使用生成式人工智能和机器学习,吸引了350人参加,其中包括VISA、Univision、PagerDuty 和其他全球企业的数据科学负责人,讨论了生成式人工智能以及该技术如何改变应用程序组合以重塑核心业务机会并重新构想客户体验。

 

使用基于 GPU 的可组合云在整个企业中实施生成式 AI,试点项目是人工智能投资实现投资回报之路上合理且必要的一步,但要完全实现这一目标,这一过程必须继续下去。下一步是通过在整个企业范围内扩展人工智能,超越愿景和概念验证,进入真正的人工智能转型。这种灵活、开放的方法使企业能够发展其人工智能和机器学习计划,而无需受限于阻碍创新的特定基础设施配置。通过这种方式,企业可以适应未来的人工智能、机器学习和生成式人工智能计划,以便推理可以与应用程序交付共存,以最小的延迟优化性能。

 

Vultr吸取前几代应用程序开发、部署和优化的经验教训,避免可能阻碍生成式人工智能部署的陷阱。在活动中,讨论了过去几代IT基础设施和架构的优缺点,并考虑了它们如何以及为什么能够或不能支持机器学习驱动的云原生应用程序。还警告企业不要购买自己的 GPU 并将其部署在自己的数据中心:如果他们采用这种传统技术方法,他们将错过过去二十年开发和证明的多云策略的所有优势。或者,通过采用可组合的 GPU 云方法,生成式 AI 模型可以在每个企业的地理范围内提供推理,并确保技术限制永远不会阻碍 AI 操作。

 

在 Vultr,致力于可组合性的客户如何在其他选项更适合不断变化的需求时快速更换堆栈组件,确保他们始终拥有最佳的云堆栈来满足不断变化的业务需求。多云策略使企业能够将不同的云 GPU 集群用于各种目的。例如,模型训练和调整可以在一个位置进行,而推理则在多个位置进行。举例来说,希思罗机场、本古里安机场和戴高乐机场部署的用于实时执行面部识别的安全摄像头无法将数据发送回弗吉尼亚州的数据中心。这些数据需要在本地进行处理才有价值。利用云 GPU 堆栈加快生产力,以及云 GPU 如何降低过渡到 GPU 和在整个企业部署人工智能的复杂性。即使是经验最丰富的 IT 专业人员尝试在本地数据中心或私有云环境中部署 GPU 时,他们也往往会遇到配置问题,这可能成为 AI 转型的障碍。我们解释了 Vultr 如何消除这种复杂性,只需点击几下即可访问云 GPU。

虽然 2023 年生成式 AI、GPU 和 ML 试点项目将出现爆炸式增长,但未来几年,企业将开始运用架构模型、核心云原生工程工具和 AI/ML 最佳实践,以更快地部署法学硕士和生成式 AI 应用程序,扩大规模以实现增长,并产生显着的投资回报率。在迈阿密数据科学沙龙上,展示企业如何利用可组合性来构建和扩展生成式人工智能解决方案。虽然没有“一劳永逸”的按钮,但 Vultr 提供了使 AI 转型之旅更短、更易于管理的方法。

阅读剩余
THE END