NVIDIA宣布收购GPU编排软件供应商Run:ai

🤖 由 文心大模型 生成的文章摘要

为了帮助客户更有效采用其AI计算资源,NVIDIA宣布已签订最终协议,收购基于Kubernetes 的工作负载管理和编排软件供应商Run:ai。

如今,客户人工智能部署变得越来越复杂,工作负载分布在云、边缘和本地数据中心基础设施上。管理和编排生成式人工智能、推荐系统、搜索引擎和其他工作负载需要复杂的调度,以优化系统级别和底层基础设施的性能。

而Run:ai使企业客户能管理和优化其计算基础设施,无论是在本地、云端还是混合环境中。

该公司在Kubernetes上构建了一个开放平台,这是现代人工智能和云基础设施的编排层,支持所有流行的Kubernetes变体,并与第三方AI工具和框架集成。

Run:ai的客户包括一些跨多个行业的全球最大企业,这些企业使用Run:ai平台来管理数据中心规模的GPU集群。

Run:ai联合创始人兼首席执行官Omri Geller表示:“自2020年以来,Run:ai一直与NVIDIA保持密切合作,我们都热衷于帮助客户充分采用基础设施。”

Run:ai平台可为人工智能开发者及其团队提供:

用于管理共享计算基础设施的集中式界面,可以更轻松、更快速访问复杂的人工智能工作负载。

添加用户、在团队下管理用户、提供对集群资源的访问、控制配额、优先级和池以及监视和报告资源使用情况的功能。

能够为单独的任务汇集GPU并共享计算力(从GPU的一部分到多个GPU或运行在不同集群的多个GPU节点)。

高效的GPU集群资源采用,使客户能从计算投资中获得更多收益。

NVIDIA将在不久的将来继续以相同的商业模式提供Run:ai的产品,NVIDIA将继续投资 Run:ai产品路线图,包括启用NVIDIA DGX Cloud,该平台可提供针对生成式AI优化的集成全栈服务。

NVIDIA HGX、DGX和DGX Cloud客户将能使用Run:ai AI工作负载功能,特别是大型语言模型部署。Run:ai解决方案已与NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA Base Command、NGC容器和NVIDIA AI Enterprise软件等产品集成。

NVIDIA加速计算平台和Run:ai平台将继续支持广泛的第三方解决方案生态系统,为客户提供选择和灵活性。

NVIDIA与Run:ai合作,将使客户拥有访问GPU解决方案的单一结构,客户可期望受益于更好的GPU利用率、改进的GPU基础设施管理以及开放架构带来的更大灵活性。

「93913原创内容,转载请注明出处」