英伟达宣布推出全新NVIDIA AI Foundry服务和NVIDIA NIM™推理微服务,基于Meta发布的Llama 3.1公开模型系列为全球企业提供生成式AI增强功能。
借助NVIDIA AI Foundry,企业现在可以使用Llama 3.1和NVIDIA软件、计算和专业知识为其特定领域的行业用例创建自定义“超级模型”;企业可以使用专有数据以及从Llama 3.1 405B 和NVIDIA Nemotron™奖励模型生成的合成数据来训练这些超级模型。
NVIDIA AI Foundry由NVIDIA DGX™ Cloud AI平台提供支持,该平台与世界领先的公共云共同设计,为企业提供大量计算资源,并可随着AI需求的变化轻松扩展。
这些新产品的推出正值企业希望为反映其独特业务或文化的生成人工智能应用构建具有领域特定知识的定制大型语言模型之际。
NVIDIA创始人兼首席执行官黄仁勋表示:“Meta Llama 3.1模型标志着全球企业采用生成式 AI的关键时刻。Llama 3.1为企业和行业打开了构建最先进生成式AI应用的大门。NVIDIA AI Foundry已将Llama 3.1集成到整个系统中,并随时准备帮助企业构建和部署定制的Llama超级模型。”
Meta创始人兼首席执行官马克·扎克伯格表示:“Llama 3.1模型是开源AI迈出的极其重要的一步。借助NVIDIA AI Foundry,企业可以轻松创建和定制人们想要的最先进AI服务,并使用NVIDIA NIM进行部署。”
为了增强Llama 3.1模型在生产AI中的企业部署,企业现在可以从ai.nvidia.com下载适用于 Llama 3.1模型的NVIDIA NIM推理微服务。NIM微服务是在生产中部署Llama 3.1模型的最快方式,并且比不使用NIM运行推理的吞吐量高出2.5倍。
企业可以将Llama 3.1 NIM微服务与NVIDIA NeMo Retriever NIM微服务配对,为AI副驾驶、助手和数字人类化身创建最先进的检索管道。
全球专业服务公司埃森哲率先采用了NVIDIA AI Foundry,使用Accenture AI Refinery™框架构建定制Llama 3.1模型,既供自己使用,也供寻求部署反映其文化、语言和行业的生成式AI应用的客户使用。
NVIDIA AI Foundry提供端到端服务,用于快速构建自定义超级模型。它将NVIDIA软件、基础设施和专业知识与NVIDIA AI生态系统的开放社区模型、技术和支持相结合。
借助NVIDIA AI Foundry,企业可以使用Llama 3.1模型和NVIDIA NeMo平台创建自定义模型——包括在Hugging Face RewardBench上排名第一的NVIDIA Nemotron-4 340B Reward 模型。
创建自定义模型后,企业可以创建NVIDIA NIM推理微服务,并使用MLOps和AIOps平台以及NVIDIA 认证系统™ 在生产中运行。