🤖 由 文心大模型 生成的文章摘要
Cerence宣布与英伟达扩大合作,以提升CaLLM系列语言模型功能,包括基于云的Cerence Automotive大型语言模型和CaLLM Edge嵌入式小型语言模型。
通过此次合作,CaLLM由端到端、云原生软件平台NVIDIA AI Enterprise提供支持,而CaLLM Edge的某些方面则由NVIDIA DRIVE AGX Orin提供支持。
将代理框架与云端和嵌入式形式的车载对话相集成需要结合硬件、软件和UX领域专业知识的全面、跨学科努力。
与英伟达硬件和软件工程师合作,Cerence AI增强了其满足生产时间表和将汽车生成式AI创新产品化的能力。
具体而言,Cerence AI利用NVIDIA AI Enterprise软件平台(包括NVIDIA TensorRT-LLM和 NVIDIA NeMo,这是一个用于构建、定制和部署生成式AI应用的端到端框架)加速了CaLLM 的开发和部署。
因此,Cerence AI优化并定制了其CaLLM系列模型,以在NVIDIA加速计算和SoC上提供更快的车载助手性能;开发针对汽车优化的NVIDIA NeMo Guardrails实施,帮助确保由Cerence 提供支持的系统能够处理车内交互的细微差别;通过NVIDIA DRIVE AGX Orin在CaLLM Edge 上实施和优化代理架构,以推进下一代车载用户体验。
「93913原创内容,转载请注明出处」