Luma AI Ray2视频模型已上线Amazon Bedrock

🤖 由 文心大模型 生成的文章摘要

Luma AI推出了Luma Ray2,这是一种大规模视频生成模型,能够创建具有自然、连贯运动的逼真视觉效果,并且能很好理解文本指令。Luma Ray2经过Luma的新多模态架构训练,展现出先进的功能。它的算力是Ray1的十倍,能够制作5秒或9秒的视频片段,这些片段显示快速连贯的运动、超逼真的细节和逻辑事件序列,分辨率为540p和720p。

借助Luma Ray2,用户可以通过单个API在生成式AI应用中添加从文本生成的高质量、逼真、可立即投入生产的视频。Luma Ray2视频模型能够理解人、动物和物体之间的互动,可以通过最先进的自然语言指令理解和推理创建一致且物理准确的角色。

用户可以将Ray2视频生成用于内容创作、娱乐、广告和媒体用例,从而简化从概念到执行的创作过程;基于Ray2,可以生成流畅、电影般逼真的镜头运动,以匹配场景的预期情感。用户还可以快速尝试不同的镜头角度和风格,并为建筑、时尚、电影、平面设计和音乐提供创意输出。

在启用之前,如果用户是第一次使用Luma模型,请转到Amazon Bedrock控制台并选择左下角窗格中的模型访问。要访问最新Luma AI模型,请在Luma AI中请求Luma Ray2的访问权限。

「93913原创内容,转载请注明出处」