在计算机视觉领域,单图3D人体重建一直是一个极具挑战性的课题。近日,由南京大学软件学院媒体识别与理解研究组(MAGUS)牵头,联合中国科学院深圳先进技术研究院、清华大学交叉信息院、腾讯天衍实验室等机构的研究团队,提出的名为 “IDOL(Implicit Deformable Object Learning)”的技术,在计算机视觉领域顶级会议2025 CVPR(IEEE Conference on Computer Vision and Pattern Recognition)的评审中脱颖而出,获得了极高的评价。
传统的单图3D人体重建方法往往面临计算效率低、重建效果不够逼真等问题。而IDOL技术创新性地提出了一种基于神经辐射场(Neural Radiance Field, NeRF)的隐式可变形物体学习框架,为这一难题提供了高效的解决方案。它能够在单GPU上实现秒级生成高分辨率的逼真3D人体模型,大大提高了重建效率。与以往方法相比,IDOL技术通过引入可变形的隐式表示,能够更精准地捕捉人体的复杂几何形状和细节纹理。在实验测试中,使用相同的硬件设备,传统方法生成一个高分辨率3D人体模型可能需要数分钟甚至更长时间,而IDOL技术仅需短短几秒,且生成的模型在细节表现,如皮肤褶皱、肌肉纹理等方面更加逼真。
IDOL技术不仅在重建效率和模型质量上表现出色,还具备实时渲染、直接动画化与编辑能力。这意味着,利用该技术生成的3D人体模型能够在虚拟场景中实时呈现,并且可以直接对模型进行动画控制,如行走、奔跑、跳跃等动作,无需复杂的后期处理。同时,用户还能方便地对模型进行编辑,调整人体的姿态、体型等参数。例如,在虚拟试衣场景中,通过IDOL 技术快速生成顾客的3D人体模型后,能够实时为模型穿上不同款式的衣服,观察效果,并可对模型的身材参数进行微调,模拟不同身材穿着同一款衣服的效果,为用户提供更个性化的购物体验。在影视制作中,导演可以实时编辑角色的动作和姿态,大大节省了制作时间和成本。