🤖 由 文心大模型 生成的文章摘要
继在谷歌I/O开发者大会公布产品更新之后,谷歌宣布将在搜索引擎中添加虚拟试穿功能。
从现在开始,美国消费者可以使用该功能,该功能将使在线购买衣服变得更加容易。与众不同的是,谷歌没有将服装数字版本叠加在买家虚拟化身上呈现,而是基于人工智能在真实模特身上展示高度详细的服装。
谷歌产品管理高级总监Lilian Rincon表示:“我们新的生成式AI模型可以只拍摄一张服装图像,便能准确反映在各种人体姿势、各种真实模型上悬垂、折叠、紧贴、拉伸以及皱纹和阴影,为此我们特意挑选了XXS-4XL码的真实模特,以代表不同的肤色、体型、种族和头发类型。”
目前市场上大多数虚拟试穿工具都是采用几何变形等技术以创建服装虚拟化身,这种技术可以使服装图像变形以适合一个人的形象/虚拟化身。这种方法是有效的,但输出形式往往并不完美,存在明显的拟合错误——例如不必要的折叠。
为了解决这个问题,谷歌开发了一种新的基于扩散的人工智能模型,扩散是通过向图像添加额外像素直到它变得无法识别然后反转(或去噪)以完美质量重建原始图像来训练模型的过程,使该模型从中学习并逐渐从随机噪声图像中生成新的高质量图像。
基于数据和扩散技术,该模型学会了在不同姿势站立、不同的模特身上渲染服装。这样,每当用户在搜索引擎上浏览某件衣服点击试穿时,就可以先选择一个具有相似体型和尺寸的模特,然后看看这件衣服是否适合。
谷歌高级研究员Ira Kemelmacher-Shlizerman表示:“每张图片都被发送到神经网络(U-net),并在称为‘交叉注意力’的转换过程中与其他神经网络共享信息以生成输出:逼真的服装图像。”
来源:VentureBeat
「93913原创内容,转载请注明出处」