Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩(开源模型训练平台)

AIGC动态欢迎阅读

原标题:Stability AI开源上新:3D生成引入视频扩散模型

,质量一致性up,4090可玩

关键字:腾讯,模型,视频,图像,相机

文章来源:量子位

内容字数:3809字

内容摘要:

鱼羊 发自 凹非寺量子位 | 公众号 QbitAIStable Diffusion背后公司Stability AI又上新了。

这次带来的是图生3D方面的新进展:

基于Stable Video Diffusion的Stable Video 3D(SV3D),只用一张图片就能生成高质量3D网格。

Stable Video Diffusion(SVD)是Stability AI此前推出的高分辨率视频生成模型。也就是说,此番登场的SV3D首次将视频扩散模型应用到了3D生成领域。

官方表示,基于此,SV3D大大提高了3D生成的质量和视图一致性。

模型权重依然开源,不过仅可用于非商业用途,想要商用的话还得买个Stability AI会员~

话不多说,还是来扒一扒论文细节。

将视频扩散模型用于3D生成引入潜在视频扩散模型,SV3D的核心目的是利用视频模型的时间一致性来提高3D生成的一致性。

并且视频数据本身也比3D数据更容易获得。

Stability AI这次提供两个版本的SV3D:

SV3D_u:基于单张图像生成轨道视频。

SV3D_p:扩展了SV3D_u的功能,可以根据指定的相机路径创建3D模型

原文链接:Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩

联系作者

文章来源:量子位

作者微信:QbitAI

作者简介:追踪人工智能新趋势,关注科技行业新突破

0
分享到:
没有账号? 忘记密码?