首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2(色拉是什么意思?)

AIGC动态欢迎阅读

原标题:首批类Sora模型

出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

关键字:视频,图像,研究者,时间

,模型

文章来源:机器之心

内容字数:9833字

内容摘要:

机器之心报道

编辑:杜伟、蛋酱文生视频这个战场,入局的玩家越来越多了。这次是阅后即焚 SnapChat 背后的公司。

最近,OpenAI

视频生成模型 Sora 的爆火,给基于 Transformer 的扩散模型重新带来了一波热度,比如 Sora 研发负责人之一 William Peebles 与纽约大学助理教授谢赛宁去年提出的 DiT(Diffusion Transformer)。

当然,随着视频生成这波 AI 趋势的继续演进,类似架构的模型会越来越多。就在昨天,开发出 SnapChat 图片分享软件的 Snap 公司、特伦托大学等机构联合发布了类似 Sora 的文本生成视频模型 Snap Video,这次他们使用到了可扩展的时空 Transformer。

相关的论文《Snap Video: Scaled Spatiotemporal Transformers for Text-to-Video Synthesis》已经放出。论文地址:https://arxiv.org/pdf/2402.14797.pdf

项目地址:https://snap-research.github.io/s

原文链接:首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

0
分享到:
没有账号? 忘记密码?