大一统视频编辑框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景(视频的框架)

AIGC动态欢迎阅读

原标题:大一统视频编辑

框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景

关键字:研究者,编辑,视频,动作,分支

文章来源:机器之心

内容字数:8077字

内容摘要:

机器之心专栏

机器之心编辑部随着 Sora 的爆火,人们看到了 AI 视频生成的巨大潜力,对这一领域的关注度也越来越高。

除了视频生成,在现实生活中,如何对视频进行编辑同样是一个重要的问题,且应用场景更为广泛。以往的视频编辑方法往往局限于「外观」层面的编辑,例如对视频进行「风格迁移」或者替换视频中的物体,但关于更改视频中对象的「动作」的尝试还很少。UniEdit 视频编辑结果(动作编辑、风格迁移、背景替换、刚性 / 非刚性物体替换)

本文中,来自浙江大学、微软亚洲研究院、和北京大学的研究者提出了一个基于文本描述的视频编辑统一框架 UniEdit,不仅涵盖了风格迁移、背景替换、刚性 / 非刚性物体替换等传统外观编辑场景,更可以有效地编辑视频中对象的动作,例如将以上视频中浣熊弹吉他的动作变成「吃苹果」或是「招手」。

此外,除了灵活的自然语言接口和统一的编辑框架,这一模型的另一大优势是无需训练,大大提升了部署的便捷性和用户使用的方便度。论文标题:UniEdit: A Unified Tuning-Free Framework for Video Motion and Appearance E

原文链接:大一统视频编辑框架:浙大&微软推出UniEdit,无须训练、支持多种编辑场景

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

0
分享到:
没有账号? 忘记密码?