通义万相 Wan2.1-VACE 是什么?
通义万相 Wan2.1-VACE是阿里巴巴开源的AI视频生成与编辑模型,单一模型可同时支持文生视频、图像参考视频生成、视频重绘、视频局部编辑、视频背景延展以及视频时长延展等全系列基础生成和编辑能力。本次共开源1.3B和14B两个版本,其中1.3B版本可在消费级显卡运行,开发者可在GitHub、HuggingFace及魔搭社区下载体验。该模型还将逐步在通义万相官网和阿里云百炼上线。
通义万相 Wan2.1-VACE的主要功能
- 多模态视频生成:
- 支持文本生成视频、图像参考生成视频、视频参考生成视频等多种输入方式。
- 通过局部区域生成或修改视频,可以实现视频的局部编辑、内容重塑。
- 视频编辑与重绘:
- 支持视频的背景扩展、局部编辑、视频重绘等功能。
- 用户可以通过深度图、光流、布局等控制信号对视频进行精确的编辑。
- 功能自由组合:
- 用户可以通过输入条件的组合,实现更复杂的任务,如将图片参考与主体重塑结合,进行物体替换;将首帧参考与背景扩展结合,生成不同类型的长视频。
- 支持广泛输入格式:
- 支持文本、图像、视频、Mask和控制信号等多种输入方式,能够保持视频生成的一致性和灵活控制视频的布局、运动姿态等。
通义万相 Wan2.1-VACE的应用场景
- 创意视频制作:为影视制作、广告创意、动画制作等领域提供支持,帮助创作者快速生成符合需求的视频素材。
- 视频内容编辑:在视频编辑领域,Wan2.1-VACE能够高效地修改现有视频内容,进行局部调整或添加新元素。
- 虚拟现实与增强现实:在VR/AR等沉浸式技术领域,利用该模型生成和编辑虚拟环境中的视频内容,提升用户体验。
- AI驱动的自动化内容创作:对于需要大量生成视频内容的行业,如社交媒体平台或在线教育,Wan2.1-VACE能高效生成内容,降低人工成本。
- 个性化视频定制:在电子商务、营销和客户服务等领域,Wan2.1-VACE可以根据用户的需求生成定制化的视频内容。
通义万相 Wan2.1-VACE的开源地址
开发者可在GitHub、HuggingFace及魔搭社区下载体验。该模型还将逐步在通义万相官网和阿里云百炼上线。
- GitHub:https://github.com/Wan-Video/Wan2.1
- HuggingFace:https://huggingface.co/Wan-AI
- 魔搭社区:https://www.modelscope.cn/organization/Wan-AI?tab=model
©版权声明:如无特殊说明,本站所有内容均为AIHub.cn原创发布和所有。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。否则,我站将依法保留追究相关法律责任的权利。
