2025 年 7 月 28 日,阿里巴巴通义实验室正式开源了 Wan2.2,这是一款专为电影级视觉控制和高质量视频创作设计的开源视频生成模型。Wan2.2 通过混合专家(MoE)架构,实现了对电影镜头语言的深度理解和还原,支持多维度的视觉呈现,如光影、色彩和构图。此外,它在数据训练规模和专业美学训练上实现了双重升级,显著提升了复杂场景的表现力和美学表现能力。
核心功能
- 文生视频:具备电影级视觉控制,能够轻松还原大幅度运动,并精准遵循语义。
- 图生视频:提升了抽卡成功率,保持内容一致性,使动态过程控制更自然,精准遵循指令。
- 文生图:支持高效短文本处理,精准理解指令,增强美学表现,优化生成稳定性,并支持多样化风格控制。
开源信息
Wan2.2 遵循 Apache 2.0 许可,完全开放代码和权重。开源信息如下:
- GitHub 仓库:https://github.com/Wan-Video/Wan2.2
- 模型地址:
- Hugging Face:https://huggingface.co/Wan-AI/
- ModelScope:https://modelscope.cn/organization/Wan-AI
- 技术报告:https://arxiv.org/abs/2503.20314
体验方式
用户可以通过以下链接在线体验 Wan2.2:
- https://tongyi.aliyun.com/wanxiang/
适合人群
Wan2.2 适合专业创作者、AI 绘画爱好者以及内容创作者,能够满足从电影制作到社交媒体内容创作的多样化需求。
Wan2.2 的开源,为视频生成领域带来了新的可能性,让高质量的视频创作变得更加便捷和高效。
©版权声明:如无特殊说明,本站所有内容均为AIHub.cn原创发布和所有。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。否则,我站将依法保留追究相关法律责任的权利。

