【大河财立方 记者 陈薇】继上周阿里巴巴在世界人工智能大会(WAIC)亮相3款开源大模型后,7月28日晚,阿里又开源电影级视频生成模型通义万相Wan2.2。Wan2.2直接将光影、色彩、镜头语言三大电影美学元素装进模型,通过组合60多个直观可控的参数,大幅提升电影级画面的制作效率。
目前该模型单次可生成5秒的高清视频,用户可通过多轮提示词进一步完成短剧制作,未来通义万相还将继续提升单次视频生成的时长,让视频创作更高效。
Wan2.2此次共开源文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-TI2V-5B)3款模型,其中文生视频模型和图生视频模型均为业界首个使用MoE架构的视频生成模型,在同参数规模下,可节省约50%的计算资源消耗。
Wan2.2还首创了电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。例如,输入“画面中有两名穿着宇航服的人,他们正站在一片广阔的水域中”,并辅助晴天光、暖色调、平衡构图等关键词,就可以生成类似《星际穿越》的画面。
通义万相还开源了一款5B小尺寸的统一视频生成模型,单一模型同时支持文生视频和图生视频,可在消费级显卡部署。仅需22G显存(单张消费级显卡)即可在数分钟内生成5秒高清视频,是目前24帧每秒、720P像素级视频生成速度最快的基础模型之一。
责编:陶纪燕 | 审校:张翼鹏 | 审核:李震 | 监审:古筝