IT之家 1 月 22 日消息,据千问 Qwen 微信公众号消息,Qwen3-TTS 多码本全系列模型已开源,包含 1.7B 和 0.6B 两种尺寸,1.7B 可以达到极致性能,0.6B 均衡性能与效率。
据介绍,Qwen3-TTS 是由 Qwen 开发的一系列功能强大的语音生成模型,全面支持音色克隆、音色创造、超高质量拟人化语音生成,以及基于自然语言描述的语音控制,为开发者与用户提供最全面的语音生成功能。
依托创新的 Qwen3-TTS-Tokenizer-12Hz 多码本语音编码器,Qwen3-TTS 实现了对语音信号的高效压缩与强表征能力,不仅完整保留副语言信息和声学环境特征,还能通过轻量级的非 DiT 架构实现高速、高保真的语音还原。Qwen3-TTS 采用 Dual-Track 双轨建模,达成了极致的双向流式生成速度,首包音频仅需等待一个字符。
据IT之家了解,模型覆盖 10 种主流语言(中文、英文、日语、韩语、德语、法语、俄语、葡萄牙语、西班牙语、意大利语)及多种方言音色,满足全球化应用需求。同时,模型具备强大的上下文理解能力,可根据指令和文本语义自适应调整语气、节奏与情感表达,并对输入文本噪声的鲁棒性有显著提升。目前已经在 Github 上开源同时也可通过 Qwen API 体验。
模型列表
1.7B 模型
0.6B 模型
Qwen3-TTS 特性
主要特点:
模型性能
我们对 Qwen3-TTS 在音色克隆、创造、控制等方面进行了全面评估,结果显示其在多项指标上都达到了 SOTA 性能。具体来说:
Tokenizer 性能
我们对 Qwen-TTS-Tokenizer 进行了语音重构评估,在 LibriSpeech test-clean set 的结果显示其在关键指标上都达到了的 SOTA 水平。具体来说,在感知语音质量评估(PESQ)中,Qwen-TTS-Tokenizer 在宽带和窄带上分别取得了 3.21 和 3.68 的分数,大幅领先同类 tokenizer。在短时客观可懂度(STOI)以及 UTMOS 上,Qwen-TTS-Tokenizer 取得了 0.96 和 4.16 的分数,展现出卓越的还原质量。在说话人相似度上,Qwen-TTS-Tokenizer 取了 0.95 的分数,显著超越对比模型,表明其近乎无损的说话人信息保留能力。
ModerScope:
HuggingFace:
Github: