阿里巴巴在Qwen-Audio基础之上,开源了最新语音模型Qwen2-Audio。
Qwen2-Audio一共有基础和指令微调两个版本,支持使用语音向音频模型进行提问并识别内容以及语音分析。
例如,让一位女生说一段话,然后识别她的年纪或解读她的心情;发布一段吵闹的声音,分析有哪些声音组成等。
目前,Qwen2-Audio支持中文、粤语、法语、英语、日语等主流语言和方言,这对于开发翻译、情感分析等应用非常方便。
开源地址:https://github.com/QwenLM/Qwen2-Audio
Qwen2-Audio能力大幅度提升
与第一代Qwen-Audio相比,Qwen2-Audio在架构、性能等方面进行了大幅度优化和改进。在预训练阶段Qwen2-Audio采用了自然语言提示,替代了Qwen-Audio使用的复杂分层标签系统。
这一改变简化了模型的训练过程,使得模型能够更自然地理解和响应各种数据和任务,提高了模型的泛化能力能更好地理解和执行各种指令。
Qwen2- Audio在指令跟随能力方面有了显著提升,通过增加指令调优和直接偏好优化等方法,可更准确地理解用户的指令,并根据指令提供更恰当的响应。
例如,当用户发出语音指令,“分析这段音频中的情感倾向时”,Qwen2- Audio能够更精准地判断出音频中的情感。
在功能方面Qwen2– Audio也进行了扩展,支持语音聊天和音频分析两种模式:在语音聊天模式中,用户可以更加自由地与Qwen2- Audio进行语音交互,就像与朋友聊天一样自然。
在音频分析模式中,Qwen2- Audio能够对各种类型的音频进行深入分析,提供更详细和准确的分析结果。
此外,Qwen2-Audio还引入了监督式微调(SFT)和直接偏好优化(DPO)两种优化方法。在SFT阶段,模型通过高质量的微调数据进一步与人类意图对齐,这使得Qwen2-Audio在与人类交互时更加自然和准确;
DPO则通过人类标注的好响应和坏响应数据来优化模型,使其输出更符合人类的期望和偏好。
Qwen2-Audio架构简单介绍
Qwen2-Audio使用了OpenAI开源的语音模型Whisper-large-v3作为音频编码器。为了更好地处理音频数据,Qwen2-Audio采用了16kHz的采样频率,并将原始波形转化为128通道的mel谱图,通过25ms窗口大小和10ms跳帧,确保了音频特征的时间分辨率与频谱信息的完整性。
为了减少音频表示的长度,Qwen2-Audio引入一个池化层其步幅为2,编码器输出的每帧大约对应于原始音频信号中40ms的片段。这种处理方式使得模型能够有效地捕捉音频信号的特征,为后续的分析和理解提供了有力的支。
语音分析,AIGC开放社区,1分钟
Qwen2-Audio准确输出分析结果
Qwen2-Audio使用了阿里自研的大模型Qwen-7B作为语言模型,能根据输入的音频和文本数据生成相应的文本输出。主要与音频模块协同工作,实现对音频信息的理解和处理。
当音频编码器对输入的音频信号进行特征提取后,这些特征会与之前的文本序列一起输入到大语言模型中,会对这些信息进行综合分析,理解音频中所包含的语言内容和语义信息。
例如,如果输入的音频是一段对话,大语言模型会尝试理解对话的主题、参与者的意图以及情感倾向等。
在生成文本输出时,大语言模型会根据对输入信息的理解,通过其所学到的语言知识和模式,生成准确的文本回复。
为了测试Qwen2-Audio性能,阿里在AIR – Bench、S2TT、ASR、Fleurs zh等主流基准上进行了综合评测。
结果显示,Qwen2-Audio的整体性能非常强劲,在librispeech的test-clean和test-other数据集上分别达到了1.6%和3.6%的WER。
在Fleurs的中文子集上,Qwen2-Audio的成绩优于OpenAI的Whisper-large-v3。
在CoVoST2数据集上的语音翻译测试中,Qwen2-Audio在所有七个翻译方向上均大幅度领先于基线模型。在SER和VSC测试中,Qwen2-Audio同样以显著成绩胜出。
本文素材来源Qwen2-Audio,如有侵权请联系删除
总结
**阿里巴巴开源Qwen2-Audio:新一代语音模型引领技术革新**阿里巴巴近期在开源基础上推出了Qwen2-Audio,这是一款集语音识别、情感分析及音频内容分析于一体的高性能语音模型。Qwen2-Audio不仅继承了前身Qwen-Audio的精华,还在多个方面实现了显著升级与创新。
**版本多样,功能全面**
Qwen2-Audio分为基础版和指令微调版,可轻松地处理多种任务。用户不仅能通过语音提问并识别内容,实现如年龄判断和情感解读等高级功能,还能分析复杂音频组成,如解析环境声等。模型支持中文、粤语、法语、英语、日语等多种主流语言和方言,为翻译、情感分析等应用提供了强大支持。
**架构优化,性能飙升**
相较于QVen-Audio,Qwen2-Audio在架构和性能上实现了重大提升。其预训练阶段采用了自然语言提示替代复杂分层标签系统,大大简化了训练流程,提高了模型的泛化能力和指令跟随精度。新增的指令调优和直接偏好优化等方法,使得模型能更精准地理解用户指令并给出相应反馈。
**模式创新,体验升级**
Qwen2-Audio引入了语音聊天和音频分析两种工作模式。在语音聊天模式下,用户可与模型自由对话,感受如朋友般的自然交流;而音频分析模式则专注于对各类音频的深度剖析,提供详细准确的分析报告。此外,通过监督式微调(SFT)和直接偏好优化(DPO)的加持,模型在交互时表现得更加自然和准确。
**技术领先,效果显著**
Qwen2-Audio采用OpenAI的Whisper-large-v3作为音频编码器结合阿里自研的Qwen-7B大语言模型,实现了对音频信息的全面理解和精准处理。在多项基准测试中,Qwen2-Audio展示了其卓越的性能表现,不仅在语音识别领域领先对手,还在语音翻译和情感识别等方面取得显著成绩。
**开源共享,共创未来**
阿里巴巴决定将Qwen2-Audio开源分享给全球开发者和研究者希望通过这种方式促进语音技术的发展和普及。开源地址为https://github.com/QwenLM/Qwen2-Audio,欢迎有志之士加入共同推动语音技术迈向新的高度。
通过以上总结可以看出阿里巴巴的Qwen2-Audio在语音技术领域具有举足轻重的地位它不仅为用户提供了全新的交互体验也为开发者提供了强大的技术支持和丰富的应用场景相信在未来日子里Qwen2-Audio将为更多领域带来革命性的变革。