【環(huán)球網(wǎng)科技綜合報道】8月13日,阿里通義大模型對外宣布開源Qwen2系列音頻語言模型Qwen2-Audio。Qwen2-Audio可以不需文本輸入,直接進行語音問答,理解并分析用戶輸入的音頻信號,包括人聲、自然音、音樂等。通義團隊還同步推出了一套全新的音頻理解模型測評基準,相關論文已入選本周正在舉辦的國際頂會ACL 2024。
Qwen2-Audio可以理解分析音樂
Qwen2-Audio是一款大型音頻語言模型(Large Audio-Language Model ,LALM),具備語音聊天和音頻分析兩種使用模式,前者是指用戶可以用語音向模型發(fā)出指令,模型無需自動語音識別(ASR)模塊就可理解用戶輸入;后者是指模型能夠根據(jù)用戶指令分析音頻信息,包括人類聲音、自然聲音、音樂或者多種信號混雜的音頻。Qwen2-Audio能夠自動實現(xiàn)兩種模式的切換。Qwen2-Audio支持超過8種語言和方言,如中文、英語、法語、意大利語、西班牙語、德語、日語,粵語。
據(jù)了解,Qwen2-Audio是通義團隊在音頻理解模型上的新一步探索,相比前一代模型Qwen-Audio,新版模型有了更強的聲音理解能力和更好的指令跟隨能力。
同時,通義團隊同步開源了基礎模型 Qwen2-Audio-7B 及其指令跟隨版本Qwen2-Audio-7B-Instruct,用戶可以通過Hugging Face、魔搭社區(qū)ModelScope等下載模型,也可以在魔搭社區(qū)“創(chuàng)空間”直接體驗模型能力。