阿里雲在雲棲大會上公布,旗下大語言模型 Qwen 自去年 4 月發布以來,在 Hugging Face 及阿里巴巴開源社區 ModelScope 等平台的下載量已超過 4,000 萬次,並有超過 5萬個模型在 Hugging Face 上基於 Qwen 而創建。阿里雲同時為 Qwen 2.5 新增超過 100 個開源模型,包括基礎模型、指令跟隨模型和擁有多種等級及方法的量化模型,涵蓋語言、音頻和視覺等多種模態,以及專門的代碼和數學模型。
阿里雲發布多個新模型及升級旗艦模型 Qwen-Max。阿里雲指,升級後的 Qwen-Max 在語言理解與推理、數學及編程等方向已追上其他尖端模型,模型參數規模從 5 億到 720 億不等,其知識、數學和編碼能力均有提升並支援超過 29 種語言。
另外,圖像生成器「通義萬相」大型模型家族新增文生視頻模型,能生成從寫實場景到 3D 動畫等多種視覺風格,以至16:9、9:16 等多種比例的短片。該模型可根據中文和英文的文本指令生成短片,或將靜態圖像轉化為動態短片。模型採用了擴散變換器( DiT )架構提升短片重建質素。
此外,阿里雲也更新視覺語言模型並推出 Qwen2-VL,支援理解長達 20 分鐘以上的短片及基於短片的問答。 Qwen2-VL 擁有複雜的推理和決策能力,適用於手機、汽車和機械人中,幫助在特定操作場景下實現自動化。在電腦編程方面則有由 Qwen 驅動的 AI 程序員,可幫助程序員將任務拆解、代碼編寫、缺陷修復等開發工作進行自動化處理。