阿裏巴巴發布通義千問7B模型 開源免費可商用 支持8K上下文長度 – 藍點網

时间:2025-11-02 12:55:17来源:入木三分網作者:儋州市

今天阿裏巴巴宣布旗下大型語言模型產品通義千問 7B 參數模型已經開源,該模型為完全開源、免費、可商用。這個模型包括兩個子模型,一個是通用型的 Qwen-7B 模型,另一個是對話模型 Qweb-7B-Chat,兩個模型均為開源免費可商用。

這兩個模型目前已經在阿裏達摩院的魔搭社區和國外知名 AI 模型社區 Hugging Face 上線,有興趣的用戶可以下載模型進行測試。

阿裏巴巴發布通義千問7B模型 開源免費可商用 支持8K上下文長度

魔搭社區:https://modelscope.cn/models/qwen/Qwen-7B/summary

Hugging Face:https://huggingface.co/Qwen/Qwen-7B

Github:https://github.com/QwenLM/Qwen-7B

以下是阿裏雲對 Qwen-7B 模型的自述:

通義千問 – 7B(Qwen-7B) 是阿裏雲研發的通義千問大模型係列的 70 億參數規模的模型。Qwen-7B 是基於 Transformer 的大語言模型,在超大規模的預訓練數據上進行訓練得到。預訓練數據類型多樣,覆蓋廣泛,包括大量網絡文本、專業書籍、代碼等。同時,在 Qwen-7B 的基礎上,我們使用對齊機製打造了基於大語言模型的 AI 助手 Qwen-7B-Chat。Qwen-7B 係列模型的特點包括:

大規模高質量預訓練數據:我們使用了超過 2.2 萬億 token 的自建大規模預訓練數據集進行語言模型的預訓練。數據集包括文本和代碼等多種數據類型,覆蓋通用領域和專業領域。

優秀的模型性能:相比同規模的開源模型,Qwen-7B 在多個評測數據集上具有顯著優勢,甚至超出 12-13B 等更大規模的模型。評測評估的能力範圍包括自然語言理解與生成、數學運算解題、代碼生成等。

更好地支持多語言:基於更大詞表的分詞器在分詞上更高效,同時它對其他語言表現更加友好。用戶可以在 Qwen-7B 的基礎上更方便地訓練特定語言的 7B 語言模型。

8K 的上下文長度:Qwen-7B 及 Qwen-7B-Chat 均能支持 8K 的上下文長度,允許用戶輸入更長的 prompt。

支持插件調用:Qwen-7B-Chat 針對插件調用相關的對齊數據做了特定優化,當前模型能有效調用插件以及升級為 Agent。

相关内容