經過后訓練的模型,例如 Qwen3-30B-A3B,以及它們的預訓練基座模型(如 Qwen3-30B-A3B-Base),現(xiàn)已在 Hugging Face、ModelScope 和 Kaggle 等平臺上開放使用。對于部署,我們推薦使用 SGLang 和 vLLM 等框架;而對于本地使用,像 Ollama、LMStudio、MLX、llama.cpp 和 KTransformers 這樣的工具也非常值得推薦。這些選項確保用戶可以輕松將 Qwen3 集成到他們的工作流程中,無論是用于研究、開發(fā)還是生產環(huán)境。
Qwen3 的發(fā)布和開源將極大地推動大型基礎模型的研究與開發(fā)。其目標是為全球的研究人員、開發(fā)者和組織賦能,幫助他們利用這些前沿模型構建創(chuàng)新解決方案。
目前,全球開發(fā)者、研究機構和企業(yè)均可免費在魔搭社區(qū)、HuggingFace等平臺下載模型并商用,也可以通過阿里云百煉調用Qwen3的API服務。個人用戶可立即通過通義APP直接體驗Qwen3,夸克也即將全線接入Qwen3。
核心亮點
多種思考模式
Qwen3 模型支持兩種思考模式:
1. 思考模式:在這種模式下,模型會逐步推理,經過深思熟慮后給出最終答案。這種方法非常適合需要深入思考的復雜問題。
2. 非思考模式:在此模式中,模型提供快速、近乎即時的響應,適用于那些對速度要求高于深度的簡單問題。
這種靈活性使用戶能夠根據(jù)具體任務控制模型進行“思考”的程度。例如,復雜的問題可以通過擴展推理步驟來解決,而簡單的問題則可以直接快速作答,無需延遲。至關重要的是,這兩種模式的結合大大增強了模型實現(xiàn)穩(wěn)定且高效的“思考預算”控制能力。如上文所述,Qwen3 展現(xiàn)出可擴展且平滑的性能提升,這與分配的計算推理預算直接相關。這樣的設計讓用戶能夠更輕松地為不同任務配置特定的預算,在成本效益和推理質量之間實現(xiàn)更優(yōu)的平衡。
多語言
Qwen3 模型支持 119 種語言和方言。這一廣泛的多語言能力為國際應用開辟了新的可能性,讓全球用戶都能受益于這些模型的強大功能。
增強的 Agent 能力
Qwen3 模型優(yōu)化了Agent 和代碼能力,同時也加強了對 MCP 的支持。下面我們將提供一些示例,展示 Qwen3 是如何思考并與環(huán)境進行交互的。