智譜正式發佈並開源GLM-4.7-Flash,這是一個混合思考模型,總參數量為30B,激活參數量為3B,作為同級別SOTA模型,為輕量化部署提供了一個兼顧性能與效率的新選擇。
即日起,GLM-4.7-Flash將替代GLM-4.5-Flash,在智譜開放平台BigModel.cn上線,並供免費調用。
API接入
體驗中心:https://bigmodel.cn/trialcenter/modeltrial/text?modelCode=glm-4.7-flash
使用指南:https://docs.bigmodel.cn/cn/guide/models/free/glm-4.7-flash
接口文檔:https://docs.bigmodel.cn/api-reference/模型-api/對話補全
上一代免費語言模型GLM-4.5-Flash將於2026年1月30日下線,請您及時將模型編碼更新為最新版本。GLM-4.5-Flash正式下線後,相關請求將會自動路由至GLM-4.7-Flash。
開源部署
- Hugging Face:https://huggingface.co/zai-org/GLM-4.7-Flash
- 魔搭社區:https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash
據介紹,在SWE-bench Verified、τ²-Bench等主流基準測試中,GLM-4.7-Flash的綜合表現超過gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在相同和近似尺寸模型系列中取得開源SOTA分數。
在內部的編程實測中,GLM-4.7-Flash在前、後端任務上表現出色。在編程場景之外,官方也推薦大家在中文寫作、翻譯、長文本、情感/角色扮演等通用場景中體驗GLM-4.7-Flash。