智譜發佈並開源 GLM-4.7-Flash:混合思考模型、兼顧性能與效率

新聞
HongKong
11
10:02 AM · Jan 20 ,2026

智譜正式發佈並開源GLM-4.7-Flash,這是一個混合思考模型,總參數量為30B,激活參數量為3B,作為同級別SOTA模型,為輕量化部署提供了一個兼顧性能與效率的新選擇。

即日起,GLM-4.7-Flash將替代GLM-4.5-Flash,在智譜開放平台BigModel.cn上線,並供免費調用。

API接入

  • 體驗中心:https://bigmodel.cn/trialcenter/modeltrial/text?modelCode=glm-4.7-flash

  • 使用指南:https://docs.bigmodel.cn/cn/guide/models/free/glm-4.7-flash

  • 接口文檔:https://docs.bigmodel.cn/api-reference/模型-api/對話補全

  • 上一代免費語言模型GLM-4.5-Flash將於2026年1月30日下線,請您及時將模型編碼更新為最新版本。GLM-4.5-Flash正式下線後,相關請求將會自動路由至GLM-4.7-Flash。

開源部署

  • Hugging Face:https://huggingface.co/zai-org/GLM-4.7-Flash
  • 魔搭社區:https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash

據介紹,在SWE-bench Verified、τ²-Bench等主流基準測試中,GLM-4.7-Flash的綜合表現超過gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在相同和近似尺寸模型系列中取得開源SOTA分數。

在內部的編程實測中,GLM-4.7-Flash在前、後端任務上表現出色。在編程場景之外,官方也推薦大家在中文寫作、翻譯、長文本、情感/角色扮演等通用場景中體驗GLM-4.7-Flash。

user avatar
0 位用戶收藏了這個故事!
收藏

發佈 評論

Some HTML is okay.