截至 2025 年 12 月,智谱AI(Zhipu AI)已系统性开源 GLM 系列多个大模型,覆盖基础语言、对话、多模态、超长上下文、轻量化、深度推理等方向。所有模型均采用 宽松开源协议(MIT 或 Apache 2.0),支持免费商用。
以下是对 GLM 所有已开源大模型的完整列举与结构化对比,便于开发者快速选型。
✅ 一、GLM 开源大模型全列表(按发布时间倒序)
| 模型名称 | 发布时间 | 参数量 | 类型 | 核心特点 |
|---|---|---|---|---|
| GLM-Z1-Rumination-32B-0414 | 2025.08 | 32B | 沉思型推理模型 | 支持深度反思、多步研究型任务 |
| GLM-Z1-32B-0414 | 2025.08 | 32B | 高性能推理模型 | 数学/代码能力逼近 GPT-4o |
| GLM-Z1-9B-0414 | 2025.08 | 9B | 轻量推理模型 | 小参数高能力,边缘部署友好 |
| GLM-4-9B-Chat-1M | 2024.12 | 9B | 超长上下文对话 | 支持 1M tokens 上下文 |
| GLM-4V-9B-Chat | 2024.12 | 9B | 多模态对话 | 图像+文本理解,支持 OCR/图表 |
| GLM-4-9B-Chat | 2024.12 | 9B | 通用对话模型 | 工具调用、代码生成、Agent 友好 |
| GLM-4-9B | 2024.12 | 9B | 基础语言模型 | 无对齐,适合微调基座 |
| ChatGLM3-6B | 2023.10 | 6B | 轻量对话模型 | 消费级 GPU 可运行,社区生态成熟 |
| ChatGLM2-6B | 2023.06 | 6B | 早期对话模型 | 兼容旧项目,性能较弱 |
🔔 注:
- GLM-4.5 / GLM-4.7 等版本目前仅通过 API 提供(Z.ai 平台),未开源模型权重,故不列入。
- 所有 “0414” 后缀模型均为 2025 年 4 月 14 日发布的统一训练版本。
✅ 二、核心维度综合对比表
| 模型名称 | 参数量 | 上下文长度 | 多模态 | 工具调用 | 中文能力 | 英文能力 | 数学 (GSM8K) | 代码 (HumanEval) | 单卡部署可行性 | 开源协议 |
|---|---|---|---|---|---|---|---|---|---|---|
| GLM-Z1-Rumination-32B-0414 | 32B | 128K | ❌ | ✅✅✅ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 86.2% | 79.1% | ❌(需 ≥2×A100) | MIT |
| GLM-Z1-32B-0414 | 32B | 128K | ❌ | ✅✅✅ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 85.7% | 78.5% | ❌ | MIT |
| GLM-Z1-9B-0414 | 9B | 32K | ❌ | ✅✅ | ⭐⭐⭐⭐ | ⭐⭐⭐ | 78.5% | 72.3% | ✅(RTX 4090) | MIT |
| GLM-4-9B-Chat-1M | 9B | 1M | ❌ | ✅✅ | ⭐⭐⭐⭐ | ⭐⭐⭐ | 76.1% | 71.8% | ✅(需 ≥24GB VRAM) | MIT |
| GLM-4V-9B-Chat | 9B | 32K | ✅(图像) | ✅ | ⭐⭐⭐⭐ | ⭐⭐⭐ | 70.1% | 68.3% | ✅(RTX 4090) | MIT |
| GLM-4-9B-Chat | 9B | 128K | ❌ | ✅✅ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 76.4% | 72.1% | ✅(RTX 4090) | MIT |
| GLM-4-9B | 9B | 128K | ❌ | ❌ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 74.2% | 69.5% | ✅ | MIT |
| ChatGLM3-6B | 6B | 32K | ❌ | ✅ | ⭐⭐⭐ | ⭐⭐ | 58.9% | 56.2% | ✅(RTX 3090) | Apache 2.0 |
| ChatGLM2-6B | 6B | 32K | ❌ | ⚠️ 弱 | ⭐⭐ | ⭐ | 52.1% | 48.7% | ✅ | Apache 2.0 |
📊 评分说明:
- ⭐ = 基础,⭐⭐⭐ = 良好,⭐⭐⭐⭐ = 优秀,⭐⭐⭐⭐⭐ = 行业领先
- 工具调用:✅(基础)、✅✅(强)、✅✅✅(极强,支持复杂 Agent)
✅ 三、关键特性详解
1. 超长上下文
- GLM-4-9B-Chat-1M 是目前唯一开源支持 1M tokens 的 GLM 模型,适用于:
- 整本小说分析
- 百页 PDF 合同审查
- 大型代码仓库问答
2. 多模态能力
- GLM-4V-9B-Chat 支持:
- 图像描述、视觉问答
- 截图中的文字识别(OCR)
- 图表数据解读(柱状图、折线图)
- 输入分辨率:最高 1120×1120
3. 推理与 Agent 能力
- GLM-Z1 系列 专为 智能体(Agent) 设计:
- 支持 ReAct、Reflexion 等推理框架
- 工具调用准确率 >89%
- 可执行“规划 → 调用 → 反思 → 修正”闭环
4. 轻量化部署
- ChatGLM3-6B 和 GLM-Z1-9B 可在消费级显卡运行:
- RTX 3090/4090 + 24GB 显存即可本地部署
- 支持
llama.cpp、Ollama、vLLM等推理引擎
✅ 四、开源地址汇总
| 平台 | 链接 |
|---|---|
| Hugging Face | https://huggingface.co/THUDM |
| 魔搭 ModelScope | https://modelscope.cn/models/ZhipuAI |
| GitCode(国内镜像) | https://gitcode.com/zai-org |
| Ollama(一键运行) | bash<br>ollama run glm4:9b<br>ollama run glm4v:9b<br>ollama run glm-z1:9b |
✅ 五、选型建议速查
| 你的需求 | 推荐模型 |
|---|---|
| 最强综合性能(不差钱) | GLM-Z1-32B-0414 |
| 深度研究/报告生成 | GLM-Z1-Rumination-32B-0414 |
| 本地开发 + 平衡性能 | GLM-4-9B-Chat |
| 处理整本书/长文档 | GLM-4-9B-Chat-1M |
| 图文理解(截图/PPT) | GLM-4V-9B-Chat |
| 低配电脑 / 教学演示 | ChatGLM3-6B |
| 微调自己的行业模型 | GLM-4-9B(Base) |
| 边缘设备 / 手机端 | GLM-Z1-9B-0414(量化后) |
✅ 六、重要补充说明
- 全部模型可免费商用(MIT / Apache 2.0),无需授权费。
- GLM-Z1 系列 ≠ 新架构,而是基于 GLM-4 的强化训练版本,聚焦推理与 Agent。
- 工具调用 均兼容 OpenAI Function Calling 格式,可无缝接入 LangChain、LlamaIndex。
- 多模态模型(GLM-4V)仅支持图像输入,不支持视频或音频。



