GLM-5:开源模型第一次让闭源巨头真正紧张了
2026-02-14 | ProductHunt | GitHub | 官网

chat.z.ai 的主界面,右下角有 Agent/Chat 模式切换。这是 GLM-5 最直观的使用入口——不需要任何本地部署,打开网页就能体验 "Agentic Engineering" 模式。
30秒快速判断
这玩意干嘛的:智谱AI(Z.ai)发布的 744B 参数开源大模型,MIT 许可证,专门为“长线程自主工程任务”设计——说白了就是让 AI 不只是补全代码,而是像架构师一样先规划、再动手。
值不值得关注:非常值得。这是开源模型第一次在 Intelligence Index 上突破 50 分,在 BrowseComp、MCP-Atlas 等 Agent 基准测试上拿到开源第一。API 价格只有 Claude Opus 的 1/5。如果你对“AI 帮你做工程”这件事感兴趣,GLM-5 是 2026 年 2 月最值得关注的发布之一。
与我有关三问
与我有关吗?
目标用户是谁:用 AI 辅助编程的开发者、想降低 LLM API 成本的团队、关注开源 AI 生态的技术人。
我是吗? 如果你满足以下任一条件,你就是目标用户:
- 你正在用 Claude/GPT 写代码,但每月 API 账单让你肉疼
- 你在做需要 AI 自主执行多步骤任务的产品(Agent 应用)
- 你想在自己的服务器上跑一个“接近 Claude 水平”的模型
- 你是中国开发者,想用一个没有地缘政治风险的国产模型
什么场景会用到:
- 复杂后端架构设计和重构 -- 用这个
- 大型代码库的迁移项目 -- 用这个
- 简单的代码补全和短对话 -- 不需要这个,GLM-4.7 或更轻量的模型就够了
- 需要图片/音频理解 -- 不适合,GLM-5 只有文本能力
对我有用吗?
| 维度 | 收益 | 代价 |
|---|---|---|
| 金钱 | API 成本降低 80%(对比 Claude Opus) | 自部署需要 1.5TB VRAM 的硬件 |
| 时间 | 复杂任务“一次过”的概率更高 | 简单任务反而比小模型慢 |
| 自由度 | MIT 开源,想怎么用就怎么用 | 量化部署需要一定技术功底 |
ROI 判断:如果你团队每月 API 开销超过 $500,花半天时间把部分任务迁移到 GLM-5 API 上,一个月就能回本。如果你只是个人开发者偶尔用用,直接 chat.z.ai 免费体验就行,不用折腾部署。
喜闻乐见吗?
爽点在哪:
- “结构优先”的工作方式:GLM-5 拿到任务后不会马上开始写代码,而是先理清任务边界、拆分模块、规划系统结构,然后才进入实现。这种“先画蓝图再盖楼”的感觉,用过的人都说比“直接吐代码”靠谱得多。
- 幻觉率全行业最低:AA-Omniscience 指标 -1 分,比上一代提升 35 分。它学会了“不知道就说不知道”。
- MIT 开源的自由感:不用担心 Meta 那种“你用户过亿就得重新谈许可”的限制。
用户真实评价:
"那些在编码前先规划的模型改变了人们构建软件的方式。更少的试错,更高的一次性正确率。" — Reddit 用户
"它真正的实力在于:极高的性能价格比。" — @fabienr34
"开源模型落后闭源模型一代的时代正在终结。" — VentureBeat
给独立开发者
技术栈
- 架构:混合专家模型 (MoE),744B 总参数,256 个专家,每 token 激活 8 个(44B 活跃参数)
- 注意力机制:DeepSeek Sparse Attention,200K token 上下文窗口
- 训练数据:28.5 万亿 tokens
- 训练框架:华为昇腾芯片 + MindSpore(完全不依赖 NVIDIA GPU)
- 后训练:"Slime" 异步强化学习框架 + Deep Thinking 自我批评模式
- 部署:vLLM / SGLang / Ollama / llama.cpp 全支持
核心功能实现
GLM-5 的 "Agentic Engineering" 不是营销话术,它的架构确实在往“自主工程师”方向设计。接到任务后,模型会走一个“理解 -> 规划 -> 拆分 -> 执行 -> 自检”的流程,而不是直接生成代码。这在多步骤、长时间运行的任务中,效果提升非常明显。
在 BrowseComp(网页信息检索)和 MCP-Atlas(工具调用+多步执行)上排名开源第一,说明它不只是“写代码快”,而是“调工具、跨步骤协调”的能力也到位了。

8 项基准测试对比图:GLM-5(深蓝色)在 BrowseComp、MCP-Atlas、Humanity's Last Exam 上超过所有竞品;在 SWE-bench 上接近 Claude Opus 4.5(80.9% vs 77.8%),但已超过 Gemini 3 Pro 和 GPT-5.2。
开源情况
- 许可证:MIT License -- 完全免费商用,可以微调、分发、做商业产品
- 代码仓库:github.com/zai-org/GLM-5,470 stars
- 权重下载:HuggingFace + ModelScope + Ollama
- 类似开源项目:DeepSeek R1(更便宜但推理能力不如)、Llama 3(Meta License 限制更多)、Qwen、Kimi K2.5(有视觉能力)
自己做类似的东西? 难度:极高。744B MoE 模型需要数千张 GPU 训练几个月,光训练成本就是千万美元级别。但你可以基于开源权重做微调,这个门槛就低多了。
商业模式
- API 定价:约 $1/百万输入 tokens,约 $3/百万输出 tokens(OpenRouter)
- 对比 Claude Opus 4.6:便宜约 80%
- 变现逻辑:开源模型做品牌 + API 收入 + 企业定制方案(港股上市公司,主要靠 to B)
巨头风险
GLM-5 本身就是“巨头”出品(智谱是中国 AI 六小虎之一,港股上市,市值 $19B)。真正的风险是:Claude、GPT 继续降价,开源优势被压缩。但 MIT 开源 + 可自部署这张牌,闭源模型永远打不出来。
给产品经理
痛点分析
- 解决什么问题:开源 AI 模型“够用但不够强”的尴尬 -- 之前开源模型至少落后闭源一代,GLM-5 第一次把差距缩到“基本持平”
- 痛点有多痛:高频刚需。每个用 LLM 的团队都在为 API 成本和供应商锁定头疼
- 从 "Vibe Coding" 到 "Agentic Engineering":不只是写代码片段,而是能自主规划、执行、调试完整的工程任务
用户画像
- 核心用户:AI 应用开发团队(需要稳定、便宜的推理能力)
- 次要用户:独立开发者(想本地跑强模型)、中国企业(规避地缘政治风险)
- 使用场景:Agent 应用后端、大规模代码迁移、复杂文档生成(原生支持 .docx/.pdf/.xlsx)
功能拆解
| 功能 | 类型 | 说明 |
|---|---|---|
| Agentic Mode | 核心 | 自主规划+执行多步任务 |
| Deep Thinking | 核心 | 自我批评循环,压低幻觉率 |
| 200K 上下文 | 核心 | 可以吃进整个代码仓库 |
| 文档生成 | 锦上添花 | 直接输出 .docx/.pdf/.xlsx |
| Chat Mode | 基础 | 普通对话模式 |
竞品差异
| 对比项 | GLM-5 | Claude Opus 4.6 | GPT-5.2 | DeepSeek R1 |
|---|---|---|---|---|
| 定价 | 约 $1/M 输入 | 约 $5/M 输入 | 约 $1.75/M 输入 | 更便宜 96% |
| 开源 | MIT 开源 | 闭源 | 闭源 | 开源 |
| 多模态 | 仅文本 | 文本+视觉 | 全模态 | 仅文本 |
| SWE-bench | 77.8% | 80.9% | 69% | 更低 |
| Agent 能力 | 开源第一 | 行业顶级 | 强 | 一般 |
| 上下文 | 200K | 200K | 400K | 128K |
可借鉴的点
- “先规划后执行”的 Agent 设计模式 -- 不是直接输出结果,而是先展示思考过程,用户信任度更高
- Agent/Chat 双模式切换 -- 简单任务用 Chat 省资源,复杂任务切 Agent,用户自主选择
- MIT 开源建信任 -- 在 AI 模型信任危机的当下,完全开放权重是最强的信任信号
给科技博主
创始人故事
这是一个典型的“清华教授创业”故事,但结局比大多数精彩得多:
- 唐杰(Tang Jie):清华大学教授,IEEE/ACM/AAAI 三料 Fellow,2021 年参与打造了 1.75 万亿参数的“悟道”模型
- 李娟子(Li Juanzi):清华教授,联合创始人
- 张鹏(Zhang Peng):CEO,清华校友,负责把实验室技术变成生意
2019 年从清华知识工程实验室(KEG)孵化,最初做知识图谱,2020 年看到 GPT-3 发布后果断转向大模型。2026 年 1 月 8 日港股 IPO,成为全球第一个上市的纯基础模型公司。
有意思的是,GLM-5 发布前几周,它的代号 "Pony Alpha" 就在 Reddit 上泄露了,引发了一波猜测热潮。
争议点/讨论角度
- “开源 ≠ 人人可用”:模型 1.5TB,部署需要的硬件比一辆车还贵。所谓“开源民主化”到底是真的还是口号?
- 华为芯片训练:GLM-5 完全在华为昇腾芯片上训练,不依赖任何美国 GPU。2025 年美国把智谱列入实体清单,这个技术独立性意味着什么?
- "Agentic Engineering" 谁先说的?:智谱、Karpathy、Addy Osmani 几乎同时在用这个词,Simon Willison 专门写了博客讨论这个命名权的问题
- IPO 后一个月暴涨 173%:是实力还是泡沫?$19B 市值对比 24.7 亿亏损,投资者在赌什么?
热度数据
- PH:138 票(中等热度)
- Hacker News:多条讨论帖上首页
- Twitter/X:Z.ai 官方推文 88.97 万浏览
- 媒体覆盖:VentureBeat、South China Morning Post、Latent Space、Medium 大量报道
- Simon Willison 博客:专文评论
内容建议
- 适合写的角度:"开源 AI 的代价 -- 当免费模型需要百万级硬件"
- 蹭热点机会:中美 AI 竞争叙事、“Agentic Engineering”概念解读、开源 vs 闭源 2026 终极对决
给早期采用者
定价分析
| 方式 | 费用 | 适合谁 | 够用吗? |
|---|---|---|---|
| chat.z.ai | 免费 | 体验用户 | 日常体验够了 |
| API (OpenRouter) | 约 $1/$3 /M tokens | 开发者/小团队 | 性价比极高 |
| Ollama 本地 | 零 API 成本,但需硬件 | 技术极客 | 量化后 Mac Studio 可跑 |
| vLLM 集群 | 硬件投入大 | 企业级部署 | 最佳性能 |
隐藏成本:自部署的电费和硬件折旧。BF16 满血版需要 ~1.5TB VRAM(约 20 张 A100 80GB),就算 2-bit 量化也需要 241GB(高配 Mac Studio 级别)。
上手指南
- 上手时间:5 分钟(API/chat.z.ai)到 2 小时(本地 Ollama)
- 学习曲线:低(API)/ 中(本地部署)
最快开始方式:
- 直接去 chat.z.ai 试用(零门槛)
- 用 Ollama 本地跑:
ollama run glm-5:cloud - 用 API:在 OpenRouter 注册,获取 API key,兼容 OpenAI SDK
坑和吐槽
- 简单任务反而慢:短对话、代码补全这种活儿,GLM-5 有明显延迟。用户反馈“搜索建议插件换成 GLM-5 后,用户能感觉到那一点点迟钝”
- 只有文本:没有图片理解、没有音频处理。如果你需要多模态,看 Kimi K2.5 或 GPT-5.2
- 推理成本翻倍:比 GLM-4.7 贵了 2 倍。对于已经在用 GLM-4.7 的团队,升级要算清楚账
- 生成质量偶有瑕疵:测试中发现 UI demo 里出现假文本消息、图形质量下降等小问题
- Token 效率不如 Claude:输出的 token 更多但信息密度不如 Claude Opus
安全和隐私
- 开源透明:权重完全开放,理论上可以审计
- 数据存储:自部署 = 数据完全在本地;API = 走 Z.ai 或 OpenRouter 的服务器
- 注意:智谱是中国公司(虽然港股上市),数据敏感的场景建议自部署
替代方案
| 替代品 | 优势 | 劣势 |
|---|---|---|
| DeepSeek R1 | 便宜 96%,部署门槛低 | 推理能力不如 GLM-5 |
| Llama 3 | Meta 生态成熟 | License 限制多,性能略逊 |
| Kimi K2.5 | 有视觉能力 | Agent 能力不如 GLM-5 |
| Claude Opus 4.6 API | 目前最强 | 贵 5 倍,闭源 |
| GPT-5.2 API | 全模态,400K 上下文 | 中等价位,闭源 |
给投资人
市场分析
- LLM 全球市场:2026 年约 $10B,预计 2033 年达 $82B(CAGR 33.7%)
- 企业 LLM 市场:2026 年 $5.91B,预计 2034 年达 $48.25B(CAGR 30%)
- 亚太区:增速全球最快,CAGR 89.21%
- 成本趋势:GPT-4 级性能成本已降至 2 年前的 1/100
竞争格局
| 层级 | 玩家 | 定位 |
|---|---|---|
| 闭源头部 | Anthropic (Claude)、OpenAI (GPT) | 最强性能,最高价格 |
| 开源头部 | Z.ai (GLM-5)、Meta (Llama) | 接近闭源性能,MIT/开源许可 |
| 性价比层 | DeepSeek、MiniMax、xAI (Grok) | 更便宜,性能次一档 |
| 多模态层 | Google (Gemini)、OpenAI | 文本+视觉+音频全能 |
Timing 分析
- 为什么是现在:开源模型追上闭源的窗口从 18 个月缩短到几个月。GLM-5 发布后 3 天就能在 Ollama 上跑,这种速度前所未有
- 技术成熟度:MoE 架构、Sparse Attention、异步 RL 都是成熟技术的创新组合,不是实验性质
- 市场准备度:企业已经从“试试 AI”进入“AI 是核心基础设施”阶段,需要可控、可自部署的方案
团队背景
- 创始人:唐杰(清华教授,IEEE/ACM/AAAI Fellow)、李娟子(清华教授)
- CEO:张鹏(清华校友)
- 公司地位:中国“AI 六小虎”之一,IDC 评为中国第三大 LLM 市场玩家
- 过往成绩:GLM 系列从 2021 年迭代至今,GLM-4.7 上线一周就在 OpenRouter 上 token 用量排第一
融资情况
- IPO:2026 年 1 月 8 日港股上市(HKEX: 2513),募资 $558M
- IPO 估值:$6.6B
- 当前市值:$19B+(IPO 后一个月暴涨 173%)
- 总融资:约 $1.5B
- 投资人:阿里巴巴、蚂蚁集团、腾讯、美团、小米、红杉、沙特阿美
- 财务状况:2024 年净亏损 RMB 24.7 亿,研发支出 > 收入 700%
- 盈亏平衡:预计 2027-2028 年
- 分析师:JPMorgan 给“增持”评级,目标价 HK$400
结论
GLM-5 是 2026 年开源 AI 最重要的发布之一。它不是“又一个开源模型”,而是第一个在 Agent 能力上真正逼近 Claude/GPT 的开源选手。但“开源”不等于“免费午餐”-- 真正的成本藏在硬件里。
| 用户类型 | 建议 |
|---|---|
| 独立开发者 | 试试。先用 chat.z.ai 或 API 感受下,如果你在做 Agent 应用,GLM-5 是目前性价比最高的选择 |
| 产品经理 | 关注。“Agentic Engineering” 是 2026 年最重要的产品范式之一,GLM-5 的“先规划后执行”设计值得借鉴 |
| 科技博主 | 可写。清华教授 -> 港股 IPO -> 美国实体清单 -> 华为芯片训练开源模型,故事线足够精彩 |
| 早期采用者 | 值得折腾。API 够便宜,Ollama 部署够简单。但如果你需要多模态,这个不适合 |
| 投资人 | 值得关注但需谨慎。$19B 市值对比 24.7 亿亏损,短期看热度,长期看能否在开源 + API 的模式下走出盈利路径 |
资源链接
| 资源 | 链接 |
|---|---|
| 官网 | z.ai/blog/glm-5 |
| GitHub | github.com/zai-org/GLM-5 |
| 在线体验 | chat.z.ai |
| API 文档 | docs.z.ai/guides/llm/glm-5 |
| Ollama | ollama.com/library/glm-5 |
| HuggingFace | huggingface.co/zai-org |
| ProductHunt | producthunt.com/products/z-ai |
| Twitter/X | @Zai_org |
2026-02-14 | Trend-Tracker v7.3 | 数据来源:VentureBeat, SCMP, Hacker News, GitHub, Twitter/X, Caproasia, Precedence Research