
GLM 4.6 已经很快了,但 GLM 4.7 与 Claude Code 结合使用时,速度更是达到了另一个层次。
Z.AI 于 2025 年 12 月 22 日发布了 GLM 4.7——就在一周前——我从发布之日起就一直在进行测试。
如果您读过我关于 GLM 4.6 的文章,您就会知道我印象深刻。我称它为目前最被低估的编码模型之一。好了,现在我需要更新一下我之前说的内容。
GLM 4.7 的基准测试成绩显著提升,用户界面生成更加简洁,并且新增了一些思考功能,使其在复杂的 Claude Code 会话中更加稳定。
但基准测试成绩只是数字而已。让我来演示一下它的功能。
和我的 GLM 4.6 文章一样——演示,而非讲解。
这次我要构建一个更复杂的应用。
不仅仅是一个基础的任务管理器,而是一个具有多种功能的实时协作应用程序。
我的提示如下:
Build me a real-time collaborative todo app with:
- User authentication
- Real-time sync across devices
- Drag-and-drop task ordering
- Dark/light mode toggle
- Clean, modern UI with Tailwind
- Supabase for the backend

不到 3 分钟即可完成。
但不同之处在于——代码结构比 4.6 版本更清晰。
组件组织更合理。Tailwind 类并非随意堆砌,而是遵循一致的模式。

看看这 UI。这就是 Z.AI 所说的“氛围编码”——相比 4.6 版本,改进显而易见。
间距更合理。颜色搭配更协调。看起来像是出自设计师之手。
实时同步一次成功。身份验证已正确配置。拖放功能无需修改任何代码即可正常工作。
一次发布就能推出一款可用的应用程序,这令人印象深刻。
当然,我并不是说 GLM 4.7 比 Claude Sonnet 4.5 更好。它并非如此——至少并非在所有方面都更胜一筹。但是,每月只需 3 美元,而 Claude Sonnet 4.5 每月却要 20 到 200 美元,这无疑让 GLM 4.7 的性价比大大提升。
让我来详细介绍一下这个版本的新功能。
让我们抛开营销宣传,直接看数据。
Z.AI 公布了他们的基准测试对比结果,与 GLM 4.6 相比,4.7 的改进非常显著——并非像大多数模型更新那样只有 1% 到 2% 的提升。
以下是 4.6 到 4.7 版本之间的变化:
Terminal Bench 2.0 的性能提升幅度惊人——从 24.5% 提升到 41%。

这意味着在基于终端的编码任务中,性能提升了 16.5 个百分点。对于 Claude Code 用户而言,真正重要的是什么?

Z.AI 将 GLM 4.7 与 GPT-5、GPT-5.1、Claude Sonnet 4.5、Gemini 3.0 Pro 和 DeepSeek-V3.2 进行了比较。
亮点:
我并不是说 GLM 4.7 在所有方面都超越了 Claude——事实并非如此。
Claude Sonnet 4.5 在 SWE-bench Verified 测试和一些推理任务中仍然领先。但差距已显著缩小。
Z.AI 在此版本中重点改进了以下四个方面:
多语言智能体编码得到了重大升级。在 SWE-bench Multilingual 测试中,GLM 4.7 的得分提高了 12.9%,这意味着它能够更稳定地处理 Python、JavaScript、TypeScript、Go 和其他语言。
基于终端的任务也得到了显著改进。如果您使用 Claude Code 执行 bash 操作、文件管理或系统命令,您会明显感受到性能的提升。
这是 Z.AI 对 UI 生成质量的描述。GLM 4.7 生成:
我在演示中看到了这一点。Tailwind 类并非随意使用,而是遵循设计模式。间距、颜色和字体都显得更加用心。
τ²-Bench 得分高达 87.4%,足以说明一切。当 GLM 4.7 需要调用外部工具(例如 API、数据库、浏览器、MCP 服务器)时,其可靠性更高。
网页浏览任务的 BrowseComp 得分从 45.1% 跃升至 52.0%。启用上下文管理后,得分达到 67.5%。
HLE 基准测试旨在解决需要深度推理的问题。GLM 4.7 在使用工具的情况下得分 42.8%,比 4.6 版本提升了 12.4 分。
作为参考,GPT-5.1 High 在同一基准测试中的得分为 42.7%。GLM 4.7 与之不相上下。

这正是我最期待 Claude Code 用户体验到的。
GLM 4.7 引入了三种思维模式:
模型会在每次响应和每次工具调用之前进行思考。这并非新功能——它始于 GLM 4.5——但此次得到了增强。
这意味着:更好的指令执行。更高质量的代码生成。更少的模型误解用户指令的情况。
这对于 Claude Code 会话而言意义非凡。
在编码代理场景中,GLM 4.7 会自动保留多轮对话中的所有思考模块。它会重用现有的推理过程,而不是从头开始重新推导。
长时间的 Claude Code 会话经常会遇到上下文漂移的问题。模型会忘记三个提示之前正在执行的操作。保留思考功能显著减少了这个问题。
对于跨越多个文件和多个提示的复杂重构任务来说,这意义重大。
现在,您可以在会话中逐轮控制推理过程。
对于简单的请求,您可以禁用思考功能以降低延迟和成本。对于复杂的任务,启用思考功能可以提高准确性。
4.6 版本不具备这种灵活性。
更好的基准测试和保留思考功能的结合,使 GLM 4.7 在智能编码工作流程中更加稳定。
在我的测试中,它在长时间会话中更好地保持了上下文。它在多文件操作中犯的错误更少。工具调用也更加可靠。
是 Claude Sonnet 4.5 吗?不是。
但两者之间的差距比以往任何时候都小——而价格差异仍然巨大。
接下来我们来谈谈价格。
我们来谈谈钱。
Claude Code 定价

如果您是重度用户,每月费用约为 100-200 美元。也就是说,每年需要花费 1200-2400 美元购买一个编码助手。
GLM 4.7 定价

与 GLM 4.6 相同的每月 3 美元——但现在您将获得一个性能显著提升的版本。
快速对比

计算很简单。GLM 4.7 的价格比 Claude 低 5-6 倍,但功能却相当。
如果您已经在我的 4.6 版本文章中提到过 GLM 编码方案,那么您将自动升级到 4.7 版本。价格相同,但功能更强大。

总体印象

现在让我来演示如何设置。
大约需要 5 分钟。
前提条件
步骤 1:安装 Claude Code(如果需要)
Mac/Linux:
npm install -g @anthropic-ai/claude-codeWindows PowerShell:
irm https://claude.ai/install.ps1 | iex验证安装:
claude --version
步骤 2:创建 Z.AI 帐户并获取 API 密钥

步骤 3:配置 Claude Code
选项 A:快速方法(临时)
Mac/Linux:
export ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic
export ANTHROPIC_AUTH_TOKEN=your_api_key_here
claudeWindows PowerShell:
$env:ANTHROPIC_BASE_URL="https://api.z.ai/api/anthropic"
$env:ANTHROPIC_AUTH_TOKEN="your_api_key_here"
claude选项 B:永久方法(推荐)
创建或编辑 ~/.claude/settings.json:
{
"env": {
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
"ANTHROPIC_AUTH_TOKEN": "your_api_key_here",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.7"
}
}步骤 4:验证设置
打开一个新的终端并运行:
claude
/status您应该看到:
原文链接:Claude Code + GLM 4.7 实测 - 汇智网
更新时间:2026-01-06
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号