すべてのモデル

GLM-5.1 on VM0. Long-context agents

Z.AIのフラッグシップモデル。強力なコード生成と長文再現力をミッドレンジ価格で — VM0で×0.4クレジット。

1M tokens · Text / Code · Prompt cache

GLM-5.1はZ.AIのフラッグシップモデルで、Claude Sonnet 4.6のコスト効率の良い代替として位置付けられています。1Mトークンコンテキスト、プロンプトキャッシュ、安定したコード生成能力を備え、VM0では×0.4クレジットです。

定価$1.40/$4.40/1Mトークン、キャッシュ入力$0.26/1M。Claude製品ラインより大幅に安価ですが、モダリティは制限されています(テキストとコード、画像入力なし)。

GLM-5.1とは?

2026年4月 · Z.AIのGLMファミリーのフラッグシップ。

GLM-5.1 is the flagship of Zhipu AI's GLM series, distributed via Z.AI. It's a reasoning model with strong general capability and an unusually large context window. Up to 1M tokens, several times larger than the Anthropic and Moonshot defaults at the same price tier.

On VM0, GLM-5.1 is exposed two ways: through VM0 Managed (routed via OpenRouter with the upstream id z-ai/glm-5.1), and via a direct Z.AI API key (where it's the default model). Either path uses Z.AI's Anthropic-compatible interface, so existing VM0 agents drop in unchanged.

GLM-5.1 became broadly available on VM0 in April 2026 when its feature flag was retired (PR #10497). It's the cost-efficient long-context option in the lineup, sitting at ×0.4 credits. Less than half of Sonnet 4.6.

GLM-5.1の注目ポイント

アーキテクチャと機能の主な特徴。

GLM-5.1 exposes an up-to-1M-token context window (the largest in the Built-in lineup) through an Anthropic-compatible API surface, so Claude-style agents drop in unchanged. The upstream supports prompt caching at api.z.ai.

スペック概要

ファミリーGLMファミリー
モダリティテキスト、コード
言語多言語対応
コンテキストウィンドウ1,000Kトークン
プロンプトキャッシュサポート
VM0で利用可能2026年4月

GLM-5.1のベンチマーク

Independent reviews place GLM-5.1 in the top tier of open-weight models for long-context tasks. Numbers shift weekly on third-party leaderboards. We deliberately don't pin exact percentages here.

Code Arenathird-party leaderboard
Top-3 (open weights)
Long-context recallvendor-reported
Strong across 1M-token window

GLM-5.1の価格

プロバイダー定価、100万トークンあたり。

入力$1.40
出力$4.40
キャッシュ読み取り$0.26
キャッシュ書き込み$1.40

GLM-5.1の実践的な挙動

本番エージェント実行で観測された動作。

Long-context recall

GLM-5.1's 1M-token window is genuinely usable. It maintains coherence well past the 200K boundary that limits the Anthropic family on the older 200K models. Useful for whole-repo or whole-doc-corpus agents.

Reasoning

Solid general reasoning. Below Sonnet 4.6 on the hardest English-language multi-tool routing, but the gap is small relative to the cost difference.

Tool use

Reliable across the common VM0 tool surface (Slack, GitHub, Notion, Linear). Some edge cases in deeply nested tool calls are handled less crisply than Claude Sonnet 4.6.

GLM-5.1に最適なエージェントタスク

The whole-repo refactor that fits in one prompt

Drop a 500K-token mid-sized codebase into a single GLM-5.1 call and ask for a cross-file rename, an architectural review, or a security pass. Models with smaller windows force you to chunk the repo and stitch results together, which is where bugs creep in. GLM-5.1 keeps every file in working memory and references the right paths in its output.

The research run over hundreds of documents

Wikis, RFCs, contracts, last year's support tickets — load the whole pile at once and ask for cross-document patterns. The cost-per-run stays manageable because of the low vendor price, which is what makes this kind of "read everything, summarise once" workflow actually affordable in production rather than a one-off science project.

The thinking job that needs more than ten minutes

Some agent steps genuinely take five to thirty minutes — deep research, multi-document analysis, long planning passes. VM0 sets a 50-minute API timeout for the Z.AI provider so those long thinking steps don't get cut off mid-thought, which makes GLM-5.1 the safe pick over models routed through providers with shorter default timeouts.

GLM-5.1を避けるべきケース

Skip GLM-5.1 on the hardest English-language reasoning where Sonnet 4.6 or Opus 4.7 still leads, and on latency-critical chat replies where Haiku 4.5 is much faster.

GLM-5.1 vs 他のモデル

GLM-5.1 vs Kimi K2.6

Both are long-context options at similar credit cost (×0.4 vs ×0.3). Kimi has stronger long-context recall in our internal evaluation; GLM-5.1 wins on raw context size (1M vs 256K). Pick Kimi for very long transcripts; pick GLM-5.1 when you need to stuff a whole codebase into one prompt.

GLM-5.1 vs Claude Sonnet 4.6

Sonnet 4.6 (×1) leads on tool-routing accuracy and English-language reasoning. GLM-5.1 (×0.4) leads on context window and is the right pick when cost or context size dominates the decision.

GLM-5.1 vs DeepSeek V4 Pro

DeepSeek V4 Pro (×0.3) is cheaper and benchmarks higher on Code Arena per third-party reviews. GLM-5.1 still wins on context size. Pick DeepSeek for cost-sensitive standard-context work; pick GLM-5.1 when context size is the constraint.

結論: GLM-5.1を使うべきか?

GLM-5.1はテキストとコードベースのタスクに堅実なコスト効率の選択肢です。画像入力不要で、Claude Sonnet 4.6のより安価な代替を探している場合に検討してください。

よくある質問

How big is GLM-5.1's context window on VM0?

Up to 1 million tokens. The largest in our Built-in lineup. Enough to fit a mid-sized repository or several hundred documents in a single prompt.

Which provider should I use for GLM-5.1?

VM0 Managed is the simplest path. If you want vendor-direct billing, connect a Z.AI API key.

Is GLM-5.1 open weights?

Z.AI publishes open-weight variants of the GLM series. The version exposed on VM0 routes to the Z.AI hosted API for production reliability.

Does GLM-5.1 support image input?

GLM-5.1 on VM0 is exposed for text and code. For multimodal (image/video) input, choose Claude Sonnet 4.6 or Kimi K2.6.

代替モデル

VM0でGLM-5.1を使う

VM0でGLM-5.1にアクセスする2つの方法

VM0はGLM-5.1を、VM0クレジットで課金されるBuilt-inモデル、およびZ.AI API keyを使用したBring-your-ownの2通りでサポートしています。Built-inパスではVM0 Managedルーティングと後述のクレジット倍率が適用され、Bring-your-ownパスでは上流プロバイダーに直接課金され、VM0クレジットへの変換は行われません。

VM0の推奨

VM0はGLM-5.1をコアエージェントモデルではなく、コスト削減オプションとして位置付けています。一括分類、プレフィルター、レイテンシが重要な短い返信、固定のレガシーエージェントなど、非コア作業の単価最適化に使用し、実行を左右するステップにはClaude Opus 4.7、Claude Opus 4.6、またはClaude Sonnet 4.6を維持します。

クレジットと×0.4倍率

VM0のすべてのBuilt-inモデルは、×1クレジット基準となるClaude Sonnet 4.6の倍数で価格設定されています。GLM-5.1は×0.4クレジットで課金されます。倍率はVM0の請求書に表示されるもので、上記の価格表のベンダー定価はVM0がクレジットに変換する前に上流プロバイダーが請求する金額です。

GLM-5.1は×0.4で課金されます。つまり、1ステップのコストはSonnet 4.6(×1基準)の同等ステップのわずか0.4倍です。これはクレジット基準を大きく下回り、ピーク時の推論品質よりもステップあたりのコストが重視される高ボリュームのバックグラウンドワークに自然な選択肢です。

VM0でApril 2026から利用可能。