GLM-5.1とは?MITライセンス公開でSWE-bench1位、Claude Opus 4.6やGPT-5.4を超えた中国発AIモデルを徹底解説

この記事のポイント
GLM-5.1は中国Z.aiが2026年4月にMITライセンスで公開したオープンソースLLM。SWE-Bench Proで58.4を記録し、GPT-5.4やClaude Opus 4.6を上回ったコーディング特化モデルの特徴・ベンチマーク・料金・使い方・導入判断を整理します。
GLM-5.1は、中国のAIスタートアップ Z.ai(旧 Zhipu AI/智谱AI) が2026年4月7日にMITライセンスで公開したオープンソースの大規模言語モデルです。コーディング特化型の長時間自律エージェントとして設計されており、SWE-Bench Pro で58.4ポイントを記録し、GPT-5.4(57.7)やClaude Opus 4.6(57.3)といった主要クローズドモデルを初めて上回ったオープンソースモデルとして注目を集めています。
本記事では、GLM-5.1の定義・仕様・ベンチマーク・料金・使い方・他モデルとの違い・導入判断までを、公式情報をもとに整理します。「GLM-5.1が本当に自社プロジェクトで使えるのか」を判断したいエンジニア・技術選定者・AI導入担当者を想定した内容です。
この記事の結論(先に要点):
- GLM-5.1は MITライセンスの完全オープンウェイトモデル(商用利用・改変・再配布すべて可)
- 総パラメータ約744B〜754BのMoE、アクティブ40B、コンテキスト200K、出力最大128K〜131Kトークン
- 単一タスクで最大8時間・1,700ステップの自律実行が可能(エージェンティック用途に特化)
- Z.ai APIの公開料金は入力 約$0.95/出力 約$3.15(1Mトークン)と、Claude Opus 4.6の1/15以下の水準
- 中国企業のモデルのため、業務導入ではデータレジデンシーとコンプライアンスの事前確認が不可欠
GLM-5.1とは
GLM-5.1は、清華大学発のAIスタートアップ Z.ai(旧 Zhipu AI) が2026年4月7日にリリースしたオープンソース大規模言語モデルです。GLM-5系のフラッグシップにあたり、特にコード生成と長時間のエージェント実行に最適化されています。

項目 | 内容 |
|---|---|
モデル名 | GLM-5.1 |
開発元 | Z.ai(旧 Zhipu AI/智谱AI、中国・清華大学発) |
リリース日 | 2026年4月7日 |
ライセンス | MITライセンス(商用利用・改変・再配布すべて可) |
モダリティ | テキスト入力・テキスト出力(マルチモーダル非対応) |
主な公開先 | Hugging Face |
対応言語 | 英語・中国語(日本語も利用可能との報告あり) |
位置付け | GLM-5系の最新版フラッグシップモデル |
Z.aiは2026年1月に香港証券取引所への上場を果たした、世界初の上場した基盤モデル企業でもあります。GLM-5.1の発表後、同社株価は香港市場で約19%急騰しており、中国オープンソースAI勢の躍進を象徴する存在になっています。
GLM-5.1が他モデルと明確に違うのは、「単発のコード生成能力」ではなく「長時間の自律実行能力」で評価軸を設計している点です。Z.aiの公式発表では、2025年末時点では約20ステップが限界だったエージェント実行を、GLM-5.1では1,700ステップ・最大8時間連続まで伸ばせるとしています。
GLM-5.1の主な特徴
GLM-5.1を理解するうえで押さえておきたいポイントは5つです。
1. MoE(Mixture-of-Experts)構造で744B〜754Bパラメータ
GLM-5.1はMixture-of-Expertsアーキテクチャ(GLM_MOE_DSA)を採用し、総パラメータ数は744B〜754B(公式Hugging Faceは754B表記)、推論時のアクティブパラメータはトークンあたり40Bです。MoEにより、フル稠密モデル相当の性能を保ちつつ、推論コストを数分の1に抑えられる構造になっています。
2. 200Kコンテキスト・128Kトークン出力
コンテキスト長は200,000トークン、最大出力トークンは128,000〜131,072トークン(仕様表記揺れあり)。大規模コードベースの読み込みや、長いリファクタリング計画の出力を1リクエスト内で完結させられる水準です。
3. 最大8時間・1,700ステップの自律実行
GLM-5.1最大の特徴は、単一タスクで最大8時間・1,700ステップの連続自律実行ができる点です。「計画 → 実装 → テスト → 修正 → 最適化」のループを、人間の介入なしで完結させることを想定しています。数百ラウンド・数千のツール呼び出しにわたって一貫した動作をする設計で、エージェンティックコーディング用途に最適化されています。
4. MITライセンスでの完全オープンソース化
GLM-5.1はMITライセンスで公開されています。MITは数あるOSSライセンスの中でも最も緩い部類で、商用利用・改変・再配布・社内利用すべて制限なしです。大手クローズドモデル(Claude、GPT-5.4、Geminiなど)と同水準の性能を、ライセンス縛りなしで自社インフラに持ち込める点は、日本企業にとっても大きな意味を持ちます。
5. Huawei Ascendで訓練、Nvidia非依存
GLM-5.1は約100,000台のHuawei Ascend 910Bチップ(MindSporeフレームワーク)で訓練されており、Nvidia GPUを使用していません。米中のAI半導体規制の文脈で、「非Nvidiaスタックで世界トップ級モデルを訓練できた」という事実自体が地政学的な意味を持ち、ハードウェアチェーン分散の可能性を示す事例として業界で注目されています。
GLM-5.1のベンチマーク成績
GLM-5.1はコーディング・エージェント系のベンチマークで複数トップクラスの成績を記録しています。特に SWE-Bench Pro での58.4ポイントは、公開された全モデル中で首位との報告があります。

ベンチマーク | GLM-5.1 | 参考スコア |
|---|---|---|
SWE-Bench Pro | 58.4(世界1位) | GPT-5.4: 57.7 / Claude Opus 4.6: 57.3 |
SWE-bench Verified | 77.8 | Claude Opus 4.6: 80.8 |
CyberGym(1,507タスク) | 68.7(最高) | — |
BrowseComp(ブラウジング) | 68.0(最高) | — |
Terminal-Bench 2.0 | 63.5 | — |
NL2Repo | 42.7 | — |
AIME 2026(数学) | 95.3 | — |
GPQA-Diamond(推論) | 86.2 | Claude: 91.3 |
HLE(ツール付き) | 52.3 | — |
LiveCodeBench | 52.0 | Qwen 3.5-Omni: 83.6 |
Code Arena Elo | 1,530(世界3位) | Claude Opus 4.6系に次ぐ |
コーディング複合 | 54.9 | Claude Opus 4.6: 57.5(GLM-5.1は約94.6%の性能) |
読み方:
- SWE-Bench Pro は実世界のプルリクエスト課題を扱うベンチマークで、「どれくらい実用的に使えるか」に近い指標です。ここで1位をとった意義は大きいです。
- SWE-bench Verified では Claude Opus 4.6 が上で、純粋なコード修正能力は Claude が依然強いとも読めます。
- Code Arena Elo 1,530 は人間評価に基づくランキングで、世界3位です。
- 数学・推論系では Claude 側が優位、コーディング・エージェント系は GLM-5.1 が優位、という棲み分けになっています。
なお、これらは主にZ.ai自己報告ベースのスコアであり、第三者検証は進行中です。各社の測定条件は厳密には異なるため、現時点では参考値として扱うのが妥当です。
GLM-5.1の料金プラン
GLM-5.1の利用には大きく分けて ①Z.ai公式API ②Coding Plan(サブスクリプション) ③セルフホスト の3通りがあります。
⚠️ 料金はソースによって若干の差異があり、以下は2026年4月時点の公開情報です。導入前に公式(docs.z.ai / bigmodel.cn)で最新価格を必ず確認してください。
① Z.ai公式API料金(従量課金)
項目 | 標準時間帯 | ピーク時間帯(北京時間14:00〜18:00) |
|---|---|---|
入力(1Mトークン) | 約 $0.95 | 約 $1.40(約3倍との報告) |
出力(1Mトークン) | 約 $3.15 | 約 $4.40 |
キャッシュ入力 | 約 $0.26 | — |
Claude Opus 4.6の$15〜$75や、GPT-5.4上位モデルと比べて圧倒的に低価格です。ただし、ピーク時間帯の料金が標準の約3倍に跳ね上がるという報告があり、タスクスケジューリングに注意が必要です。
② Coding Plan(四半期サブスクリプション)
プラン | 四半期料金 |
|---|---|
Lite | $27 |
Pro | $81 |
Max | $216 |
長時間エージェントを回すヘビーユースでは、従量APIよりサブスクのほうがコスト予見性が高くなります(プランごとの含まれるトークン量等の詳細は公式要確認)。
③ セルフホスト(MITライセンスを活用)
モデル料金は実質無料です。ただしハードウェアコストは別途必要で、後述のとおりコンシューマー機では運用が困難です。データレジデンシーを担保したい業務利用ではこの選択肢が推奨されます。
GLM-5.1と主要モデルの比較
GLM-5.1を「選ぶか選ばないか」を判断するうえで、主要なクローズドモデル・他のオープンソースモデルとの比較ポイントを整理します。

モデル | GLM-5.1 | Claude Opus 4.6 | GPT-5.4 | DeepSeek V3.2 |
|---|---|---|---|---|
開発元 | Z.ai(中国) | Anthropic(米国) | OpenAI(米国) | DeepSeek(中国) |
ライセンス | MIT(完全OSS) | プロプライエタリ | プロプライエタリ | OSS(条件あり) |
SWE-Bench Pro | 58.4 | 57.3 | 57.7 | — |
コンテキスト | 200K | 200K〜 | 最大400K程度 | 128K〜 |
マルチモーダル | × テキスト専用 | ○ | ○ | △ |
入力料金(1Mトークン) | 約$0.95 | 約$15 | 約$10 | 約$0.27 |
出力料金(1Mトークン) | 約$3.15 | 約$75 | 約$40 | 約$1.10 |
長時間エージェント | 最大8時間 | 長時間対応 | 長時間対応 | 限定的 |
セルフホスト | ○ | × | × | ○ |
Nvidia GPU依存 | なし(Ascend) | あり | あり | あり |
ざっくりまとめ:
- 最高品質のマルチモーダル・会話品質なら Claude Opus 4.6 / GPT-5.4
- コーディング特化×オープンソース×低価格なら GLM-5.1
- とにかくAPIコストを下げたいなら DeepSeek V3.2
- セルフホストによるデータ主権確保なら GLM-5.1 または DeepSeek
現時点では、GLM-5.1は「クローズドSOTAに追いついた唯一のオープンソースコーディングモデル」という独自ポジションを占めています。
関連記事: GPT-5.4とは ・ DeepSeek V4とは ・ AIコーディングツール おすすめ 比較
GLM-5.1の使い方
GLM-5.1は、以下の4通りの方法で利用できます。用途とスキルレベルに応じて選びましょう。
① Z.ai公式APIで利用する(もっとも手軽)
Z.aiが提供する公式APIを経由する方法です。アカウント登録→APIキー取得→OpenAI互換のSDKで呼び出す、という流れで、既存のOpenAI互換コードをほぼ改修なく使えます。
対象: 個人開発者、小規模サービス、PoC開発
② Claude Code / OpenCode / Cline 等からGLM-5.1を呼び出す
エージェンティックコーディングツール側の設定でGLM-5.1に切り替えられるのが、GLM-5.1の大きな強みです。
対応が確認されている主なツール:
- Claude Code
- OpenCode
- Cline
- Kilo Code
- Roo Code
- Droid
Claude Codeの場合は設定変更のみで利用可能との報告があります。普段 Claude Code や Cline を使っているエンジニアは、モデルをGLM-5.1に差し替えるだけで体感できます。
関連記事: Claude Codeとは ・ AIコーディングツール おすすめ 比較
③ Hugging Faceからウェイトを取得してセルフホスト
MITライセンスなので、公式Hugging Faceリポジトリ(zai-org/GLM-5.1)から直接ウェイトをダウンロードし、自社インフラ上で推論サーバーを立てられます。推論フレームワークは以下がサポートされています。
- vLLM(v0.19.0+)
- SGLang(v0.5.10+)
- xLLM(v0.8.0+)
- Transformers
- KTransformers
- Ollama(GGUF量子化版)
対象: 機密データを扱う企業、データ主権を重視する業務システム
④ Ollama等で量子化版をローカル実行
Ollama向けのGGUF量子化版も提供されており、原理的にはローカル実行可能です。ただし次項で説明する通り、744BのMoEモデルは消費者向けハードウェアでは現実的に動かないため、多くの場合はエンタープライズGPUクラスタが前提になります。
GLM-5.1をローカル実行するためのハードウェア要件
GLM-5.1はコンシューマー機では事実上動きません。ここは導入判断で最重要ポイントです。
精度 | 必要ストレージ | 推奨GPU構成 |
|---|---|---|
フル精度(BF16/FP32) | 約 1.49TB | H100 ×8枚相当のエンタープライズクラスタ |
FP8量子化 | 約 750GB(約50%削減) | それでもH100 ×4〜8枚程度 |
INT4量子化(GGUF) | 大幅削減 | ハイエンドGPU複数枚が現実ライン |
判断基準:
- 個人開発者・検証用途: Z.ai API(または OpenRouter経由)を使うのが現実的
- 中小企業のPoC: API + Coding Plan のサブスクが低コスト
- 機密データを扱う大企業: 大型GPUクラスタを確保してセルフホスト。または国内クラウド(AWS/GCP/Azureの専用インスタンス)でプライベート運用
「MITだから無料で使える」と早合点せず、ハードウェア総所有コスト(TCO)で判断してください。
GLM-5.1を業務利用する際のセキュリティ・データ取り扱い注意点
GLM-5.1は中国企業の開発モデルのため、業務利用時にはデータレジデンシー(保管地)とコンプライアンスを事前に確認する必要があります。

注意すべき観点
- Z.ai公式APIを利用する場合、リクエストおよびレスポンスデータは中国本土のインフラを経由する可能性があります。機微情報・顧客個人情報・機密ソースコードを送信する前に、社内のコンプライアンス担当・法務部門に確認してください。
- 米中AI規制の文脈で、政府・公共機関・医療・防衛等の特定分野では、中国製AIモデルの利用自体が制限される場合があります。
- モデル自体のセキュリティ性(バックドアや意図的な挙動)については現時点で公開情報では特段の指摘は見つかりませんが、オープンウェイトなのでコミュニティによる監査が継続的に行われる前提です。
安全に使うための運用ポイント
- API経由で送る情報は事前スクリーニング(機密データ・顧客情報は送信しない、マスキングする)
- 機密性の高い用途はセルフホストを選ぶ(MITライセンスのため国内クラウド/オンプレで完全クローズド運用が可能)
- 社内のAI利用ポリシーを整備(どのモデルに何を送ってよいかを明文化)
- ログ・監査証跡を保存する(エージェント実行ログの長期保管、事後検証できる体制)
- モデルの出力を鵜呑みにしない(特にコード修正は人間レビューを必須化)
関連記事: 生成AI セキュリティ リスク ・ AIコーディング セキュリティ リスク
GLM-5.1のメリット・強み
- SWE-Bench Pro 世界1位のコーディング能力を、完全オープンソース(MIT)で入手できる
- Claude Opus 4.6の1/15以下の圧倒的な低価格(Z.ai公式API)
- セルフホスト可能なため、データ主権・国内運用を実現しやすい
- Claude CodeやOpenCodeから設定変更のみで利用可能な互換性
- 最大8時間・1,700ステップの長時間エージェント実行に最適化
- コンテキスト200K・出力128K〜131Kの大容量
- Nvidia非依存で訓練されており、半導体サプライチェーン分散の観点でも価値あり
GLM-5.1のデメリット・弱み
- マルチモーダル非対応(画像・音声・動画は入力不可)。マルチモーダル要件がある用途では Claude や GPT-5.4 が必須
- コンシューマー機では事実上動かない(フル精度で約1.49TB/H100 ×8枚相当が必要)
- ピーク時間帯(北京時間14:00〜18:00)のAPI料金が標準の約3倍
- 中国企業のモデルのため、業務利用時はデータレジデンシー確認が必須
- 純粋な数学・推論性能は Claude Opus 4.6 のほうが上(AIME・GPQAで数ポイント差)
- 第三者によるベンチマーク検証がまだ進行中で、公称値の精度は今後の確認が必要
- LiveCodeBenchではQwen 3.5-Omniのほうがスコアが高い(用途によっては他モデルが優位)
GLM-5.1がおすすめな人・おすすめしない人
GLM-5.1が向いている人
- AIエージェントで長時間の自律作業(リファクタリング・PRレビュー・CI/CDループ)を自動化したいエンジニア
- APIコストを下げたい個人開発者・スタートアップ
- データ主権を確保しつつ高性能モデルを使いたい企業(セルフホスト派)
- Claude CodeやOpenCode、Clineをすでに使っていて、モデルを差し替えて試したいチーム
- Nvidia非依存のスタックを検証したいR&D部門
GLM-5.1がおすすめしない人
- マルチモーダル(画像・音声・動画)を扱いたいユーザー → Claude / GPT / Gemini を推奨
- 中国企業のAPIに機密データを送れない業種(金融・医療・公共など規制対象)
- 最高水準の推論・数学能力を求める研究者 → Claude Opus 4.6系・GPT-5.4系が依然優位
- GPU資産がなくセルフホストできないが、APIでも社内規程で中国企業を使えないケース
- 日本語での高品質出力を最重視するユーザー → 現状は英語・中国語が主言語で、日本語ベンチマーク未公表
よくある質問(FAQ)
Q1. GLM-5.1は本当に無料で使えますか?
MITライセンスのためモデル自体は完全に無料で、商用利用・改変・再配布も自由です。ただし、Z.ai公式APIで利用する場合は従量課金(入力 約$0.95、出力 約$3.15/1Mトークン)が発生し、セルフホストの場合もGPUクラスタのハードウェアコストが必要です。「ライセンス料」はかからない、という理解が正確です。
Q2. Claude Opus 4.6と比べて実務でどちらが良いですか?
用途で分かれます。長時間の自律エージェント実行・コード生成・APIコスト重視ならGLM-5.1、総合的な文章品質・マルチモーダル対応・数学推論ならClaude Opus 4.6です。SWE-Bench ProではGLM-5.1が上、SWE-bench VerifiedではClaude Opus 4.6が上、という拮抗した関係にあります。
Q3. 日本語で使えますか?
日本語でも動作するという利用報告はありますが、公式に性能を保証している主要言語は英語・中国語です。日本語ベンチマークは2026年4月時点で公表されていないため、日本語タスク中心なら事前検証を強く推奨します。
Q4. Claude CodeやOpenCodeで使えますか?
使えます。Claude Code・OpenCode・Cline・Kilo Code・Roo Code・Droidなどの主要なエージェンティックコーディングツールに対応しており、設定ファイルでモデルをGLM-5.1に切り替えるだけで利用できます。
Q5. セルフホストするにはどれくらいのGPUが必要ですか?
フル精度(BF16/FP32)で動かすには約1.49TBのストレージとH100 ×8枚相当のGPUクラスタが必要です。FP8量子化でメモリ約50%削減は可能ですが、それでもコンシューマー機(RTX 4090・5090等1枚)では現実的に動きません。PoCや検証段階ではZ.ai API利用が現実的です。
Q6. 日本企業が導入する際の注意点は?
①公式API利用時はデータが中国本土インフラを経由する可能性があるため、社内コンプライアンス確認が必須、②セルフホストを選べばデータ主権を維持できる、③業種によっては規制・ガイドラインで中国製AIモデルの利用が制限されるケースがある、という3点を事前確認してください。
Q7. GLM-5.1と GLM-4.5 / GLM-5 の違いは?
GLM-5.1はGLM-5系の最新版で、エージェント連続実行ステップ数が大幅に伸長(従来約20ステップ → 1,700ステップ)し、SWE-Bench Proでクローズドモデルを初めて超えた点が最大の進化です。アーキテクチャはMoE基盤を継承しつつ、訓練スケールと後処理の強化で長時間実行の安定性を高めた世代と理解できます。
Q8. 今後のアップデート頻度は?
GLM-5.1は2026年4月7日リリース直後のため、マイナー更新(5.1.x)の頻度は未確認です。一般的にZ.aiは月〜四半期ペースでアップデートを行ってきた実績があるため、公式ドキュメント(docs.z.ai / bigmodel.cn)を月1程度でチェックすることを推奨します。
まとめ:GLM-5.1は「オープンソースで世界SOTAに並んだ」転換点のモデル
GLM-5.1は、MITライセンスのオープンソースモデルが、ついにクローズドSOTA(Claude Opus 4.6・GPT-5.4)と同水準に到達したことを示す象徴的なリリースです。特にコーディングと長時間エージェント実行という領域では、世界トップクラスを確保しました。
導入判断のポイントは以下です。
- 個人開発者・スタートアップは、Z.ai APIかOpenRouter経由でまず試す
- 中規模以上の企業は、データレジデンシーとコンプライアンスを確認したうえで、API→セルフホストのいずれかを選ぶ
- マルチモーダルや日本語主体のユースケースでは、Claude / GPT / Gemini と並行利用するのが現実的
- 情報は毎月アップデートされる領域のため、導入前には必ず最新の公式料金・仕様を確認する
関連するまとめページもあわせてご覧ください。
参考情報源
- Hugging Face:
zai-org/GLM-5.1 - Z.ai 公式ドキュメント: docs.z.ai / docs.bigmodel.cn
- GitHub:
zai-org/GLM-5 - VentureBeat: 「AI joins the 8-hour work day」(2026年4月)
- Build Fast with AI: GLM-5.1 Full Review(2026年)
- WaveSpeed AI: GLM-5.1 vs Claude / GPT / Gemini / DeepSeek 比較
- XenoSpectrum(日本語): Z.ai GLM-5.1 Agentic Coding
- NextAI(日本語): Zhipu AI GLM-5.1 MITライセンス公開
この記事の著者

AI革命
編集部
AI革命株式会社の編集部です。最新のAI技術動向から実践的な導入事例まで、企業のデジタル変革に役立つ情報をお届けしています。豊富な経験と専門知識を活かし、読者の皆様にとって価値のあるコンテンツを制作しています。
関連記事

Kiro vs Cursor 比較|仕様駆動 vs エージェント型IDEの違いを徹底解説【2026年最新】
2026/04/12

MCPとは?仕組み・できること・対応ツール・セキュリティを総合解説【2026年版】
2026/04/12

Devin vs Claude Code 比較|料金・機能・使い分けの違いを徹底解説【2026年最新】
2026/04/11

A2Aプロトコルとは?仕組み・MCPとの違い・活用事例・セキュリティまでわかりやすく解説
2026/04/11

Gemini Deep Thinkとは?仕組み・料金・活用事例・他モデルとの違いをわかりやすく解説
2026/04/10

