Qwen3.6-Plusとは?SWE-bench 78.8%・1Mコンテキストの中位モデルを料金・使い方まで徹底解説

この記事のポイント
Alibabaが2026年4月に公開したQwen3.6-Plusの特徴・料金・SWE-bench 78.8%の読み解き・Claude Codeからの乗り換え手順を整理。中位モデルとしての立ち位置と日本企業向けの注意点を1ページで解説。
Qwen3.6-Plusは、Alibaba(Qwenチーム)が2026年4月2日に公開したエージェント特化型の大規模言語モデルです。 100万トークンの長大コンテキスト・常時オンの思考連鎖推論・OpenAI/Anthropic両互換APIを備え、SWE-bench Verifiedで78.8%、Terminal-Bench 2.0で61.6%という中位モデル屈指のコーディング性能を、Claude Opus 4.7のおおむね1/12〜1/18という価格で提供する点が最大の特徴です。
この記事でわかること:
- Qwen3.6-Plusの定義と、Qwen3.6シリーズ内での「中位モデル」としての立ち位置
- SWE-bench Verified 78.8%・Terminal-Bench 2.0 61.6%というスコアの正しい読み方
- Alibaba Cloud/Vercel AI Gateway/OpenRouterの最新料金比較
- Claude Code・OpenClaw・Clineから30秒で差し替えるためのAPI接続手順
- データ主権・無料Previewの落とし穴など、日本企業が導入前に確認すべきポイント
想定読者:
- Claude OpusやGPT-5.4のAPIコストを下げたいエンジニア・テックリード
- 1Mコンテキスト・エージェント型LLMをコーディング業務に組み込みたい開発チーム
- 日本拠点でAlibaba製モデルを使う場合の規制・データ保管地域を整理したい情シス担当
Qwen3.6-Plusとは|Alibabaが公開した「中位エージェントモデル」
Qwen3.6-Plusは、Alibaba CloudのQwenチームが2026年4月2日に公開した、エージェントタスク特化のクローズド型大規模言語モデルです。 公式ブログのコンセプトは「Towards Real-World Agents(実世界のエージェントへ)」で、長期タスクの自律実行・リポジトリ規模のコーディング・視覚推論を主眼に設計されています。

シリーズ内の階層は次の通りです。
モデル | ティア | 特徴 | 重み |
|---|---|---|---|
Qwen3.6-Max-Preview | 最上位 | 1兆超パラメータのsparse MoE、6つのコーディングベンチで首位主張(2026/4/20公開) | 非公開 |
Qwen3.6-Plus(本記事対象) | 中位 | SWE-bench 78.8%・1Mコンテキスト・エージェント特化 | 非公開(API提供のみ) |
Qwen3.6-35B-A3B | 中規模OSS | MoE構成、SWE-bench 73.4%、ローカル実行可 | 公開(Apache 2.0) |
Qwen3.6-27B | 中規模OSS | dense構成、コーディング特化 | 公開(Apache 2.0) |
Qwen3.5-Flash | 軽量 | 低レイテンシ・低単価、シンプルな応答用途 | 一部公開 |
Plusは「最上位のMax-Previewほどの価格・推論時間は不要だが、OSS版(27B/35B-A3B)の自前ホストはハードルが高い」というレイヤー、つまりAPI経由でフロンティアに迫る性能をコスト効率良く使いたい層に向けた中位モデルです。
入力モダリティはテキスト・画像・動画に対応するマルチモーダル仕様で、文書理解ベンチマーク「OmniDocBench v1.5」では現時点で全モデル中1位(91.2点)と公表されています。
Qwen3.6-Plusの主な機能・できること
結論として、Qwen3.6-Plusの強みは「1Mコンテキスト」「常時オンの思考連鎖」「Anthropic/OpenAI両互換API」の3点に集約されます。
1. 1,000,000トークンのコンテキストウィンドウ
標準で100万トークン入力に対応します。ターン内の最大思考長は81,920トークン、最大出力は65,536トークン。リポジトリ全体を流し込んで横断的にリファクタリングを依頼するような、コンテキスト依存度の高いコーディングタスクと相性が良い設計です。
2. 常時有効の思考連鎖(Chain-of-Thought)推論
ClaudeのExtended Thinkingや、DeepSeek Reasonerが「思考モードのオン/オフ切替」だったのに対し、Qwen3.6-Plusは思考プロセスがデフォルトで常時ONです。これに伴って次のAPIパラメータが追加されています。
preserve_thinking— 過去ターンの思考プロセスを保持したまま会話を継続できる新機能。エージェントタスクで推奨(既定はOFF)。
長期にわたるツール呼び出しや、複数ステップの試行錯誤を要するタスクで、推論経路の一貫性を保てる点がエージェント用途で評価されています。
3. OpenAI互換API/Anthropic互換APIの両対応
これが実務上もっとも効く特徴です。Anthropic互換のエンドポイントを持つため、Claude Code OpenClaw Cline OpenCode Kilo Code Qwen Code といった既存のコーディングアシスタントが、エンドポイントとモデル名を差し替えるだけでQwen3.6-Plusを利用できます。
4. エージェント機能・マルチモーダル
- エージェント機能 — ツール利用(コード実行・ファイル読込・テスト実行)、反復改善、リポジトリレベルの推論、Webブラウジング、コードインタプリタ、関数呼び出し
- マルチモーダル — 文書理解(OmniDocBench v1.5で1位)、画像・動画推論、視覚コーディング
ベンチマーク結果|SWE-bench 78.8%の正しい読み方
Qwen3.6-Plusは中位モデルでありながら、コーディング・エージェントベンチで上位モデルに肉薄するスコアを記録しています。 一方で、フロンティア最上位(Claude Opus 4.7など)には絶対精度で届いていない点も冷静に押さえる必要があります。

主要ベンチマークでの位置づけは次の通りです(第三者集計を含む参考値)。
ベンチマーク | Qwen3.6-Plus | Claude Opus 4.6 | GPT-5.4 |
|---|---|---|---|
SWE-bench Verified | 78.8% | 80.8%(Opus 4.7では87.6%との集計あり) | 約78〜85.0% |
SWE-bench Pro | 56.6% | 約45% | 57.7% |
Terminal-Bench 2.0 | 61.6% | 59.3〜74.7% | 75.1% |
OmniDocBench v1.5 | 91.2点(モデル中1位) | 未掲載 | 未掲載 |
QwenWebBench Elo | 首位 | — | — |
SWE-bench Verified 78.8%をどう読むか
- 対Claude Opus 4.7(87.6%)では約8.8ptの差 — 絶対精度ではフロンティア最上位に届いていません。重要本番リポジトリでの最終承認用途では、Opus 4.7など上位モデルの併用が現実的です。
- 対Gemini 3.1 Pro Previewとはほぼ同点クラス — 第三者の日本語レビューでも「同等の位置」と評されています。
- コスト効率では完勝 — 第三者試算ではClaude Opus系のおおむね1/12〜1/18の単価。スコア差8.8ptに対して単価が10倍以上違うため、「Plusでまず通し、Opusは難所だけ」というハイブリッド運用が現実解として広く採用されつつあります。
- SWE-bench Pro 56.6%/Terminal-Bench 2.0 61.6% — Pro帯では逆転してClaude Opus 4.6を上回る集計もあり、Terminal-Bench系(実環境タスク)で強いのが特徴。
補足: 公式ブログでは具体スコアの掲示が薄く、上記数値はOpenRouter/lmmarketcap/digitalappliedなど第三者集計を主参照としています。利用前にAlibaba公式ドキュメントの最新値を必ず確認してください。
Qwen3.6-Plusの料金・プラン
Plusは中国本土レートと国際レートで価格が異なります。国際向けの参照値はおおむね$0.28〜$0.50/M入力、$1.65〜$3.00/M出力のレンジで、Claude Opus系のおよそ1/12〜1/18の水準とされています。
主要プロバイダ別の公開料金(2026-04-26時点)を整理します。
提供元 | 入力(1Mトークン) | 出力(1Mトークン) | 備考 |
|---|---|---|---|
Alibaba Cloud Bailian(中国本土) | 約2元 | 約12元 | 最大256Kトークン入力時の標準レート |
Vercel AI Gateway(Alibabaプロバイダ) | $0.50 | $3.00 | キャッシュ読込 $0.10/M、キャッシュ書込 $0.63/M、ZDRオプションあり |
OpenRouter(標準) | $0.325 | $1.95 | 1Mコンテキスト |
OpenRouter(Preview無料枠) | 無料 | 無料 | レート制限あり、プロンプト/応答が学習に使用される旨の表示あり |
料金面の注意点
- 国際レート vs 中国本土レート — 為替・契約形態・リージョンによってAPI単価が変動します。日本企業は通常Vercel AI GatewayやOpenRouter経由でアクセスする想定になりますが、Alibaba Cloud International(シンガポール等)の直接契約も選択肢です。
- キャッシュ価格 — Vercel AI Gatewayはキャッシュ読込が$0.10/Mと格安。長大なシステムプロンプトを使う場合、実質コストはさらに下がります。
- 無料Previewは機密情報投入禁止 — OpenRouter等のフリーティアでは「プロンプトと応答がモデル改善のために収集される」旨の表示があります。検証以外には使わないでください。
公式の最新国際レートは継続して動く可能性があるため、Alibaba Cloud Model Studio (Bailian) およびVercel AI Gatewayの最新ドキュメントを利用前に確認してください。
使い方|Claude Code・OpenClaw・Clineから30秒で乗り換える
Qwen3.6-PlusはAnthropic互換APIをサポートするため、Claude CodeやOpenClawなど既存のコーディングアシスタントから「エンドポイントとモデル名の差し替えのみ」で利用できます。
基本ステップ(共通)
- Alibaba Cloud Model Studio(Bailian)またはVercel AI Gateway/OpenRouterでAPIキーを取得
- 利用するクライアント(Claude Code等)の環境変数で「APIベースURL」「APIキー」「モデル名」の3つを差し替え
- 動作確認(簡単な
/helpやhelloでレスポンスが返れば成功)
例: Claude Codeから乗り換える場合
Anthropic互換エンドポイントを指す環境変数を設定するだけで動作します(モデル名・エンドポイントの正確な値はプロバイダのドキュメントを参照)。
# 例: OpenRouter経由でQwen3.6-Plusを利用する場合のイメージ
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_API_KEY="sk-or-..."
export ANTHROPIC_MODEL="qwen/qwen3.6-plus"
claude例: Cline/OpenClaw/Kilo Code等
各クライアントの設定UI(Provider選択画面)で「OpenAI互換」または「Anthropic互換」を選び、Base URLとモデル名を入力します。多くのツールでこの形でほぼ同じ手順で利用可能です。
preserve_thinkingを活用する
エージェントとして長期タスクを連続で投げる場合は、リクエスト時にpreserve_thinking: trueを指定して過去ターンの思考プロセスを保持させると、ツール呼び出しを跨いだ一貫性が向上します。既定はOFFのため明示的にONにする運用が推奨されています。
Qwen3.6-Plusと他モデルの違い
「コスト最重視ならPlus、絶対精度最重視ならClaude Opus/GPT-5.5、ローカル実行が必要ならQwen3.6-27B/35B-A3B」というのが基本的な選び分けです。

比較ポイント | Qwen3.6-Plus | Claude Opus 4.6/4.7 | GPT-5.4 / 5.5 | Gemini 3.1 Pro |
|---|---|---|---|---|
SWE-bench Verified | 78.8% | 80.8〜87.6% | 約78〜85% | 同点クラス |
コンテキスト | 1M | 200K〜1M | 約400K〜 | 1M〜 |
思考モード | 常時ON | 切替式 | 切替式 | 切替式 |
入力単価(参考) | $0.325〜$0.50/M | 約$3〜$15/M | 約$1.25〜$2.5/M | 公開モデル次第 |
重み公開 | ❌ | ❌ | ❌ | ❌ |
API互換 | OpenAI/Anthropic両対応 | Anthropic | OpenAI | Google/OpenAI互換あり |
マルチモーダル | テキスト/画像/動画 | テキスト/画像 | テキスト/画像/音声 | テキスト/画像/動画/音声 |
Qwen3.6-Plus vs Qwen3.6-Max-Preview
同じQwen3.6シリーズ内でも、Plusは「日常運用で使えるエージェント中位機」、Max-Previewは「最難所のためのフロンティア機」という棲み分けです。
- Max-Preview — 6つのコーディングベンチで首位を主張する最上位機。1兆超パラメータのsparse MoE構成。2026/4/20公開で正式単価は本記事執筆時点で未確認。
- Plus — 1Mコンテキスト・SWE-bench 78.8%・常時思考・既存IDEとの互換性が魅力。ほとんどの実務タスクはこちらでカバー可能。
Qwen3.6-Plus vs Qwen3.6-27B / 35B-A3B(OSS版)
- OSS版(27B / 35B-A3B) — Apache 2.0で重みが公開、ローカル実行・フルなFTが可能。コンテキストは262,144トークン。SWE-benchは35B-A3Bで73.4%。
- Plus — 重み非公開だが、API一発で1Mコンテキスト・常時思考・最新の安全性チューニングが手に入る。インフラ運用コストがゼロ。
オンプレ・データ完全囲い込み要件があれば27B/35B-A3B、運用コストとピーク性能を取るならPlus、という整理になります。
メリット・デメリット
短くまとめると、メリットは「コスパ・1Mコンテキスト・互換API」、デメリットは「データ主権・絶対精度の上限・日本語品質の不確実性」です。
メリット
- コスト効率 — Claude Opus 4.7のおおむね1/12〜1/18の単価で、SWE-bench 78.8%という中位モデル屈指の精度
- 1Mコンテキスト — リポジトリ規模の流し込みに対応
- 常時オンの思考連鎖 — 長期タスクの一貫性に強み
- 既存IDEと即連携 — Claude Code/OpenClaw/Cline等の差し替えのみで動作
- マルチモーダル — 文書理解(OmniDocBench v1.5で1位)
デメリット・制約
- モデル重みの一般配布なし — Plus自体はAPI提供のみ。オンプレ展開やフルなFTは不可
- データ主権 — 主要プロバイダはAlibaba Cloud(中国本土)。金融・医療・公共セクターでは「データの取扱地域」の確認が必須。Vercel AI Gateway経由ではZDRオプションがあるが、フリーPreviewでは収集対象
- 日本語品質 — 英語に比べると相対的に劣るとの第三者観測あり(公式コメントではない)
- 応答レイテンシ — 常時chain-of-thoughtのため、シンプルなFAQ用途ではオーバーヘッドが大きい場合あり(公式latencyベンチでは約3.5秒)
- コーディング絶対性能 — Claude Opus 4.7など最上位フロンティア機には届かない
こんな人・企業におすすめ
Plusは「Claude Opus/GPT-5.5の請求書を3〜5割削りたい開発チーム」に最も刺さる選択肢です。
おすすめできる人・企業
- Claude CodeやCursor等で月数十万円〜のAPIコストを払っている開発チーム — 多くのタスクがPlusで通り、難所だけOpusに回す運用でコストが大幅に下がる
- 長大コンテキストでリポジトリ全体を扱いたいエンジニア — 1Mトークン×常時思考×Anthropic互換APIの組み合わせは現状ほぼ唯一無二
- エージェント/自律型ワークフローを構築中のチーム —
preserve_thinkingによるターン間思考保持はエージェント実装と相性が良い - OSS版(27B/35B-A3B)を試した上で、運用負荷を下げたい組織 — 自前ホストの運用負担をゼロにできる
おすすめしない人・企業
- 金融・医療・公共セクターなどデータ主権が厳しい組織 — Alibaba Cloud上でのデータ取扱を許容できない場合は、別モデルまたはOSS版27B/35B-A3Bの自前ホストを検討
- 絶対精度が最優先のミッションクリティカル用途 — Claude Opus 4.7など最上位フロンティア機を主役にすべき
- 日本語ネイティブの厳密な文章生成・推敲が中心の用途 — 第三者観測ベースで日本語品質に課題報告あり。実タスクで事前検証が必須
- モデルの完全オンプレ展開・独自ファインチューニングが必要な要件 — Plus自体はAPI提供のみのため、OSS版(27B/35B-A3B)または別の重み公開モデルを選ぶべき
日本企業が導入前に確認すべき注意点
結論として、「データ取扱地域」「無料Previewの収集ポリシー」「ZDRオプションの有無」の3点をまず確認してください。
データ主権・リージョン
- 主要プロバイダはAlibaba Cloud(中国本土) — 直接契約の場合、データ保管が中国本土または対象リージョンになる可能性を必ずDPA/契約書で確認
- Vercel AI Gateway経由のZDR(ゼロデータリテンション) — Vercel AI Gatewayでは一部プロバイダ向けにZDRオプションが提供されており、機密用途の検討に値する
- OpenRouter等のフリーティアは収集対象 — 「プロンプトと応答が学習に使われる」旨の明記あり。本番/機密情報には絶対に使わない
コンプライアンス上の論点
- 金融・医療・公共セクターなど業法上のデータ移転制限がある領域では、Plus導入前に法務・情シス・セキュリティ部門の三者レビューを推奨
- ベンダー側のシステムカード/安全性レポートが現時点で詳細公開されていないため、社内導入時のリスクアセスメントは「現時点で確認できる範囲」を明記しつつ進める運用が安全
よくある質問(FAQ)
Q1. Qwen3.6-PlusはClaude Opus 4.7の代わりに使えますか?
用途次第です。 多くのコーディングタスク(SWE-bench Verifiedベース)ではPlusで実用十分ですが、最難所や本番承認は依然としてOpus 4.7など上位モデルが優位です。「Plusでまず通し、難所だけOpus」というハイブリッド運用が、コスト・精度両面で現実的なバランスとされています。
Q2. 商用利用は可能ですか?
Alibaba Cloud Model Studio(Bailian)/Vercel AI Gateway/OpenRouterいずれも商用利用を想定したAPI提供です。 ただし契約形態・リージョン・無料Preview利用時の制約は提供元によって異なります。利用前に各プロバイダの利用規約を確認してください。
Q3. 重みは公開されていますか?
Plus自体は非公開(API提供のみ)です。 同シリーズのQwen3.6-27B(dense)とQwen3.6-35B-A3B(MoE)はApache 2.0で重みが公開されており、ローカル実行が可能です。
Q4. 日本語は使えますか?
使えますが、英語と比べた相対的な品質低下を指摘する第三者観測があります。 Alibaba公式の日本語ベンチマークは現時点で見当たらないため、自社の代表タスクで事前検証することをおすすめします。
Q5. ファインチューニングはできますか?
Plus自体のフルなファインチューニングはAPIでは不可です。 LoRA等の軽量適応の可否は本記事執筆時点で未確認。完全なFTが必要な場合は、OSS版の27B/35B-A3Bを利用してください。
Q6. 思考モードはオフにできますか?
Qwen3.6-Plusの思考連鎖はデフォルトで常時ONで、Claude Extended ThinkingやDeepSeek Reasonerのような明示的なオフスイッチは公式ドキュメントに見当たりません。 シンプルなFAQ用途で推論オーバーヘッドが気になる場合は、Qwen3.5-Flashなど軽量モデルを別ルートで併用する設計が現実的です。
Q7. Qwen3.6-Max-PreviewとQwen3.6-Plusのどちらを使うべきですか?
コーディング業務の99%はPlusで足ります。 Max-Previewは6つのコーディングベンチで首位を主張する最上位機ですが、2026/4/20公開直後で正式単価が未確認の情報が多く、まずはPlusで運用し「Maxでないと通らないタスク」を切り分けてから順次採用する流れが安全です。
まとめ|Qwen3.6-Plusは「中位の現実解」
Qwen3.6-Plusは、フロンティア最上位(Claude Opus 4.7)から絶対精度で約8.8pt差まで肉薄しつつ、単価をおよそ1/12〜1/18に抑えた「中位の現実解」です。1Mコンテキスト・常時オンの思考連鎖・OpenAI/Anthropic両互換APIにより、既存のClaude CodeやOpenClawから差し替えるだけでコストを大幅に下げられます。
一方で、データ主権(Alibaba Cloud上の取扱)・絶対精度の上限・日本語品質の不確実性・モデル重み非公開という制約も明確で、「Plusでまず通し、難所はOpus/GPT-5.5、機微データはOSS版27B/35B-A3Bの自前ホスト」というハイブリッド運用を組み立てるのが、2026年現在の最適解と言えます。
関連記事
- 上位概念を整理したい方: 生成AIとは|定義・仕組み・活用事例まで完全解説
- 他のフロンティアモデルと比較したい方: 生成AIツールおすすめ比較
- コーディング用途で他のツールも検討したい方: AIコーディングツールおすすめ比較
- 同シリーズの最上位モデルを知りたい方: Qwen3.6-Max-Previewとは|1兆超MoEで6ベンチ首位主張のフロンティア機
- Anthropic互換APIで乗り換え検証したい方: Claude Codeとは|公式CLIの使い方・料金
- 競合になり得る軽量・高速モデル: Qwen3.5-Omniとは
この記事の著者

AI革命
編集部
AI革命株式会社の編集部です。最新のAI技術動向から実践的な導入事例まで、企業のデジタル変革に役立つ情報をお届けしています。豊富な経験と専門知識を活かし、読者の皆様にとって価値のあるコンテンツを制作しています。
最新記事

NTT tsuzumi 2とは?政府Gennai基盤採用の日本語最高性能LLMを徹底解説
2026/04/26

Xiaomi MiMo V2.5 / MiMo-V2.5-Pro とは|1T MoE・1Mコンテキスト・ClawEval 64% Pass^3を徹底解説
2026/04/25

Flowise RCE CVE-2025-59528 脆弱性まとめ|CVSS 10.0・AI Agent Builder 12,000+公開インスタンスへの攻撃徹底解説
2026/04/24

Mozilla Thunderboltとは?OSS・セルフホスト型AIクライアントの特徴・料金・使い方を解説
2026/04/24

Claude Cyber Verification Program(CVP)とは|Opus 4.7セーフガード解除の申請ガイド
2026/04/24

DeepSeek V4 vs GPT-5.5 Spud 徹底比較【2026年4月最新】性能・料金・セキュリティで選ぶフラッグシップAI
2026/04/24

