Mozilla Thunderboltとは?OSS・セルフホスト型AIクライアントの特徴・料金・使い方を解説

この記事のポイント
Mozilla Thunderboltは、Thunderbird開発元のMZLA Technologiesが2026年4月16日に発表したオープンソース(MPL 2.0)・セルフホスト型のエンタープライズAIクライアントです。機能・料金・対応モデル・Open WebUIやLibreChatとの違い、導入前のセキュリティ上の注意点まで、導入判断に必要な情報を整理します。
Mozilla Thunderbolt(サンダーボルト)は、Thunderbirdの開発元であるMZLA Technologies Corporation(Mozilla Foundation子会社)が2026年4月16日に発表した、オープンソース(MPL 2.0)かつセルフホスト可能なエンタープライズ向けAIクライアントです。 Microsoft CopilotやChatGPT EnterpriseのようなSaaS型AIに社内データを預ける代わりに、自社インフラ上でモデル・データ・ツールを完全に制御したい組織向けに設計されています。
重要な前提: Thunderbolt自体はLLM推論を行いません。Anthropic・OpenAI・Mistralなどのクラウドモデル、またはOllama・llama.cppによるローカル推論を「フロントエンド」から呼び出すワークスペース製品です。またIntelのハードウェア規格「Thunderbolt(USB-C系)」とは完全に無関係です。
この記事でわかること
- Mozilla Thunderboltの定義・開発元・発表日などの基本情報
- 現時点で使える機能と、まだプレビュー段階の機能の区分
- 対応LLMプロバイダー・対応プラットフォーム
- Open WebUI・LibreChat・Microsoft Copilotなど他製品との違い
- 料金と、セルフホスト運用時に発生する実コスト
- 導入前にチェックすべきセキュリティ・テレメトリ上の注意点
- どんな企業・チームにフィットし、どんな組織には現時点で向かないのか
この記事の対象読者: 自社データを外部SaaSに出したくない情シス・セキュリティ担当者、社内AIプラットフォームの選定を検討している情報システム部門、OSSでLLMワークスペースを構築したいエンジニアリングリーダー。
Mozilla Thunderboltとは(基本情報)

出典: Mozilla Thunderbolt 公式GitHub
Mozilla Thunderboltは、Mozilla Foundationの営利子会社であるMZLA Technologies Corporationが開発する、組織が自前で運用することを前提にした「Sovereign AI Client(主権的AIクライアント)」です。キャッチフレーズは「AI You Control — Choose your models. Own your data. Eliminate vendor lock-in.」(あなたが制御するAI:モデルを選び、データを所有し、ベンダーロックインをなくす)。
GitHub上で公開され、Docker ComposeやKubernetesで自社インフラに展開できます。バックエンドのAIオーケストレーションにはドイツ・ベルリン拠点のdeepset社のHaystackフレームワークを採用しており、2026年3月にはカナダのAI研究機関Milaとのパートナーシップも発表されています。
基本スペック
項目 | 内容 |
|---|---|
製品名 | Mozilla Thunderbolt |
開発元 | MZLA Technologies Corporation(Mozilla Foundation子会社) |
CEO | Ryan Sipes |
発表日 | 2026年4月16日 |
ライセンス | Mozilla Public License 2.0(MPL 2.0) |
GitHub |
|
技術スタック | TypeScript(96.6%)+ Tauri(デスクトップ)、Haystack(バックエンド) |
対応OS | Windows / macOS / Linux / iOS / Android / Web |
展開方式 | Docker Compose / Kubernetes によるセルフホスト |
認証 | OpenID Connect(OIDC) |
ステータス | pre-audit / pre-production(セキュリティ監査進行中) |
CEOによる製品コンセプト
MZLA Technologies CEOのRyan Sipes氏は発表時にこうコメントしています。
"AI is too important to outsource. With Thunderbolt, we're giving organizations a sovereign AI client — decision-making on their infrastructure, with their data, and on their terms."
(AIは外注するには重要すぎる。Thunderboltによって、組織は自分たちのインフラ・データ・ルールの上で意思決定できる「主権的なAIクライアント」を手にできる)
つまりThunderboltは、Microsoft CopilotやChatGPT Enterpriseが担っている「チャット・検索・調査などのAI業務UI」を、外部SaaSに依存せず自社で持つための選択肢として位置づけられています。
Thunderboltでできること(現行機能)
Thunderboltの機能は公式ドキュメント上で「Available today(利用可能)」と「Preview(プレビュー)」に明確に区分されています。ここは導入判断で最も誤解しやすいポイントなので、必ず区分を確認してください。
利用可能な機能(Available today)
- Chat Mode(チャットモード): 対話型インタフェース。クラウドLLMまたはローカルモデルと会話できる
- Search Mode(検索モード): 社内データ・インデックスに対する横断検索
- クロスプラットフォームのネイティブアプリ提供(Windows / macOS / Linux / iOS / Android / Web)
- OIDCによる認証統合(既存のID基盤と連携可能)
- Docker Compose / Kubernetesによるセルフホスト展開
- ローカルSQLiteデータベースを「source of truth」として使用
プレビュー段階の機能(Preview)
- Research Mode: より高度な調査・レポート生成
- Tasks: スケジュール・繰り返しタスクの自動化(日次ブリーフィング、特定トピックの定点観測、イベントトリガーによる集計など)
- フルMCPサポート: Model Context Protocol サーバー連携(部分対応あり)
公式は「Chat・Searchは日常利用可能、Research・Tasks・MCPは評価・検証用途」と明示しています。本番稼働の計画を立てる際は、この成熟度差を前提にしてください。
対応LLMプロバイダー・モデル

Thunderboltは自前で推論を持たない代わりに、複数のLLMプロバイダーとローカル推論エンジンに対応しています。これが「ベンダーロックインを避けたい」という設計思想の核心です。
カテゴリ | 対応プロバイダー / ランタイム |
|---|---|
コマーシャル(クラウド) | Anthropic、OpenAI、Mistral、OpenRouter |
OpenAI互換API | 任意のOpenAI互換エンドポイント(DeepSeek など) |
ローカル推論 | Ollama、llama.cpp |
オーケストレーション | deepset Haystack(エージェント・RAG基盤) |
プロトコル | MCP(Model Context Protocol)(Preview)、ACP(Agent Client Protocol) |
外部連携 | Google Workspace、Microsoft 365 |
プロバイダーは管理画面から切り替えられるため、「社内機密はOllama+ローカルGPU、一般業務はAnthropic Claude、コーディング補助はOpenAI」といった用途別に推論先を使い分ける運用が可能です。
生成AIの概要やAIエージェントとの関係をまず把握したい場合は、生成AIとは?仕組み・種類・活用例を整理とAIエージェントとは?基礎・代表ツールを解説も合わせて参照してください。
Mozilla Thunderboltの強み
ThunderboltがMicrosoft CopilotやChatGPT Enterpriseと明確に異なる特徴は、以下の5点に集約されます。
1. 完全セルフホスト+MPL 2.0オープンソース
ソースコードはGitHubで全公開されており、MPL 2.0の下で商用利用・改変・再配布が可能です。社内監査やフォークによる独自拡張ができるため、「ブラックボックスを社内に置きたくない」組織の要件に合致します。
2. マルチプロバイダーによるベンダーロックイン回避
単一LLMベンダーに依存しない設計です。Anthropic・OpenAI・Mistral・OpenRouter・Ollama・llama.cppを併用でき、用途やコンプライアンス要件に応じて推論先を切り替えられます。
3. データがユーザーのインフラに留まる
Thunderboltは推論プロキシと検索インデックスを自社インフラ内で完結させる設計です。ローカルSQLiteをsource of truthとし、必要に応じてE2E暗号化・at-rest暗号化・in-transit暗号化を組み合わせられます。データの越境・外部学習利用リスクを制御しやすい構造です。
4. エンタープライズ認証・アクセス制御への対応
OIDCによるSSO統合、ロール/デバイス単位のアクセス制御(RBAC)が標準で組み込まれています。既存のEntra ID(旧Azure AD)やOktaと連携して社員単位の権限管理が可能です。
5. Thunderbirdを擁するMozilla系組織による開発
開発元のMZLA Technologiesは、25年以上オープンソースで運用されてきたThunderbirdメールクライアントの開発母体です。商用SaaSベンダーではないため、「自社都合でサービスを閉じる」リスクが相対的に低いと評価されています。
Mozilla Thunderboltの弱み・制約
一方で、2026年4月末時点のThunderboltには以下の制約があります。導入判断では必ずここを確認してください。
1. 本番稼働推奨段階ではない
公式に「pre-audit, pre-production」と明記されています。formal security audit(第三者セキュリティ監査)が進行中で、完了前の本番投入は推奨されていません。現時点ではPoC・検証・評価用途が前提です。
2. 推論エンジンを自前で用意する必要がある
Thunderbolt自体はLLM推論を行わないため、クラウドAPI契約またはローカルGPUは利用者側の負担です。Ollama+大規模モデルをローカル運用する場合、NVIDIA H100などの本格GPUが必要になり、初期投資・電力コストが発生します。
3. マネージドホスト版が未提供
小規模チーム向けのマネージド版は「開発中」と公表されているのみで、現時点では提供されていません。セルフホスト運用が必須で、Docker/Kubernetes運用・アップデート適用・監視は全て利用者側の責任です。
4. テレメトリがデフォルト有効
PostHogを用いた匿名の利用状況(チャット活動、モデル選択、地域情報)がデフォルトで収集されます。公式は「PIIは同意なしに収集しない」としていますが、プライバシー重視で導入する場合はインストール直後にテレメトリを無効化する運用ルールをチームで取り決めておくべきです。
5. Research Mode / Tasks / フルMCPはプレビュー段階
Chat・Searchは日常利用可能ですが、Research Mode・Tasks・フルMCPサポートは評価用途に限られます。ここに業務依存度を高くすると、仕様変更・安定性問題のリスクを負う可能性があります。
6. 日本語UI成熟度・国内サポート体制は未確認
2026年4月末時点で、日本語UIの品質や国内の直接サポート体制について公式アナウンスはありません。日本の大企業が採用する場合、SIerや実装パートナーとの協業が前提になります。
7. Thunderbirdとの直接統合はない
名前は「Thunderbird」系列ですが、メールクライアントThunderbirdとの機能連携は現時点では予定されていません。メール自動処理エージェントを期待する場合は別の製品を検討してください。
料金・プラン
Thunderboltの料金構造は、多くのSaaS型AIとは根本的に異なります。ソフトウェア本体は無料だが、運用コストは利用者負担という典型的なOSSエンタープライズモデルです。
項目 | 料金・条件 |
|---|---|
OSS本体 | 無料(MPL 2.0、GitHubで公開) |
セルフホスト運用コスト | 自社インフラ・サーバー・GPU・電力・人件費は利用者負担 |
LLM API利用料 | 各プロバイダー(Anthropic / OpenAI / Mistral など)の従量課金 |
エンタープライズ有償サービス | デプロイ支援・カスタム統合・Field Deployment Engineer(FDE)サポート — 個別見積もり(未公開) |
マネージド(ホスト版) | 開発中。現時点では未提供 |
実務上の総コストイメージ
Thunderboltを本格運用する場合、実務的な総コストには以下が含まれます。
- インフラコスト: AWS/GCP/オンプレでのサーバー・ストレージ費
- GPU費用(ローカル推論時): NVIDIA GPU調達・運用コスト
- LLM APIコスト: Anthropic / OpenAI 等のトークン従量課金
- 運用人件費: Docker/Kubernetes運用、アップデート適用、監視
- (任意)MZLA有償サポート: 個別見積もり
クラウドAPI中心で小規模運用する場合は比較的低コストで始められますが、完全オンプレでGPT-4 / Claude相当のモデルをローカル稼働させる場合は、数百万円〜数千万円のGPU投資が必要になる点を覚悟してください。
Claude・ChatGPTなど個別モデルの料金は各公式で確認すべき動的情報のため、ここでは扱いません。Claude側の料金を整理したい場合はClaudeの料金を徹底整理、ChatGPTはChatGPTの料金プラン解説を参照してください。
セキュリティとテレメトリ(導入前の必読項目)

Thunderboltは「sensitive by default」を掲げるセキュリティ重視の設計ですが、導入前に必ず確認すべきポイントがあります。
セキュリティ監査は進行中
公式は「formal security audit under way(第三者セキュリティ監査は進行中)」と明記しています。金融・医療・公共など高コンプラ領域では、監査完了の公表を待ってから本番投入する判断が妥当です。
暗号化・アクセス制御
- at-rest暗号化(保存時)とin-transit暗号化(通信時)を前提に設計
- E2E暗号化はオプショナルで利用可能
- デバイスレベルのアクセス制御(デバイスごと、ロールごと)をサポート
テレメトリ(PostHog)がデフォルトON
Thunderboltはデフォルトで PostHog によるテレメトリを有効にしています。収集されるのは以下と公表されています。
- チャット活動の匿名統計
- モデル選択の傾向
- 地域情報
公式は「PIIは同意なしに収集しない」としていますが、プライバシー重視の組織はインストール直後にテレメトリを無効化する運用を標準化することが推奨されます。社内ポリシーで「OSS AIクライアントは全テレメトリを無効化」と定めるのが現実的です。
名称の注意事項
IntelのハードウェアインターフェイスThunderbolt(USB-C系の高速接続規格)と名称が衝突しています。社内検索や資料で混同が発生しないよう、本文書内では「Mozilla Thunderbolt」と明示するのが無難です。
生成AI全般のセキュリティ観点は生成AIのセキュリティリスクと対策で整理しています。AIエージェント固有のリスクはAIエージェントのセキュリティ対策ガイドを参照してください。
Mozilla Thunderboltの使い方・導入ステップ
Thunderboltはセルフホストが前提のため、導入フローはSaaS型AIとは大きく異なります。以下は一般的な導入の流れです(詳細は公式READMEとドキュメントを必ず確認してください)。
ステップ1: waitlist登録・情報収集
thunderbolt.ioのwaitlistに登録し、最新情報・アップデートを受け取る- GitHubリポジトリ
thunderbird/thunderboltでREADME・CHANGELOGを確認 - 自社要件(対応プロバイダー、認証、ホスト要件)に合うか評価
ステップ2: 検証環境の構築(Docker Compose)
- Docker Composeで小規模な検証環境を立ち上げる
- OIDCプロバイダー(Entra ID、Okta、Keycloak等)と接続
- Anthropic・OpenAI・Mistral・Ollamaなど使いたいモデルを1つ登録して疎通確認
ステップ3: テレメトリ・暗号化の初期設定
- PostHogテレメトリを無効化(プライバシー要件がある場合)
- at-rest / in-transit 暗号化を有効化
- 必要に応じてE2E暗号化を有効化
ステップ4: Chat・Searchの本格テスト
- 社内の限定ユーザーでChat・Search機能を日常利用の範囲で検証
- 検索対象とするドキュメントソース(SharePoint・Google Drive・社内Wiki 等)を接続
ステップ5: 本番展開(Kubernetes)
- 冗長化・可用性を確保したKubernetesクラスターに展開
- 監視・ログ基盤(Prometheus・Grafana等)と統合
- バックアップ・DR(災害復旧)計画を策定
ステップ6: Research Mode・Tasks・MCPの評価
- プレビュー機能は別環境で評価し、本番ユーザーの業務依存度を高めないよう注意
- MCPサーバーを接続する場合は、MCPプロトコルの権限設計を事前に確認
MCPについてより詳しく知りたい場合はMCPとは?Model Context Protocolの基礎を参照してください。
他のAIクライアントとの違い(比較表)
Thunderboltの位置づけを把握するため、競合となるOSSおよびエンタープライズAIクライアントと比較します。
製品 | ライセンス | ホスト形態 | 対応モデル | 主な特徴 | 成熟度 |
|---|---|---|---|---|---|
Mozilla Thunderbolt | MPL 2.0 | セルフホスト前提 | マルチプロバイダー(Anthropic/OpenAI/Mistral/Ollama/llama.cpp) | Mozilla系・Haystack基盤・MCP対応 | Pre-audit / Pre-production |
Open WebUI | BSD 3-Clause | セルフホスト | Ollama中心、OpenAI互換 | GitHub Stars約12万超。コミュニティ最大規模のOSS AI UI | 本番利用事例多数 |
LibreChat | MIT | セルフホスト | マルチプロバイダー | ChatGPT風UI・豊富なプロバイダー対応 | 本番利用事例多数 |
Microsoft 365 Copilot | プロプライエタリ | SaaS(Microsoft) | OpenAI GPT系 | Office統合・Entra ID認証・エンタープライズ向け | GA |
ChatGPT Enterprise | プロプライエタリ | SaaS(OpenAI) | OpenAI専用 | OpenAI最新モデル・SOC2 Type 2・SCIM | GA |
Claude Enterprise | プロプライエタリ | SaaS(Anthropic) | Claude専用 | 大規模コンテキスト・プロジェクト機能 | GA |
判断ポイント(どれを選ぶべきか)
- すでに本番実績のあるOSSが欲しい → Open WebUI / LibreChat
- MozillaブランドとHaystack基盤の組み合わせが評価ポイント → Mozilla Thunderbolt(ただし監査完了待ち)
- Microsoft 365/Office統合が最優先 → Microsoft 365 Copilot
- 最新のGPT系モデルを優先 → ChatGPT Enterprise
- Claude系モデルの大規模コンテキストを活用したい → Claude Enterprise
競合比較の詳細は生成AIツールおすすめ比較、AI検索エンジン比較も参考にしてください。ChatGPT Enterpriseの料金はChatGPTの料金プラン、Claude系はClaudeとはを参照してください。
こんな組織におすすめ
Mozilla Thunderboltは、以下の条件に当てはまる組織にフィットします。
- 社内データをSaaS型AIに渡したくない(金融、医療、公共、機密性の高いR&D、法務部門など)
- 特定LLMベンダーへのロックインを明確に避けたい(買収・料金改定・サービス終了への耐性を重視)
- Docker/Kubernetes運用経験があるインフラチームがある
- データ主権・コンプライアンス要件を満たすためのOSS選定を進めている
- HaystackによるRAG・エージェント基盤を組織標準にしたい
- PoC・検証目的で最新の主権的AIクライアントを評価したい(2026年夏〜秋の本番展開を見据えた準備段階)
こんな組織にはおすすめしない
以下の条件に当てはまる場合、現時点でThunderboltを選ぶメリットは小さいです。
- 社内にDocker/Kubernetes運用リソースがない中小規模チーム → Microsoft 365 Copilot / ChatGPT Enterprise の方が実装コストが低い
- すぐに本番稼働したい(金融・医療など高リスク領域) → 公式の監査完了を待つか、Microsoft / OpenAI / Anthropic 等のエンタープライズSaaSを選ぶ
- 既にOpen WebUI / LibreChat を安定運用している → Thunderboltに切り替える明確なメリットは現時点では乏しい
- Microsoft 365 / Google Workspace との深い統合を最重視 → Copilot / Gemini for Workspace の方がスムーズ
- GPU調達・ローカル推論運用の予算と技術力がない
- Thunderbirdメールクライアントとの連携を期待している(現時点で統合予定なし)
よくある質問(FAQ)
Q1. Mozilla ThunderboltはIntelのThunderbolt(USB-C系のハード規格)と関係がありますか?
関係ありません。 Mozilla ThunderboltはAIクライアントソフトウェアで、Intelの高速接続規格Thunderboltとは別物です。名称が衝突しているため、社内で共有する際は「Mozilla Thunderbolt」と明示するのが無難です。
Q2. ThunderbirdメールクライアントとMozilla Thunderboltは連携していますか?
現時点では直接統合はありません。 開発元のMZLA TechnologiesはThunderbirdの開発母体でもありますが、メールクライアントThunderbirdとThunderboltは別製品として運用されています。将来の統合ロードマップは公式からは未発表です。
Q3. オフラインで完全に動きますか?
完全オフライン運用は未達です。認証や一部の検索機能はネット接続を前提にしており、「Anthropic / OpenAI API を使う構成ならば完全なオフラインは不可能」「Ollama + ローカル認証ならばオフライン度は高い」という段階的な設計です。完全エアギャップ環境での運用計画がある場合は、公式ドキュメントで最新状況を確認してください。
Q4. 料金は本当に無料ですか?
OSS本体の利用料はゼロです(MPL 2.0)。ただし、運用に必要なインフラ・GPU・LLM APIコスト・人件費は利用者負担です。クラウドAPI中心で小規模運用するなら月数万円〜、オンプレでGPUを調達する場合は初期投資が数百万円〜数千万円規模になります。
Q5. 今すぐ本番導入しても大丈夫ですか?
公式は pre-audit / pre-production と明記しています。 金融・医療・公共など高コンプラ領域では、第三者セキュリティ監査の完了公表を待ってから本番導入を検討するのが妥当です。現時点ではPoC・検証環境での評価が中心になります。
Q6. 日本語で使えますか?
対応プロバイダー(Anthropic Claude、OpenAI GPT、Mistral)自体は日本語対応しているため、チャット・検索機能は日本語で利用可能と考えられます。ただし、Thunderbolt自体のUI日本語化の成熟度や日本国内サポート体制については、2026年4月末時点で公式アナウンスは見当たりません。大規模な社内展開を検討する場合は、MZLAまたは国内SIerに直接確認することを推奨します。
Q7. ChatGPT EnterpriseやClaude Enterpriseと比べて何が違いますか?
最大の違いは「データと推論をどこに置くか」です。ChatGPT Enterprise・Claude EnterpriseはOpenAI/Anthropicのクラウド上で推論が行われるSaaS型で、Thunderboltはフロントエンドを自社インフラに置き、推論先も自社で選択できるセルフホスト型です。コンプライアンス要件・ベンダーロックイン懸念・運用リソースの3点で判断するのが現実的です。
まとめ:Thunderboltは「主権的AIクライアント」を求める組織の新しい選択肢
Mozilla Thunderboltは、2026年4月16日にMZLA Technologies Corporationが発表した、オープンソース(MPL 2.0)かつセルフホスト型のエンタープライズAIクライアントです。Thunderbolt自体は推論を持たず、Anthropic・OpenAI・Mistral・Ollama・llama.cppなどをマルチプロバイダーで呼び出すフロントエンドとして機能します。
現時点の推奨ポジショニングは以下です。
- Chat・SearchはAvailable、Research・Tasks・フルMCPはPreviewという機能成熟度を踏まえた運用設計をする
- 公式はpre-audit / pre-productionと明記しているため、監査完了前はPoC・検証用途が中心
- テレメトリがデフォルトONである点を認識し、必要に応じて無効化する
- Open WebUI / LibreChatといった既存OSSに対する差別化は「Mozillaブランド・Haystack基盤・MCP/ACP対応・Thunderbird開発元の運用継続性」にある
- 本番稼働には監査完了後の再評価が必要
ベンダーロックイン回避とデータ主権を重視する組織にとっては有力な選択肢ですが、現時点ではすぐに全社導入するよりも「今のうちから評価を始め、監査完了後に本番計画を立てる」という段階的アプローチが現実的です。
関連記事
この記事の著者

AI革命
編集部
AI革命株式会社の編集部です。最新のAI技術動向から実践的な導入事例まで、企業のデジタル変革に役立つ情報をお届けしています。豊富な経験と専門知識を活かし、読者の皆様にとって価値のあるコンテンツを制作しています。
最新記事

Claude Cyber Verification Program(CVP)とは|Opus 4.7セーフガード解除の申請ガイド
2026/04/24

DeepSeek V4 vs GPT-5.5 Spud 徹底比較【2026年4月最新】性能・料金・セキュリティで選ぶフラッグシップAI
2026/04/24

Claude Code 品質劣化の真相|Anthropic公式ポストモーテムで判明した3つの原因と今やるべきこと
2026/04/24

Claude Code MCPの使い方|Claude Code自体をMCPサーバーとして動かす「エージェントの中のエージェント」構成ガイド
2026/04/24

Hugging Face ml-internとは?オープンソースAI MLエンジニアがClaude Codeを超えた理由・使い方・料金を徹底解説
2026/04/24

IR・投資家広報のAI活用事例|exaBase IRアシスタント・決算短信要約・アナリスト対応自動化を徹底解説
2026/04/24

