この記事ではLLMに特化して解説します。LLM全般は LLMとは?仕組みからローカル実行まで徹底解説【2026年完全ガイド】 をご覧ください。
ClaraVerseとは何か:プライバシーファーストのAIプラットフォーム
ClaraVerseは、ChatGPT・Claude・画像生成AI・ワークフロー自動化ツールを自前のサーバーで完全にホストできるオープンソースのプライベートAIプラットフォームだ。GitHub上で3,800スター近くを獲得しており、「ローカルファーストAI」の文脈で注目を集めている。
現代のAI活用における最大のリスクの一つは、機密情報がクラウドサービスに送信されることだ。医療記録をChatGPTに送信する、顧客の個人情報をClaude APIに投げる、機密契約書をAIに分析させる——これらは利便性とプライバシーのトレードオフを生む。ClaraVerseはこのトレードオフを解消することを目指している。
公式説明によると、ClaraVerseは「ChatGPT、Claude、N8N、画像生成AIを、自分のホストするLLM・APIキー・コンピューティングリソースで置き換えられる、オープンソースのプライバシー重視エコシステム」だ。
「AIを使いたいが、データを外部に出せない」という状況は多くのエンタープライズで存在する。医療・金融・法律業界の規制対応、社内機密情報の保護、GDPR/個人情報保護法への対応など、プライバシー要件が厳しい環境でAIを活用するためのプラットフォームとして設計されている。
技術アーキテクチャ
ClaraVerseのアーキテクチャは、フロントエンド・バックエンド・AIエンジン・データ層の4層構造で構成されている。
(Electron)"] A --> C["モバイル
(iOS/Android)"] A --> D["ブラウザ
(React 19/TypeScript)"] B --> E["APIゲートウェイ
Go 1.24 / Fiber"] C --> E D --> E E --> F["認証層
JWT + Argon2id"] F --> G["AIエンジン層"] G --> H["OpenAI API
/ Claude / Gemini"] G --> I["Ollama
(ローカルモデル)"] G --> J["LM Studio
(ローカルモデル)"] G --> K["画像生成
(Stable Diffusion)"] E --> L["データ層"] L --> M["MySQL
(メインDB)"] L --> N["MongoDB
(ドキュメント)"] L --> O["Redis
(キャッシュ)"] E --> P["ワークフローエンジン
200+インテグレーション"] P --> Q["Slack/GitHub
Jira/Notion等"]
フロントエンド
- React 19、TypeScript、Vite 7、Tailwind CSS 4を採用
- ブラウザ内データはIndexedDB(ローカルストレージ)に保存——会話履歴が外部に送信されない「ゼロ知識アーキテクチャ」を実現
バックエンド
- Go 1.24 + Fiberフレームワーク:高速なHTTP処理とWebSocketストリーミングを実現
- 認証:JWT + Argon2idによるパスワードハッシング——bcryptより高セキュリティな現代的アルゴリズムを採用
データ層
- MySQL:メインのリレーショナルデータ
- MongoDB:ドキュメント型データ(会話履歴等)
- Redis:キャッシュ・セッション管理
- 全てDockerで同梱されているため別途セットアップ不要
LLMエンジン層
OllamaとLM Studioからのモデルを自動検出・インポートする仕組みが組み込まれている。2分おきにローカルAIプロバイダーをポーリングし、新しいモデルが追加されると自動的にClaraVerseのモデルリストに反映される。
インストール・セットアップ
システム要件
| 項目 | 最低要件 | 推奨 |
|---|---|---|
| RAM | 4GB | 8GB以上 |
| ディスク | 20GB | 50GB以上(モデル用) |
| OS | Linux / macOS / Windows | Ubuntu 22.04 LTS |
| Docker | 24.0以上 | 最新版 |
方法1:ワンラインインストール(Linux/macOS推奨)
# 公式インストールスクリプト
curl -fsSL https://raw.githubusercontent.com/claraverse-space/ClaraVerse/main/install.sh | sh
方法2:Docker Compose(カスタム設定向け)
# リポジトリのクローン
git clone https://github.com/claraverse-space/ClaraVerse.git
cd ClaraVerse
# 環境変数の設定
cat > .env << 'EOF'
# ポート設定
CLARAVERSE_PORT=3000
# Ollamaを外部ホストで動かしている場合
OLLAMA_BASE_URL=http://192.168.1.100:11434
OLLAMA_HOST=0.0.0.0
# LM Studioを使う場合
LMSTUDIO_BASE_URL=http://localhost:1234
EOF
# 全サービス起動
docker-compose up -d
# 起動確認
docker-compose ps
方法3:軽量シングルコンテナ
MySQL/MongoDB/Redisを外部サービスとして使う場合の軽量構成:
docker run -d \
--name claraverse \
-p 3000:3000 \
-e CLARAVERSE_PORT=3000 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
claraverse/claraverse:latest
方法4:デスクトップアプリ
GitHubのReleasesページからElectronベースのデスクトップアプリをダウンロードできる。インストール後に起動し、Ollamaのエンドポイントを設定するだけで使い始められる。
Ollamaを事前にインストールし(ollama pull mistral など)、ClaraVerseをDockerで起動する。ブラウザでlocalhost:3000を開き、設定画面でOllamaのURLを入力すれば、ローカルLLMとの会話が2分以内に始められる。APIキーを持っていない場合でも、Ollamaのローカルモデルだけで全機能を試せる。
主要機能の詳細
1. Nexus AIコマンドセンター
Nexusは長時間実行タスクをAIに委任するためのKanbanボード型インターフェースだ。「競合他社の調査をして、比較レポートを作成して」といったタスクをカードとして登録すると、AIが自律的に処理を進める。タスクの進捗はKanbanのカード状態(進行中/完了等)で確認できる。
2. スキル(Skills)システム
会話の途中でコンテキストに応じたツールが自動的に有効になる仕組みだ。「この画像を分析して」と言えば画像解析スキルが起動し、「今日の天気を教えて」と言えばウェブ検索スキルが起動する。スキルは150以上の統合を含んでいる:
- ウェブ検索(SearXNG経由、プライバシー保護)
- 画像生成
- データ分析(CSV・PPT・PDF処理)
- コード実行
- 外部サービス接続(Slack、GitHub、Jira、Notion等)
3. ビジュアルワークフローエンジン
ドラッグ&ドロップでAIパイプラインを構築できるビジュアルワークフローエディタを搭載している。200以上のインテグレーションが利用可能で、以下のような自動化が実現できる:
- Slackのメッセージを要約してNotionに保存
- GitHubのIssueが作成されたらAIで分類・ルーティング
- 定期的にウェブを検索して最新情報を整理・通知
# ワークフローのAPI経由での実行例
curl -X POST "http://localhost:3000/api/workflows/execute" \
-H "Authorization: Bearer ${JWT_TOKEN}" \
-H "Content-Type: application/json" \
-d '{
"workflow_id": "abc123",
"inputs": {
"query": "最新のAIニュースを要約してください"
}
}'
4. Telegramモバイル統合
スマートフォンからTelegramアプリ経由でClaraVerseに接続できる。ClaraVerse CompanionというCLIツールがローカルのMCPサーバーをClaraVerseに接続し、Telegramを経由してリモートデバイスからも自分のAIアシスタントにアクセスできる。
定期実行ルーティンの結果もTelegramに通知される——例えば「毎朝8時にニュース要約をTelegramで受信する」といった運用が可能だ。
5. インタラクティブアーティファクト
会話中にAIが生成したコード、チャート、ゲーム、アプリケーションを直接インターフェース上で実行・表示できる機能だ。Claudeのartifacts機能に相当する。
対応LLMと設定
ClaraVerseは複数のLLMプロバイダーを統一インターフェースで扱える:
# .envでの設定例(必要なプロバイダーだけ設定)
# クラウドAPI(オプション)
OPENAI_API_KEY=sk-xxxxx
ANTHROPIC_API_KEY=sk-ant-xxxxx
GOOGLE_AI_API_KEY=xxxxx
# ローカルAI(推奨:プライバシー完全保護)
OLLAMA_BASE_URL=http://localhost:11434
LMSTUDIO_BASE_URL=http://localhost:1234
# OpenAI互換エンドポイント(Groq、Together AI等)
OPENAI_COMPATIBLE_BASE_URL=https://api.groq.com/openai/v1
OPENAI_COMPATIBLE_API_KEY=gsk_xxxxx
Ollamaで使えるモデル例(ollama pull <モデル名> でダウンロード):
| モデル | サイズ | 適した用途 |
|---|---|---|
| llama3.2:3b | 2GB | 高速な軽量タスク |
| mistral:7b | 4.1GB | バランス型の汎用利用 |
| qwen2.5:14b | 9GB | 高品質な日本語対応 |
| llama3.1:70b | 40GB | 高品質だが重い(RTX 3090推奨) |
Ollamaでローカルモデルを動かすにはGPUのVRAMが必要だ。7Bモデルは8GB VRAM、14Bモデルは16GB VRAM、70Bモデルは48GB VRAM以上が目安。VRAM不足の場合はCPUでも動作するが、速度が大幅に低下する。クラウドAPIと組み合わせて運用することも選択肢だ。
実践的ユースケース
1. 医療・法律・金融業界のコンプライアンス対応
HIPAA(医療)、PCI-DSS(金融)、個人情報保護法などの規制により、データを外部クラウドに送信できない業種でも、ClaraVerseなら自社インフラ内でAIを活用できる。電子カルテの要約、契約書の分析、財務データの解析を社内サーバーで完結させられる。
2. エアギャップ環境での運用
インターネット接続のない閉鎖ネットワーク(政府機関、軍事施設、発電所等)では、クラウドAIが使えない。ClaraVerseとOllamaのローカルモデルを組み合わせることで、完全オフラインのAI環境を構築できる。
3. 社内ナレッジベースとAIの統合
社内文書をClaraVerseのRAG機能に接続し、「社内向けChatGPT」として運用できる。外部APIにデータを送信しないため、機密情報が漏洩するリスクがない。RAGFlowをバックエンドのRAGエンジンとして組み合わせることで、高精度な文書検索を実現できる。
4. N8Nからの移行・代替
N8Nはオープンソースのワークフロー自動化ツールとして広く使われているが、ClaraVerseのワークフローエンジンはN8N互換の操作感を提供しつつ、AIエージェントとの直接統合が深い。LLMを組み込んだ自動化パイプラインを構築する場合、ClaraVerseを最初の選択肢として検討できる。
5. 個人向けAIアシスタント環境の構築
個人開発者がClaudeやChatGPTへの月額課金を削減しながら、同等のAI体験を得るユースケースだ。Ollamaで無料のオープンソースモデルを動かし、ClaraVerseのUIでAPIキー不要のAI体験を得られる。画像生成も統合されているため、Stable DiffusionのUIも別途用意する必要がない。
競合比較
プライベートAIプラットフォームの比較
| 特徴 | ClaraVerse | Ollama | Open WebUI | PrivateGPT | LM Studio |
|---|---|---|---|---|---|
| LLMサポート | 複数プロバイダー | ローカルのみ | ローカル+API | ローカルのみ | ローカルのみ |
| モバイルアプリ | iOS/Android | なし | PWA(限定的) | なし | なし |
| ワークフロー自動化 | 200+統合 | なし | 限定的 | なし | なし |
| 画像生成統合 | あり | なし | あり | なし | なし |
| Telegram統合 | あり | なし | なし | なし | なし |
| バックエンド | Go(高速) | Go | Python | Python | Electron |
| セットアップ難易度 | Docker(中) | 非常に簡単 | Docker(中) | 中 | 簡単 |
| エンタープライズ機能 | RBAC・監査ログ | なし | 限定的 | あり | なし |
| ライセンス | AGPL-3.0 | MIT | MIT | Apache 2.0 | 商用 |
| GitHubスター | ~3,800 | 130,000+ | 60,000+ | 5,000+ | N/A |
単純なローカルLLMチャットが目的ならOllamaとOpen WebUIの組み合わせが最もシンプルだ。ClaraVerseを選ぶのは「モバイルアクセス」「ワークフロー自動化」「Telegram統合」「複数LLMプロバイダーの統一管理」のいずれかが必要な場合だ。
セキュリティ設計
ClaraVerseのセキュリティアーキテクチャ:
- パスワードハッシング: Argon2id(bcryptより強力なメモリハードハッシュ)
- JWT認証: セッション管理と認証に使用
- 会話データの保存: IndexedDB(ブラウザローカル)— サーバーに送信しない
- API Bring-Your-Own-Key: APIキーをサーバー側に保存する選択肢と、クライアント側のみで保持する選択肢を提供
- プライバシー: ゼロ知識アーキテクチャ設計(Zero-knowledge architecture)
# docker-compose.yml でのネットワーク分離設定例
version: '3.8'
services:
claraverse:
image: claraverse/claraverse:latest
networks:
- internal
environment:
- CLARAVERSE_PORT=3000
ollama:
image: ollama/ollama:latest
networks:
- internal
volumes:
- ollama_data:/root/.ollama
networks:
internal:
driver: bridge
internal: true # 外部インターネットアクセスをブロック
volumes:
ollama_data:
このネットワーク設定により、ClaraVerseとOllamaがインターネットに接続できない閉鎖ネットワーク内で動作する構成を実現できる。
ローカルLLM推論の高速化
ClaraVerseからOllamaを使ってローカルモデルを実行する際、推論速度を改善したい場合はvLLMをバックエンドとして組み合わせる選択肢がある。vLLMはOpenAI互換APIを提供するため、ClaraVerseのOPENAI_COMPATIBLE_BASE_URLにvLLMのエンドポイントを設定することで統合できる。
# vLLMをClaraVerseのバックエンドとして使用する設定
# .env に追加
OPENAI_COMPATIBLE_BASE_URL=http://localhost:8000/v1
OPENAI_COMPATIBLE_API_KEY=dummy
よくある質問
Q: ClaraVerseはN8Nの代替になりますか?
A: ワークフロー自動化の用途ではN8Nの代替として使える。ただし、N8Nには数千のコネクタと成熟したエコシステムがある。ClaraVerseのワークフローはAIエージェントとの統合が深いが、コネクタ数はN8Nに比べると少ない。AI統合が主目的であればClaraVerse、汎用自動化が目的であればN8Nが適している。
Q: WindowsでDockerを使わずに動かせますか?
A: デスクトップアプリ(Electron)版がWindowsでも動作する。ただし、全機能を使うにはDockerの環境が推奨される。WSL2上でDockerを動かすのが現実的な選択肢だ。
Q: アップデートはどうすれば良いですか?
A: Dockerを使っている場合はdocker-compose pull && docker-compose up -dで最新版に更新できる。デスクトップアプリはGitHubのReleasesから新版をダウンロードして再インストールする。
Q: ライセンスはAGPL-3.0ですが商用利用できますか?
A: AGPL-3.0は商用利用を許可しているが、改変した場合はソースコードを公開する義務がある。社内のみで使用する場合(外部への提供なし)はソース公開義務は発生しない。商用製品に組み込む場合はライセンスの詳細を確認すること。
Q: ドキュメント(RAG)機能はありますか?
A: ドキュメント処理(PDF・PPT・CSV)は「スキル」として統合されている。本格的なRAGシステムを構築する場合は、RAGFlowを別途立ち上げ、ClaraVerseのワークフローからAPIで接続する構成が有効だ。
関連記事: LLMとは?仕組みからローカル実行まで徹底解説【2026年完全ガイド】
まとめ
vLLMで推論速度を最大化し、RAGFlowでRAG品質を高め、ClaraVerseで統一UIとワークフロー自動化を実現する——この3ツールの組み合わせが、2026年のオンプレミスAIスタックの有力な構成だ。
ClaraVerseのSearXNG統合:プライバシー保護ウェブ検索
ClaraVerseにはSearXNG(プライバシー重視のメタ検索エンジン)が統合されている。これにより、Googleの検索を使わずに、複数の検索エンジンの結果を集約したウェブ検索がAIアシスタントから実行できる。
SearXNGを有効にする設定:
# docker-compose.yml でSearXNGを有効化
services:
searxng:
image: searxng/searxng:latest
networks:
- internal
volumes:
- ./searxng-settings:/etc/searxng
environment:
- SEARXNG_BASE_URL=http://searxng:8080
claraverse:
environment:
- SEARXNG_URL=http://searxng:8080
SearXNGはDuckDuckGo、Bing、Wikipediaなど複数のソースを集約して検索結果を返す。AIが「今日のニュースを調べる」スキルを実行する際、SearXNG経由でプライバシーを守りながらウェブ検索ができる。
ClaraVerse Companionの詳細
Clara Companionは、ローカルのMCPサーバーをClaraVerseに接続するためのCLIブリッジツールだ。
# Clara Companionのインストール
npm install -g @claraverse/companion
# MCPサーバーをClaraVerseに接続
clara-companion connect \
--claraverse-url http://localhost:3000 \
--mcp-config ./mcp-servers.json
MCPを通じてClaraVerseから利用できるツールの例:
- ファイルシステムへのアクセス(コードの読み書き)
- データベース接続(ローカルSQLiteやPostgreSQL)
- カスタムAPIエンドポイントの呼び出し
AIエージェントフレームワーク比較2026でも解説しているMCPエコシステムとの統合により、ClaraVerseのAIアシスタントが持つ「できること」の範囲を大幅に拡張できる。
エンタープライズセキュリティ設定の詳細
ロールベースアクセス制御(RBAC)
ClaraVerseは管理者・パワーユーザー・一般ユーザーのロール区分を持っている:
# 管理者APIでのユーザー作成例
curl -X POST "http://localhost:3000/api/admin/users" \
-H "Authorization: Bearer ${ADMIN_JWT_TOKEN}" \
-H "Content-Type: application/json" \
-d '{
"email": "[email protected]",
"role": "power_user",
"allowed_models": ["gpt-4o", "llama3.2:3b"],
"max_tokens_per_day": 100000
}'
監査ログの活用
ClaraVerseはすべてのAIインタラクションのログを保持している。コンプライアンス要件がある組織では、このログを定期的にエクスポートして監査記録として保管できる:
# 監査ログのエクスポート(JSON形式)
curl -X GET "http://localhost:3000/api/admin/audit-logs?from=2026-04-01&to=2026-04-18" \
-H "Authorization: Bearer ${ADMIN_JWT_TOKEN}" \
> audit_log_april.json
自動更新とバックアップ戦略
データのバックアップ
# MySQLデータのバックアップ
docker exec claraverse_mysql_1 mysqldump -u root -p claraverse > backup.sql
# MongoDBデータのバックアップ
docker exec claraverse_mongodb_1 mongodump --out /backup/
docker cp claraverse_mongodb_1:/backup/ ./mongodb_backup/
# Redis(設定・セッション)のバックアップ
docker exec claraverse_redis_1 redis-cli bgsave
docker cp claraverse_redis_1:/data/dump.rdb ./redis_backup/
バージョンアップデート
# 最新版へのアップデート手順
# 1. 現在の状態をバックアップ
docker-compose exec mysql mysqldump -u root claraverse > pre_update_backup.sql
# 2. 最新イメージを取得
docker-compose pull
# 3. 再起動
docker-compose up -d
# 4. マイグレーション確認(ログで確認)
docker-compose logs -f claraverse | grep -i migration
コスト比較:ClaraVerse vs クラウドAI
ClaraVerseの導入コストとクラウドAIのAPI課金を比較する:
| シナリオ | クラウドAI(月額) | ClaraVerse + ローカルモデル(月額) |
|---|---|---|
| 個人利用(~100万トークン) | $20〜$50 | サーバー電気代 $5〜$10 |
| 小チーム5人(~1000万トークン) | $200〜$500 | GPU投資回収後 $30〜$60 |
| 部門20人(~5000万トークン) | $1,000〜$2,500 | 専用サーバー月額 $100〜$300 |
| エンタープライズ(~5億トークン) | $10,000〜+ | オンプレミスGPUサーバー |
初期のGPUサーバー投資(RTX 4090搭載サーバーで50〜100万円程度)は数ヶ月のAPI節約で回収できる計算になる場合が多い。ただし、管理コストと技術的な手間も考慮する必要がある。