この記事ではLLMに特化して解説します。LLM全般は LLMとは?仕組みからローカル実行まで徹底解説【2026年完全ガイド】 をご覧ください。

ClaraVerseとは何か:プライバシーファーストのAIプラットフォーム

ClaraVerseは、ChatGPT・Claude・画像生成AI・ワークフロー自動化ツールを自前のサーバーで完全にホストできるオープンソースのプライベートAIプラットフォームだ。GitHub上で3,800スター近くを獲得しており、「ローカルファーストAI」の文脈で注目を集めている。

現代のAI活用における最大のリスクの一つは、機密情報がクラウドサービスに送信されることだ。医療記録をChatGPTに送信する、顧客の個人情報をClaude APIに投げる、機密契約書をAIに分析させる——これらは利便性とプライバシーのトレードオフを生む。ClaraVerseはこのトレードオフを解消することを目指している。

公式説明によると、ClaraVerseは「ChatGPT、Claude、N8N、画像生成AIを、自分のホストするLLM・APIキー・コンピューティングリソースで置き換えられる、オープンソースのプライバシー重視エコシステム」だ。

ClaraVerseが解決する問題
「AIを使いたいが、データを外部に出せない」という状況は多くのエンタープライズで存在する。医療・金融・法律業界の規制対応、社内機密情報の保護、GDPR/個人情報保護法への対応など、プライバシー要件が厳しい環境でAIを活用するためのプラットフォームとして設計されている。

技術アーキテクチャ

ClaraVerseのアーキテクチャは、フロントエンド・バックエンド・AIエンジン・データ層の4層構造で構成されている。

flowchart TD A["クライアント層"] --> B["デスクトップ
(Electron)"] A --> C["モバイル
(iOS/Android)"] A --> D["ブラウザ
(React 19/TypeScript)"] B --> E["APIゲートウェイ
Go 1.24 / Fiber"] C --> E D --> E E --> F["認証層
JWT + Argon2id"] F --> G["AIエンジン層"] G --> H["OpenAI API
/ Claude / Gemini"] G --> I["Ollama
(ローカルモデル)"] G --> J["LM Studio
(ローカルモデル)"] G --> K["画像生成
(Stable Diffusion)"] E --> L["データ層"] L --> M["MySQL
(メインDB)"] L --> N["MongoDB
(ドキュメント)"] L --> O["Redis
(キャッシュ)"] E --> P["ワークフローエンジン
200+インテグレーション"] P --> Q["Slack/GitHub
Jira/Notion等"]

フロントエンド

  • React 19、TypeScript、Vite 7、Tailwind CSS 4を採用
  • ブラウザ内データはIndexedDB(ローカルストレージ)に保存——会話履歴が外部に送信されない「ゼロ知識アーキテクチャ」を実現

バックエンド

  • Go 1.24 + Fiberフレームワーク:高速なHTTP処理とWebSocketストリーミングを実現
  • 認証:JWT + Argon2idによるパスワードハッシング——bcryptより高セキュリティな現代的アルゴリズムを採用

データ層

  • MySQL:メインのリレーショナルデータ
  • MongoDB:ドキュメント型データ(会話履歴等)
  • Redis:キャッシュ・セッション管理
  • 全てDockerで同梱されているため別途セットアップ不要

LLMエンジン層

OllamaとLM Studioからのモデルを自動検出・インポートする仕組みが組み込まれている。2分おきにローカルAIプロバイダーをポーリングし、新しいモデルが追加されると自動的にClaraVerseのモデルリストに反映される。

インストール・セットアップ

システム要件

項目 最低要件 推奨
RAM 4GB 8GB以上
ディスク 20GB 50GB以上(モデル用)
OS Linux / macOS / Windows Ubuntu 22.04 LTS
Docker 24.0以上 最新版

方法1:ワンラインインストール(Linux/macOS推奨)

# 公式インストールスクリプト
curl -fsSL https://raw.githubusercontent.com/claraverse-space/ClaraVerse/main/install.sh | sh

方法2:Docker Compose(カスタム設定向け)

# リポジトリのクローン
git clone https://github.com/claraverse-space/ClaraVerse.git
cd ClaraVerse

# 環境変数の設定
cat > .env << 'EOF'
# ポート設定
CLARAVERSE_PORT=3000

# Ollamaを外部ホストで動かしている場合
OLLAMA_BASE_URL=http://192.168.1.100:11434
OLLAMA_HOST=0.0.0.0

# LM Studioを使う場合
LMSTUDIO_BASE_URL=http://localhost:1234
EOF

# 全サービス起動
docker-compose up -d

# 起動確認
docker-compose ps

方法3:軽量シングルコンテナ

MySQL/MongoDB/Redisを外部サービスとして使う場合の軽量構成:

docker run -d \
  --name claraverse \
  -p 3000:3000 \
  -e CLARAVERSE_PORT=3000 \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  claraverse/claraverse:latest

方法4:デスクトップアプリ

GitHubのReleasesページからElectronベースのデスクトップアプリをダウンロードできる。インストール後に起動し、Ollamaのエンドポイントを設定するだけで使い始められる。

セットアップの最短経路
Ollamaを事前にインストールし(ollama pull mistral など)、ClaraVerseをDockerで起動する。ブラウザでlocalhost:3000を開き、設定画面でOllamaのURLを入力すれば、ローカルLLMとの会話が2分以内に始められる。APIキーを持っていない場合でも、Ollamaのローカルモデルだけで全機能を試せる。

主要機能の詳細

1. Nexus AIコマンドセンター

Nexusは長時間実行タスクをAIに委任するためのKanbanボード型インターフェースだ。「競合他社の調査をして、比較レポートを作成して」といったタスクをカードとして登録すると、AIが自律的に処理を進める。タスクの進捗はKanbanのカード状態(進行中/完了等)で確認できる。

2. スキル(Skills)システム

会話の途中でコンテキストに応じたツールが自動的に有効になる仕組みだ。「この画像を分析して」と言えば画像解析スキルが起動し、「今日の天気を教えて」と言えばウェブ検索スキルが起動する。スキルは150以上の統合を含んでいる:

  • ウェブ検索(SearXNG経由、プライバシー保護)
  • 画像生成
  • データ分析(CSV・PPT・PDF処理)
  • コード実行
  • 外部サービス接続(Slack、GitHub、Jira、Notion等)

3. ビジュアルワークフローエンジン

ドラッグ&ドロップでAIパイプラインを構築できるビジュアルワークフローエディタを搭載している。200以上のインテグレーションが利用可能で、以下のような自動化が実現できる:

  • Slackのメッセージを要約してNotionに保存
  • GitHubのIssueが作成されたらAIで分類・ルーティング
  • 定期的にウェブを検索して最新情報を整理・通知
# ワークフローのAPI経由での実行例
curl -X POST "http://localhost:3000/api/workflows/execute" \
  -H "Authorization: Bearer ${JWT_TOKEN}" \
  -H "Content-Type: application/json" \
  -d '{
    "workflow_id": "abc123",
    "inputs": {
      "query": "最新のAIニュースを要約してください"
    }
  }'

4. Telegramモバイル統合

スマートフォンからTelegramアプリ経由でClaraVerseに接続できる。ClaraVerse CompanionというCLIツールがローカルのMCPサーバーをClaraVerseに接続し、Telegramを経由してリモートデバイスからも自分のAIアシスタントにアクセスできる。

定期実行ルーティンの結果もTelegramに通知される——例えば「毎朝8時にニュース要約をTelegramで受信する」といった運用が可能だ。

5. インタラクティブアーティファクト

会話中にAIが生成したコード、チャート、ゲーム、アプリケーションを直接インターフェース上で実行・表示できる機能だ。Claudeのartifacts機能に相当する。

対応LLMと設定

ClaraVerseは複数のLLMプロバイダーを統一インターフェースで扱える:

# .envでの設定例(必要なプロバイダーだけ設定)

# クラウドAPI(オプション)
OPENAI_API_KEY=sk-xxxxx
ANTHROPIC_API_KEY=sk-ant-xxxxx
GOOGLE_AI_API_KEY=xxxxx

# ローカルAI(推奨:プライバシー完全保護)
OLLAMA_BASE_URL=http://localhost:11434
LMSTUDIO_BASE_URL=http://localhost:1234

# OpenAI互換エンドポイント(Groq、Together AI等)
OPENAI_COMPATIBLE_BASE_URL=https://api.groq.com/openai/v1
OPENAI_COMPATIBLE_API_KEY=gsk_xxxxx

Ollamaで使えるモデル例(ollama pull <モデル名> でダウンロード):

モデル サイズ 適した用途
llama3.2:3b 2GB 高速な軽量タスク
mistral:7b 4.1GB バランス型の汎用利用
qwen2.5:14b 9GB 高品質な日本語対応
llama3.1:70b 40GB 高品質だが重い(RTX 3090推奨)
ローカルモデルのVRAM要件
Ollamaでローカルモデルを動かすにはGPUのVRAMが必要だ。7Bモデルは8GB VRAM、14Bモデルは16GB VRAM、70Bモデルは48GB VRAM以上が目安。VRAM不足の場合はCPUでも動作するが、速度が大幅に低下する。クラウドAPIと組み合わせて運用することも選択肢だ。

実践的ユースケース

1. 医療・法律・金融業界のコンプライアンス対応

HIPAA(医療)、PCI-DSS(金融)、個人情報保護法などの規制により、データを外部クラウドに送信できない業種でも、ClaraVerseなら自社インフラ内でAIを活用できる。電子カルテの要約、契約書の分析、財務データの解析を社内サーバーで完結させられる。

2. エアギャップ環境での運用

インターネット接続のない閉鎖ネットワーク(政府機関、軍事施設、発電所等)では、クラウドAIが使えない。ClaraVerseとOllamaのローカルモデルを組み合わせることで、完全オフラインのAI環境を構築できる。

3. 社内ナレッジベースとAIの統合

社内文書をClaraVerseのRAG機能に接続し、「社内向けChatGPT」として運用できる。外部APIにデータを送信しないため、機密情報が漏洩するリスクがない。RAGFlowをバックエンドのRAGエンジンとして組み合わせることで、高精度な文書検索を実現できる。

4. N8Nからの移行・代替

N8Nはオープンソースのワークフロー自動化ツールとして広く使われているが、ClaraVerseのワークフローエンジンはN8N互換の操作感を提供しつつ、AIエージェントとの直接統合が深い。LLMを組み込んだ自動化パイプラインを構築する場合、ClaraVerseを最初の選択肢として検討できる。

5. 個人向けAIアシスタント環境の構築

個人開発者がClaudeやChatGPTへの月額課金を削減しながら、同等のAI体験を得るユースケースだ。Ollamaで無料のオープンソースモデルを動かし、ClaraVerseのUIでAPIキー不要のAI体験を得られる。画像生成も統合されているため、Stable DiffusionのUIも別途用意する必要がない。

競合比較

プライベートAIプラットフォームの比較

特徴 ClaraVerse Ollama Open WebUI PrivateGPT LM Studio
LLMサポート 複数プロバイダー ローカルのみ ローカル+API ローカルのみ ローカルのみ
モバイルアプリ iOS/Android なし PWA(限定的) なし なし
ワークフロー自動化 200+統合 なし 限定的 なし なし
画像生成統合 あり なし あり なし なし
Telegram統合 あり なし なし なし なし
バックエンド Go(高速) Go Python Python Electron
セットアップ難易度 Docker(中) 非常に簡単 Docker(中) 簡単
エンタープライズ機能 RBAC・監査ログ なし 限定的 あり なし
ライセンス AGPL-3.0 MIT MIT Apache 2.0 商用
GitHubスター ~3,800 130,000+ 60,000+ 5,000+ N/A
ClaraVerseを選ぶ場面
単純なローカルLLMチャットが目的ならOllamaとOpen WebUIの組み合わせが最もシンプルだ。ClaraVerseを選ぶのは「モバイルアクセス」「ワークフロー自動化」「Telegram統合」「複数LLMプロバイダーの統一管理」のいずれかが必要な場合だ。

セキュリティ設計

ClaraVerseのセキュリティアーキテクチャ:

  • パスワードハッシング: Argon2id(bcryptより強力なメモリハードハッシュ)
  • JWT認証: セッション管理と認証に使用
  • 会話データの保存: IndexedDB(ブラウザローカル)— サーバーに送信しない
  • API Bring-Your-Own-Key: APIキーをサーバー側に保存する選択肢と、クライアント側のみで保持する選択肢を提供
  • プライバシー: ゼロ知識アーキテクチャ設計(Zero-knowledge architecture)
# docker-compose.yml でのネットワーク分離設定例
version: '3.8'
services:
  claraverse:
    image: claraverse/claraverse:latest
    networks:
      - internal
    environment:
      - CLARAVERSE_PORT=3000
  
  ollama:
    image: ollama/ollama:latest
    networks:
      - internal
    volumes:
      - ollama_data:/root/.ollama

networks:
  internal:
    driver: bridge
    internal: true  # 外部インターネットアクセスをブロック

volumes:
  ollama_data:

このネットワーク設定により、ClaraVerseとOllamaがインターネットに接続できない閉鎖ネットワーク内で動作する構成を実現できる。

ローカルLLM推論の高速化

ClaraVerseからOllamaを使ってローカルモデルを実行する際、推論速度を改善したい場合はvLLMをバックエンドとして組み合わせる選択肢がある。vLLMはOpenAI互換APIを提供するため、ClaraVerseのOPENAI_COMPATIBLE_BASE_URLにvLLMのエンドポイントを設定することで統合できる。

# vLLMをClaraVerseのバックエンドとして使用する設定
# .env に追加
OPENAI_COMPATIBLE_BASE_URL=http://localhost:8000/v1
OPENAI_COMPATIBLE_API_KEY=dummy

よくある質問

Q: ClaraVerseはN8Nの代替になりますか?

A: ワークフロー自動化の用途ではN8Nの代替として使える。ただし、N8Nには数千のコネクタと成熟したエコシステムがある。ClaraVerseのワークフローはAIエージェントとの統合が深いが、コネクタ数はN8Nに比べると少ない。AI統合が主目的であればClaraVerse、汎用自動化が目的であればN8Nが適している。

Q: WindowsでDockerを使わずに動かせますか?

A: デスクトップアプリ(Electron)版がWindowsでも動作する。ただし、全機能を使うにはDockerの環境が推奨される。WSL2上でDockerを動かすのが現実的な選択肢だ。

Q: アップデートはどうすれば良いですか?

A: Dockerを使っている場合はdocker-compose pull && docker-compose up -dで最新版に更新できる。デスクトップアプリはGitHubのReleasesから新版をダウンロードして再インストールする。

Q: ライセンスはAGPL-3.0ですが商用利用できますか?

A: AGPL-3.0は商用利用を許可しているが、改変した場合はソースコードを公開する義務がある。社内のみで使用する場合(外部への提供なし)はソース公開義務は発生しない。商用製品に組み込む場合はライセンスの詳細を確認すること。

Q: ドキュメント(RAG)機能はありますか?

A: ドキュメント処理(PDF・PPT・CSV)は「スキル」として統合されている。本格的なRAGシステムを構築する場合は、RAGFlowを別途立ち上げ、ClaraVerseのワークフローからAPIで接続する構成が有効だ。

関連記事: LLMとは?仕組みからローカル実行まで徹底解説【2026年完全ガイド】

まとめ

ClaraVerseが目指す「AI生態系の自立」 ClaraVerseの価値提案は単純だ:「ChatGPT・Claude・N8N・Stable Diffusionを全て自分のサーバーで動かす」。データ主権という観点から、自分のデータを自分でコントロールしたいという需要に応えるプラットフォームだ。モバイルアプリでどこからでも接続でき、ワークフロー自動化でAIパイプラインを組める統合環境として、特に医療・金融・法律など規制産業やデータ主権を重視する組織にとって有力な選択肢になる。

vLLMで推論速度を最大化し、RAGFlowでRAG品質を高め、ClaraVerseで統一UIとワークフロー自動化を実現する——この3ツールの組み合わせが、2026年のオンプレミスAIスタックの有力な構成だ。

ClaraVerseのSearXNG統合:プライバシー保護ウェブ検索

ClaraVerseにはSearXNG(プライバシー重視のメタ検索エンジン)が統合されている。これにより、Googleの検索を使わずに、複数の検索エンジンの結果を集約したウェブ検索がAIアシスタントから実行できる。

SearXNGを有効にする設定:

# docker-compose.yml でSearXNGを有効化
services:
  searxng:
    image: searxng/searxng:latest
    networks:
      - internal
    volumes:
      - ./searxng-settings:/etc/searxng
    environment:
      - SEARXNG_BASE_URL=http://searxng:8080

  claraverse:
    environment:
      - SEARXNG_URL=http://searxng:8080

SearXNGはDuckDuckGo、Bing、Wikipediaなど複数のソースを集約して検索結果を返す。AIが「今日のニュースを調べる」スキルを実行する際、SearXNG経由でプライバシーを守りながらウェブ検索ができる。

ClaraVerse Companionの詳細

Clara Companionは、ローカルのMCPサーバーをClaraVerseに接続するためのCLIブリッジツールだ。

# Clara Companionのインストール
npm install -g @claraverse/companion

# MCPサーバーをClaraVerseに接続
clara-companion connect \
  --claraverse-url http://localhost:3000 \
  --mcp-config ./mcp-servers.json

MCPを通じてClaraVerseから利用できるツールの例:

  • ファイルシステムへのアクセス(コードの読み書き)
  • データベース接続(ローカルSQLiteやPostgreSQL)
  • カスタムAPIエンドポイントの呼び出し

AIエージェントフレームワーク比較2026でも解説しているMCPエコシステムとの統合により、ClaraVerseのAIアシスタントが持つ「できること」の範囲を大幅に拡張できる。

エンタープライズセキュリティ設定の詳細

ロールベースアクセス制御(RBAC)

ClaraVerseは管理者・パワーユーザー・一般ユーザーのロール区分を持っている:

# 管理者APIでのユーザー作成例
curl -X POST "http://localhost:3000/api/admin/users" \
  -H "Authorization: Bearer ${ADMIN_JWT_TOKEN}" \
  -H "Content-Type: application/json" \
  -d '{
    "email": "[email protected]",
    "role": "power_user",
    "allowed_models": ["gpt-4o", "llama3.2:3b"],
    "max_tokens_per_day": 100000
  }'

監査ログの活用

ClaraVerseはすべてのAIインタラクションのログを保持している。コンプライアンス要件がある組織では、このログを定期的にエクスポートして監査記録として保管できる:

# 監査ログのエクスポート(JSON形式)
curl -X GET "http://localhost:3000/api/admin/audit-logs?from=2026-04-01&to=2026-04-18" \
  -H "Authorization: Bearer ${ADMIN_JWT_TOKEN}" \
  > audit_log_april.json

自動更新とバックアップ戦略

データのバックアップ

# MySQLデータのバックアップ
docker exec claraverse_mysql_1 mysqldump -u root -p claraverse > backup.sql

# MongoDBデータのバックアップ
docker exec claraverse_mongodb_1 mongodump --out /backup/
docker cp claraverse_mongodb_1:/backup/ ./mongodb_backup/

# Redis(設定・セッション)のバックアップ
docker exec claraverse_redis_1 redis-cli bgsave
docker cp claraverse_redis_1:/data/dump.rdb ./redis_backup/

バージョンアップデート

# 最新版へのアップデート手順
# 1. 現在の状態をバックアップ
docker-compose exec mysql mysqldump -u root claraverse > pre_update_backup.sql

# 2. 最新イメージを取得
docker-compose pull

# 3. 再起動
docker-compose up -d

# 4. マイグレーション確認(ログで確認)
docker-compose logs -f claraverse | grep -i migration

コスト比較:ClaraVerse vs クラウドAI

ClaraVerseの導入コストとクラウドAIのAPI課金を比較する:

シナリオ クラウドAI(月額) ClaraVerse + ローカルモデル(月額)
個人利用(~100万トークン) $20〜$50 サーバー電気代 $5〜$10
小チーム5人(~1000万トークン) $200〜$500 GPU投資回収後 $30〜$60
部門20人(~5000万トークン) $1,000〜$2,500 専用サーバー月額 $100〜$300
エンタープライズ(~5億トークン) $10,000〜+ オンプレミスGPUサーバー

初期のGPUサーバー投資(RTX 4090搭載サーバーで50〜100万円程度)は数ヶ月のAPI節約で回収できる計算になる場合が多い。ただし、管理コストと技術的な手間も考慮する必要がある。

参照ソース