🏠 ホーム ニュース 📖 解説記事 📚 トピック解説 🏷️ タグ一覧 ℹ️ About
🔍 記事を検索
カテゴリ
📡 RSSフィード
Follow
X (Twitter) 🧵 Threads
Quick Links
ニュース一覧 🏷️タグから探す
🧠Claude 🤖Agent 💬LLM 🔌MCP 🛠️Tool
Subscribe
📡 RSSフィード
ホーム tool 2026.04.13

DeepWiki-Open完全ガイド — GitHubリポジトリからAI Wikiを自動生成するOSSの使い方

AsyncFuncAI/deepwiki-open
📚
DeepWiki-Open完全ガイド — GitHubリポジトリからAI Wikiを自動生成するOSSの使い方 - AIツール日本語解説 | AI Heartland
// なぜ使えるか
GitHubリポジトリのコードを解析し、構造化されたWiki・Mermaid図・RAGベースQ&Aを自動生成するOSSツール。Google Gemini・OpenAI・Ollamaなど7つのLLMプロバイダーに対応。MITライセンス、Star数15,000超。

DeepWiki-Openとは — リポジトリからAIドキュメントを自動生成するOSS

DeepWiki-Openは、GitHub・GitLab・BitbucketのリポジトリをAIで解析し、構造化されたWikiドキュメントを自動生成するオープンソースツールだ。2026年4月時点でGitHub Star数は15,500を超え、MITライセンスで公開されている。

READMEすら読まずにコードの全体像を把握したい、新しいOSSの仕組みを素早く理解したい — そんな場面で威力を発揮する。リポジトリURLを入力するだけで、以下の成果物が自動生成される。

技術スタックはフロントエンドがNext.js 15 + React 19、バックエンドがFastAPI(Python)。ベクトル検索にFAISS、LLMフレームワークにAdalFlowを採用している。

DeepWiki-Open インターフェース

なお、同名の「DeepWiki」(Cognition AI / Devin提供のホスティング版)とは別プロジェクトだ。本記事はセルフホスト可能なOSS版「DeepWiki-Open」を解説する。

仕組みと主要機能 — RAG・ベクトル検索・DeepResearch

DeepWiki-Openの処理パイプラインは5ステップで構成される。

graph TD A["リポジトリURL入力
GitHub / GitLab / Bitbucket"] --> B["リポジトリのクローン
プライベートリポも対応"] B --> C["コード解析・チャンク分割
AdalFlow + テキストスプリッター"] C --> D["ベクトル埋め込み生成
FAISS インデックス構築"] D --> E["LLMによるWiki生成
7プロバイダーから選択"] E --> F["Wiki・Mermaid図・Q&A
ブラウザで閲覧"]

ベクトル埋め込みとRAG — コードをチャンクに分割し、FAISS(Facebook AI Similarity Search)でベクトルインデックスを構築する。Q&A機能では質問に関連するコード断片をベクトル検索で取得し、LLMに渡して根拠に基づいた回答を生成する。RAGFlowのようなエンタープライズRAGとは異なり、コードリポジトリ特化の軽量実装だ。

DeepResearch — 単純なQ&Aでは足りない複雑なテーマに対応する機能。「リサーチ計画→調査→中間報告→追加調査→最終結論」のサイクルを最大5回反復する。大規模リポジトリのアーキテクチャ分析や、モジュール間の依存関係の調査に有効。

DeepResearch機能

プライベートリポジトリ対応 — GitHub・GitLabのPersonal Access Tokenを入力することで、プライベートリポジトリも解析できる。

データ保存先 — すべてのデータは ~/.adalflow/ 配下に保存される。

ディレクトリ 内容
~/.adalflow/repos/ クローンしたリポジトリ
~/.adalflow/databases/ ベクトル埋め込み・インデックス
~/.adalflow/wikicache/ 生成済みWikiのキャッシュ

インストールとLLMプロバイダー設定

Dockerで起動(推奨)

最も手軽なのはDocker Composeでの起動だ。

# リポジトリをクローン
git clone https://github.com/AsyncFuncAI/deepwiki-open.git
cd deepwiki-open

# APIキーを設定(少なくとも1つ必要)
cat > .env << 'EOF'
OPENAI_API_KEY=sk-your-openai-key
GOOGLE_API_KEY=your-google-api-key
EOF

# Docker Composeで起動
docker-compose up

起動後、http://localhost:3000 にアクセスすればWiki生成画面が表示される。

Docker Hubからイメージを直接pullして実行することもできる。

docker pull ghcr.io/asyncfuncai/deepwiki-open:latest

docker run -p 8001:8001 -p 3000:3000 \
  -e OPENAI_API_KEY=sk-your-key \
  -e GOOGLE_API_KEY=your-google-key \
  -v ~/.adalflow:/root/.adalflow \
  ghcr.io/asyncfuncai/deepwiki-open:latest

手動セットアップ

Docker以外で動かす場合は、バックエンドとフロントエンドを個別に起動する。

# バックエンド(FastAPI / ポート8001)
python3 -m pip install poetry==2.0.1
poetry install -C api
python3 -m api.main

# フロントエンド(Next.js / ポート3000)— 別ターミナルで
npm install
npm run dev

7つのLLMプロバイダー

DeepWiki-Openは7つのLLMプロバイダーをサポートする。UIから切り替え可能で、用途やコストに応じて選択できる。

プロバイダー デフォルトモデル 必要な環境変数 特徴
Google Gemini gemini-2.5-flash GOOGLE_API_KEY 高速・低コスト
OpenAI gpt-5-nano OPENAI_API_KEY 高品質・汎用
OpenRouter 各種 OPENROUTER_API_KEY Claude・Llama等を統一APIで利用
Azure OpenAI gpt-4o AZURE_OPENAI_* エンタープライズ向け
Ollama llama3 なし(ローカル) 完全ローカル・無料
AWS Bedrock 各種 AWS認証情報 AWSインフラ統合
Alibaba Dashscope Qwen系 DASHSCOPE_API_KEY OpenAI互換エンドポイント

埋め込みモデルも切替可能で、OpenAI(text-embedding-3-small)、Google(text-embedding-004)、Ollama(ローカル)、AWS Bedrockから選べる。ただし埋め込みプロバイダーを変更すると、既存のベクトルインデックスを再生成する必要がある点に注意。

Ollamaでの完全ローカル実行

外部APIキーなしで動かしたい場合はOllamaを使う。

# Ollamaのインストールとモデル取得
curl -fsSL https://ollama.ai/install.sh | sh
ollama pull llama3
ollama pull nomic-embed-text

# .envにOllamaのエンドポイントを設定
echo "OLLAMA_HOST=http://localhost:11434" > .env

# Docker Composeで起動
docker-compose up

UIのプロバイダー選択で「Ollama」を選べば、すべての処理がローカルで完結する。

MCP連携とアクセス制御

DeepWiki MCPサーバー

Cognition AIが提供するDeepWiki MCPサーバーを使えば、AIコーディングツールからリポジトリのドキュメントに直接アクセスできる。公開リポジトリが対象で、50,000以上のリポジトリがインデックス済み。

Claude Codeでの設定は1コマンドで完了する。

# Claude CodeにDeepWiki MCPサーバーを追加
claude mcp add -s user -t http deepwiki https://mcp.deepwiki.com/mcp

CursorやWindsurfでは mcp.json に以下を追加する。

{
  "mcpServers": {
    "deepwiki": {
      "serverUrl": "https://mcp.deepwiki.com/mcp"
    }
  }
}

MCPサーバーは3つのツールを提供する。

ツール 用途
read_wiki_structure リポジトリのドキュメント構造(目次)を取得
read_wiki_contents ドキュメントの内容を読み取り
ask_question リポジトリについてAIに質問

セルフホスト版のアクセス制御

DeepWiki-Openをチーム内で公開する場合、認証モードで保護できる。

# .envに追加
DEEPWIKI_AUTH_MODE=true
DEEPWIKI_AUTH_CODE=your-secret-code

類似ツール比較 — OpenDeepWiki・Cognition DeepWiki

リポジトリからドキュメントを自動生成するツールの比較。

特性 DeepWiki-Open OpenDeepWiki Cognition DeepWiki
開発元 AsyncFuncAI(個人) AIDotNet Cognition AI(Devin)
GitHub Star 15,500+ 3,000+ — (プロプライエタリ)
セルフホスト 対応 対応 不可
LLMプロバイダー 7種(Gemini, OpenAI, Ollama等) OpenAI中心 非公開
ローカルLLM Ollama対応 限定的 不可
プライベートリポ トークン入力で対応 対応 Devinアカウント必要
MCP連携 なし(ホスティング版のみ) なし 対応
DeepResearch 対応(最大5反復) 非対応 Ask Devinとして提供
技術スタック Python + Next.js C# + TypeScript 非公開
ライセンス MIT MIT プロプライエタリ
コスト LLM API料金のみ LLM API料金のみ 公開リポは無料

選び方のポイント — セルフホストで自由にカスタマイズしたいならDeepWiki-Open。API不要で完全ローカル実行ならOllama連携のDeepWiki-Openが唯一の選択肢。公開リポジトリのドキュメントを手軽に参照するだけならCognition DeepWikiのホスティング版が最も簡単で、github.comdeepwiki.com に置き換えるだけで使える。

制限事項・注意点

大規模リポジトリの処理時間 — モノレポや巨大リポジトリでは解析・埋め込み生成に時間がかかる。api/config/repo.json でファイルフィルタやサイズ上限を調整できる。

埋め込みプロバイダーのロックイン — OpenAIの埋め込みで生成したインデックスをGoogleの埋め込みで検索することはできない。プロバイダーを変更する場合はインデックスの再生成が必要。

メンテナンス体制 — 開発者は新プロジェクト「AsyncReview」に開発の主軸を移しており、DeepWiki-Openはメンテナンスモードと公表されている。コミュニティの活発さ(1,700フォーク)がリスクを緩和している。

認証モードの制約DEEPWIKI_AUTH_MODE はフロントエンドを保護するが、バックエンドAPIへの直接アクセスは完全には防げない。公開環境ではリバースプロキシで追加保護が推奨される。

参照ソース

Follow
よくある質問
DeepWiki-Openと deepwiki.com の違いは?
deepwiki.comはCognition AI(Devin開発元)が運営するホスティング版で、50,000以上の公開リポジトリがインデックス済み。DeepWiki-Openは独立した開発者によるOSS版で、セルフホスト・ローカルLLM・プライベートリポジトリに対応する。
APIキーなしで使えるか?
Ollamaを使えばAPIキー不要で完全ローカル実行が可能。llama3とnomic-embed-textをpullし、UIでOllamaを選択する。
プライベートリポジトリに対応しているか?
対応している。UIからGitHub / GitLabのPersonal Access Tokenを入力すれば、プライベートリポジトリも解析できる。
Wiki生成にどれくらい時間がかかるか?
リポジトリの規模とLLMプロバイダーに依存する。小〜中規模のリポジトリ(数百ファイル)で数分程度。初回はクローンと埋め込み生成に時間がかかるが、2回目以降はキャッシュが効く。
日本語のWikiは生成できるか?
LLMが日本語に対応していれば日本語出力も可能。GeminiやGPT-4oを使えば日本語品質は高い。READMEにも日本語版が用意されている。
生成されたWikiをエクスポートできるか?
WikiコンテンツはJSON形式でキャッシュされる。Markdownとして直接エクスポートする機能は現時点では公式に提供されていないが、キャッシュデータから変換は可能。
広告
GitHub で見る X 🧵 Threads Facebook LINE B! はてブ
🔔 AI速報、毎日Xで配信中
Claude Code・MCP・AIエージェントの最新ニュースをいち早くお届け
@peaks2314 をフォロー
記事の信頼性について
AI Heartland エディトリアルポリシーに基づき作成
複数ソース照合
公式情報・報道等を突き合わせて確認
ファクトチェック済
ソースURLの内容を検証
参照ソース明記
記事末尾に引用元を掲載
Next Read →
🤖 AI Engineering from Scratch:290時間でAIエンジニアになる実践型カリキュラム
関連記事
⏩ Continue vs Cursor徹底比較:無料OSSのAIコーディング拡張は$20の代替になるか
Continue.devはCursor代替の無料AIコーディング拡張。VS Code・JetBrainsでClaude・GPT-4・ローカルLLMを自由に選択可能。使い方・CI統合・料金をCursor Proと徹底比較し、導入手順まで解説。
2026.04.12
🕸️ Graphify入門:コード・ドキュメント・画像をナレッジグラフ化し、AIの検索トークンを71.5倍削減するOSS
GraphifyはコードベースをAIが理解しやすいナレッジグラフに変換するOSS。20言語のAST解析+LLMセマンティック解析で構築し、クエリあたりのトークン消費を71.5倍削減。Claude Code・Cursor・Codex等10以上のAIツールに対応。
2026.04.11
📹 Screenpipe完全ガイド:画面と音声を24時間記録し、AIエージェントで自動化するOSS
Screenpipeは画面と音声を24時間ローカル記録し、AIエージェント(Pipe)で自動化するOSS。Rust製で軽量、MCP対応、100%ローカル処理でプライバシーも安全。インストールからPipe開発まで解説。
2026.04.11
🌐 Cloudflare Browser Rendering CDPエンドポイント完全ガイド【2026年版】
CloudflareがBrowser RenderingにCDPエンドポイントを追加。PuppeteerやPlaywright、MCPクライアントからサーバーレスブラウザに直接接続可能。接続方法・料金・競合比較を徹底解説。
2026.04.11
Popular
#1 POPULAR
🔓 Claude Codeソースコード流出の全貌:npm混入で51万行公開、未公開機能KAIROSも発覚
Claude Codeのnpmパッケージからソースマップ経由で51万行のTypeScriptソースが流出。未公開プロジェクトKAIROSや107個のフィーチャーフラグが発覚した経緯・影響・対策を詳細に解説。
#2 POPULAR
🎨 awesome-design-md:DESIGN.mdでAIにUI生成させる方法【58ブランド対応】
DESIGN.mdをプロジェクトに置くだけでAIエージェントが一貫したUI生成を実現。Vercel・Stripe・Claudeなど58ブランドのデザイン仕様をnpx 1コマンドで導入する方法と、実際の出力差を検証した結果を解説。
#3 POPULAR
📊 TradingView MCP:Claude CodeからTradingViewを完全操作する78ツールのMCPサーバー
TradingView MCPはClaude CodeからTradingView Desktopを直接操作できる78ツール搭載のMCPサーバー。チャート分析、Pine Script開発、マルチペイン、アラート管理、リプレイ練習まで自然言語で実行。導入手順を解説
#4 POPULAR
⚡ Claude Code NO_FLICKER modeの使い方:ちらつき解消とマウス対応でターミナルUI刷新
Claude CodeのNO_FLICKER modeは環境変数1つで有効化できる新ターミナルレンダラー。ちらつき解消・マウスイベント対応・差分レンダリングの仕組みと設定方法を解説。今すぐ使い方を確認しましょう。
#5 POPULAR
☁️ Floci入門:LocalStack代替のAWSローカル開発環境【起動24ms・25サービス対応】
FlociはLocalStack無料版の代替となるGo製AWSエミュレータ。S3・DynamoDB・Lambda等25サービスを起動24ms・メモリ13MiBで再現。認証トークン不要、go installで即導入。LocalStackとの詳細比較と導入手順を解説。
#6 POPULAR
🔗 Claude Microsoft 365 連携ガイド:SharePoint・Outlook・Teams接続と活用例
ClaudeのMicrosoft 365コネクタを使えばSharePoint・OneDrive・Outlook・Teamsのデータを横断検索・分析できます。全プラン(Free含む)対応。設定手順・活用例・セキュリティ設定・よくあるトラブル対処を初心者向けに解説します。
#7 POPULAR
⚠️ Anthropic、Claude Codeで予想外の高速クォータ枯渇認める。キャッシュバグで料金10〜20倍
Claude Codeでプロンプトキャッシュを破壊する2つのバグが発見され、API利用料が10〜20倍に跳ね上がる問題が発生。Anthropicは「チームの最優先事項」と認める。Pro/Maxユーザーから月間の大半で使用不可との報告多数。
#8 POPULAR
🤖 Anthropic、常時稼働型AIエージェント「Conway」を極秘テスト。AIが自律デジタル分身へ進化
Anthropicが「常時稼働」型AIエージェント「Conway」を開発中。Webhookでイベント駆動、24時間365日自律稼働。同時にCoworkも非エンジニア向けに急速普及。AIの動作モデルが根本から変わる
#9 POPULAR
🦊 Claude Sonnet 5(claude-sonnet-5-20260401)リリース:SWE-bench 92%超えで開発者が知るべき全仕様
AnthropicがClaude Sonnet 5(claude-sonnet-5-20260401)を2026年4月1日リリース。SWE-bench 92.4%・GPQA 96.2%と全ベンチマーク首位。料金はSonnet 4.6と同額$3/$15のまま据え置き。API移行・性能比較・実用コード付きで解説。
#10 POPULAR
🕷️ Spider Rs:Rust製の高速Webクローラーで大規模サイトマッピングを実現
非同期処理とメモリ効率を活かしたRust製Webクローラー。サイト構造の自動解析、複数URLの並列処理、カスタマイズ可能なスクレイピングに対応。SEO分析やコンテンツ監査の自動化を検討する開発チームへ
← Cloudflare Sandboxes GA:AIエージェント用孤立実行環境が一般提供、PTY・スナップショット・認証情報安全注入が揃う AI Engineering from Scratch:290時間でAIエンジニアになる実践型カリキュラム →