概要
sandbox は、AI エージェント実行のための統合開発環境を Docker コンテナ内に構築するプロジェクト。ブラウザ自動化、シェルコマンド実行、ファイル操作、Model Context Protocol(MCP)、VSCode Server をすべて 1 つのコンテナ内で動作させることで、複雑な環境構築を排除し、即座にエージェント開発を開始できる設計になっている。エージェント研究やプロトタイピングから本番運用まで、幅広いステージで活用される。
主な機能
- ブラウザ自動化統合:Selenium や Playwright 互換のブラウザ操作をコンテナ内で直接実行できる
- シェル環境:Linux ターミナルアクセスがコンテナ内で完全に機能し、ファイルシステム操作やパッケージインストールが可能
- ファイル管理システム:エージェント、ユーザー間でのファイル読み書きが統一インターフェースで実現
- MCP サーバー対応:Model Context Protocol に準拠したツール呼び出しをネイティブサポート
- VSCode Server 搭載:Web ブラウザから直接コード編集・デバッグが実行でき、エージェントとの連携開発が効率化
- ワンコマンド起動:Docker で全サービスが自動起動
- 多言語スクリプト実行:Python、Node.js、Bash など複数言語に対応
技術スタック
- コンテナ化:Docker
- ブラウザ自動化:Chromium、Firefox(Selenium/Playwright 互換)
- 開発環境:VSCode Server
- プロトコル:Model Context Protocol(MCP)
- ランタイム:Python 3.11+、Node.js
- サーバー:基本的な Web サーバー、WebSocket 対応
導入方法
クイックスタート:
docker run --security-opt seccomp=unconfined --rm -it -p 8080:8080 ghcr.io/agent-infra/sandbox:latest
中国本土ユーザー向け:
docker run --security-opt seccomp=unconfined --rm -it -p 8080:8080 enterprise-public-cn-beijing.cr.volces.com/vefaas-public/all-in-one-sandbox:latest
特定バージョンの使用:
バージョン形式 agent-infra/sandbox:${version} を指定。例えば、バージョン 1.0.0.150 を使用する場合:
docker run --security-opt seccomp=unconfined --rm -it -p 8080:8080 ghcr.io/agent-infra/sandbox:1.0.0.150
接続確認:
- メインサービス:http://localhost:8080
初期設定:環境変数やポート設定をカスタマイズすることで、特定の要件に対応可能。デフォルト設定でもすぐに動作開始できる。
競合比較
| ツール | ブラウザ | シェル | ファイル | MCP | VSCode | 構成 |
|---|---|---|---|---|---|---|
| sandbox | ✅ | ✅ | ✅ | ✅ | ✅ | Docker 1 つ |
| Browserless | ✅ | ✗ | ✗ | ✗ | ✗ | ブラウザ特化 |
| LocalStack | ✗ | ✅ | ✅ | ✗ | ✗ | AWS エミュレーション |
差別化ポイント:
もっとも大きな違いは「統合度」と「即座性」。Browserless はブラウザ操作に特化し、LocalStack は AWS 環境のエミュレートに限定される。対して sandbox は、エージェント開発に必要なすべての要素(ブラウザ、ターミナル、ファイル、MCP、エディタ)を単一の Docker イメージに統合。プロトタイピングフェーズでの生産性が大幅に向上する。
活用シーン
シーン 1:AI エージェントの自動テスト環境構築 Web サイト操作、ファイル検証、ターミナルコマンド実行が必要なエージェント動作テストを、sandbox 内で完全に再現。複数テストケースを並列実行する際も、Docker イメージを複製するだけで独立した環境が瞬時に展開される。
シーン 2:研究開発時のプロトタイピング LLM にシェルアクセスやファイル操作、ブラウザ操作をさせたい場合、sandbox なら API 呼び出し 1 つで実現。環境差分やバージョン競合で悩む必要がなく、実験の反復速度が大幅に加速する。
シーン 3:本番エージェントの分離実行環境 エージェントの実行を独立した Docker コンテナ内に隔離し、リソース制御やセキュリティ境界を確保。複数エージェントを同時運用する際、各コンテナが干渉しない独立環境を提供。
こんな人におすすめ
- AI エージェント開発者:複数の実行環境を統合したい、セットアップ時間を削減したいという要望が解決される
- 機械学習エンジニア:LLM の推論パイプラインにシェル操作やファイル管理を組み込む際、環境構築の手間を最小化できる
- スタートアップのプロダクト開発チーム:Docker 1 つで本番環境を構築・管理でき、インフラ管理コストが削減される
- オープンソース貢献者:sandbox の設計・拡張に参加し、AI エージェントコミュニティに貢献したい層
- 教育・研究機関:学生に AI エージェント開発を教える際、統一された環境を短時間で提供できる
FAQ
[
{
"q": "Windows 環境でも動作しますか?",
"a": "Docker Desktop for Windows 環境なら動作します。WSL 2 バックエンドを使用すれば、Linux コンテナ機能が完全に利用可能。ただし、ホスト側からのマウントパスは Windows パスに対応した指定が必要になります。"
},
{
"q": "MCPプロトコルって何ですか?",
"a": "Model Context Protocol は、LLM がツール・リソースにアクセスするための標準化されたプロトコル。sandbox では MCP サーバーをコンテナ内で実行し、エージェントが統一インターフェースでファイル・コマンド・ブラウザにアクセスできます。"
},
{
"q": "複数のエージェントを同時に実行できますか?",
"a": "可能です。Docker でコンテナを複製し、ポート番号をずらして起動すれば、複数エージェントの並列実行環境が構築されます。リソース制限設定で CPU・メモリを制御することも推奨されます。"
}
]