Cursor Proの月額$20——本当にそれしか選択肢はないのか
AIコーディングツールの話題になると、必ず名前が挙がるのがCursorだ。月額$20で統合されたAI体験を提供し、2026年のAI開発ツール市場を牽引している。
だが「月額$20を払い続ける」「VS Codeから専用IDEに乗り換える」「コードがクラウドに送信される」——この3つのハードルに引っかかる開発者は少なくない。
Continue は、その3つを全て解決するオープンソースの選択肢だ。GitHub 32,500 stars、Apache 2.0ライセンス、TypeScript製。VS CodeとJetBrainsの拡張として動作し、AIモデルもClaude・GPT-4・Gemini・ローカルLLMから自由に選べる。
本記事では、ContinueがCursor Proの代替になり得るのか、機能・料金・プライバシーの3軸で検証する。
Continueの全体像:IDE拡張+CI/CD統合の二刀流
Continueは2023年にIDE拡張として登場し、2025年半ばに大きなピボットを経て「Continuous AI」プラットフォームへと進化した。現在は2つの製品ラインを持つ。
IDE拡張(VS Code / JetBrains)
開発者が日常的に使うコーディング支援機能:
- Chat — コードについてIDEの中で対話
- Autocomplete — インライン補完候補の表示
- Agent Mode — 複数ファイルを跨ぐ自律的なリファクタリング
- Edit — 選択範囲の直接編集
実際のUI動作を見てみよう。以下はVS Code上でのContinueの4つの主要機能だ。
Chatモード:コードについてIDEの中で対話

Autocomplete:リアルタイムのインラインコード補完

Agent Mode:複数ファイルを自律的に編集

Edit:選択範囲をAIで直接編集

Continue CLI(CI/CD統合)
PRに対してAIチェックを自動実行する品質管理ツール:
# CLIインストール(macOS/Linux)
curl -fsSL https://raw.githubusercontent.com/continuedev/continue/main/extensions/cli/scripts/install.sh | bash
# または npm
npm i -g @continuedev/cli
.continue/checks/ にMarkdownファイルとしてチェックルールを定義すると、GitHub Status Checkとして自動実行される。セキュリティレビュー、入力バリデーション、エラーハンドリングの検証などが可能だ。
VS Code / JetBrains"] -->|コード作成| B["Continue IDE拡張
Chat / Autocomplete / Agent"] B -->|Push / PR| C["GitHub"] C -->|トリガー| D["Continue CLI
.continue/checks/"] D -->|結果| E["✅ Pass / ❌ Fail
+ 修正Diff提案"] F["LLMプロバイダー
Claude / GPT-4 / Ollama"] -->|API| B F -->|API| D
Cursor Proとの機能比較:14項目で検証
「ContinueはCursor Proの代替になるか」を判断するため、AIコーディングに必要な主要機能を比較した。
| 比較項目 | Continue | Cursor Pro |
|---|---|---|
| 料金 | 無料(APIキー従量課金) | 月額$20固定 |
| ライセンス | Apache 2.0 OSS | プロプライエタリ |
| 対応IDE | VS Code、JetBrains | Cursor専用IDE |
| コード補完 | ✅ Autocomplete | ✅ Tab補完 |
| AIチャット | ✅ Chat | ✅ Chat |
| エージェント | ✅ Agent Mode | ✅ Composer Agent |
| マルチファイル編集 | コンテキスト手動追加 | Composer自動インデックス |
| コードベースインデックス | 設定可能(手動) | 自動・組み込み |
| モデル選択 | 任意(Claude, GPT-4, Gemini, ローカル等) | 限定(GPT-4, Claude等) |
| ローカルLLM | ✅ Ollama, LM Studio対応 | ❌ 非対応 |
| CI/CD統合 | ✅ Continue CLI | ❌ なし |
| プライバシー | 完全エアギャップ可 | コード送信あり |
| カスタマイズ性 | 高(設定ファイル完全制御) | 中(プリセット中心) |
| セットアップ難易度 | やや高(2〜3週間で習熟) | 低(即日利用可) |
ここで見えるのは明確なトレードオフだ。Cursorは「すぐ使える洗練された体験」、Continueは「自由度とコントロール」を提供する。
インストールと初期設定:10分で動く環境構築
VS Codeでの導入手順を示す。
# 1. VS Code拡張をインストール(マーケットプレイスから)
code --install-extension Continue.continue
# 2. サイドバーにContinueのアイコンが表示される
# 3. 初回起動時にモデル設定ウィザードが立ち上がる
設定ファイルは ~/.continue/config.json に保存される:
{
"models": [
{
"title": "Claude Sonnet 4",
"provider": "anthropic",
"model": "claude-sonnet-4-20250514",
"apiKey": "sk-ant-xxx..."
},
{
"title": "Ollama - Qwen2.5-Coder",
"provider": "ollama",
"model": "qwen2.5-coder:7b"
}
],
"tabAutocompleteModel": {
"title": "Qwen2.5-Coder (Local)",
"provider": "ollama",
"model": "qwen2.5-coder:1.5b"
}
}
ポイントはチャット用モデルと補完用モデルを分けて設定できること。例えば:
- チャット・エージェント → Claude Sonnet 4(高品質な推論)
- コード補完 → ローカルのQwen2.5-Coder 1.5B(低レイテンシ)
この構成なら、補完は完全ローカル(無料・高速)、複雑な質問だけクラウドAPIを使う運用が実現する。
モデル選択の自由度:Continueの最大の武器
Continueが対応するLLMプロバイダーの一覧:
| プロバイダー | 対応モデル例 | 特徴 |
|---|---|---|
| Anthropic | Claude Sonnet 4, Claude Opus 4 | コーディング品質トップクラス |
| OpenAI | GPT-4o, GPT-4.1 | 汎用性が高い |
| Gemini 2.5 Pro | 100万トークンのコンテキスト | |
| Ollama | Qwen2.5-Coder, Llama 3, DeepSeek | 完全ローカル・無料 |
| LM Studio | 任意のGGUFモデル | GUIで管理 |
| カスタムAPI | 任意のOpenAI互換エンドポイント | 社内LLMも接続可 |
Claude Code vs Cursorの比較記事でも触れたが、AIコーディングツールの選択で最も影響が大きいのは「どのモデルを使えるか」だ。Cursorは使えるモデルが限定的だが、Continueは完全に開かれている。
ローカルLLMで完全無料&プライベート運用
Continueの最も差別化されたユースケースが「完全ローカル運用」だ。
# Ollamaでコーディング特化モデルをセットアップ
ollama pull qwen2.5-coder:7b # チャット用(7B)
ollama pull qwen2.5-coder:1.5b # 補完用(1.5B・高速)
# Continue側の設定は config.json で provider: "ollama" を指定するだけ
この構成で得られるもの:
- 料金: $0/月 — APIキー不要、完全無料
- レイテンシ: 50-100ms — ローカル推論で補完が瞬時に表示
- プライバシー: 100% — コードが一切外部に送信されない
- オフライン: 可 — インターネット接続なしで動作
金融、医療、防衛関連など「コードを外部に送信できない」環境では、この選択肢の存在自体が大きい。OpenHandsのセルフホストと組み合わせれば、AI開発環境全体をオンプレミスで構築できる。
qwen2.5-coder:7b"] A -->|補完リクエスト| C["Ollama
qwen2.5-coder:1.5b"] B --> D["レスポンス
(ネットワーク通信なし)"] C --> D end subgraph 外部通信 E["❌ クラウドAPI
一切不要"] end style E fill:#ff5555,color:#fff
Agent Modeで複数ファイルを自律編集
Continue v1.2以降で本格化したAgent Modeは、Cursorの Composerに相当する機能だ。
指示を出すと、Continueが自律的に:
- 関連ファイルを探索
- 変更計画を立案
- 複数ファイルを横断して編集
- 差分をプレビュー表示
# Agent Modeへの指示例
@agent ログイン機能にレート制限を追加して。
Redis接続は既存のutils/redis.tsを使って。
テストも書いて。
ただし、ここがCursorとの最大の差だ。Cursorはプロジェクト全体を自動インデックスするのに対し、Continueは関連ファイルを手動でコンテキストに追加する場面がまだ多い。大規模プロジェクトでの「コードベース理解」の精度は、2026年4月時点ではCursorが一歩リードしている。
Continue Checks:CI/CDに組み込むAIコードレビュー
Continueの最大の差別化ポイントがChecksだ。Cursorにはない、PRごとにAIが自動でコードレビューを実行し、GitHub Status Checkとして結果を返す仕組みを提供する。
仕組み:MarkdownでチェックルールをGit管理
.continue/checks/ ディレクトリにMarkdownファイルを置くだけで、AIチェックが自動的に有効化される。
.continue/checks/security-review.md の例:
---
name: Security Review
description: Check for common security vulnerabilities
---
Review the pull request diff for:
- Hardcoded credentials or API keys
- SQL injection vulnerabilities
- Unvalidated user input
- Sensitive data in logs
If any issues are found, provide a suggested fix as a diff.
.continue/checks/react-best-practices.md の例:
---
name: React Best Practices
description: Enforce React coding standards
---
Review the React components in this PR for:
- Missing key props in list rendering
- Direct DOM manipulation instead of refs
- State mutations without setState/useState
- Missing dependency arrays in useEffect
Suggest fixes with corrected code snippets.
チェックの定義はコードと同じリポジトリにGit管理されるため、チームのコーディング規約をバージョン管理&レビュー可能な形で運用できる。
GitHub連携:PRを開くだけで自動実行
セットアップ手順:
- continue.dev にサインイン
- GitHub連携ページで「Connect GitHub」をクリック
- 監視対象リポジトリを選択
.continue/checks/にチェックファイルをコミット
これだけで、PRが開かれる(またはpushされる)たびに全チェックが自動実行される。
実際のGitHub PR画面では、ContinueのAIチェックがネイティブのStatus Checkとして表示される:

上の画像では「KISS」「Performance」「React Best Practices」の3チェックが改善提案付きで赤表示、「Accessibility Fix Agent」「Anti-Slop」などの7チェックが成功で緑表示されている。人間のレビュアーはAIが指摘しなかった部分に集中できる。
Accept / Reject:提案の適用もワンクリック
チェックが失敗した場合、「Details」リンクからContinueのダッシュボードに遷移し、AIが提案する修正差分を確認できる:

- Accept → 修正がPRブランチに自動コミットされる
- Reject → 提案を却下、次のpushで再実行
人間が最終判断する仕組みのため、「AIが勝手にコードを書き換える」リスクはない。
ローカル実行:CIに投げる前にターミナルで確認
Continue CLIを使えば、PRを作る前にローカルでチェックを実行できる:
# Continue CLIでローカル実行
cn checks run

ターミナル上で15個のチェック(Mobile Layout、UI Tests、Security、Code Conventionsなど)が一括実行され、Pass/Failが即座に確認できる。CIで待たされる前にローカルで問題を潰せるのは大きい。
メトリクスダッシュボード:チームの品質を数値で可視化
Continueはチェックの実行結果を集約するダッシュボードも提供する:

| メトリクス | 意味 |
|---|---|
| Total Runs | チェック実行回数(上図では4,764回) |
| Acceptance Rate | AIの提案が受け入れられた割合(51%) |
| Active Agents | 稼働中のチェックエージェント数(146) |
| Total Cost | LLM API消費コスト($686.70) |
「AIのレビューが実際に役立っているか」をデータで判断でき、効果の低いチェックの見直しや、コストの最適化に使える。
AIエージェントフレームワーク比較で取り上げたような大規模開発チームでは、この「Markdownで定義→PRで自動実行→ダッシュボードで効果測定」のサイクルが、人力レビューの負荷を大幅に軽減する。
月額コスト比較:実際いくらかかるのか
| 利用パターン | Continue | Cursor Pro |
|---|---|---|
| ライトユーザー(日数回の質問) | $0〜5/月 | $20/月 |
| ミドルユーザー(日常的にチャット+補完) | $10〜15/月 | $20/月 |
| ヘビーユーザー(Agent常用) | $25+/月 | $20/月 |
| ローカルLLMのみ | $0/月 | — |
Cursorは使用量に関係なく$20固定。Continueは使った分だけ課金される従量制だ。ライトユーザーならContinueが圧倒的に安く、ヘビーユーザーならCursorの定額制の方が予測しやすい。
結論:どちらを選ぶべきか——5つの判断基準
| あなたの状況 | 推奨 |
|---|---|
| VS Code/JetBrainsから離れたくない | Continue |
| コードを外部に送信できない | Continue |
| セットアップに時間をかけたくない | Cursor |
| 複数ファイルの大規模編集が多い | Cursor |
| 月額コストを最小限にしたい | Continue |
「Cursor Proの代替になるか?」への回答は「条件付きでYes」だ。
チャット・コード補完・基本的なエージェント機能は十分にカバーしている。モデル選択の自由度とプライバシーではCursorを上回る。ただし、コードベース全体の自動インデックスとマルチファイル編集のUXでは、2026年4月時点でCursorに及ばない部分がある。
Claude Codeベストプラクティスガイドでも紹介したように、2026年のAI開発はツールの組み合わせが鍵だ。ContinueでIDE補完を担い、Claude CodeでCLI作業を行い、Continue CLIでCIレビューを自動化する——こうしたハイブリッド構成こそ、単一ツール依存を避ける現実的な最適解と言えるだろう。