Anthropicのコンテンツ管理システム(CMS)の設定ミスにより、次期AIモデル「Claude Mythos」(内部コードネーム: Capybara)の詳細が記載された内部資料が公開状態になっていたことが判明した。LayerX SecurityのRoy Paz氏とケンブリッジ大学のAlexandre Pauwels氏が発見し、Fortuneが報じた。
流出したのは約3,000件の未公開資料。CEOサミットの計画書、ブログ記事のドラフト、そしてClaude Mythosの性能を詳述した文書が含まれていた。Anthropicは「CMSの設定におけるヒューマンエラー」と説明し、Fortuneからの通知後にアクセスを遮断した。
これはClaude Codeのソースコード流出(NPMレジストリ経由で約50万行が公開状態)に続く、1週間で2件目のセキュリティインシデントだ。
リーク文書から判明した情報を整理する。
「Claude Mythos」はモデル世代名、「Capybara」はティア名称。既存のHaiku → Sonnet → Opusの上位に位置する新しいティアとなる。
リーク文書の記述によれば:
「Opus 4.6と比較して、Capybaraはソフトウェアコーディング、学術的推論、サイバーセキュリティのテストにおいて劇的に高いスコアを達成した」
「我々がこれまでに開発した中で、圧倒的に最も強力なAIモデル」
ただし、具体的なベンチマークスコアは一切公開されていない。すべての性能主張はリーク文書のドラフト段階のものであり、最終的な公式発表と異なる可能性がある。
最も注目すべきは、Anthropic自身がClaude Mythosの危険性を認識している点だ。
リーク文書には以下の記述がある:
「サイバー能力において、現在他のいかなるAIモデルよりもはるかに先行している」
「防御側の努力をはるかに上回る方法で脆弱性を悪用できるモデルの到来を予告している」
先日のCVE-2026-4747事例では、現行のAIモデルがカーネル脆弱性のエクスプロイトコードを自動生成できることが実証された。Claude MythosがOpus 4.6を「劇的に上回る」サイバーセキュリティ能力を持つとすれば、脆弱性発見からエクスプロイト完成までのTime-to-Exploitがさらに短縮されることを意味する。
1週間で2件のセキュリティインシデントが発生した。
| インシデント | 日付 | 流出内容 | 原因 |
|---|---|---|---|
| Claude Mythos内部資料 | 3/26 | CMS上のドラフト記事・約3,000件の未公開資料 | CMS設定のヒューマンエラー |
| Claude Codeソースコード | 3/31 | NPMレジストリ経由で約50万行・1,900ファイル | ソースマップの公開設定ミス |
「AI安全性のリーダー」を標榜するAnthropicが、自社のインフラセキュリティで連続して失態を犯しているという構図は、業界に大きな問いを投げかけている。
AIモデルの安全性評価に注力する一方で、基本的なCMS設定やNPMパッケージの公開設定を見落とすという「足元のセキュリティ」の問題。Claude Codeの使い方を解説する立場として、ユーザーが知っておくべきリスクでもある。
確認済み(Anthropic公式):
未確認(リーク文書ベース、公式未発表):
# Claude Mythosの公開APIは現時点で存在しない
# 以下は既存モデルの確認方法
curl https://api.anthropic.com/v1/models \
-H "x-api-key: $ANTHROPIC_API_KEY" \
-H "anthropic-version: 2023-06-01" | jq '.data[].id'
# 現在利用可能なモデル(2026年4月時点)
# claude-opus-4-6
# claude-sonnet-4-6
# claude-haiku-4-5-20251001
Claude Mythosの一般公開時期は不明だが、開発者は以下を意識すべきだ。
コスト面: リーク文書では「運用コストが非常に高い」と記載。Opus 4.6でも高コストだが、Capybaraティアはさらに上。タスクに応じたモデル選択(Haiku/Sonnet/Opusの使い分け)がより重要になる。
セキュリティ面: AIによる脆弱性発見能力が飛躍的に向上するため、自分のコードがAIに分析される前提での防御が標準になる。境界チェック、入力検証、権限分離の基本を改めて徹底すべき。
# AIによるコード監査に備えたセキュリティチェックリスト
security_checklist = {
"boundary_checks": "バッファサイズの明示的な検証",
"input_validation": "全外部入力のサニタイズ",
"privilege_separation": "最小権限の原則",
"dependency_audit": "サプライチェーン攻撃の監視",
"secrets_management": "ハードコードされた認証情報の排除",
}
# 自動チェック例(pre-commitフック)
# pip install bandit safety
# bandit -r src/ -ll # Python向けセキュリティ静的解析
# safety check # 依存パッケージの脆弱性チェック
Anthropicは「慎重なロールアウト戦略」を表明しており、サイバーセキュリティの防御側(ホワイトハット)への優先提供を計画している。
3つの注目ポイント:
AIモデルの能力向上と安全管理の両立は、Anthropicだけでなく業界全体の課題だ。自社モデルの安全性を訴えながら、自社インフラのセキュリティで連続失態——この矛盾を、Anthropicがどう解消するかが問われている。
この記事はAI業界の最新動向を速報でお届けする「AI Heartland ニュース」です。