🏠 ホーム ニュース 📖 解説記事 📚 トピック解説 🏷️ タグ一覧 ℹ️ About
ツール
💰 API料金計算機 NEW
🔍 記事を検索
カテゴリ
📡 RSSフィード
Follow
X (Twitter) 🧵 Threads
🔧 ツール
💰API料金計算機
トピック
🧠 Claude Code 🤖 AIエージェント 🎵 AIコーディング / Vibe Coding 🔌 MCP(Model Context Protocol) 🔍 RAG & ナレッジシステム 💬 LLM / ローカルAI 🔒 セキュリティ ⚙️ DevOps & 自動化 💰 Claude API & 料金 🎨 UI生成 & デザインシステム
ニュース一覧 🏷️タグから探す
Subscribe
📡 RSSフィード
ホーム security 2026.04.27

PasteGuard|LLMに送るプロンプトからPIIとAPIキーを自動マスクするプロキシ

sgasser/pasteguard
🛡️
PasteGuard|LLMに送るプロンプトからPIIとAPIキーを自動マスクするプロキシ - AIツール日本語解説 | AI Heartland
PasteGuardはローカルプロキシとしてLLM APIの前段に挟み、PIIとAPIキーを検出してマスク・復元する。学習防止の保証範囲・他DLPとの違い・企業導入の判断軸まで踏み込んで整理する。

この記事ではセキュリティに特化して解説します。AIセキュリティ全般は サプライチェーンセキュリティ完全ガイド2026|攻撃手法・防御ツール・実践チェックリスト をご覧ください。

結論:PasteGuardは「LLMに渡すデータの最後の砦」として実用レベルにある
ローカルで動くプロキシとしてOpenAI・Anthropic API互換の口を立て、Microsoft Presidio基盤で30種類以上の機密データを検出してマスク・復元する。OSSなので外部にデータを送らず、Apache 2.0で商用利用も可。ただし「LLMの学習に使われない」ことを完全保証する魔法ではなく、プロバイダ契約と組み合わせて初めて意味がある。本記事では仕組み・精度・他DLPとの違い・企業導入の判断軸まで整理する。

PasteGuardとは何か:ローカル実行のLLMプライバシープロキシ

PasteGuard は2026年1月に公開されたOSS(Apache 2.0、現在v0.3.5、606スター)で、開発元はsgasser氏。コアコンセプトは “AI gets the context. Not your secrets.”(AIには文脈を、機密は渡さない)の一行で表現されている。

技術スタックは Bun + Hono(TypeScript)+ Microsoft Presidio + SQLite。Dockerコンテナ1つで起動し、ローカルポート3000にOpenAI互換・Anthropic互換のエンドポイントを立てる。アプリケーション側で base_urlhttps://api.openai.com/v1 から http://localhost:3000/openai/v1 に切り替えるだけで、間にマスキング層が挟まる。

# 起動はDockerコンテナ1つ
docker run --rm -p 3000:3000 ghcr.io/sgasser/pasteguard:en

ポイントは「PasteGuard自体が外部にデータを送らない」点だ。Presidioも検出処理もすべて自分のマシン・自社サーバ内で完結し、ログもローカルSQLiteに保存される。クラウド型のDLP SaaSと違い、機密データがいったん第三者のクラウドに流れることがない。

「ローカルで動く」ことの意味
PasteGuardは「自社のデータが第三者の検査クラウドに送られない」という意味でローカルだが、ユーザーがOpenAIやAnthropicに送りたいリクエストはマスク後に必ず外部に出ていく。完全にデータを外に出したくない場合は、後述のルートモードでローカルLLMに振るか、最初から自前ホスティングのモデルを使う必要がある。

何を検出するのか:PII 11種・シークレット 9種

PasteGuardが扱うのは大きく2系統に分かれる。

個人情報(PII):Presidioベースで11種・24言語対応

カテゴリ 検出対象 デフォルト
PERSON 人名(姓名)
EMAIL_ADDRESS メールアドレス
PHONE_NUMBER 電話番号(国際フォーマット)
CREDIT_CARD クレジットカード番号
IBAN_CODE 国際銀行口座番号
IP_ADDRESS IPv4/IPv6
LOCATION 住所・地名
US_SSN 米国社会保障番号 任意
US_PASSPORT 米国旅券番号 任意
CRYPTO 暗号通貨ウォレットアドレス 任意
URL 内部URL含むURL全般 任意

検出はMicrosoft Presidioが担当する。PresidioはspaCyのNERモデル+正規表現+コンテキストワード検査の組み合わせで、各検出に 0.0〜1.0の信頼度スコア を付ける。PasteGuardのデフォルト閾値は score_threshold: 0.7。0.7未満は誤検知リスクが高いと判断して通過させる設計だ。

言語対応は24言語。Dockerイメージはサイズと精度のバランスで分割されており、:en が英語専用、:eu が独仏伊蘭ポーランド・スペイン・ポルトガル・ルーマニア対応の欧州版。日本語を含む他言語は別途カスタムビルドかPresidioサーバを直接構成する形で対応する。

シークレット:正規表現+コンテキスト判定で9種

種別 パターン デフォルト
OPENSSH_PRIVATE_KEY -----BEGIN OPENSSH PRIVATE KEY-----
PEM_PRIVATE_KEY -----BEGIN RSA PRIVATE KEY-----
API_KEY_SK sk-... / sk_...(OpenAI、Stripe、Anthropic) 任意
API_KEY_AWS AKIA...(20文字) 任意
API_KEY_GITHUB ghp_/gho_/ghu_/ghs_/ghr_(40文字+) 任意
JWT_TOKEN eyJ... で始まる3セグメントBase64 任意
BEARER_TOKEN Bearer ...(40文字+) 任意
ENV_PASSWORD / ENV_SECRET DB_PASSWORD=... / JWT_SECRET=... 任意
CONNECTION_STRING postgres://mongodb:// 任意

秘密鍵2種だけがデフォルト有効で、他はオプトイン。「秘密鍵は誤検知のしようがないからオン、APIキーや環境変数は文脈次第で誤判定が出るからオフ」 という慎重な設計思想だ。

マスクの仕組み:プレースホルダ置換と復元の双方向フロー

PasteGuardのマスクモードがどう動くかを順に追う。

sequenceDiagram participant App as アプリ/Claude Code participant PG as PasteGuard
(localhost:3000) participant Presidio as Presidio
(PII検出) participant LLM as OpenAI/Anthropic API App->>PG: "Dr. Sarah Chen
([email protected])
のレポートを書いて" PG->>Presidio: テキストを送信 Presidio-->>PG: PERSON: Sarah Chen
EMAIL: [email protected]
(信頼度0.95/0.99) PG->>PG: マッピング保存
PERSON_1=Sarah Chen
EMAIL_ADDRESS_1=sarah@... PG->>LLM: "Dr. [[PERSON_1]]
([[EMAIL_ADDRESS_1]])
のレポートを書いて" LLM-->>PG: "[[PERSON_1]]様への
レポート([[EMAIL_ADDRESS_1]]
宛送付)..." PG->>PG: 応答内のプレースホルダを復元 PG-->>App: "Sarah Chen様への
レポート([email protected]
宛送付)..."

プレースホルダの形式は [[TYPE_NUMBER]](例:[[PERSON_1]][[EMAIL_ADDRESS_2]])。同一テキスト内に同じ値が複数回出てきても番号は再利用され、「同じ人物が同じ番号」として参照されるため、LLMは指示文の意味的整合性を失わない。

ストリーミング応答にも対応していて、PasteGuardは応答チャンクをバッファリングしながらプレースホルダ境界([[]])を検出し、マッピングテーブルを引いてリアルタイムに復元する。ユーザー側からは普通のストリーミングとして見える。

意味を保ちながら機密だけ消す、という発想
単純な伏字(****)と違い、PasteGuardは「Aさん([[PERSON_1]])とBさん([[PERSON_2]])の関係性を分析して」のように構造を保ったまま渡せる。LLMはプレースホルダを「未知の固有名詞」として処理し、答えはそのまま返ってきて、ユーザー側で復元される。これが従来のDLP(ブロックするか通すかの二択)とLLM特化プロキシの最大の差だ。

マスクモードとルートモード:2つの守り方

PasteGuardには思想が異なる2モードがある。

flowchart TD Req["LLMリクエスト"] --> Mode{"動作モード"} Mode -->|"mask"| MaskFlow["PII置換 →
必ずクラウドへ"] Mode -->|"route"| Detect{"PII含む?"} Detect -->|"含まない"| Cloud["OpenAI/Anthropic"] Detect -->|"含む"| Local["ローカルLLM
Ollama/vLLM"] MaskFlow --> Cloud2["OpenAI/Anthropic
(マスク済みデータ)"] Cloud2 --> Restore["応答を復元してアプリへ"] Cloud --> ReturnA["そのまま応答"] Local --> ReturnB["ローカル応答"] style Local fill:#27ae60,color:#fff style Cloud2 fill:#3498db,color:#fff

マスクモード(デフォルト): 常にOpenAI/Anthropicに渡すが、機密はプレースホルダに置換する。クラウドLLMの賢さを使いたい・ローカルGPUがない・大半のリクエストに機密が含まれない場合に向く。

ルートモード: PIIが含まれていたらリクエスト全体をローカルLLM(Ollama・vLLM・llama.cpp・LocalAI)に流す。PIIがゼロのリクエストだけクラウドに送る。「センシティブなデータは絶対に外に出したくないが、すべてローカルでやるのは性能的に無理」という条件下で使う。

比較軸 マスクモード ルートモード
機密の所在 プレースホルダ化してクラウドへ 機密ありはローカル完結
クラウドLLM性能 フル活用 PIIなしリクエストのみ
必要インフラ プロキシのみ プロキシ + ローカルGPU
失敗時の影響 検出漏れ=機密がそのまま外へ 検出漏れ=機密がそのまま外へ
推奨用途 一般的なAI活用 規制業界・医療・法務
どちらのモードも「検出が完璧」が前提
Presidioの信頼度閾値を下回るPII(カタカナ氏名の表記揺れ、社内独自IDフォーマット等)は素通りする。「PasteGuardを入れたから100%安全」ではなく「数百件中数件残るかもしれないリスクを許容できる範囲まで下げる仕組み」と理解する必要がある。

「学習防止」の本質:PasteGuardが守れる範囲と守れない範囲

ユーザーが最も気にするのが「自社データがLLMの学習に使われないか」という点だが、ここは整理が必要だ。

LLMプロバイダ側の学習ポリシー(2026年4月時点)

サービス デフォルトでの学習利用 備考
OpenAI API(有料) 使わない API経由は学習対象外(OpenAI公式
Anthropic API 使わない 商用APIは学習対象外(Anthropic公式
ChatGPT 無料/Plus 使う(オプトアウト可) 設定からオフ可能
ChatGPT Enterprise/Team 使わない 契約条項で明記
Google Gemini API 一部利用 プランで異なる
Google AI Studio 使う 評価・改善に使われる旨明記

つまり 「商用APIをきちんと使っている限り、学習防止は契約レベルで既に保証されている」 のが現状だ。PasteGuardの役割は契約に依存しない技術的補強であり、次の3つの場面で意味を持つ。

  1. 学習に使う可能性があるサービス(無料ChatGPT・AI Studio・サードパーティ製ラッパー) に流す前に機密を抜く
  2. API利用規約が将来変更されるリスクに対する技術的ヘッジ
  3. プロバイダのログ保持・人手レビューポリシー(規約上、不正利用調査のため一時保管されるケース)に機密が乗らないようにする

3点目が見落とされがちだ。OpenAIやAnthropicは規約上、不正利用調査のためAPIリクエストを最大30〜90日程度保持する。学習には使われなくとも、その期間内にプロバイダのインフラに自社データが残る点はガバナンス上の論点になる。PasteGuardを通せばその期間に保持されるのもプレースホルダだけになるのが本質的な価値だ。

マスク精度の現実的な期待値

公式ドキュメントには明示的な精度指標は載っていないが、ベースとなるPresidioの公開ベンチマークから次のように推測できる。

日本語環境では検出精度の事前検証が必須
Presidioのデフォルトspacyモデル(ja_core_news_lg等)の人名認識は、英語ほど高くない。本番投入前に自社の典型的なプロンプト100件を流して検出率を測り、必要なら社内辞書を追加するか閾値を0.5前後に下げる運用が現実的。誤検知(過剰マスク)は受け入れ可能だが、検出漏れは情報漏洩そのものになる。

他のDLP(Data Loss Prevention)ツールとの違い

「LLMに送るデータを守る」という課題に対しては、複数のレイヤーで複数の製品が存在する。PasteGuardの位置づけを比較表で整理する。

製品 カテゴリ カバー範囲 デプロイ 価格帯
PasteGuard LLM APIプロキシ LLM API/コーディングAI 自社ホスト(Docker) OSS(無料)
Microsoft Purview エンタープライズDLP M365・SaaS・エンドポイント クラウド 月額数千円〜/ユーザー
Nightfall AI クラウドDLP SaaS・GitHub・Slack・LLM クラウド エンタープライズ商談
Lakera Guard LLMガードレール LLMアプリ(プロンプト注入対策中心) クラウド/オンプレ 商用
Skyflow LLM Privacy Vault PIIヴォールト LLM API前段 SaaS 商用
自社実装 + Presidio 自前DLP 任意(要実装) 任意 開発工数

PasteGuardが選ばれる理由は明確だ。

逆に Purviewのような企業全体DLPの代替にはならない。Outlookで送る添付ファイル、Slackメッセージ、SharePoint上のドキュメントなどはカバー範囲外。「組織のデータ移動全体を統制する」必要がある場合、PurviewとPasteGuardは併存させる関係になる。

選び方の判断軸:「どこから漏れるか」を起点に逆算する
LLMに流れるルートが脆弱なら → PasteGuard。社員がDropboxやSlackから外部に流すルートが脆弱なら → Purview/Nightfall。PasteGuardは「LLM APIに特化することで導入の軽さと網羅性を交換した」プロダクトであり、自社のリスクシナリオが「開発者がClaude CodeやCursorに社内コードを丸ごと渡す」型に集中しているなら、極めて費用対効果が高い選択になる。

企業導入シナリオ4パターン

実際の組織でどう入れるかを4つのパターンで整理する。

パターン1:開発者個人のローカル環境(最小構成)

エンジニア各自のローカルマシンでDockerコンテナを起動し、Claude CodeやCursorのbase_urlを切り替える。

# 起動
docker run -d -p 3000:3000 -v $HOME/.pasteguard:/data \
  --name pasteguard ghcr.io/sgasser/pasteguard:en

# Claude Codeの利用例
ANTHROPIC_BASE_URL=http://localhost:3000/anthropic claude

導入の摩擦が最も低い。新人エンジニアでも30分で稼働させられる。組織レベルでの統制はないが「使う人が使う」段階での導入として有効。

パターン2:チーム共有プロキシ(中規模構成)

開発チーム1つに対してEC2やKubernetes Pod上にPasteGuardを1つ立て、全員がそれを向く。社内DNS(例:pasteguard.dev.internal)でアクセスを統一する。

# Kubernetes Deploymentの最小例
apiVersion: apps/v1
kind: Deployment
metadata:
  name: pasteguard
spec:
  replicas: 2
  selector:
    matchLabels:
      app: pasteguard
  template:
    metadata:
      labels:
        app: pasteguard
    spec:
      containers:
      - name: pasteguard
        image: ghcr.io/sgasser/pasteguard:eu
        ports:
        - containerPort: 3000
        env:
        - name: PASTEGUARD_LANGUAGES
          value: "en,ja"

ダッシュボードで「誰がいつ何をマスクしたか」を集中管理できる利点がある。一方で集中点が単一障害点(SPOF)になるためHA構成は前提。

パターン3:規制業界・医療・法務(ルートモード必須構成)

PIIが含まれるリクエストは絶対に外部に出せない業界では、ルートモードを使ってローカルLLM(社内Ollama・vLLM・llama.cpp)に振り分ける。クラウドLLMには「PIIゼロのコード補完・公開資料の要約」のみ流す。

判断フローは下記のようになる。

flowchart TD Start["開発者がClaude
Codeにプロンプト送信"] --> PG["PasteGuard"] PG --> Detect{"PII
検出?"} Detect -->|"なし"| Cloud["Anthropic API
(クラウド)"] Detect -->|"あり"| Choose{"内容種別"} Choose -->|"医療データ・
個人情報"| Local["社内Ollama
(VPC内)"] Choose -->|"テスト用ダミー"| Mask["マスクして
クラウドへ"] Local --> Audit["監査ログ
SIEM転送"] Mask --> Audit Cloud --> Audit style Local fill:#27ae60,color:#fff style Cloud fill:#3498db,color:#fff

パターン4:API統合(自社プロダクトに組み込む)

自社プロダクトがバックエンドからOpenAI APIを呼んでいる場合、PasteGuardをサイドカー(同一PodやECSタスク内)として配置し、アプリのSDK設定だけ書き換える。

# 既存
client = OpenAI()

# PasteGuard経由
client = OpenAI(base_url="http://localhost:3000/openai/v1")

エンドユーザーから受け取る入力(カスタマーサポートのチャット内容、契約書のテキスト等)に含まれるPIIを、自社が責任を持ってマスクしてからLLMに渡せる。ユーザーへの「PIIは外部AIに渡しません」という説明と整合性が取れるのが大きい。

制限事項と「向いてない」ケース

PasteGuardの守備範囲は明確だが、以下の使い方には向いていない。

「保険」と理解して導入する
PasteGuardは「あったほうが確実に安全」だが、これだけで「LLMにあらゆるデータを安心して流せる」わけではない。機密データを大量に含むリポジトリ全体をAIに渡すような根本的に危険な運用は、PasteGuardの有無にかかわらず避けるべき。あくまで「最後の砦」だ。

Gemini APIキーが不正利用される仕組みと防止策 でも書いたとおり、漏れたAPIキーは数時間で悪用される。PasteGuardはAPIキー漏洩防止と相性が良く、.env ファイルや認証ヘッダがそのままプロンプトに混入するパターンを正規表現で確実に止められる。

設定ファイルの構造:閾値・対象エンティティを調整する

config.example.yaml の主要部分は以下のようになっている。本番運用では score_threshold の調整と、有効化するエンティティのオプトイン判断が肝になる。

mode: mask  # または route

pii_detection:
  presidio_url: ${PRESIDIO_URL:-http://localhost:5002}
  languages: ${PASTEGUARD_LANGUAGES:-en}
  score_threshold: 0.7  # ← 検出感度。0.5に下げると過検知が増える
  entities:
    - PERSON
    - EMAIL_ADDRESS
    - PHONE_NUMBER
    - CREDIT_CARD
    - IBAN_CODE
    - IP_ADDRESS
    - LOCATION

secrets_detection:
  enabled: true
  action: mask
  entities:
    - OPENSSH_PRIVATE_KEY
    - PEM_PRIVATE_KEY
    # 必要に応じて API_KEY_SK / API_KEY_AWS / API_KEY_GITHUB を追加

logging:
  database: ./data/pasteguard.db
  retention_days: 30
  log_content: false        # ← 元データはログに残さない
  log_masked_content: true  # マスク後の内容のみ記録

ログ設計では log_content: false がデフォルトな点が重要だ。マスク前の生データを保存しない設計になっており、PasteGuard自体を侵害されても元データが奪われない。漏洩リスクを増やさないためのゼロトラスト的設計だ。

検証チェックリスト:本番投入前にやっておきたいこと

OpenClawのセキュリティリスクとAIエージェントの安全な使い方 で扱ったエージェントの権限制御と組み合わせると、「データの流出」と「データの破壊」両方をカバーできる構成になる。

結論:PasteGuardをいつ導入すべきか

判断軸はシンプルだ。

導入を強く推奨

過剰なケース

自前実装より速い: PresidioとExpress/FastAPIで似たプロキシを書くと、最低でも開発に1週間〜数週間かかる。PasteGuardはそれを1コマンドで提供し、ダッシュボード・ストリーミング対応・複数プロバイダ対応まで含めて完成している。スター606・v0.3.5まで開発が進んでおり、CI付き・Apache 2.0なので業務利用の敷居も低い。

「とりあえず入れて損はない」が成立する珍しいセキュリティツール
通常セキュリティ製品の導入は「設定・運用・誤検知対応」のコストが価値を上回ることがあるが、PasteGuardはDocker起動とbase_url変更だけで動き、検出漏れがあっても今より悪くはならない(マスクしないより悪化しない)。導入のリスクが極めて低い設計になっている点が、組織導入をスムーズにする最大の理由だ。

参照ソース

B!
B! この記事をはてブに追加
よくある質問
PasteGuardを通せばOpenAIやAnthropicが学習に使うことを防げますか?
PasteGuardは「送る前に機密データを置換する」ツールです。プロバイダ側の学習ポリシーを変更するものではありません。OpenAI APIやAnthropic APIはデフォルトで学習に使わない契約であり、PasteGuardの役割は「契約で守られている範囲」をさらに技術的に補強することです。ChatGPT無料版やGoogle AI Studioなど学習にデータを使う可能性があるサービスでも、マスクされたプレースホルダしか相手に渡さないため、実質的な学習防止になります。
Microsoft Presidioをそのまま使うのと何が違いますか?
PresidioはPII検出ライブラリで、それ自体はAPIプロキシではありません。PasteGuardはPresidioを内部で使いつつ、LLM API互換のプロキシとしてマスク→送信→応答内のプレースホルダを復元する一連のフローを提供します。Presidio単体では「ChatGPTに貼り付ける前にコピペで前処理」が必要ですが、PasteGuardは透過的に挟まるためアプリ側の改修がbase_url変更だけで済みます。
コーディング支援(Claude Code・Cursor)で使うとコード生成精度は落ちませんか?
コードリテラル中のメールアドレス・APIキーがプレースホルダ([[EMAIL_ADDRESS_1]]等)に置換されるため、変数名や関数の意味は損なわれません。ただしLLMがプレースホルダ文字列をそのまま生成コードに残してしまった場合、PasteGuardが復元処理で元の値に戻すかどうかを確認する必要があります。重要なシークレットを含むコードを丸ごとペーストする運用ではなく、必要な範囲だけ渡す前提で使うのが安全です。
ルートモード(Route Mode)はマスクモードと何が違うのですか?
マスクモードはPIIを置換して必ずクラウドプロバイダに送ります。ルートモードはPIIが含まれる場合だけリクエスト全体をローカルLLM(Ollama・vLLM・llama.cpp)に振り、含まれないリクエストはクラウドに送ります。マスクモードは「常に外部に送るが置換する」、ルートモードは「機密はそもそも外に出さない」という思想の違いです。
Microsoft PurviewやNightfall AIなど商用DLPの代わりになりますか?
用途次第です。PurviewやNightfallはエンドポイント・SaaS・クラウドストレージを横断する企業全体のDLPで、PasteGuardはLLM APIに特化したOSSプロキシです。「組織全体のデータ移動を統制する」ならPurview等が必要ですが、「LLMへ流れるデータだけ確実にマスクしたい」用途ではPasteGuardの方が導入が軽く、自社環境で完結します。両者は競合ではなく補完関係になることもあります。
💬
LLM / ローカルAI
LLMの仕組み、ローカル実行、モデル比較、最適化 →
広告
GitHub で見る
役に立ったらシェアをお願いします
🔔 AI速報、毎日Xで配信中
Claude Code・MCP・AIエージェントの最新ニュースをいち早くお届け
@peaks2314 をフォロー
記事の信頼性について
AI Heartland エディトリアルポリシーに基づき作成
複数ソース照合
公式情報・報道等を突き合わせて確認
ファクトチェック済
ソースURLの内容を検証
参照ソース明記
記事末尾に引用元を掲載
関連記事
🛡️ CAMPFIREのGitHub侵害から学ぶ:エンジニアが今すぐ直すべきSecret管理と最小権限設計
CAMPFIREのGitHub不正アクセス→DB侵害(22.5万件漏洩)を解剖し、エンジニアが今すぐ直すべきSecret管理・Fine-grained PAT・GitHub OIDC・VPC隔離・GitHub Actionsのスコープ制限を実践コード付きで解説。
2026.04.26
🛡️ OWASP APTS|AIエージェント時代の自律型ペネトレーションテスト基準を読む
OWASP APTSは自律型ペネトレーションテストプラットフォームのガバナンス基準。Tier 1〜3の173要件を全ドメイン解説。Claude Code・Cursor等が準拠できるか、セキュリティ界隈の懐疑論も踏まえ現実を検証。
2026.04.23
🕵️ BISSA Scanner解析:AI支援の大規模脆弱性スキャンと.envクレデンシャル窃取の仕組み
DFIR ReportがBISSA Scannerを解析。CVE-2025-55182を悪用してNext.jsに大規模スキャンを実行し、.envから3万件超のAPIキー・クラウド認証情報を窃取。Claude CodeをAI支援に組み込んだ攻撃プラットフォームの技術構造と防御策を解説。
2026.04.23
🛡️ 「人間かボットか」を超えて:CloudflareのPrivacy Pass・Web Bot Auth・Agent Registryで変わるアクセス制御
CloudflareがAIエージェント時代のアクセス制御を再設計。1日数十億トークンを処理するPrivacy Pass・Web Bot Auth・Agent RegistryとARC匿名認証の技術を解説。「人間 vs ボット」二分法がなぜ限界かを実例で示す。
2026.04.22
Popular
#1 POPULAR
🎨 Claude Design使い方・料金・v0/Figma比較 — テキストだけでプロトタイプを作るAnthropicのAIデザインツール
Anthropicが2026年4月に公開したClaude DesignはPro月額$20から追加費用なしで使えるAIデザインツール。テキスト指示だけでプロトタイプ・スライド・LPを生成できる。料金・Figma/v0/Lovable比較・オンボーディング手順・実践プロンプト例まで、デザイン知識ゼロから使い始める方法をまとめた。
#2 POPULAR
🎨 awesome-design-md:DESIGN.mdでAIにUI生成させる方法【58ブランド対応】
DESIGN.mdをプロジェクトに置くだけでAIエージェントが一貫したUI生成を実現。Vercel・Stripe・Claudeなど58ブランドのデザイン仕様をnpx 1コマンドで導入する方法と、実際の出力差を検証した結果を解説。
#3 POPULAR
📊 TradingView MCP:Claude CodeからTradingViewを完全操作する78ツールのMCPサーバー
TradingView MCPはClaude CodeからTradingView Desktopを直接操作できる78ツール搭載のMCPサーバー。チャート分析、Pine Script開発、マルチペイン、アラート管理、リプレイ練習まで自然言語で実行。導入手順を解説
#4 POPULAR
🔍 last30days-skill完全ガイド|Reddit・X・YouTube横断AIリサーチスキルの使い方2026年版
last30days-skillはReddit・X・YouTube・TikTokなど10+ソースを横断して最新30日のトレンドをAIで分析するClaude Codeスキル。使い方・設定・活用例を解説。
#5 POPULAR
🚨 Composer 脆弱性 CVE-2026-40261 PerforceドライバRCE、2.9.6/2.2.27で修正
PHP Composerの脆弱性CVE-2026-40261(CVSS 8.8)はPerforce未インストールでも任意コード実行が成立。composer install/requireでRCEリスク。修正版2.9.6/2.2.27へ今すぐcomposer self-updateで更新。全PHP開発者・CI環境が影響対象。
← Understand Anything入門:コードベースをナレッジグラフ化するClaude Codeプラグイン