📰 今日のまとめ NEW
🏠 ホーム ニュース 🏷️ タグ一覧 ℹ️ About
🔍 記事を検索
カテゴリ
📡 RSSフィード
📰 Today's Digest
NEW 今日のまとめ
Quick Links
ニュース一覧 🏷️ タグから探す
🤖 Agent 🟠 Claude 🔌 MCP 🔧 Dev Tools
Subscribe
📡 RSSフィード
ホーム dev 2026.03.25

AWS環境をローカルで再現するエミュレータ

hectorvent/floci
☁️
AWS環境をローカルで再現するエミュレータ - AIツール日本語解説 | AI Heartland
// なぜ使えるか
LocalStackなど既存ツールより軽量で、インストール手順が簡単。本番環境へのデプロイ前にローカルでAWS APIの動作確認ができ、開発サイクルを高速化する。

概要

Flociはアマゾン ウェブ サービス(AWS)のローカルエミュレータで、開発マシン上でAWSサービスを再現する。軽量でセットアップが簡単、そして完全無料という特徴を持つ。背景には、既存のLocalStackやMoto、aws-cliローカルテストの複雑さへの不満がある。ローカル環境の構築が簡素化され、開発効率が向上している。

主な機能

技術スタック

導入方法

Goがインストール済みの環境であれば、以下で即座に開始できる:

go install github.com/hectorvent/floci@latest
floci start

Dockerを使う場合:

docker run -p 4566:4566 hectorvent/floci

初期設定はfloci.yamlで行う。S3のバケット定義やDynamoDBのテーブルスキーマをあらかじめ記述しておくと、起動時に自動作成される。AWS CLIの--endpoint-urlパラメータをhttp://localhost:4566に指定することで、そのままAWSコマンドが動作する。

競合比較

ツール 起動速度 メモリ使用量 セットアップ難易度 料金
Floci ~24 ms ~13 MiB 簡単 無料
LocalStack ~3.3 s ~143 MiB 中程度 無料版あり、Pro版有料
Moto - - 中程度 無料
aws-cli local - - 困難 無料

Flociの差別化ポイントは「軽量性と使いやすさのバランス」にある。LocalStackは機能が豊富だが、Docker Composeの設定が必須で初心者向けではない。Motoはモック機能を提供するが、複数サービスの連携テストには向かない。Flociは本物のAWS APIに限りなく近い動作を、メモリ13 MiB程度で実現。特にCI/CDパイプラインやリソース制約のある開発環境での採用が進んでいる。

活用シーン

シーン1:マイクロサービス開発のローカルテスト

複数のマイクロサービスを開発する場合、各サービスがS3・DynamoDB・その他のAWSサービスを使用していると統合テストが困難になる。FlociをDocker Composeで複数起動し、各サービスをlocalhost:4566経由で接続することで、統合テスト環境をローカルで構築可能。環境構築とテスト実行のターンアラウンドが大幅に短縮される。

シーン2:新入社員のオンボーディング

新規プロジェクトにアサインされたエンジニアは、AWS環境構築に大きな時間を費やしていた。Flociのドキュメントに従って全ローカルサービスを立ち上げることで、セットアップ時間を削減。既存メンバーとの開発進度差が縮小し、チーム全体の生産性向上に寄与。

シーン3:オフライン環境でのプロトタイピング

飛行機や電車での移動中に開発するエンジニアにとって、通信不可でもFlociはローカルバイナリとして動作。プレゼンテーション前の新機能検証時も、クラウドAPIの遅延や料金を気にせず開発を進められる。

こんな人におすすめ

GitHub で見る X 🧵 Threads Facebook LINE B! はてブ
Next Read →
⚡ Apple Silicon向けLLM推論スケジューラ「Hypura」がGitHubで公開
関連記事
🔐 Ente、ローカルLLMアプリ「Ens」をリリース。インターネット接続不要で完全プライベート動作
プライバシー重視のクラウドサービスEnteが、ローカルで動作するLLMアプリケーション「Ens」を発表。データ外部送信なしで、デバイス上で完全に処理。
2026.03.26
🧠 LLMの内部構造を徹底解析、「普遍言語」の兆候を発見
LLMの神経解剖学的な動作メカニズムを研究する新論文が話題。モダンなLLMハッキング手法と、言語モデル間に存在する可能性のある普遍的な言語体系を提示。
2026.03.25
⚡ Apple Silicon向けLLM推論スケジューラ「Hypura」がGitHubで公開
ストレージ階層を意識した新しいLLM推論スケジューラ「Hypura」がリリース。Apple Silicon上で推論性能を最適化する仕組みが明らかに。
2026.03.25
☁️ kumo:Go製の軽量AWSエミュレータ
CI/CD環境向けの軽量なAWSサービスエミュレータをGoで実装
2026.03.25
← kumo:Go製の軽量AWSエミュレータ Apple Silicon向けLLM推論スケジューラ「Hypura」がGitHubで公開 →