ai-engineering-from-scratchrohitg00/ai-engineering-from-scratch)は、線形代数から自律エージェント群(autonomous agent swarms)までを283レッスン・20フェーズ・約290時間で学べるオープン教材だ。2026年3月の公開からわずか2ヶ月で6,400スターを集め、機械学習・深層学習・NLP・コンピュータビジョン・Transformer・LLM・マルチモーダル・エージェント・本番運用・倫理までAI領域全体を横断する珍しい設計になっている。

この記事では公式README・ROADMAP基準で全フェーズの構造、Build It / Use It / Ship Itという3段ループ、Claude Codeスキル統合、Python/TypeScript/Rust/Juliaの4言語使い分け、そして「全レッスンが再利用可能なPrompt・Skill・Agent・MCPサーバーを残す」というToolkit設計を解説する。AIエージェントの全体像から押さえたい場合は、AIエージェントフレームワーク完全比較2026:LangChain・AutoGen・CrewAI・LangGraphをユースケースで選ぶ を先に読むと位置付けが見えやすい。

ai-engineering-from-scratch banner

この記事のポイント

  • 283レッスン・20フェーズ・約290時間でAI全域を1リポジトリで学べる構成。Python/TS/Rust/Julia の4言語を場面ごとに使い分ける
  • 各レッスンは Motto → Problem → Concept → Build It → Use It → Ship It の6ステップ。Build It でフレームワークを使わずスクラッチ実装し、Use It で PyTorch / sklearn / 実フレームワークに置換するため「中で何が起きているか」が腑に落ちる
  • 全レッスンが再利用可能な成果物(Prompt・Skill・Agent・MCPサーバー)を outputs/ に残す。Claude Code / Cursor から /find-your-level /check-understanding のスキルとして直接呼べる

ai-engineering-from-scratchとは:290時間でAIエンジニア像をフルスタックで描く教材

公式READMEは本教材を “From linear algebra to autonomous agent swarms — learn AI with AI, then ship the tools.” と定義している。直訳すれば「線形代数から自律エージェント群まで、AIと共にAIを学び、ツールとして出荷する」という意味になる。要点は3つに要約できる。

  1. AI全域: 数学・古典ML・深層学習・NLP・ビジョン・音声・Transformer・生成AI・強化学習・LLM・LLMエンジニアリング・マルチモーダル・ツール&プロトコル・エージェント工学・自律システム・スウォーム・本番運用・倫理&安全・卒業制作の 20フェーズ をひとつのリポジトリで扱う
  2. AI-native learning: Claude Code / Cursor / 任意のAIコーディングエージェントと一緒に進める前提。/find-your-level で実力に合わせた開始フェーズを判定し、/check-understanding 3 のように各フェーズ後にAIが8問の確認テストを出す
  3. Toolkit成果物: 修了証ではなく、Prompt・Skill・Agent・MCPサーバーがそのまま残る。READMEから引用すれば “Other courses give you a certificate. This one gives you a toolkit.”(他の講座は修了証を渡す。これはツールキットを渡す)。
観点 一般的なAI講座 ai-engineering-from-scratch
範囲 NLPかVisionかエージェントの一領域 数学・ML・DL・NLP・ビジョン・音声・Transformer・LLM・エージェント・スウォームを全カバー
言語 Pythonのみ Python・TypeScript・Rust・Julia の4言語を使い分け
出力 「学んだ気がする」 Prompt・Skill・Agent・MCPサーバーの実物
深さ 表層 or 理論偏重 スクラッチ実装→既存フレームワーク利用の二段構え
形式 動画 動くコード+ドキュメント+Webアプリ+AIクイズ
学習姿勢 受動的 AIエージェント前提の能動学習

検証環境: 公式README(main ブランチ) / ROADMAP.md / glossary/terms.md / 各フェーズ詳細を 2026-05-06 時点で確認。Stars 6,418 / Forks 1,342 / MIT License。レッスン数・時間数はREADME表記を採用(README本文と一部バッジで「260+/283+」「290時間/306時間/320時間」が混在しており、本文ではREADMEのフェーズ別合計値である 283レッスン / 約290時間 を基準値として採用した)。

全体像:20フェーズの依存関係を1枚の地図にする

20フェーズは「数学的基礎 → モデル別の深堀り → エージェント工学 → 本番化」という大きな3レイヤーで設計されている。下図は依存関係を最小単位でまとめたもの(README本文の Phase 0〜19 に基づく)。

flowchart TB subgraph FOUND[基礎レイヤー] P0["Phase 0
Setup & Tooling
12 lessons"] P1["Phase 1
Math Foundations
22 lessons"] P2["Phase 2
ML Fundamentals
18 lessons"] P3["Phase 3
Deep Learning Core
13 lessons"] end subgraph DOMAIN[ドメイン別深堀り] P4["Phase 4
Computer Vision
28 lessons"] P5["Phase 5
NLP
29 lessons"] P6["Phase 6
Speech & Audio
17 lessons"] P7["Phase 7
Transformers
14 lessons"] P8["Phase 8
Generative AI
14 lessons"] P9["Phase 9
RL
12 lessons"] end subgraph LLM[LLMエンジニアリング] P10["Phase 10
LLMs from Scratch
22 lessons"] P11["Phase 11
LLM Engineering
15 lessons"] P12["Phase 12
Multimodal AI
25 lessons"] end subgraph AGENT[エージェント&スウォーム] P13["Phase 13
Tools & Protocols
23 lessons"] P14["Phase 14
Agent Engineering
30 lessons"] P15["Phase 15
Autonomous Systems
22 lessons"] P16["Phase 16
Multi-Agent & Swarms
25 lessons"] end subgraph PROD[本番運用&倫理] P17["Phase 17
Infrastructure
28 lessons"] P18["Phase 18
Ethics & Safety
30 lessons"] P19["Phase 19
Capstone
17 projects"] end P0 --> P1 --> P2 --> P3 P3 --> P4 P3 --> P5 P3 --> P6 P3 --> P7 P7 --> P8 P3 --> P9 P7 --> P10 --> P11 --> P12 P11 --> P13 --> P14 --> P15 --> P16 P14 --> P17 P14 --> P18 --> P19 style P14 fill:#fff3cd style P10 fill:#d4edda style P19 fill:#cce5ff

注目すべきは Phase 14(Agent Engineering)のレッスン数が 30 と最大規模である点だ。Agent Loop / ReWOO / Reflexion / Tree of Thoughts / Self-Refine から、LangGraph・AutoGen v0.4・CrewAI・OpenAI Agents SDK・Claude Agent SDK・Agno・Mastraまで主要フレームワークを総ざらいし、SWE-bench / GAIA / WebArena / OSWorld の評価ベンチマーク、Computer Use(Claude / OpenAI CUA / Gemini)、Voice Agents(Pipecat / LiveKit)、OpenTelemetry GenAI、プロンプトインジェクション対策(PVE Defense)まで含む。AIエージェントの実務スキルとしては網羅性が高い。

全レッスン共通の6ステップ:Build It → Use It → Ship It の3段構造

公式READMEの “How Each Lesson Works” によれば、各レッスンは以下の6ステップに統一されている。

ステップ 内容
🎯 Motto 1行に圧縮された核となる考え方
❓ Problem これを知らないと困る具体シナリオ
🧠 Concept Mermaidとイラストで直観を理解。コードはまだ書かない
🔨 Build It フレームワークを一切使わず純粋Pythonで実装
⚙️ Use It 同じものを PyTorch / sklearn / 実フレームワークで再現
🚢 Ship It このレッスンが残すPrompt・Skill・Agent

READMEから引用すれば “The Build It / Use It split is the key. You understand what the framework does because you built it yourself first.”(Build It / Use It の分離が鍵。フレームワークが何をしているかを理解できるのは、先に自分で組んだからだ)。例として Phase 3 Lesson 5「Loss Functions」の outputs/ には次の2つの再利用可能Promptが残る(公式リポジトリ記載)。

# レッスン完了後に残るPrompt(公式README例)
ls phases/03-deep-learning-core/05-loss-functions/outputs/
# ├── prompt-loss-function-selector.md
# └── prompt-loss-debugger.md

つまり「学習が進むほどAIに食わせられるプロンプト・スキルが資産として積み上がる」設計になっている。これは note や Zenn で記事化する際にも大きなアドバンテージで、自分が書いた Prompt をそのまま記事のおまけ資料として配布できる。

各レッスンのディレクトリ構造も統一されている。

phases/XX-phase-name/NN-lesson-name/
├── code/        # Python / TS / Rust / Julia の実装
├── docs/
│   └── en.md    # レッスンドキュメント
└── outputs/     # Prompt / Skill / Agent / MCPサーバー

Phase 0〜3:基礎レイヤーで「足場」を作る

Phase 0 — Setup & Tooling(12レッスン)

開発環境・Git・GPUクラウド・APIキー管理・Jupyter・Python仮想環境・Docker・エディタ設定・データ管理・ターミナル・Linux・デバッグ&プロファイリング。すぐ手が動くこと優先で組まれており、AI入門者がつまずきやすいポイントを最初に潰す。

Phase 1 — Math Foundations(22レッスン)

線形代数の直観 → ベクトル/行列演算 → 行列変換と固有値 → 微積分 → 連鎖律と自動微分 → 確率と分布 → ベイズの定理 → 最適化 → 情報理論 → 次元削減(PCA / t-SNE / UMAP)→ SVD → テンソル演算 → 数値安定性 → ノルムと距離 → 統計 → サンプリング → 線形方程式 → 凸最適化 → 複素数 → フーリエ変換 → グラフ理論 → 確率過程 と続く。

特筆すべきは Julia が登場すること(線形代数・ベクトル・SVDなど)。「LLMしか勉強しないAIエンジニア」と差を付けたい人向けに、研究コードの読解力・数値計算の地肩を意識した構成になっている。

Phase 2 — ML Fundamentals(18レッスン)

線形回帰 → ロジスティック回帰 → 決定木 → SVM → KNN → クラスタリング → 特徴量設計 → モデル評価 → バイアス&バリアンス → アンサンブル → ハイパーパラメータ調整 → MLパイプライン → ナイーブベイズ → 時系列 → 異常検知 → 不均衡データ → 特徴量選択。

「LLM時代でも古典MLはプロダクションAIの背骨」という立場で、scikit-learnを後から使う前にスクラッチで線形回帰やランダムフォレストを書かせる。

Phase 3 — Deep Learning Core(13レッスン)

パーセプトロン → 多層ネットワーク → バックプロパゲーション → 活性化関数(ReLU / Sigmoid / GELU)→ 損失関数(MSE / Cross-Entropy / Contrastive)→ オプティマイザ(SGD / Momentum / Adam / AdamW)→ 正則化(Dropout / Weight Decay / BatchNorm)→ 重み初期化 → 学習率スケジュール → Mini Frameworkを自作 → PyTorch入門 → JAX入門 → ニューラルネットのデバッグ。

PyTorchを使う前に「自前のミニフレームワーク」を書くため、autograd 周りの動きが手触りで分かる。AIエージェント・LLMの理解にも効いてくるブロックだ。

Phase 4〜9:ドメイン別の深堀り

Phase レッスン数 主なトピック
4 Computer Vision 28 CNN・Transfer Learning・YOLO・U-Net・Mask R-CNN・GAN・Diffusion・Stable Diffusion・3D・ViT・3D Gaussian Splatting・SAM 3・VLM・World Models
5 NLP 29 Tokenize・Embedding・Word2Vec・Sentiment・NER・Seq2Seq・Attention・QA・IR・LDA・Subword Tokenization・Constrained Decoding・Embedding Deep Dive・RAG用Chunk戦略・LLM評価(RAGAS / DeepEval / G-Eval)・Long-Context評価(NIAH / RULER / LongBench / MRCR)
6 Speech & Audio 17 Spectrogram・ASR・Whisper・Speaker認識・TTS・Voice Cloning・音楽生成・Audio Language Model・Neural Audio Codec(EnCodec / SNAC / Mimi / DAC)・Streaming Speech-to-Speech(Moshi / Hibiki)・Anti-Spoofing・WER/MOS/MMAU
7 Transformers 14 Self-Attention・Multi-Head・Positional Encoding(Sinusoidal / RoPE / ALiBi)・BERT・GPT・T5/BART・ViT・Whisper Architecture・MoE・KV Cache & Flash Attention・Scaling Laws・Transformer自作Capstone
8 Generative AI 14 VAE・GAN・StyleGAN・DDPM自作・Latent Diffusion / Stable Diffusion・ControlNet & LoRA・Video / Audio / 3D生成・Flow Matching & Rectified Flows・FID/CLIP Score
9 RL 12 MDP・動的計画 → Q-Learning → DQN → Policy Gradient → A2C/A3C → PPOReward Modeling & RLHF → Multi-Agent RL → Sim-to-Real

特に Phase 5 NLP の Lesson 22-28 は2026年時点で実戦的な「Embedding深堀り → RAG向けチャンク戦略 → LLM評価フレームワーク → Long-Context評価ベンチ」という流れになっており、RAGプロダクトを作る人がそのまま読める。RAG全体像から知りたい場合はRAG完全ガイド2026:LlamaIndex・LangChain・LangGraphで構築する検索拡張生成を、エージェントロードマップとの関連はエージェンティックAIエンジニア・ロードマップ2026:年収・スキルマップ・転職戦略を併せて読むと立体的に理解できる。

Phase 10〜12:LLMをスクラッチで作って育てる

Phase 10 — LLMs from Scratch(22レッスン)

Tokenizer自作 → データパイプライン → 124M Mini-GPT 事前学習 → Distributed Training (FSDP / DeepSpeed) → SFT → RLHF(Reward Model + PPO)→ DPO → Constitutional AI → Eval → Quantization (INT8 / GPTQ / AWQ / GGUF) → Inference Optimization → Open Modelsアーキテクチャ → Speculative Decoding (EAGLE-3) → Differential Attention V2 → Native Sparse Attention (DeepSeek NSA) → Multi-Token Prediction → DualPipe → DeepSeek-V3 → Jamba (Hybrid SSM-Transformer) → Async/Hogwild Inference

研究系の最新トピック(NSA / MTP / DualPipe / Jamba)まで含めるのは珍しい。LLMをローカルで触る周辺知識やローカル推論ツールを横で押さえたい場合はLLM完全ガイド2026:オープンモデル選定・ローカル実行・推論最適化を1記事で網羅が補完になる。

Phase 11 — LLM Engineering(15レッスン)

Prompt Engineering → Few-Shot/CoT/ToT → Structured Outputs → Embeddings → **Context Engineering** → RAG → Advanced RAG (Chunking / Reranking) → LoRA & QLoRA Fine-Tuning → Function Calling → Eval & Test → Caching / Rate Limit / Cost → Guardrails → Production LLM App → **Model Context Protocol (MCP)** → Prompt / Context Caching

「Context Engineering」が独立レッスンになっているのが2026年的。code/ ディレクトリでは Python と TypeScript の両方が用意され、Claude API から MCP まで段階的にコードで扱う。

Phase 12 — Multimodal AI(25レッスン)

ViT パッチトークンから始まり、CLIP・BLIP-2 Q-Former・Flamingo・LLaVA・Patch-n-Pack & NaFlex・LLaVA-OneVision・Qwen-VL・InternVL3・Chameleon・Emu3・Transfusion・Show-o・Janus-Pro・MIO・Long-Video・Audio-Language(Whisper → AF3)・Omni Models(Thinker-Talker)・Embodied VLAs(RT-2 / OpenVLA / π0 / GR00T)・ColPali・Multimodal RAG・Computer-Use Agents Capstone で締める。フロンティアの動向をキャッチアップしたいエンジニア向けに、ここだけ抜き出して教材化されているコース自体が貴重。

Phase 13〜16:エージェント工学のコアブロック

# Phase 13: Tools & Protocols から MCP関連だけ抜粋
06 MCP Fundamentals
07 Building an MCP Server
08 Building an MCP Client
09 MCP Transports
10 MCP Resources and Prompts
11 MCP Sampling
12 MCP Roots and Elicitation
13 MCP Async Tasks
14 MCP Apps
15 MCP Security I — Tool Poisoning
16 MCP Security II — OAuth 2.1
17 MCP Gateways and Registries
18 MCP Auth in Production — DCR + JWKS

Phase 13 だけで MCP に13レッスン割いているのが象徴的だ。サーバー実装だけでなく、Tool Poisoning・OAuth 2.1・Gateways・本番Authまでカバーしている。MCPサーバー構築の入門・実装・運用を体系で押さえたい人はMCPサーバー構築ガイド2026:Anthropic公式仕様で実装する完全実装手順を併読すると、本コースの位置付けがはっきりする。

Phase 14 Agent Engineering(30レッスン) は本リポジトリ最大の見せ場で、「ReWOO・Reflexion・Tree of Thoughts・Self-Refine・Voyager・MemGPT・Mem0・LangGraph・AutoGen・CrewAI・OpenAI Agents SDK・Claude Agent SDK・Agno・Mastra・SWE-bench・GAIA・WebArena・OSWorld・Computer Use・Voice Agents・OTel GenAI・Failure Modes・Prompt Injection (PVE Defense)・Orchestration Patterns・Eval-Driven Development」を一気通貫で扱う。

Phase 15 Autonomous Systems(22レッスン) では METR の長期間タスク評価、STaR/V-STaR/Quiet-STaR、AlphaEvolve、Darwin Gödel Machine、AI Scientist v2、Anthropic AAR、Claude Code の Permission Modes と Auto Mode、Browser Agentsへの間接プロンプトインジェクション、Durable Execution、Action Budget、Kill Switch、HITL、Constitutional AI、Anthropic RSP v3.0、OpenAI Preparedness、DeepMind FSF、CAIS/CAISI までを「2026年の安全運用スタック」としてまとめる。実務でAIエージェントを長時間動かすチームには直接刺さる内容だ。

Phase 16 Multi-Agent & Swarms(25レッスン) は Society of Mind・Supervisor / Swarm / Hierarchical 各パターン・A2A プロトコル・Blackboard・Byzantine Fault Tolerance・PSO/ACO・MARL(MADDPG / QMIX / MAPPO)・Generative Agents・Theory of Mind・Agent Economies・MAST/Groupthink/Monoculture と、マルチエージェント研究の系譜を網羅している。

Phase 17〜19:本番運用・倫理・卒業制作

Phase 17 は Bedrock / Azure OpenAI / Vertex AI、vLLM 内部(PagedAttention / Continuous Batching / Chunked Prefill)、SGLang RadixAttention、TensorRT-LLM on Blackwell、TTFT/TPOT/ITL/Goodput/P99、AWQ/GPTQ/GGUF/FP8/NVFP4、Disaggregated Prefill/Decode(NVIDIA Dynamo / llm-d)、AI Gateways(LiteLLM / Portkey / Kong / Bifrost)、SOC 2 / HIPAA / GDPR / EU AI Act / ISO 42001 まで本番運用全体を押さえる。

Phase 18 は Reward Hacking / Goodhart / Sycophancy / Mesa-Optimization / Sleeper Agents / In-Context Scheming / Alignment Faking / AI Control / Scalable Oversight / PAIR / Many-Shot Jailbreaking / ASCII Art Attack / Indirect Prompt Injection / Garak / Llama Guard / PyRIT / WMDP / RSP / PF / FSF / EchoLeak / Model Cards / Data Provenance / Moderation と、安全側のフロンティアを網羅。

Phase 19 のキャップストーン17本のうち実用度が高いものを抜粋すると:

# プロジェクト 主な依存フェーズ
01 Terminal-Native Coding Agent P0 P5 P7 P10 P11 P13 P14 P15 P17 P18
02 RAG over Codebase P5 P7 P11 P13 P17
03 Real-Time Voice Assistant (ASR→LLM→TTS) P6 P7 P11 P13 P14 P17
06 DevOps Troubleshooting Agent for Kubernetes P11 P13 P14 P15 P17 P18
09 Code Migration Agent (Repo-Level Upgrade) P5 P7 P11 P13 P14 P15 P17
10 Multi-Agent Software Engineering Team P11 P13 P14 P15 P16 P17
13 MCP Server with Registry and Governance P11 P13 P14 P17 P18
16 GitHub Issue-to-PR Autonomous Agent P11 P13 P14 P15 P17

依存フェーズの数字を見るだけで「自分が今どの順番で何を学べばいいか」がわかる仕組みになっている。

AI-Native Learning:Claude Codeから直接呼べるスキルとして提供

公式リポジトリには .claude/skills/ ディレクトリが置かれており、Claude CodeやCursorに統合できる2つのスキルが同梱されている。

# プロジェクトをcloneしてClaude Codeから呼ぶだけ
git clone https://github.com/rohitg00/ai-engineering-from-scratch.git
cd ai-engineering-from-scratch

# 1) 自分のレベルを判定 → 開始フェーズと時間見積りが返る
/find-your-level

# 2) フェーズ完了後の理解度チェック(8問の小テスト)
/check-understanding 3
スキル 振る舞い
/find-your-level 10問の質問でユーザーの知識マップを推定し、開始フェーズと総時間(時間単位)を提案
/check-understanding {phase} フェーズ番号を受け取り、フィードバック付きの8問小テストと復習レッスンを提示

自分のClaude Code環境にスキルとして導入する方法は、Anthropic公式のSkills仕様の延長線上にある。Claude Code側のスキル運用を1から押さえたい場合はClaude Code完全ガイド2026:インストールから本番運用・スキル設計までが前提知識として効いてくる。

学び始めるルート:Option Cの「Find Your Level」が最短

公式READMEの “Getting Started” には3つのオプションが提示される。

オプション 概要 向いている人
A Webサイトで好きなレッスンから読む お試し・つまみ食い
B clone → 任意のレッスンの code/ を直接実行 コード派
C ⭐ Claude Code で /find-your-level を叩く 既にML/DL経験がある人

具体的な学習時間の見積もり(公式README “Who This Is For” セクションより)は次の通り。

出発地点 開始フェーズ 想定学習時間
プログラミング・AI完全初心者 Phase 0(Setup) 約306時間
Pythonは書ける/MLは未経験 Phase 1(Math) 約270時間
MLは知っているがDLは未経験 Phase 3(Deep Learning) 約200時間
DLは知っているがLLM/エージェント未経験 Phase 10(LLMs from Scratch) 約100時間
シニアエンジニアでエージェントだけ学びたい Phase 14(Agent Engineering) 約60時間

「全レッスンを舐める」のではなく、自分の現在地から必要な部分だけを切り出して使う設計になっている。

似た系統のオープン教材との比較

AI教育系のOSSは数多いが、本リポジトリは「全レッスンが再利用可能なツールを残す」点で頭ひとつ抜けている。

プロジェクト 範囲 強み 弱み
rohitg00/ai-engineering-from-scratch AI全域20フェーズ エージェント/MCP/安全運用/4言語/Toolkit成果物 レッスン数が多く完走に290時間かかる
Andrej Karpathy / nn-zero-to-hero DL基礎〜GPT自作 動画の質が高く深い 範囲がDL〜LLMに限定
OpenAI / spinningup 強化学習中心 RL理論→PPO実装 RL専門
huggingface/agents-course エージェント特化 LangGraph/SmolAgent/Claude等の実例 エージェント以外は薄い
microsoft/AI-For-Beginners 入門レベル 取っ付きやすい 2026年最新トピックは弱い

「LLM・エージェント・本番運用」までを1つの教材で串刺しに学べるのが本リポジトリの差別化要因と言える。

はまりやすいポイントと注意

1. レッスン数の表記揺れに惑わされない

READMEのバッジやテキストには「260+ lessons」「283+ lessons」「~290 hours」「~306 hours」「~320 hours」などが混在している。これは ROADMAP.md と本文の更新タイミングのズレが原因で、実装済みレッスンの実数は逐次変動する。完走時間は概数として扱うのが安全だ(ROADMAP.md を直接見るのが最も正確)。

2. 各フェーズの完成度はバラつきがある

公開時点(2026年3月)から急速に拡張されているため、フェーズによってドキュメント・コードの完成度に差がある。Phase 0〜3 と Phase 10〜14 は特に充実している一方、Phase 17 のように Learn ラベルのみで構成されたフェーズもある(実装コードよりまず読み物中心)。

3. GPU前提のレッスンが含まれる

Phase 4 の Stable Diffusion、Phase 8 の DDPM自作、Phase 10 の Mini-GPT 124M 事前学習など、ローカルでは時間がかかるレッスンが含まれる。Phase 0 Lesson 03 で GPU Setup & Cloud を扱うので、このタイミングで Lambda Cloud / RunPod / Modal / Vast.ai などの選択肢を検討するのが良い。

4. ライセンスとフォーク文化

ライセンスは MIT。FORKING.md に「自分のチーム・学校用にフォークしてOK」と明記されており、社内研修用にカリキュラムごとフォークして埋め込んでも法的に問題ない。「MITだから商用利用OK・改変OK・再配布OK」という設計だ。

落とし所:誰に効くのか

  • AIエージェント実装を業務にしたい中堅エンジニア → Phase 13 / 14 / 15 / 16 を抜き出して2〜3ヶ月で集中突破
  • LLMの中身を理解したいバックエンド/インフラ系 → Phase 7 / 10 / 11 を読み、Phase 17 で本番運用に直結させる
  • AIエンジニアへキャリアチェンジしたい人/find-your-level で開始地点判定→週10時間×半年〜1年でキャップストーン17本のいずれかを完成
  • 大学・社内研修担当 → MITライセンスを活かしてフォークし、自社・自校向けに刈り込み

逆に「とりあえずAPIを叩いてアプリを作りたい」だけなら、本教材はオーバーキルだ。Phase 11 の RAG / Function Calling / MCP を点で読みつつ、業務はLangChain やそのラッパーで完結させる方が早い。

まとめ:1リポジトリで「AIエンジニアの全身像」を描く

ai-engineering-from-scratch の本質は「全レッスンが再利用可能なツールを残す前提のAI全域教材」だ。学べば学ぶほど Prompt・Skill・Agent・MCPサーバーが資産として積み上がるので、勉強と仕事のアウトプットがそのまま地続きになる。20フェーズ・283レッスン・約290時間という規模感に怯む必要はなく、/find-your-level で必要な部分だけを切り出して使えば3ヶ月でも一気に伸ばせる。

「AIエンジニアの履歴書をどう作るか」を考えている人にとって、これは単なる勉強教材ではなく ポートフォリオを設計するためのフレームワーク として機能する。MITライセンスでフォーク自由なので、まずは git clone して /find-your-level を叩くところから始めるのが最短ルートだ。

参照ソース