Chip Huyen 氏著『AI Engineering』を読みました。その感想です。
書籍『AI Engineering』について
『AI Engineering』は2024年12月に O'Reilly から出版されました。 2025年6月現在、人間による監修つきの日本語訳はまだありません [1] 。 O'Reilly のプラットフォーム上で最も読まれている本 [2] だそうです。
著者は Chip Huyen 氏で、NVIDIA や Netflix、Snorkel AI で働いていたり、また起業家として会社の立ち上げ・売却を経験されてきた方です。
過去には書籍『Designing Machine Learning Systems (邦訳: 機械学習システムデザイン)』も執筆していて、こちらも高い評価を受けています。
また、2025年1月には Agents というAI エージェントに関するブログ記事も公開しており、当時話題になりました。
目次・構成
目次は下記のとおりです。
1. Introduction to Building AI Applications with Foundation Models
2. Understanding Foundation Models
3. Evaluation Methodology
4. Evaluate AI Systems
5. Prompt Engineering
6. RAG and Agents
7. Finetuning
8. Dataset Engineering
9. Inference Optimization
10. AI Engineering Architecture and User Feedback
目次から分かる通り、基盤モデル (Foundation models) をベースにした AI サービス開発に関わるトピックについて、網羅的にカバーしています。各章を大まかに分類するならば、「基礎と理論」「実践的なプラクティス」「運用」といった3つに分類できます。
- 基礎と理論
- AI Engineering とは
- 基盤モデルの理論
- 評価手法・考え方
- 実践的なプラクティス
- プロンプトエンジニアリング
- RAG と AI エージェント
- ファインチューニング
- 運用
- データセットエンジニアリング
- 推論の最適化
- AI アプリケーションのアーキテクチャ
これらのトピックについて、数式を交えた理論的な解説や、各種手法の歴史的系譜などを織り交ぜながら、充実の内容で構成されています。
どんな人におすすめか
身も蓋もない感はありますが 基盤モデルを活用してアプリケーションやサービスを開発しているすべての人 におすすめできます。 特に、AI 開発を行っている/行いたいフルスタックエンジニアや、従来の機械学習分野においてモデル開発等を行っている ML エンジニア、AI 関連プロジェクト・プロダクトに携わるエンジニアリングマネージャー (EM) やプロダクトマネージャーにもおすすめです。
内容としては、目次でも触れたように、基礎的な理論から実践におけるノウハウまで広く扱っているため、各個人が必要とする情報のレベルに応じて章をかいつまみながら読み進めるのもよいでしょう。 (例: まずはプロンプトエンジニアリングについてだけ読む、など)
一方で、実際のコード例など具体的なハンズオン的な内容はそれほど含まれていないため、コードレベルで実装方法などを知りたい場合は他の書籍や、各種ドキュメントを参照するのがよさそうです。
個人的には 基盤モデルを用いた開発の全体像 を把握するために全体を通して読むのがおすすめです。 詳しくは「AI サービス開発の「地図」を手に入れる」でも触れています。
途中、理論の話などで数式が出てくることもありますが、筆者も文中で述べているように、必要に応じてスキップするなどしながら読み進めるのがよいと思います。
"AI Engineering" とは
ところで、そもそも "AI Engineering" とは何なのでしょうか。 書籍のタイトルになっているこの "AI Engineering" という言葉は 基盤モデルをベースとして、アプリケーションを構築していくプロセス のことを指します。この書籍における造語とされています。
AI Engineering の比較対象の1つが ML Engineering (Machine Learning Engineering, 機械学習エンジニアリング) です。 従来の ML Engineering では、データの収集や整形、モデルの構築・改善、そしてその評価、運用などに多くのコストを費やしていました。構築したモデルをホストする環境も自分で用意する必要があり、多くの専門知識が必要でした。
しかし時代は変わって LLM 時代になり、OpenAI を始めとする各社がトレーニング済みの基盤モデルを公開し、API 経由で簡単に利用できるようになりました。 モデルを独自に構築せずとも、膨大なデータでトレーニング済みの大規模モデルを用いて、推論という機能をアプリケーションに組みやすくなりつつあります。
その結果、API 経由で利用可能な基盤モデルを組み込んだ、新たなアプリケーション開発の潮流が生まれました。AI Wrapper という言葉で揶揄されることもありましたが、多くのサービスが基盤モデルを活用した AI 機能をリリースしはじめています。
基盤モデルをアプリケーションに組み込みやすくなった一方で、基盤モデルを含む機械学習モデルは確率的に動くものであるという性質上、アプリケーション開発において、基盤モデルの挙動を"いい感じ"にコントロールする、新たな知見の類が生まれました。それは、プロンプトエンジニアリングであったり、RAG であったり、Guardrails の配置であったり、多岐にわたります。
もちろん従来の ML Engineering における知見が大いに適用できる部分もありながら、基盤モデルを前提としてアプリケーションを構築していくことは今までのエンジニアリングとは異なる様相を呈しつつあり、その状況を指し示す言葉として "AI Engineering" は生まれたのだと思います。
感想
本書を読んでみて、理論や手法、ライブラリの話、そして抽象的な概念の話まで、非常に学びの多い内容でした。
具体的な内容については本書を読んでいただくとして、ここでは本書を読むことのメリットや全体を通して感じたことを記しておこうと思います。
AI サービス開発の「地図」を手に入れる
最近のソフトウェアエンジニアリング界隈では、X やブログ等で日々新しいテクニックや Tips が共有されています。「このツールがすごい」「このプロンプトが効果的」「評価はこうする」といった有益な情報が溢れている一方で、それらの点の情報だけでは、全体のどこにそれらが位置づけられるのかを把握し、理解するのは容易ではありません。
本書の最大の価値は、AI サービス開発における全体感、つまり「地図」のようなものをを提供してくれることにあると思います。例えば、以下のような視点を得られるでしょう。
- 各技術や手法がどのように関連しているのかが分かる
- 基盤モデルを用いたシステムのボトルネックや改善点を見極められる
- 新しい情報に触れた際も、全体の中での位置づけを把握できる
経験豊富な開発者にとっても、自身の知識を体系化し直す良い機会になるのではないでしょうか。
「まずは作ってみる」時代
Chapter 1 内のセクション "The AI Engineering Stack" で、以下の点が挙げられていました。
- 「AI 開発」とされるものが「フルスタック開発」に近づいていること
- AI エンジニアに求められるスキルが変化していること
- AI サービス開発における開発プロセスが逆転しつつあること
前述のとおり、API を通じて高性能な基盤モデルに非常に簡単にアクセスできるようになりました。場合によっては数行のコードで、AI 機能をアプリケーションに組み込むことができます。 この変化により、AI 開発の主戦場は「モデルを作ること」から「モデルを使って何をするか」へとシフトしています。基盤モデルをブラックボックスとして扱い、その上でできるテクニックを駆使しながら、いかに価値あるプロダクトを構築するか、という点が重要度を増しています。
この流れを象徴するように、アプリケーション、特に Web アプリケーションに AI 機能を組み込みやすくなるライブラリやフレームワークなどの開発ツールが増えてきています。 従来 Python が中心だった開発ツールも、公式で JavaScript/TypeScript SDK が用意されるようになってきていたり、Vercel の AI SDK のように Gateway として機能する抽象化したライブラリも増えています。Mastra のような TypeScript ベースのフレームワークも人気を博しつつあります。
この変化で最も恩恵を受けているのは、Web開発・フルスタック開発の経験を持つエンジニアではないでしょうか。AI がライブラリのように抽象化され容易にアプリケーションに組み込めるようになったため、AI サービス開発領域に参入しやすくなりました。「アイデアを素早くプロダクトに落とし込む能力」が評価されるようになってきている中で、インフラからインターフェイスまで、アプリケーションを構成する要素を広範囲に扱えるフルスタックエンジニアも、活躍の場が広がっているように感じます。
また、開発プロセスの逆転の話も非常に興味深いものでした。 従来 ML における AI 開発は、「石橋を叩いてわたる」ようなイメージで、以下のようなプロセスに沿って、長期スパンで行われることが一般的でした。
データ収集 → 前処理・分析 → モデル設計 → トレーニング → 評価 → プロダクト化
しかし、API 化された基盤モデルの登場により、以下のようなプロセスに変わりつつあります。
プロダクト化(プロトタイピング) → ユーザーテスト → 改善 → (必要なら) ファインチューニング・独自モデル開発
着目すべきは、まずプロダクト化(プロトタイピング)が初手に来ている、ということです。 言い換えれば、「まずは動くものを作ってみる」ことが重要な第一ステップになっているということです。
この「まずは作ってみる」という流れは、Claude Code のような AI coding 系のツールの台頭もあいまって、加速しているように思えます。 逆にいえば「誰でも簡単にプロダクト化できる時代が来ている」と捉えることもでき、競争は激化しているわけですが、本書の範疇を超えているのでそっとしておきます。
まとめると、AI サービス開発は「時間をかけて AI モデルをゼロから構築する」というアプローチから、「すぐに使える基盤モデルを活用してプロトタイピング・プロダクト化し、素早く改善していく」というアプローチに変化したといえます。
おわりに
書籍『AI Engineering』は、AI 開発のベースとなる基盤モデルの理論から、プロンプトエンジニアリングなどの実践的なプラクティス、そして AI システムの運用まで、広範なテーマを分かりやすく解説した良書でした。
AI 関連のアプリケーションやプロダクト開発に携わるすべての人々におすすめです。ぜひお手にとってみてください。