転移学習
Transfer Learning
既に学習済みのモデルを別タスクに流用する手法。ゼロから学習するよりデータ量・コストを大幅に節約できる。
転移学習とは
転移学習(Transfer Learning)は、別のタスクで学習済みのモデルを、別の新しいタスクに流用する手法です。ゼロから学習するのに比べ、必要なデータ量・計算コストが大幅に少なく済みます。
なぜ効くのか
たとえば大量の画像で学習したモデルは、「線」「色」「形」といった基本的な画像の特徴を捉える能力を内部に持っています。この基礎部分は別のタスクでも流用できるため、少ないデータで新しい認識タスクを学習させられます。
LLMも同じです。事前学習で言語全般の知識を獲得した基盤モデルを、特定タスク用に少し調整すれば精度の高い専用AIが作れます。
ファインチューニングとの関係
ファインチューニングは、転移学習の代表的な方法の1つです。
- 転移学習: 広い概念。学習済みモデルを流用すること全般
- ファインチューニング: その中でも「追加データで再学習して微調整する」手法
実務での位置づけ
現代のAI製品のほぼすべてが、基盤モデル+転移学習の構図で作られています。
- 業務特化型AI: 汎用LLMを業務データで調整
- 税務・法務特化AI: 通達・判例データでチューニング
「ゼロからAIを作る」のは非現実的で、転移学習はAI活用の前提知識です。
