ファインチューニング
Fine-tuning
既存のAIモデルに追加データで再学習させ、特定用途に適応させる手法。用途特化した精度向上が期待できる。
ファインチューニングとは
ファインチューニング(Fine-tuning)は、既に学習済みのAIモデルに、追加データで再学習を行い、特定用途に適応させる手法です。
ゼロから巨大モデルを作るのは現実的ではないため、大手のLLMをベースに「特定業界・特定タスクに合わせて追加学習」するのがファインチューニングのイメージです。
何ができるか
- 専門用語・表現の学習: 業界特有の言い回しに慣らす
- スタイルの統一: 事務所の定型書面のトーンに合わせる
- 固有業務への適応: 税務質問Q&A、契約書レビューの型など
- 精度の底上げ: 同じ質問に、より期待値に近い回答を安定して返す
メリットと限界
- メリット: 決まった型での出力が安定、短いプロンプトで期待値が出る
- 限界・デメリット:
- 追加データの準備コストが高い(数千〜数万件の良質データが必要)
- 知識の鮮度は上がらない(最新情報は別途RAGが必要)
- 過学習で汎用性が落ちる可能性
- モデル更新のたびに再訓練が必要
RAGとの使い分け
- **"書き方・振る舞い"**を調整したい → ファインチューニング
- **"知識・最新情報"**を使いたい → RAG
- 多くのケースで両方併用が現実的
士業実務での位置づけ
現時点の士業事務所レベルでは、RAGのほうが導入コストに対する効果が大きく、まずはRAG中心が定石です。大規模事務所や専門領域でのAI開発を内製する段階になって、ファインチューニングの検討が現実的になります。
