ファインチューニング
ふぁいんちゅーにんぐ
ファインチューニングとは、あらかじめ大量のデータで学習済みのAIモデル(事前学習モデル)に対し、特定のタスクや専門分野のデータを追加で学習させ、パラメータを微調整することで、その分野に特化させる手法。
最終更新: 2026/1/28
ファインチューニング(Fine-tuning)とは
ファインチューニングとは、機械学習(特にディープラーニング)において、既存の学習済みモデル(Pre-trained Model)の一部を再利用し、新しいデータセットで再学習させることで、特定の目的に特化したモデルを作る手法のことです。 直訳すると「微調整」です。
仕組み:巨人の肩に乗る
AIを一から育てるには、膨大なデータと計算パワー(GPU)、そして時間がかかります。 例えば、GPT-4のようなモデルを個人で作るのは不可能です。
しかし、公開されている高性能な「事前学習済みモデル」を持ってきて、それに「自分のやりたいこと(例:法律相談、医療診断、社内マニュアルの回答)」のデータを少しだけ食わせて調整すれば、少ないデータとコストで、高性能な専用AIを作ることができます。
転移学習との違い
よく似た言葉に**「転移学習(Transfer Learning)」**があります。
- 転移学習: 学習済みモデルの「特徴抽出部分(知識の根幹)」は**固定(フリーズ)**して動かさず、最後の「出力部分(分類器など)」だけをすげ替えて学習させること。
- データが極端に少ない場合に有効。
- ファインチューニング: 学習済みモデルのパラメータ(重み)全体、あるいは一部を、**新しいデータに合わせて少し変化(微調整)**させること。
- より高い精度が出やすいが、データが少なすぎると過学習(Overfitting)するリスクがある。
最近の生成AIブームでは、BERTやLlamaなどの大規模言語モデル(LLM)をベースに、自社専用のモデルを作る際によく使われる手法です。
由来・語源
(記述募集中)
使用例
(記述募集中)
関連用語
- 関連: