転移学習
読み: てんいがくしゅう
大規模データセットで事前学習したモデルの知識を、別のタスクやドメインに転用する機械学習の手法。少量のデータでも高精度なモデルを構築できる。
転移学習 (Transfer Learning) は、あるタスク (ソースタスク) で学習した知識を別のタスク (ターゲットタスク) に活用する手法である。画像認識では ImageNet の 1400 万枚で事前学習した CNN の重みを初期値として利用し、少量のドメイン固有データでファインチューニングするのが標準的なアプローチとなっている。
ゼロから学習する場合と比較して、転移学習には学習時間の短縮、必要データ量の削減、汎化性能の向上という 3 つの利点がある。特に医療画像や衛星画像など、大量のラベル付きデータを収集しにくい分野で威力を発揮する。
- 特徴抽出器として利用: 事前学習モデルの畳み込み層を凍結し、最終の全結合層のみを新しいタスク用に置き換えて学習する。データが極めて少ない場合に有効
- ファインチューニング: 事前学習モデル全体 (または一部の層) の重みを、低い学習率で新しいデータに適応させる。データがある程度ある場合に高い精度を達成できる
- ドメイン適応: ソースドメインとターゲットドメインのデータ分布の差異を埋める技術。敵対的学習やドメイン不変特徴の抽出が用いられる
近年は CLIP や DINOv2 のような大規模な基盤モデル (Foundation Model) が登場し、多様なタスクへの転移性能が飛躍的に向上している。プロンプトチューニングや LoRA など、少数のパラメータのみを調整する効率的な転移手法も活発に研究されている。転移元モデルの選択がターゲットタスクの精度に直結するため、ドメインの類似性を考慮したモデル選定が実務上の重要な判断ポイントとなる。