【DS検定対策】知識の「リサイクル」!転移学習の2大ステップ
ゼロからAIを育てるのは大変。だから「他のタスクで学んだ基礎知識」を流用する。それが転移学習(Transfer Learning)です。
1. 【 問題 】
転移学習(移転学習)のプロセスに関する次の記述の、[ ] に当てはまる適切な語句の組み合わせはどれでしょうか?
「転移学習において、移転元での最初の学習は [ A ] と呼ばれ、その獲得した知識(重み)をベースに、移転先(特定のタスク)に合わせて追加で行う学習は [ B ] と呼ばれる。」
① A:ファインチューニング B:事前学習
② A:事前学習 B:ファインチューニング
③ A:アンサンブル学習 B:蒸留
④ A:データ拡張 B:正規化
2. 【 解答 】
3. 整理:移転元と移転先の「役割分担」
この2つのステップを、人間の学習に例えて整理してみましょう。
【 転移学習のステップ 】
大量の一般的なデータを使って、基礎的な「特徴の掴み方」を幅広く学ぶ。
(例:画像認識なら、膨大な写真から「輪郭」や「色」の概念を理解する)
・移転先: [ ファインチューニング ] (専門教育)
事前学習済みのモデル(知識)を引き継ぎ、解きたい特定のタスク用の少量のデータで微調整する。
(例:医療画像から「特定の病変」を見つける専用AIに仕上げる)
--------------------------
◎ このアプローチの利点:
移転先で用意するデータが少量であっても、事前学習で培った「基礎体力」があるため、高精度なモデルを短時間で開発できます。
4. 覚えておきたい周辺用語
1. 特徴量抽出(Feature Extraction): 事前学習済みモデルの「重み」を一切変えず(フリーズさせ)、出力層の直前のデータを特徴量として別の機械学習モデル(SVMなど)に投入する手法。ファインチューニングと並ぶ転移学習の代表例です。
2. 負の転移(Negative Transfer): 移転元のタスクと移転先のタスクが違いすぎる(例:テキスト学習の知識を株価予測に使うなど)ために、かえって精度が下がってしまう現象。
5. DS検定形式:実戦4択クイズ
問:転移学習において、ファインチューニングを行う際、事前学習で得られたモデルの初期層(入力に近い層)のパラメーター(重み)を変更しないように固定する操作を何と呼ぶか。
① ドロップアウト ② 標準化 ③ フリーズ(凍結) ④ 正則化
【 正解: ③ 】
解説: 一般的な特徴(エッジや色の変化など)を捉える初期層の知識はそのまま流用した方が効率が良いため、重みを変化させないように「フリーズ」させることがよくあります。
6. まとめ
DS検定において「移転元での学習 = 事前学習」「移転先での学習 = ファインチューニング」という組み合わせは、ディープラーニング全般(画像・自然言語処理)を支える大前提の知識です。それぞれの目的の違いをしっかりと頭に入れておきましょう!