忍者ブログ
統計、機械学習、AIを学んでいきたいと思います。 お役に立てば幸いです。

【DS検定対策】知識の「リサイクル」!転移学習の2大ステップ

ゼロからAIを育てるのは大変。だから「他のタスクで学んだ基礎知識」を流用する。それが転移学習(Transfer Learning)です。

1. 【 問題 】

転移学習(移転学習)のプロセスに関する次の記述の、[   ] に当てはまる適切な語句の組み合わせはどれでしょうか?

「転移学習において、移転元での最初の学習は [   A   ] と呼ばれ、その獲得した知識(重み)をベースに、移転先(特定のタスク)に合わせて追加で行う学習は [   B   ] と呼ばれる。」

① A:ファインチューニング   B:事前学習
② A:事前学習   B:ファインチューニング
③ A:アンサンブル学習   B:蒸留
④ A:データ拡張   B:正規化


2. 【 解答 】

正解: ② A:事前学習   B:ファインチューニング

3. 整理:移転元と移転先の「役割分担」

この2つのステップを、人間の学習に例えて整理してみましょう。

【 転移学習のステップ 】

移転元: [ 事前学習 ] (義務教育)
 大量の一般的なデータを使って、基礎的な「特徴の掴み方」を幅広く学ぶ。
 (例:画像認識なら、膨大な写真から「輪郭」や「色」の概念を理解する)

移転先: [ ファインチューニング ] (専門教育)
 事前学習済みのモデル(知識)を引き継ぎ、解きたい特定のタスク用の少量のデータで微調整する。
 (例:医療画像から「特定の病変」を見つける専用AIに仕上げる)

--------------------------

このアプローチの利点:
移転先で用意するデータが少量であっても、事前学習で培った「基礎体力」があるため、高精度なモデルを短時間で開発できます。

4. 覚えておきたい周辺用語

1. 特徴量抽出(Feature Extraction): 事前学習済みモデルの「重み」を一切変えず(フリーズさせ)、出力層の直前のデータを特徴量として別の機械学習モデル(SVMなど)に投入する手法。ファインチューニングと並ぶ転移学習の代表例です。
2. 負の転移(Negative Transfer): 移転元のタスクと移転先のタスクが違いすぎる(例:テキスト学習の知識を株価予測に使うなど)ために、かえって精度が下がってしまう現象。


5. DS検定形式:実戦4択クイズ

問:転移学習において、ファインチューニングを行う際、事前学習で得られたモデルの初期層(入力に近い層)のパラメーター(重み)を変更しないように固定する操作を何と呼ぶか。

① ドロップアウト   ② 標準化   ③ フリーズ(凍結)   ④ 正則化

【 正解: ③ 】

解説: 一般的な特徴(エッジや色の変化など)を捉える初期層の知識はそのまま流用した方が効率が良いため、重みを変化させないように「フリーズ」させることがよくあります。


6. まとめ

DS検定において「移転元での学習 = 事前学習」「移転先での学習 = ファインチューニング」という組み合わせは、ディープラーニング全般(画像・自然言語処理)を支える大前提の知識です。それぞれの目的の違いをしっかりと頭に入れておきましょう!

PR