一般的には、次のような層で形成される。
1.入力層
入力データを受け取る。
2.畳み込み層
畳み込み処理を行う。
3.ReLU層
活性化関数で、ネットワークに非線形を追加する。
4.プーリング層
前層をサンプリングして、小さい次元の構造にする。
5.全結合層
出力値を計算するために、用いられる。
PR
サポートベクターマシン概要
・教師あり学習
・データを2つに分ける線を計算で求める
・2つの分かれたデータと境界との距離を、マージンとよぶ
・このマージンを最大にする境界を計算で求める
・データによっては、境界が局面になるような場合がある。
これには、カーネルトリックと呼ばれるテクニックが用いられる
・カーネルトリックは、各データの次元を大きくして、高い次元で境界を形成するもの
・次元を上げるには、カーネル関数と呼ばれるものを使う
・カーネル関数は、次元を上げたのと同じ状態を作り出すもの
・カーネル関数には、
「多項式型」「ガウス型」
などがある
・simple GA の略
・遺伝的アルゴリズムの手順の1つ
・SGAでは、次の手順をとる
(1)遺伝子プールの初期化
(2)交叉および選択
(3)突然変異
(4)結果の出力
(5)(2)に戻り、以降を繰り返す
1.グリッドサーチ
ハイパーパラメータのすべての組み合わせを試す。
2.ランダムサーチ
回数を決めて、ランダムに試す。
3.ベイズ最適化
そこまでの探索結果から、最適値等を予測する。
ファインチューニン
特定分野の知識を強化する。
移転学習
学習対象の少ない分野を強化する。