・アンサンブル法は、複数のモデルを組み合わせて精度を上げるもの
・決定木のアンサンブル法には、次のようなものがある
1.ランダムフォレスト
異なる決定木を作り、その平均などで、予測する。
2.勾配ブースティング
前の決定木の間違えたデータを重点的に学習し、性能を向上させる。
PR
1.算術平均
z = ( x + y) /2
2.幾何平均
z = ( x * y ) 1/2
3.調和平均
1/z = 1/x + 1/y
4.トリム平均
データの上限値、下限値から、一定の割合のデータを除いた算術平均
公開されている
Refactoring Programs Using Large Language Models with Few-Shot Examples
のキモ部分を読んで、勉強してみたいと思います。
概要
複雑性が低く単純なプログラムは、バグもなく、安全になる
ための鍵となる。
しかし、その難しさや稼働中のプログラムを変更するリスクから、
積極的に取り組まれているわけではない。
LLM(GPT3.5)で試したところ、
Few-Shot Example で、One-Shot Exampleより、良い結果が得られた。
---つづきます。----
一般的には、次のような層で形成される。
1.入力層
入力データを受け取る。
2.畳み込み層
畳み込み処理を行う。
3.ReLU層
活性化関数で、ネットワークに非線形を追加する。
4.プーリング層
前層をサンプリングして、小さい次元の構造にする。
5.全結合層
出力値を計算するために、用いられる。
サポートベクターマシン概要
・教師あり学習
・データを2つに分ける線を計算で求める
・2つの分かれたデータと境界との距離を、マージンとよぶ
・このマージンを最大にする境界を計算で求める
・データによっては、境界が局面になるような場合がある。
これには、カーネルトリックと呼ばれるテクニックが用いられる
・カーネルトリックは、各データの次元を大きくして、高い次元で境界を形成するもの
・次元を上げるには、カーネル関数と呼ばれるものを使う
・カーネル関数は、次元を上げたのと同じ状態を作り出すもの
・カーネル関数には、
「多項式型」「ガウス型」
などがある