忍者ブログ

いけいけ機械学習

統計、機械学習、AIを学んでいきたいと思います。 お役に立てば幸いです。


Refactoring Programs Using Large Language Models with Few-Shot Examples

公開されている

Refactoring Programs Using Large Language Models with Few-Shot Examples

のキモ部分を読んで、勉強してみたいと思います。

概要

複雑性が低く単純なプログラムは、バグもなく、安全になる

ための鍵となる。

しかし、その難しさや稼働中のプログラムを変更するリスクから、

積極的に取り組まれているわけではない。

LLM(GPT3.5)で試したところ、

Few-Shot Example で、One-Shot Exampleより、良い結果が得られた。

---つづきます。----




CNNの層

一般的には、次のような層で形成される。

1.入力層

入力データを受け取る。

2.畳み込み層

畳み込み処理を行う。

3.ReLU層

活性化関数で、ネットワークに非線形を追加する。

4.プーリング層

前層をサンプリングして、小さい次元の構造にする。

5.全結合層

出力値を計算するために、用いられる。









サポートベクターマシン概要

サポートベクターマシン概要

・教師あり学習

・データを2つに分ける線を計算で求める

・2つの分かれたデータと境界との距離を、マージンとよぶ

・このマージンを最大にする境界を計算で求める

・データによっては、境界が局面になるような場合がある。

これには、カーネルトリックと呼ばれるテクニックが用いられる

・カーネルトリックは、各データの次元を大きくして、高い次元で境界を形成するもの

・次元を上げるには、カーネル関数と呼ばれるものを使う

・カーネル関数は、次元を上げたのと同じ状態を作り出すもの

・カーネル関数には、

「多項式型」「ガウス型」

などがある