忍者ブログ
統計、機械学習、AIを学んでいきたいと思います。 お役に立てば幸いです。

【DS検定対策】未来は「現在」だけで決まる?確率過程の基礎「マルコフ連鎖」

明日の天気が「今日の天気」だけで決まるとしたら? そんな風に、過去の経緯を無視して現在の状態だけで次のステップが決まる確率モデルを「マルコフ連鎖」と呼びます。

1. 【 問題 】

マルコフ過程のうち、時間の変化が「離散的(1ステップずつ途切れている)」であり、次世代の状態が現在の状態のみに依存して決まる確率過程を何と呼ぶでしょうか?

① ブラウン運動
② ポアソン過程
③ マルコフ連鎖
④ 自己回帰モデル


2. 【 解答 】

正解: ③ マルコフ連鎖

3. 整理:過去を振り返らない「忘却」のモデル

マルコフ連鎖の最大の特徴は「マルコフ性」です。これは、未来がどうなるかは「現在」がどうであるかだけで決まり、「過去」の履歴は関係ないという性質です。

【 マルコフ連鎖のイメージ:お天気の遷移 】

[ 今日の状態 ]
「晴れ」

[ 1ステップ後(明日)の確率 ]
・晴れのまま: 70%
・雨になる: 30%

[ 判定のルール ]
★ ここがマルコフ連鎖!
「昨日が雨だったか、晴れだったか」は一切考えず、「今日が晴れであること」だけを使って明日の確率を計算します。

--------------------------

ポイント: 「離散的」とは、時間が1日、2日……、あるいは1回目、2回目……と、とびとびの値をとることを指します。

4. なぜDS検定で重要なのか?

1. 状態遷移行列: 状態が移り変わる確率を表形式にまとめることで、将来の予測計算が可能になります。
2. 強化学習の基礎: ロボットの制御やAIの意思決定モデルである「マルコフ決定過程(MDP)」のベースとなります。
3. アルゴリズムへの応用: Googleの初期の検索エンジン(ページランク)も、このマルコフ連鎖の考え方を応用しています。


5. DS検定形式:実戦4択クイズ

問:マルコフ連鎖において、現在の状態から次の状態へ移る確率を並べた行列のことを何と呼ぶか。

① 相関行列   ② 遷移確率行列   ③ 逆行列   ④ 分散共分散行列

【 正解: ② 】

解説: ある状態から別の状態へ移動する確率を網羅したものを「遷移確率行列」と呼びます。この行列を現在の状態ベクトルに掛け合わせることで、次ステップの予測を行うのがマルコフ連鎖の基本計算です。


6. まとめ

DS検定において「時間が離散的」「現在の状態だけで未来が決まる」という記述があれば「マルコフ連鎖」が正解です。非常にシンプルな仮定ですが、複雑な現象をモデル化するための強力な武器になります!

PR

【DS検定対策】統計学の王道!どんな分布も正規分布に導く「中心極限定理」

統計学の世界で、データの分析を支える最も強力な法則の一つが「中心極限定理」です。なぜ多くのデータ分析で「正規分布」が前提とされるのか、その理由がここにあります。

1. 【 問題 】

母集団の分布がどのような形であっても、そこから抽出するサンプルサイズ(n)を大きくするにつれて、標本平均の分布はどのような分布に近づくでしょうか?

① ポアソン分布
② 指数分布
③ 正規分布
④ カイ二乗分布


2. 【 解答 】

正解: ③ 正規分布

3. 整理:「平均」を繰り返すと整う世界

元のデータがバラバラ(一様分布や偏った分布)でも、何度も「平均」をとって集めると、不思議ときれいな山の形(正規分布)になります。

【 中心極限定理のプロセス 】

[ 1. 母集団 ]
サイコロの目(1〜6が均等に出る分布)など、形は自由。

[ 2. 標本抽出(サンプリング) ]
100個のサイコロを振って、その「平均値」を出す。

[ 3. 試行を繰り返す ]
★ ここが中心極限定理!
その「平均値」を何セットも記録してグラフにすると……

[ 4. 収束 ]
サンプルサイズ(n)が大きいほど、見事な「正規分布(ベルカーブ)」になる。

--------------------------

重要: 元の分布が正規分布でなくても、標本平均は正規分布に従うようになります。

4. なぜこれが重要なのか?

1. 推測統計の根拠: 母集団の正確な形がわからなくても、正規分布の性質を使って「母平均」を推定できるようになります。
2. 検定の基礎: t検定などの統計的検定が成り立つのは、この定理のおかげです。
3. 実務での安心感: サンプルサイズが十分に大きければ(一般にn=30以上など)、正規分布を前提とした分析手法が使いやすくなります。


5. DS検定形式:実戦4択クイズ

問:中心極限定理の説明として、不適切なものはどれか。

① 元の母集団がどのような分布であっても成り立つ。
② サンプルサイズが大きくなるほど、平均の分布は尖った形になる。
③ 標本平均の期待値は、母平均に等しい。
④ 母集団が正規分布でないと、標本平均は決して正規分布にならない。

【 正解: ④ 】

解説: 「母集団が正規分布でなくても、平均の分布は正規分布に近づく」のが中心極限定理の最大のポイントです。したがって④は誤りです。サンプルサイズが大きくなれば、どんな歪んだ分布から取った平均でも正規分布に収束します。


6. まとめ

DS検定において「サンプルが大きくなる」「標本平均の分布」「正規分布に近づく」というキーワードがセットで出たら、それは「中心極限定理」を指しています。統計分析の「免罪符」とも呼ばれるこの定理を、しっかり味方につけましょう!


z

【DS検定対策】統計の落とし穴を攻略!極端な値が落ち着く「平均への回帰」

「前回のテストが満点だったのに、次は下がってしまった」「大活躍した新人が、2年目に成績を落とした」。これらは偶然ではなく、統計的な「平均への回帰」という現象かもしれません。

1. 【 問題 】

ある変数の測定を繰り返した際、1回目に非常に高い(または低い)といった極端な観測値が出たとしても、2回目以降の測定では、より中心(平均)に近い値が観測されやすくなる現象を何と呼ぶでしょうか?

① 平均への回帰
② 大数の法則
③ 中心極限定理
④ 標本誤差


2. 【 解答 】

正解: ① 平均への回帰

3. 整理:極端な値は「長続きしない」世界

観測値には「実力」だけでなく「運(偶然の誤差)」が含まれます。極端な値が出たときは、その「運」が最大に振れていた可能性が高いのです。

【 平均への回帰のイメージ 】

[ 1回目の測定 ]
実力 + 「ものすごい幸運」 = 100点(極端な値)

[ 2回目の測定 ]
実力 + 「普通の運」 = 75点(平均に近い値)

[ 3回目の測定 ]
実力 + 「少しの不運」 = 65点

--------------------------

「運」は毎回ランダムなので、繰り返すと結局「平均」の方へ引き戻されます。

4. 間違いやすいポイント

1. 「実力が落ちた」と誤解する: 2回目の成績が下がったのは、実力が落ちたのではなく、単に1回目の運が良すぎただけかもしれません。
2. 因果関係の取り違え: 「叱ったから成績が戻った(平均へ回帰した)」のか、「叱らなくても勝手に平均へ戻った」のかを区別する必要があります。
3. ビジネスでの活用: キャンペーン初日の異常な売上増が、2日目以降に落ち着くのもこの現象の一種です。


5. DS検定形式:実戦4択クイズ

問:高い相関がある2つの変数(親の身長と子の身長など)において、親が極端に高身長であっても、子の身長は親ほど極端ではなく、より全体の平均に近い値をとる傾向を指摘した統計学者は誰か。

① フィッシャー   ② ゴルトン   ③ ピアソン   ④ ベイズ

【 正解: ② 】

解説: フランシス・ゴルトンは、親子の身長の研究を通じて「平均への回帰」という概念を見出しました。これがのちに「回帰分析」という手法の語源となりました。


6. まとめ

DS検定において「極端な値が中心に近づく」「繰り返すと平均的になる」というキーワードが出たら「平均への回帰」が正解です。データを見る際に、それが「真の変化」なのか「統計的な揺り戻し」なのかを見極める視点を持ちましょう!

【DS検定対策】深層学習の壁を攻略!学習が暴走する「勾配爆発」とは?

ディープラーニングの学習において、勾配が消えてしまう「勾配消失」とは逆に、勾配が指数関数的に大きくなってしまうのが「勾配爆発」です。学習が成立しなくなるこの現象を整理しましょう。

1. 【 問題 】

ニューラルネットワークの学習において、誤差逆伝播法で算出される勾配が極端に大きな値となり、パラメータの更新が異常に大きくなることで学習が発散・不安定になる現象を何と呼ぶでしょうか?

① 勾配消失問題
② 勾配爆発問題
③ オーバーフィッティング
④ 局所最適解


2. 【 解答 】

正解: ② 勾配爆発問題

3. 整理:なぜ「勾配」が暴走するのか?

勾配消失が「1より小さい値の掛け算」で起こるのに対し、勾配爆発は「1より大きな値の掛け算」が繰り返されることで起こります。

【 勾配爆発のイメージ 】

[ 1. 誤差の逆伝播 ]
層をさかのぼる際、重み行列の値を何度も掛け合わせる。

[ 2. 値が急激に膨れ上がる ]
★ ここが勾配爆発!
大きな値(重み)の掛け算が重なり、勾配が巨大な数値になる。

[ 3. パラメータの更新が「跳ねる」 ]
更新幅が大きすぎて、最適値(谷底)を飛び越えて発散してしまう。

--------------------------

結果: 重みが「NaN(非数)」になったり、学習が全く進まなくなったりします。

4. 代表的な対策

1. 勾配クリッピング: 勾配がある一定の閾値を超えたら、強制的に値を抑え込む手法です。
2. バッチ正規化: データの偏りを抑え、勾配が極端な値になるのを防ぎます。
3. 適切な重みの初期化: 最初から重みの値が大きくなりすぎないように調整します。


5. DS検定形式:実戦4択クイズ

問:勾配爆発を防ぐために、算出された勾配のノルム(大きさ)が一定値を超えた場合にその値を制限する手法を何と呼ぶか。

① ドロップアウト   ② 勾配クリッピング   ③ 正則化   ④ 早期終了

【 正解: ② 】

解説: 「クリッピング(切り取り)」という名前の通り、勾配が暴走しないよう上限を設ける手法です。RNN(再帰型ニューラルネットワーク)など、層が深い(時間方向に長い)モデルで特によく使われます。


6. まとめ

DS検定で「勾配が極端に大きな値になる」「学習が発散する」という記述があれば、それは「勾配爆発」を指しています。勾配消失(ReLUなどで対策)と勾配爆発(クリッピングなどで対策)はペアで出題されやすいため、セットで覚えておきましょう!


【DS検定対策】確率の難所を攻略!「結果から原因を遡る」ベイズの定理

「赤玉を引いた」という結果がわかっているとき、それが「どの箱から来たのか」という原因を推測する。これが統計学で非常に重要な「ベイズの定理」の考え方です。図を使って整理していきましょう。

1. 問題:赤玉の正体を探せ

【 問題 】 外見が同じ2つの箱AとBがあります。箱Aには「赤4・白2」、箱Bには「赤2・白4」の玉が入っています。どちらか1つの箱をランダムに選び、玉を1個引いたところ「赤玉」でした。このとき、引いた箱が「箱A」である確率はいくらでしょうか?

① 1/2   ② 2/3   ③ 1/3   ④ 4/6

2. 整理:赤玉が選ばれる「2つのルート」

ベイズの定理のコツは、まず「赤玉が出る全パターン」を分母として書き出すことです。

【 世界の切り出し 】

[ 前提条件 ]
箱を選ぶ確率は、A・Bともに 1/2 です。

[ 全体の世界(分母):赤玉が出る全ルート ]
① 箱Aを選び、赤を引く: (1/2) × (4/6) = 4/12
② 箱Bを選び、赤を引く: (1/2) × (2/6) = 2/12
⇒ 赤が出る合計: 4/12 + 2/12 = 6/12

[ ターゲット(分子):その中で箱Aだった場合 ]
・ルート①の 4/12

--------------------------

確率: (4/12) / (6/12) = 4 / 6 = 2 / 3

3. 計算プロセス

1. 分母を出す: 「箱Aから赤が出る確率」と「箱Bから赤が出る確率」を足して、赤玉が出る全確率(6/12)を求めます。
2. 分子を置く: そのうち、今回のターゲットである「箱A由来の赤玉(4/12)」を分子に置きます。
3. 答えを出す: (4/12) ÷ (6/12) を計算し、約分して 2/3 となります。


4. DS検定形式:実戦4択クイズ

問:事象が起こる前の確率(箱を選ぶ1/2など)を「事前確率」と呼ぶのに対し、新しい情報(赤玉が出た)を得た後に更新された確率を何と呼ぶか。

① 条件付き期待値   ② 事後確率   ③ 尤度(ゆうど)   ④ 帰無仮説

【 正解: ② 】

解説: ベイズの定理によって導き出された「結果を知った後の確率」を「事後確率」と呼びます。データを得るたびに予測の精度を高めていくこの手法は、迷惑メールフィルタやAIの学習モデルなど、現代のデータサイエンスの根幹を支えています。


5. まとめ

「○○という結果のとき、原因が△△である確率」を問われたら、ベイズの定理の出番です。公式を丸暗記するよりも、「赤が出るルートを全部足して分母にする」という図解イメージを持つことで、ケアレスミスを劇的に減らすことができます!



        
  • 1
  • 2
  • 3