<?xml version="1.0" encoding="UTF-8" ?>
<rss version="0.91">
  <channel>
    <title>いけいけ機械学習</title>
    <description>統計、機械学習、AIを学んでいきたいと思います。 お役に立てば幸いです。</description>
    <link>http://learnms.blog.shinobi.jp/</link>
    <language>ja</language>
    <copyright>Copyright (C) NINJATOOLS ALL RIGHTS RESERVED.</copyright>

    <item>
      <title>【DS検定対策】AIの「知能」をゼロから作る！事前学習の本質とは？</title>
      <description>&lt;p&gt;GPTなどの大規模言語モデル（LLM）が、なぜ多様なタスクをこなせるのか。その答えは、特定の用途に絞る前に行われる「事前学習」という工程に隠されています。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. 【 問題 】&lt;/h3&gt;
&lt;p&gt;言語モデルにおける「事前学習（Pre-training）」の説明として、最も適切なものはどれでしょうか？&lt;/p&gt;
&lt;p&gt;① 専門的なデータを用いて、特定のタスク（翻訳や要約など）に特化させること&lt;br /&gt;
② 膨大なラベルなしデータを用いて、言語の構造や一般的な知識をゼロから獲得させること&lt;br /&gt;
③ 学習済みモデルを圧縮して、スマートフォンのような小型端末で動くようにすること&lt;br /&gt;
④ 人間のフィードバックに基づき、AIの回答をより安全で好ましいものに調整すること&lt;/p&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: #d32f2f;&quot;&gt;2. 【 解答 】&lt;/h3&gt;
&lt;div style=&quot;background-color: #eeeeee; border: 2px solid #333; padding: 15px; font-size: 1.2em; font-weight: bold; text-align: center;&quot;&gt;正解： ② 膨大なラベルなしデータを用いて、言語の構造や一般的な知識をゼロから獲得させること&lt;/div&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 整理：事前学習の役割と仕組み&lt;/h3&gt;
&lt;p&gt;事前学習は、モデルが「言葉の並び順」や「概念のつながり」を自ら発見し、知能の土台（基盤モデル）を作るプロセスです。&lt;/p&gt;
&lt;p&gt;【 事前学習のメカニズム 】&lt;/p&gt;
&lt;div style=&quot;font-family: monospace; border: 1px solid #ccc; padding: 10px; line-height: 1.6;&quot;&gt;[ 1. データの性質 ]&lt;br /&gt;
インターネット上のテキストや書籍など、正解ラベルのない「生のデータ」をそのまま利用します。&lt;br /&gt;
&lt;br /&gt;
[ 2. 学習タスク（次単語予測） ]&lt;br /&gt;
&lt;b&gt;★ ここが本質！&lt;/b&gt;&lt;br /&gt;
「今日はとても[ ]が良い」の[ ]に入る単語を、膨大なパターンから予測。これを繰り返すことで、文法や知識を身につけます。&lt;br /&gt;
&lt;br /&gt;
[ 3. 到達点 ]&lt;br /&gt;
特定の目的は持たないものの、あらゆる質問に応用できる「汎用的な能力」が備わります。&lt;br /&gt;
&lt;br /&gt;
--------------------------&lt;br /&gt;
&lt;br /&gt;
◎ &lt;b&gt;重要： この段階で出来上がったものを「基盤モデル（Foundation Model）」と呼びます。&lt;/b&gt;&lt;/div&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;4. なぜ「事前」に学習するのか？&lt;/h3&gt;
&lt;p&gt;1. &lt;b&gt;知識の共有&lt;/b&gt;: 言語の基本を一度マスターしておけば、後の専門学習（ファインチューニング）が非常に効率的になります。&lt;br /&gt;
2. &lt;b&gt;データの有効活用&lt;/b&gt;: ラベル付きデータは貴重ですが、ラベルなしデータはネット上に無限にあるため、大規模なスケーリングが可能です。&lt;br /&gt;
3. &lt;b&gt;ゼロショット能力&lt;/b&gt;: 事前学習だけで、一度も解いたことがない問題に対してある程度の回答を出す能力が生まれます。&lt;/p&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: orange;&quot;&gt;5. DS検定形式：実戦4択クイズ&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;問：事前学習において、人間が正解を与えなくてもデータ自身から学習信号を作り出す手法を何と呼ぶか。&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;① 教師あり学習 &amp;nbsp; ② 自己教師あり学習 &amp;nbsp; ③ 転移学習 &amp;nbsp; ④ 蒸留&lt;/p&gt;
&lt;p&gt;&lt;b&gt;【 正解： ② 】&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;解説：&lt;/b&gt; 事前学習の多くは、データの一部を隠してそれを予測させる「自己教師あり学習（Self-supervised Learning）」という手法で行われます。これにより、人間が手作業でラベルを付ける手間を省き、巨大なモデルの構築が可能になりました。&lt;/p&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;6. まとめ&lt;/h3&gt;
&lt;p&gt;DS検定において「事前学習」は、AIが汎用的な知能を得るための「第一段階」として定義されます。「ゼロから学ぶ」「ラベルなしデータの活用」「自己教師あり学習」というキーワードをセットで押さえておきましょう！&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/60/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #18：Title再投入の罠。CV 0.8440 からの「急転下落」</title>
      <description>&lt;p&gt;前回、LightGBMに &lt;b&gt;Title（敬称）&lt;/b&gt; を再投入し、手元の検証（CV）では &lt;b&gt;0.8440&lt;/b&gt; という過去最高レベルの数字を叩き出しました。「今度こそ0.8突破か？」と震える手で提出。しかし、返ってきた結果は &lt;b&gt;0.76076&lt;/b&gt;。期待とは裏腹に、前回（0.77511）よりもスコアを下げる「急転直下」の結末となりました。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. 敗因分析：Titleという「劇薬」&lt;/h3&gt;
&lt;p&gt;CVスコアが上がり、本番スコアが下がる。これは典型的な &lt;b&gt;過学習（オーバーフィッティング）&lt;/b&gt; の再発です。なぜあんなに制限をかけたのに失敗したのか、エンジニア的に振り返ります。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;「敬称」のヒントが強すぎた：&lt;/b&gt; Titleには生存率に直結する情報（性別や年齢層）が凝縮されています。LightGBMがこれに依存しすぎてしまい、他の特徴量との組み合わせによる「本質的な予測」を疎かにしてしまった可能性があります。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;CVスコアの「甘い誘惑」：&lt;/b&gt; CV 0.8440 という数字は、訓練データ内の特定のパターンを覚え込むことで得られた「虚像」でした。データの少ないTitanicでは、特徴量を1つ増やすだけで、モデルは簡単に「カンニング（暗記）」を始めてしまいます。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;汎化性能の喪失：&lt;/b&gt; パラメータ探索で &lt;code&gt;min_child_samples: 20&lt;/code&gt; が選ばれ、制約が緩んだことも、ノイズを拾う原因になったと考えられます。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【教訓】光と影を記録した実装コード&lt;/h3&gt;
&lt;p&gt;CVスコアに一喜一憂し、過学習を招いてしまった「失敗の記録」としてのコードです。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
import lightgbm as lgb
from sklearn.model_selection import GridSearchCV

# 1. データの読み込み
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

# 2. Title（敬称）の抽出（SyntaxWarning対策済み）
for df in [train_data, test_data]:
    df['Title'] = df['Name'].str.extract(r' ([A-Za-z]+)\.', expand=False)
    df['Title'] = df['Title'].replace(['Lady', 'Countess','Capt', 'Col','Don', 'Dr', 'Major', 'Rev', 'Sir', 'Jonkheer', 'Dona'], 'Rare')
    df['Title'] = df['Title'].replace('Mlle', 'Miss')
    df['Title'] = df['Title'].replace('Ms', 'Miss')
    df['Title'] = df['Title'].replace('Mme', 'Mrs')

# 3. 前処理（ベスト構成を維持）
for df in [train_data, test_data]:
    df['Embarked'] = df['Embarked'].fillna('S')
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1

group_cols = ['Pclass', 'Sex']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 4. 特徴量選択（ここでTitleを追加したのが裏目に&amp;hellip;）
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Embarked&quot;, &quot;Title&quot;]
X = pd.get_dummies(train_data[features], drop_first=True)
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features], drop_first=True)
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 5. パラメータ設定
param_grid = {
    'num_leaves': [7, 10, 15],
    'learning_rate': [0.01, 0.05],
    'n_estimators': [100, 200, 300],
    'max_depth': [3, 4], 
    'min_child_samples': [20, 40],
    'random_state': [1]
}

gbm = lgb.LGBMClassifier(verbosity=-1)
grid_search = GridSearchCV(gbm, param_grid, cv=5, n_jobs=-1, verbose=0)
grid_search.fit(X, y)

print(f&quot;Best CV Score: {grid_search.best_score_:.4f}&quot;) # 0.8440

# 6. 予測・出力
best_model = grid_search.best_estimator_
predictions = best_model.predict(X_test)
pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions}).to_csv('submission_lgbm_title.csv', index=False)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 実験結果：0.77511 &amp;rarr; 0.76076 への後退&lt;/h3&gt;
&lt;p&gt;アルゴリズムや特徴量を変えるたびに、スコアは大きく変動します。今回はその「負の側面」が強く出てしまいました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;前回：&lt;/b&gt; Score 0.77511 (LightGBM 制限付き)&lt;/li&gt;
&lt;li&gt;&lt;b&gt;今回：&lt;/b&gt; &lt;b style=&quot;color: #d73a49;&quot;&gt;Score 0.76076&lt;/b&gt; (Title追加)&lt;/li&gt;
&lt;li&gt;&lt;b&gt;分析：&lt;/b&gt; CVスコア 0.844 との乖離は 0.08 以上。明らかな過学習です。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;4. 考察：0.8の壁は「暗記」では越えられない&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な視点：&lt;/b&gt;&lt;br /&gt;
Titleという強力な特徴量を入れたことで、モデルは「考える」ことをやめ、「覚える」ことに走ってしまいました。Titanic攻略において、0.8という数字がなぜ高い壁なのか。それは、強力なモデルや特徴量を&lt;b&gt;「いかに使わずに、本質だけを捉えさせるか」&lt;/b&gt;という、引き算の思考が求められるからだと痛感しました。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;スコアが下がったことは敗北ではありません。この強力なTitleを「どう手なずけるか」、あるいは「Titleに頼らない別の道を探すか」。この試行錯誤こそが、データサイエンスの醍醐味です。次こそ、真の汎化性能を求めて！&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/59/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #17：0.77511への浮上。LightGBMを「制御」する手応え</title>
      <description>&lt;p&gt;前回、最強モデル &lt;b&gt;LightGBM&lt;/b&gt; を投入するも、過学習により &lt;b&gt;0.76315&lt;/b&gt; という惨敗を喫しました。今回はその反省を活かし、モデルにあえて「制約」を課すリベンジマッチ。結果は &lt;b&gt;0.77511&lt;/b&gt;。自己ベストには届きませんでしたが、確かな改善の兆しが見えてきました。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. 戦略の検証：過学習の抑制は成功したか？&lt;/h3&gt;
&lt;p&gt;今回の修正の肝は、モデルに「深追いさせない」ことでした。その結果、スコアには以下のような変化が現れました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;本番スコアの向上：&lt;/b&gt; 0.76315 &amp;rarr; &lt;b&gt;0.77511&lt;/b&gt;（+0.012の改善）&lt;/li&gt;
&lt;li&gt;&lt;b&gt;CVスコアの適正化：&lt;/b&gt; 0.8418 &amp;rarr; &lt;b&gt;0.8373&lt;/b&gt;（手元の数字が下がり、本番が上がった）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;この「手元の数字を下げて、本番を上げる」という現象こそ、過学習が解消に向かっている決定的な証拠です。F1マシンを路地裏に合わせて減速させたことで、壁にぶつからずにコーナーを曲がれるようになったのです。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【実装】「制約」を刻んだリベンジ・コード&lt;/h3&gt;
&lt;p&gt;過学習した前回（負け）の設定をコメントで残し、今回（改善）の設定を対比させました。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
import lightgbm as lgb
from sklearn.model_selection import GridSearchCV

# 1. 前処理（自己ベスト 0.78468 時の最強布陣を維持）
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

for df in [train_data, test_data]:
    df['Embarked'] = df['Embarked'].fillna('S')
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1

group_cols = ['Pclass', 'Sex']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 2. 特徴量のダミー変数化
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Embarked&quot;]
X = pd.get_dummies(train_data[features], drop_first=True)
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features], drop_first=True)
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 3. ライトGBM：過学習を防ぐための「抑制」チューニング
param_grid = {
    # 'num_leaves': [31],        # 前回：多すぎて細かく分けすぎていた
    'num_leaves': [7, 10, 15],   # 修正：モデルをシンプルに保つ

    'learning_rate': [0.01, 0.05],
    'n_estimators': [100, 200],

    # 'max_depth': [-1],         # 前回：無制限が過学習の主因
    'max_depth': [3, 4],         # 修正：あえて「浅い木」に限定する

    'min_child_samples': [20, 40], # 修正：1つの枝に40人以上のデータを要求（ノイズ対策）

    'random_state': [1]
}

# 4. グリッドサーチ実行
gbm = lgb.LGBMClassifier(verbosity=-1)
grid_search = GridSearchCV(gbm, param_grid, cv=5, n_jobs=-1, verbose=0)
grid_search.fit(X, y)

# 5. 結果の記録
print(f&quot;Best Params: {grid_search.best_params_}&quot;)
print(f&quot;Best Score (CV): {grid_search.best_score_:.4f}&quot;) # 0.8373 を記録

# 6. 予測
best_model = grid_search.best_estimator_
predictions = best_model.predict(X_test)
pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions}).to_csv('submission_lgbm_v2.csv', index=False)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 考察：0.8の壁を越えるために必要なこと&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な視点：&lt;/b&gt;&lt;br /&gt;
今回の実験で、「強力なアルゴリズムを使うなら、強力なブレーキが必要である」という教訓が実証されました。0.77511 という数字は、まだ自己ベストには届きませんが、&lt;b&gt;「モデルの使いこなし」&lt;/b&gt;という点では過去最高のレベルに達しています。&lt;br /&gt;
&lt;br /&gt;
ここからさらに 0.03 スコアを伸ばし、0.8の大台に乗るには、モデルの微調整（チューニング）だけでは限界があるかもしれません。次は、データの背後に隠れた「家族の運命」や「チケット番号の繋がり」など、人間らしい洞察（特徴量エンジニアリング）を LightGBM に教え込むフェーズに来ていると感じます。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;数字は嘘をつきません。改善した 0.012 は、私たちが正しい方向に進んでいる証拠。この調子で、次なる一手「特徴量の深化」へ進みます！&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/58/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #16：LightGBMの洗礼。CVスコアの「罠」と過学習の恐怖</h2></title>
      <description>&lt;p&gt;前回、最強の刺客 &lt;b&gt;LightGBM&lt;/b&gt; を投入し、手元の交差検証（CV）で &lt;b&gt;0.8418&lt;/b&gt; という驚異的なスコアを叩き出しました。「ついに0.8の大台か？」と期待に胸を膨らませて提出した結果、待っていたのは &lt;b&gt;0.76315&lt;/b&gt; という非情な現実。自己ベスト（0.78468）から大きく後退する結果となりました。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. なぜ「手元の高スコア」が「本番の惨敗」を招いたのか？&lt;/h3&gt;
&lt;p&gt;今回の敗因は、機械学習において最も警戒すべき &lt;b&gt;過学習（オーバーフィッティング）&lt;/b&gt; です。原因をエンジニア的に分析すると、以下の3点に集約されます。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;モデルが「賢すぎた」：&lt;/b&gt; LightGBMは非常に強力なため、約890件という少ない訓練データの「偶然の偏り」まで完璧に学習してしまいました。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;CVスコアの信憑性：&lt;/b&gt; CVスコア 0.84 というのは、訓練データ内での「予行演習」に過ぎません。本番のテストデータとの間に、学習しきれないギャップが存在していました。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;パラメータの攻めすぎ：&lt;/b&gt; &lt;code&gt;max_depth: -1&lt;/code&gt;（無制限）や &lt;code&gt;num_leaves: 20&lt;/code&gt; という設定が、少数のデータに対しては複雑すぎた可能性があります。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【実装】光と影を記録した LightGBM コード&lt;/h3&gt;
&lt;p&gt;CVスコア 0.8418 を出しながらも、本番で 0.76315 に沈んだ「教訓」としてのコードです。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
import lightgbm as lgb
from sklearn.model_selection import GridSearchCV

# 1. データの読み込みと前処理（ベスト布陣を維持）
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

for df in [train_data, test_data]:
    df['Embarked'] = df['Embarked'].fillna('S')
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1

group_cols = ['Pclass', 'Sex']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 2. 特徴量の準備（ダミー変数化）
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Embarked&quot;]
X = pd.get_dummies(train_data[features], drop_first=True)
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features], drop_first=True)
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 3. LightGBMの設定（ここでの最適化が本番で裏目に出た）
param_grid = {
    'num_leaves': [10, 20, 31],
    'learning_rate': [0.01, 0.05, 0.1],
    'n_estimators': [100, 500],
    'max_depth': [-1, 3, 5],
    'random_state': [1]
}

gbm = lgb.LGBMClassifier(verbosity=-1)
grid_search = GridSearchCV(gbm, param_grid, cv=5, n_jobs=-1, verbose=0)
grid_search.fit(X, y)

# 結果出力（CVスコアは 0.8418 をマーク）
print(f&quot;LGBM Best Params: {grid_search.best_params_}&quot;)
print(f&quot;LGBM Best Score (CV): {grid_search.best_score_:.4f}&quot;)

# 予測実行
best_model = grid_search.best_estimator_
predictions = best_model.predict(X_test)
pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions}).to_csv('submission_lgbm_overfit.csv', index=False)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 実験結果：期待と現実のギャップ&lt;/h3&gt;
&lt;p&gt;アルゴリズムを変えたことで、数字に大きな「動き」が出ましたが、今回は悪い方へ転がりました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;自己ベスト（ランダムフォレスト）：&lt;/b&gt; Score 0.78468&lt;/li&gt;
&lt;li&gt;&lt;b&gt;今回（LightGBM）：&lt;/b&gt; &lt;b style=&quot;color: #d73a49;&quot;&gt;Score 0.76315&lt;/b&gt;（CVスコアとの乖離：-0.078）&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;4. 考察：高すぎるCVスコアを疑え&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な視点：&lt;/b&gt;&lt;br /&gt;
「手元で完璧なモデルが、外の世界で通用するとは限らない」。今回の結果は、AI開発における本質的な難しさを教えてくれました。CVスコアが 0.84 まで跳ね上がった時点で、「学習しすぎではないか？」と疑うべきだったのです。Titanicのような少人数データでは、LightGBMのような強力なモデルを「いかに抑え込むか（正則化）」が次の鍵となります。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;スコアダウンは失敗ではなく、モデルの特性を理解するための貴重なデータです。次は、LightGBMをあえて「弱く」する（パラメータを厳しく制限する）か、あるいはランダムフォレストの安定感を見直すか。この 0.02 の差を埋めるための戦いは、さらに深化していきます。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/57/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #15：0.78468 不変。ハイパーパラメータ最適化が証明した「モデルの限界」</title>
      <description>&lt;p&gt;前回（攻略 #14）、デッキ情報の追加でスコアを落とした反省を活かし、今回はベストスコア &lt;b&gt;0.78468&lt;/b&gt; を出した最強の布陣に対し、科学的なメスを入れました。&lt;code&gt;GridSearchCV&lt;/code&gt;（交差検証）による「木の深さ」の最適化。しかし、返ってきたスコアは驚くほど正確に前回と同じ &lt;b&gt;0.78468&lt;/b&gt; でした。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. なぜ「最適化」したのにスコアが変わらなかったのか？&lt;/h3&gt;
&lt;p&gt;勘に頼っていた &lt;code&gt;max_depth=5&lt;/code&gt; という設定を、交差検証によって [3, 4, 5, 6, 7, 8] の中から最も優れたものへ自動選択させました。それにも関わらずスコアが不変だった理由。そこにはエンジニアとして納得のいく理由が隠れています。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;「深さ5」がすでに黄金比だった：&lt;/b&gt; 交差検証の結果、実はこれまでの「深さ5」が、学習データとテストデータのバランスを保つ上で既に最適な値であった可能性が高いです。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;特徴量の表現力の限界：&lt;/b&gt; パラメータという「火加減」を調整してもスコアが動かないのは、材料である「特徴量」が持つ情報の限界に達していることを意味します。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;高い汎化性能の証明：&lt;/b&gt; スコアが落ちなかったということは、モデルが変に過学習せず、安定した予測能力を維持できている証拠でもあります。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【実装】GridSearchCV による最適化の全記録&lt;/h3&gt;
&lt;p&gt;結果は維持でしたが、今後の試行錯誤において「確信」を持ってパラメータを設定するための必須ステップです。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCV

# 1. データの読み込み
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

# 2. 前処理（ベストスコア時の構成を維持）
train_data['Embarked'] = train_data['Embarked'].fillna('S')
test_data['Embarked'] = test_data['Embarked'].fillna('S')

group_cols = ['Pclass', 'Sex']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))

for df in [train_data, test_data]:
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 3. 特徴量のダミー変数化
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Embarked&quot;]
X = pd.get_dummies(train_data[features])
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features])
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 4. パラメータの探索
param_grid = {
    'n_estimators': [500],
    'max_depth': [3, 4, 5, 6, 7, 8],
    'min_samples_leaf': [1, 3, 5],
    'random_state': [1]
}

# 5. グリッドサーチによる交差検証
grid_search = GridSearchCV(
    estimator=RandomForestClassifier(),
    param_grid=param_grid,
    cv=5,
    n_jobs=-1,
    verbose=1
)
grid_search.fit(X, y)

# 最適なモデルを抽出
best_model = grid_search.best_estimator_
predictions = best_model.predict(X_test)

# 6. 出力
output = pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions})
output.to_csv('submission_optimized.csv', index=False)

print(f&quot;Best Params found: {grid_search.best_params_}&quot;)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 考察：次のフェーズは「材料そのもの」の変革&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な視点：&lt;/b&gt;&lt;br /&gt;
今回の実験で、「今の特徴量の組み合わせ（Embarked, FamilySizeなど）を、今のランダムフォレストで回す限り、これ以上の伸び代はない」ということがはっきりしました。0.78468 は一つの完成形です。ここから 0.79、0.80 を目指すには、微調整（チューニング）ではなく、&lt;b&gt;革新（イノベーション）&lt;/b&gt;が必要です。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;スコアが変わらなかったことは、決して無駄ではありません。「迷い」が「確信」に変わった瞬間です。次回からは、これまでの安定した布陣をベースにしつつ、全く新しいアルゴリズム（XGBoostやLightGBM）を試すか、あるいは「チケット番号の重複」など、より高度な特徴量生成（Feature Engineering）の深淵へと足を踏み入れます！&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/56/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #14：0.77990への後退。欠損率77%の「Cabin」が招いた過学習</title>
      <description>&lt;p&gt;前回（攻略 #13）、自己ベストの 0.78468 を記録し、ついに波に乗ったかと思われました。次なる一手として投入したのは、船の階層を示す &lt;b&gt;Cabin（客室番号）からのデッキ情報&lt;/b&gt;。物理的な生存率の差を捉える決定打になるはずが、結果は &lt;b&gt;0.77990&lt;/b&gt; への大幅なランクダウンとなりました。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. 敗因分析：なぜ「強力なヒント」が毒になったのか？&lt;/h3&gt;
&lt;p&gt;客室番号から抽出した「デッキ（A〜G）」は、理論上はボートへの距離を示す重要な指標です。しかし、そこには機械学習特有の罠が潜んでいました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;圧倒的な欠損率：&lt;/b&gt; Cabinデータは約77%が欠損しています。この「穴だらけ」のデータを無理にカテゴリ化して学習させたことで、モデルが数少ないサンプルに過剰に反応（過学習）してしまった可能性があります。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;低頻度カテゴリのノイズ：&lt;/b&gt; 「Tデッキ」などの極端に乗客が少ない階層が、予測において「意味のない分岐」を作り出し、未知のデータに対する判断を狂わせたと考えられます。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;情報の不純度：&lt;/b&gt; デッキ情報は Pclass（客室階級）と極めて強い相関があります。すでに Pclass で説明できている情報に、ノイズの多い Cabin 情報を混ぜたことが、モデルの焦点をぼかしてしまったようです。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【実装】敗北の記録：デッキ情報を導入した全コード&lt;/h3&gt;
&lt;p&gt;結果としてスコアを下げてしまいましたが、検証の記録として、デッキ抽出を組み込んだコードを掲載します。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
from sklearn.ensemble import RandomForestClassifier

# 1. データの読み込み
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

# 2. Cabinからデッキ情報を抽出（今回の挑戦ポイント）
for df in [train_data, test_data]:
    df['Deck'] = df['Cabin'].apply(lambda x: x[0] if pd.notnull(x) else 'U')

# 3. 安定した前処理（0.78468時と同じ構成）
train_data['Embarked'] = train_data['Embarked'].fillna('S')
test_data['Embarked'] = test_data['Embarked'].fillna('S')

group_cols = ['Pclass', 'Sex']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))

for df in [train_data, test_data]:
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 4. 特徴量の選択（Deckを追加）
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Embarked&quot;, &quot;Deck&quot;]

# 5. ダミー変数化
X = pd.get_dummies(train_data[features])
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features])

# 列の整合性を確保
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 6. モデル学習
model = RandomForestClassifier(n_estimators=500, max_depth=5, random_state=1)
model.fit(X, y)

# 7. 予測と出力
predictions = model.predict(X_test)
pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions}).to_csv('submission_deck_failed.csv', index=False)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 実験結果：0.78468 &amp;rarr; 0.77990 への転落&lt;/h3&gt;
&lt;p&gt;「垂直の階層」を加えた結果、スコアは改善するどころか、前々回の水準まで後退しました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;自己ベスト（攻略 #13）：&lt;/b&gt; Score 0.78468&lt;/li&gt;
&lt;li&gt;&lt;b&gt;今回（Deck追加）：&lt;/b&gt; &lt;b style=&quot;color: #d73a49;&quot;&gt;Score 0.77990&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;4. 考察：欠損値は「埋めればいい」ものではない&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な視点：&lt;/b&gt;&lt;br /&gt;
今回の学びは、「欠損率があまりに高いカラムは、無理に特徴量化するとモデルの汎化性能を破壊する」ということです。デッキ情報は確かに生存に影響したはずですが、データの密度が薄すぎました。Kaggleにおいては、情報の「正しさ」だけでなく、情報の「密度」と「安定性」がいかに重要かを痛感させられる結果となりました。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;自己ベスト更新直後の落とし穴。しかし、この 0.77990 という数字が「Deck情報の生投入は悪手である」と教えてくれました。次は、この Deck 情報をより大胆にグルーピング（例：Cabinの有無だけにする等）してリベンジするか、あるいは再び「引き算」をして別の道を探るか&amp;hellip;&amp;hellip;。戦略の練り直しです。&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/55/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #13：自己ベスト更新 0.78468！「引き算」と「新しい視点」の勝利</title>
      <description>&lt;p&gt;前回（攻略 #12）では、精緻に作り込んだ「敬称」データがまさかの裏目に出て、スコアが 0.77751 まで下落するという苦い経験をしました。しかし、その敗北から学んだ「情報の重複を削る」という教訓、そして新たな物理的要因 &lt;b&gt;Embarked（乗船港）&lt;/b&gt; の導入が、ついに &lt;b&gt;0.78468&lt;/b&gt; という自己ベスト更新を呼び込みました！&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. 逆転の戦略：複雑さを捨て、文脈を足す&lt;/h3&gt;
&lt;p&gt;今回の成功のポイントは、単なる「足し算」ではなく、勇気を持った「引き算」にあります。スコアを下げていた &lt;code&gt;Title&lt;/code&gt;（敬称）を一度捨て、モデルをスリム化した上で、全く新しい切り口である &lt;code&gt;Embarked&lt;/code&gt; を追加しました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;多重共線性の解消：&lt;/b&gt; 性別・年齢・敬称という似通った情報の衝突を解消し、モデルの迷いを取り除きました。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;乗船港が示す「背景」：&lt;/b&gt; シェルブール(C)＝富裕層、サウサンプトン(S)＝一般層といった、港ごとの生存傾向が、Pclassだけでは説明しきれなかった微細な生存確率を補完しました。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【実装】0.78468 を叩き出した最終コード&lt;/h3&gt;
&lt;p&gt;シンプルながらも強力な、現時点での「最適解」と言えるコード全文です。Embarkedの欠損値を最頻値で埋め、ダミー変数化して投入しています。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
from sklearn.ensemble import RandomForestClassifier

# 1. データの読み込み
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

# 2. Embarked（乗船港）の欠損値補完
# 最も多い乗船港である 'S' で補完
train_data['Embarked'] = train_data['Embarked'].fillna('S')
test_data['Embarked'] = test_data['Embarked'].fillna('S')

# 3. 安定した前処理の再現（属性別Age補完 ＆ 家族サイズ）
group_cols = ['Pclass', 'Sex']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))

for df in [train_data, test_data]:
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1

# テストデータの運賃欠損を中央値で補完
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 4. 学習に使用する特徴量の定義
# 迷走した Title はあえて外し、Embarked を新規採用
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Embarked&quot;]

# 5. カテゴリ変数をダミー変数に変換
X = pd.get_dummies(train_data[features])
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features])

# 学習とテストの列を一致させる
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 6. モデル学習（500本の決定木、最大深さ5）
model = RandomForestClassifier(n_estimators=500, max_depth=5, random_state=1)
model.fit(X, y)

# 7. 予測の実行と提出用CSV作成
predictions = model.predict(X_test)
output = pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions})
output.to_csv('submission_final_best.csv', index=False)

print(&quot;Score 0.78468 達成の予測ファイルを保存しました。&quot;)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 実験結果：0.77751 &amp;rarr; 0.78468 へ跳ねる！&lt;/h3&gt;
&lt;p&gt;特徴量を1つ入れ替え、整理しただけで、スコアは劇的に改善しました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;前回（Title追加）：&lt;/b&gt; Score 0.77751&lt;/li&gt;
&lt;li&gt;&lt;b&gt;今回（Title削除＋Embarked追加）：&lt;/b&gt; &lt;b style=&quot;color: #28a745;&quot;&gt;Score 0.78468 (New Record!)&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;4. 考察：エンジニアリングの本質は「整理整頓」にあり&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な視点：&lt;/b&gt;&lt;br /&gt;
今回の結果が教えてくれたのは、「良いデータ」を足すことと同じくらい、「不要な相関を削る」ことが重要であるという事実です。一時は 0.77 台まで落ち込み絶望しましたが、そこで立ち止まらずに「なぜ落ちたのか？」を考え、別の軸（Embarked）に切り替えたことが勝機となりました。0.785の壁も見えてきました。次はこの安定した土台の上に、さらなるエッセンスを加えていきます。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;自己ベスト更新の余韻に浸りつつも、Kaggleの道はまだ続きます。今回の勝利で「情報の質と整理」の重要性が証明されました。次は、今回あえて削った `Title` を「ノイズにならない形」で再統合するか、あるいは `Cabin`（客室）の深淵に踏み込むか&amp;hellip;&amp;hellip;。戦略を練り直します！&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/54/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #12：0.77751の呪縛。精緻なクレンジングでも動かぬ壁</title>
      <description>&lt;p&gt;前回（攻略 #11）、家族サイズ（FamilySize）の導入で 0.78229 という自己ベストを叩き出した勢いのまま、今回は「最強の特徴量」と名高い &lt;b&gt;Title（敬称）&lt;/b&gt; を投入しました。しかし、返ってきた結果は &lt;b&gt;0.77751&lt;/b&gt; への後退。さらに、表記ゆれを疑い徹底したクレンジングを施すも、スコアは1ミリも動きませんでした。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. 仮説と検証：なぜ「完璧なはずのコード」でスコアが動かないのか&lt;/h3&gt;
&lt;p&gt;抽出ミスや空白の混入を疑い、&lt;code&gt;strip()&lt;/code&gt; や徹底した表記統合を行いました。論理的には、これでデータは綺麗になり、モデルはより正確に「Master（子供）」や「Rare（特権階級）」を識別できるはずでした。しかし、結果は非情な現状維持です。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;仮説1：情報の重複（多重共線性）&lt;/b&gt;&lt;br /&gt;
既に「Sex」や「Age（精密補完済み）」、「Pclass」の中に、敬称が持つ情報の大部分が含まれてしまっている可能性。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;仮説2：ランダムフォレストの限界&lt;/b&gt;&lt;br /&gt;
現在のパラメータ設定（深さ5など）では、これ以上細かい特徴量を読み取っても、汎化性能（未知のデータへの対応力）に繋がっていない可能性。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【実装】クレンジングを徹底した Title 導入コード&lt;/h3&gt;
&lt;p&gt;不備のない、現時点で最も「綺麗」な状態の全コードです。結果としてスコアは改善しませんでしたが、データ処理の型としては正攻法と言えます。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
from sklearn.ensemble import RandomForestClassifier

# 1. データの読み込み
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

# 2. 敬称抽出関数の定義（徹底した空白除去）
def get_title(name):
    if '.' in name:
        return name.split(',')[1].split('.')[0].strip()
    return 'Unknown'

# 3. データのクレンジングと正規化
for df in [train_data, test_data]:
    df['Title'] = df['Name'].map(get_title)
    
    # 希少な敬称の統合
    rare_titles = ['Lady', 'Countess','Capt', 'Col','Don', 'Dr', 'Major', 'Rev', 'Sir', 'Jonkheer', 'Dona']
    df['Title'] = df['Title'].replace(rare_titles, 'Rare')
    
    # 表記ゆれの統一
    df['Title'] = df['Title'].replace(['Mlle', 'Ms'], 'Miss')
    df['Title'] = df['Title'].replace('Mme', 'Mrs')

# 4. 精密なAge補完（Pclass &amp;times; Sex &amp;times; Title）
group_cols = ['Pclass', 'Sex', 'Title']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))

# 5. 家族サイズと運賃の処理
for df in [train_data, test_data]:
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 6. 特徴量のダミー変数化
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Title&quot;]
X = pd.get_dummies(train_data[features])
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features])

# 学習とテストで列を完全に一致させる
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 7. モデル学習（500本の木、深さ5）
model = RandomForestClassifier(n_estimators=500, max_depth=5, random_state=1)
model.fit(X, y)

# 8. 予測と出力
predictions = model.predict(X_test)
pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions}).to_csv('submission_cleansed.csv', index=False)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 実験結果：0.77751（変化なし）&lt;/h3&gt;
&lt;p&gt;クレンジング前と後で、スコアは一桁も変わりませんでした。この結果が意味するのは、&lt;b&gt;「現在の私のモデルにとって、Title情報は恩恵よりもノイズ、あるいは過学習の要因になっている」&lt;/b&gt;という不都合な真実です。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;前回（FamilySize追加）：&lt;/b&gt; Score 0.78229&lt;/li&gt;
&lt;li&gt;&lt;b&gt;今回（Title追加＋徹底洗浄）：&lt;/b&gt; &lt;b style=&quot;color: #d73a49;&quot;&gt;Score 0.77751&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;4. 考察：引き算の勇気が必要か&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な視点：&lt;/b&gt;&lt;br /&gt;
「良かれと思って追加した機能が、システム全体のパフォーマンスを落とす」。これは開発現場でもよくある話です。今回の Title 導入は、一見すると情報の追加でしたが、実際にはモデルの焦点をぼかしてしまった可能性があります。0.78229 という自己ベストに戻るには、一度「Titleを捨てる」という引き算の決断、あるいは全く別の次元の特徴量（チケット番号や客室番号）を検討する必要がありそうです。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;成功体験よりも、こうした停滞こそが思考を深くしてくれます。次回の攻略では、この「0.77751の壁」を突破するために、特徴量の取捨選択を根本から見直す「モデルのスリム化」に挑みます。&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/53/</link> 
    </item>
    <item>
      <title>【DS検定対策】未来は「現在」だけで決まる？確率過程の基礎「マルコフ連鎖」</title>
      <description>&lt;p&gt;明日の天気が「今日の天気」だけで決まるとしたら？ そんな風に、過去の経緯を無視して現在の状態だけで次のステップが決まる確率モデルを「マルコフ連鎖」と呼びます。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. 【 問題 】&lt;/h3&gt;
&lt;p&gt;マルコフ過程のうち、時間の変化が「離散的（1ステップずつ途切れている）」であり、次世代の状態が現在の状態のみに依存して決まる確率過程を何と呼ぶでしょうか？&lt;/p&gt;
&lt;p&gt;① ブラウン運動&lt;br /&gt;
② ポアソン過程&lt;br /&gt;
③ マルコフ連鎖&lt;br /&gt;
④ 自己回帰モデル&lt;/p&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: #d32f2f;&quot;&gt;2. 【 解答 】&lt;/h3&gt;
&lt;div style=&quot;background-color: #eeeeee; border: 2px solid #333; padding: 15px; font-size: 1.2em; font-weight: bold; text-align: center;&quot;&gt;正解： ③ マルコフ連鎖&lt;/div&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 整理：過去を振り返らない「忘却」のモデル&lt;/h3&gt;
&lt;p&gt;マルコフ連鎖の最大の特徴は「マルコフ性」です。これは、未来がどうなるかは「現在」がどうであるかだけで決まり、「過去」の履歴は関係ないという性質です。&lt;/p&gt;
&lt;p&gt;【 マルコフ連鎖のイメージ：お天気の遷移 】&lt;/p&gt;
&lt;div style=&quot;font-family: monospace; border: 1px solid #ccc; padding: 10px; line-height: 1.6;&quot;&gt;[ 今日の状態 ]&lt;br /&gt;
「晴れ」&lt;br /&gt;
&lt;br /&gt;
[ 1ステップ後（明日）の確率 ]&lt;br /&gt;
・晴れのまま： 70%&lt;br /&gt;
・雨になる： 30%&lt;br /&gt;
&lt;br /&gt;
[ 判定のルール ]&lt;br /&gt;
&lt;b&gt;★ ここがマルコフ連鎖！&lt;/b&gt;&lt;br /&gt;
「昨日が雨だったか、晴れだったか」は一切考えず、&lt;b&gt;「今日が晴れであること」&lt;/b&gt;だけを使って明日の確率を計算します。&lt;br /&gt;
&lt;br /&gt;
--------------------------&lt;br /&gt;
&lt;br /&gt;
◎ &lt;b&gt;ポイント： 「離散的」とは、時間が1日、2日&amp;hellip;&amp;hellip;、あるいは1回目、2回目&amp;hellip;&amp;hellip;と、とびとびの値をとることを指します。&lt;/b&gt;&lt;/div&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;4. なぜDS検定で重要なのか？&lt;/h3&gt;
&lt;p&gt;1. &lt;b&gt;状態遷移行列&lt;/b&gt;: 状態が移り変わる確率を表形式にまとめることで、将来の予測計算が可能になります。&lt;br /&gt;
2. &lt;b&gt;強化学習の基礎&lt;/b&gt;: ロボットの制御やAIの意思決定モデルである「マルコフ決定過程（MDP）」のベースとなります。&lt;br /&gt;
3. &lt;b&gt;アルゴリズムへの応用&lt;/b&gt;: Googleの初期の検索エンジン（ページランク）も、このマルコフ連鎖の考え方を応用しています。&lt;/p&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: orange;&quot;&gt;5. DS検定形式：実戦4択クイズ&lt;/h3&gt;
&lt;p&gt;&lt;b&gt;問：マルコフ連鎖において、現在の状態から次の状態へ移る確率を並べた行列のことを何と呼ぶか。&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;① 相関行列 &amp;nbsp; ② 遷移確率行列 &amp;nbsp; ③ 逆行列 &amp;nbsp; ④ 分散共分散行列&lt;/p&gt;
&lt;p&gt;&lt;b&gt;【 正解： ② 】&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;解説：&lt;/b&gt; ある状態から別の状態へ移動する確率を網羅したものを「遷移確率行列」と呼びます。この行列を現在の状態ベクトルに掛け合わせることで、次ステップの予測を行うのがマルコフ連鎖の基本計算です。&lt;/p&gt;
&lt;hr /&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;6. まとめ&lt;/h3&gt;
&lt;p&gt;DS検定において「時間が離散的」「現在の状態だけで未来が決まる」という記述があれば「マルコフ連鎖」が正解です。非常にシンプルな仮定ですが、複雑な現象をモデル化するための強力な武器になります！&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/52/</link> 
    </item>
    <item>
      <title>【Kaggle挑戦記】Titanic 攻略 #12：名前の中に答えがあった。「敬称（Title）」抽出で0.80超えへ</title>
      <description>&lt;p&gt;前回（攻略 #11）では、家族サイズを導入することで 0.78229 という自己ベストを更新しました。しかし、依然として「生存」か「死亡」かをモデルが確信しきれないグレーゾーンが存在します。今回は、これまで無視してきたテキストデータ &lt;b&gt;Name（名前）&lt;/b&gt; から、生存率を決定づける隠れた指標「敬称」を掘り起こします。&lt;/p&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;1. なぜ「名前」ではなく「敬称」なのか？&lt;/h3&gt;
&lt;p&gt;機械学習モデルにとって「個別の氏名」はただのラベルですが、名前に含まれる &lt;b&gt;Mr. / Miss. / Mrs. / Master.&lt;/b&gt; といった敬称（Title）は情報の宝庫です。これらを抽出することで、当時の社会における立場や家族背景をより深くモデルに反映させることができます。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;「女性」の中のさらなる分類：&lt;/b&gt; 未婚（Miss）か既婚（Mrs）かを知ることで、生存傾向の差をより細かく捉えます。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;子供の確実な特定：&lt;/b&gt; 名前に &lt;code&gt;Master&lt;/code&gt; とあれば、年齢データが欠損していても確実に「男児」であると断定でき、補完精度が劇的に向上します。&lt;/li&gt;
&lt;li&gt;&lt;b&gt;社会的地位の捕捉：&lt;/b&gt; &lt;code&gt;Dr.&lt;/code&gt;（医師）や &lt;code&gt;Col.&lt;/code&gt;（大佐）といった希少な敬称は、優先的にボートへ誘導された可能性を示唆します。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;2. 【実装】敬称抽出とモデル構築の全コード&lt;/h3&gt;
&lt;p&gt;正規表現的に敬称を切り出し、主要な5グループに統合した上で、これまでの「家族サイズ」「Age補完」と組み合わせて学習させます。&lt;/p&gt;
&lt;pre style=&quot;border: 1px solid #ccc; padding: 10px; background-color: #f9f9f9; overflow-x: auto; font-family: Consolas, Monaco, 'Courier New', monospace; line-height: 1.5;&quot;&gt;import pandas as pd
import numpy as np
from sklearn.ensemble import RandomForestClassifier

# 1. データの読み込み
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')

# 2. 敬称（Title）を抽出する関数の定義
def get_title(name):
    if '.' in name:
        return name.split(',')[1].split('.')[0].strip()
    return 'Unknown'

# 3. 敬称の抽出と統合
for df in [train_data, test_data]:
    df['Title'] = df['Name'].map(get_title)
    rare_titles = ['Lady', 'Countess','Capt', 'Col','Don', 'Dr', 'Major', 'Rev', 'Sir', 'Jonkheer', 'Dona']
    df['Title'] = df['Title'].replace(rare_titles, 'Rare')
    df['Title'] = df['Title'].replace(['Mlle', 'Ms'], 'Miss')
    df['Title'] = df['Title'].replace('Mme', 'Mrs')

# 4. Age（年齢）の精密補完：Pclass &amp;times; Sex &amp;times; Title 別の中央値
group_cols = ['Pclass', 'Sex', 'Title']
train_data['Age'] = train_data['Age'].fillna(train_data.groupby(group_cols)['Age'].transform('median'))
test_data['Age'] = test_data['Age'].fillna(test_data.groupby(group_cols)['Age'].transform('median'))

# 5. 既存の特徴量加工（家族サイズと運賃補完）
for df in [train_data, test_data]:
    df['FamilySize'] = df['SibSp'] + df['Parch'] + 1
test_data['Fare'] = test_data['Fare'].fillna(test_data['Fare'].median())

# 6. 特徴量の選択とダミー変数化
features = [&quot;Pclass&quot;, &quot;Sex&quot;, &quot;Age&quot;, &quot;SibSp&quot;, &quot;Parch&quot;, &quot;Fare&quot;, &quot;FamilySize&quot;, &quot;Title&quot;]
X = pd.get_dummies(train_data[features])
y = train_data[&quot;Survived&quot;]
X_test = pd.get_dummies(test_data[features])

# 列の不一致調整
X, X_test = X.align(X_test, join='left', axis=1, fill_value=0)

# 7. モデル学習（500本の木）
model = RandomForestClassifier(n_estimators=500, max_depth=5, random_state=1)
model.fit(X, y)

# 8. 予測と出力
predictions = model.predict(X_test)
pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions}).to_csv('submission_title.csv', index=False)
&lt;/pre&gt;
&lt;h3 style=&quot;color: blue;&quot;&gt;3. 実験結果：0.78229 &amp;rarr; 0.77751 へ下落&lt;/h3&gt;
&lt;p&gt;最強のヒントを投入したはずが、結果は無情なスコアダウンとなりました。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;前回（FamilySize追加）：&lt;/b&gt; Score 0.78229&lt;/li&gt;
&lt;li&gt;&lt;b&gt;今回（Title追加）：&lt;/b&gt; &lt;b style=&quot;color: #d73a49;&quot;&gt;Score 0.77751&lt;/b&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;エンジニア的な考察：&lt;/b&gt;&lt;br /&gt;
「論理的に正しい加工が、必ずしも精度に直結しない」という機械学習の洗礼を受けました。今回の下落の原因として考えられるのは、モデルが &lt;code&gt;Title&lt;/code&gt; という強い情報に頼りすぎてしまい、複雑な分岐を作った結果、未知のデータに対する柔軟性を失った（過学習した）可能性です。また、&lt;code&gt;Sex&lt;/code&gt; と &lt;code&gt;Title&lt;/code&gt; には強い相関があるため、情報が重複して判断を狂わせたのかもしれません。&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;敗北は、次なる改善への貴重なデータです。0.78突破の喜びから一転、モデルの繊細さを痛感する結果となりました。次は、今回追加した &lt;code&gt;Title&lt;/code&gt; を削るべきか、あるいはパラメータを再調整して「情報の衝突」を解消すべきか、慎重な見極めが必要です。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;/p&gt;</description> 
      <link>http://learnms.blog.shinobi.jp/Entry/51/</link> 
    </item>

  </channel>
</rss>