PRML第4章メモ

http://d.hatena.ne.jp/alembert/20090726/p1 の続きです。

4.3 確率的識別モデル

  • 確率的生成モデル=入力変数のモデル , 確率的識別モデル=出力変数のモデル
  • ロジスティック回帰
    • 活性化関数としてロジスティックシグモイド関数 σ(a) を利用
    • 尤度が指数型分布族の場合に適用可能
    • 誤差関数 : E(w) = -Σ(t ln y + (1-t)ln(1-y))
    • 誤差関数の勾配 : ∇E(w) = Σ(yn - tnn
      • 目標値と予測値の誤差×基底関数ベクトル
      • 線形基底関数モデルと一緒というのが興味深いね、という話(cf. 正準連結関数)
    • 誤差関数のヘッセ行列 : ∇∇E(w) = ΦTRΦ(R = diag{yn(1-yn)} = cov[t])
    • 最尤推定
      • 過学習の結果は直感通り、w=∞、ヘヴィサイドステップ関数によってクラスが分類される
      • 解析的には困難 -> IRLS(反復重み付け最小二乗)
  • プロビット回帰
  • 正準連結関数
    • 連結関数(活性化関数の逆関数)の一種
    • 指数型分布族の場合、これを連結関数として採用すると、誤差関数の勾配=目標値と予測値の誤差×基底関数ベクトル になる
      • 非常にシンプル。そして汎用性が高い。(IRLS の際に便利)

4.5 ベイズロジスティック回帰

  • ロジスティック回帰をベイズ的に取り扱いたい => 解析的には無理 => ラプラス近似をしよう!←イマココ
  • 基本的には式の展開・近似の繰り返し。解析学の基礎知識で何とかなる。
  • トリッキーな変数変換があったのでメモ。よく使われる手法なのか?
    • ∫f(ax) g(x) dx = ∫(∫δ(y-ax) f(y) dy) g(x) dx = ∫∫δ(y-ax) f(y) g(x) dy dx = ∫f(y) (∫δ(y-ax) g(x) dx)dy = ∫f(y) u(y) dy (ただし δ: ディラックデルタ)

PRML 読書会で発表します。

今回も発表します。参加はこちらからよろしくどうぞ : C.M.ビショップ「パターン認識と機械学習(PRML)」読書会(第5回) : ATND

パターン認識と機械学習 上 - ベイズ理論による統計的予測

パターン認識と機械学習 上 - ベイズ理論による統計的予測