PRML第4章メモ
http://d.hatena.ne.jp/alembert/20090726/p1 の続きです。
4.3 確率的識別モデル
- 確率的生成モデル=入力変数のモデル , 確率的識別モデル=出力変数のモデル
- ロジスティック回帰
- 活性化関数としてロジスティックシグモイド関数 σ(a) を利用
- 尤度が指数型分布族の場合に適用可能
- 誤差関数 : E(w) = -Σ(t ln y + (1-t)ln(1-y))
- 交差エントロピー関数
- 誤差関数の勾配 : ∇E(w) = Σ(yn - tn)φn
- 目標値と予測値の誤差×基底関数ベクトル
- 線形基底関数モデルと一緒というのが興味深いね、という話(cf. 正準連結関数)
- 誤差関数のヘッセ行列 : ∇∇E(w) = ΦTRΦ(R = diag{yn(1-yn)} = cov[t])
- 最尤推定
- 過学習の結果は直感通り、w=∞、ヘヴィサイドステップ関数によってクラスが分類される
- 解析的には困難 -> IRLS(反復重み付け最小二乗)
- プロビット回帰
- 正準連結関数
- 連結関数(活性化関数の逆関数)の一種
- 指数型分布族の場合、これを連結関数として採用すると、誤差関数の勾配=目標値と予測値の誤差×基底関数ベクトル になる
- 非常にシンプル。そして汎用性が高い。(IRLS の際に便利)
4.5 ベイズロジスティック回帰
PRML 読書会で発表します。
今回も発表します。参加はこちらからよろしくどうぞ : C.M.ビショップ「パターン認識と機械学習(PRML)」読書会(第5回) : ATND
- 作者: C. M.ビショップ,元田浩,栗田多喜夫,樋口知之,松本裕治,村田昇
- 出版社/メーカー: シュプリンガー・ジャパン株式会社
- 発売日: 2007/12/10
- メディア: 単行本
- 購入: 18人 クリック: 1,588回
- この商品を含むブログ (111件) を見る