🆕 新着Qiita記事をお知らせします。​

​『期待値伝播法』
https://qiita.com/Kosuke_Matsui/items/d844cb497c7cc1ee2d44 by @kosuke_matsui @​Qiita

#prml_qiita

期待値伝播法 - Qiita

# 記事の概要 [『ベイズ深層学習』勉強会資料 4章の2.1~2.4](https://qiita.com/Kosuke_Matsui/items/96909df659428c17a2c9)において期待値伝播法の理解が不十分だったので...

🆕 新着Qiita記事をお知らせします。​

​『PRML復活の呪文 part22 (5.7 - 5.7.3)』
https://qiita.com/yosshun/items/0e2a52136332cbb24405 by @yosshun @​Qiita

#prml_qiita

PRML復活の呪文 part22 (5.7 - 5.7.3) - Qiita

# TL;DR - ベイズ的な考えでニューラルネットワークを解きたいので、重み$w$の事前分布や条件付き確率$p(t|x)$に分布を導入する - 分布を導入するとニューラルネットワークの非線形性の影響で数学的に解けなくなる。ラプラス...

🆕 新着Qiita記事をお知らせします。​

​『PRML復活の呪文 part21 (5.6)』
https://qiita.com/yosshun/items/ba73d39ae524d5ec86d3 by @yosshun @​Qiita

#prml_qiita

PRML復活の呪文 part21 (5.6) - Qiita

# TL;DR - 条件付き分布$ p(t|x) $がガウス分布と大きく離れていると通常のニューラルネットネットはうまくいかない - この場合、$ p(t|x) $にパラメトリックな混合モデルを仮定し、混合モデルのパラメータをニュー...

🆕 新着Qiita記事をお知らせします。​

​『PRML復活の呪文 part20 (5.4 -5.5.7)』
https://qiita.com/yosshun/items/0cb19e1bef0761c292bd by @yosshun @​Qiita

#prml_qiita

PRML復活の呪文 part20 (5.4 -5.5.7) - Qiita

# TL;DR - ニューラルネットワークを使っても過学習の問題は起こるので、これを避けるために色々なアプローチがある # 5.4 ヘッセ行列 省略 # 5.5 ニューラルネットワークの正則化 ニューラルネットワークの入力ユ...

🆕 新着Qiita記事をお知らせします。​

​『PRML復活の呪文 part19 (5.2.1 -5.3.4)』
https://qiita.com/yosshun/items/8c1e0586b22852b9888b by @yosshun @​Qiita

#prml_qiita

PRML復活の呪文 part19 (5.2.1 -5.3.4) - Qiita

# TL;DR - 誤差関数の値が小さくなるニューラルネットワークの重み$w$を求めるには$w$の勾配$ \nablaE(w) $を計算する必要がある - $ \nabla E(w) $を効率よく求める方法が「誤差逆伝播」 # ...

🆕 新着Qiita記事をお知らせします。​

​『PRML復活の呪文 part18 (5.1 -5.2)』
https://qiita.com/yosshun/items/65302a2d33673f593274 by @yosshun @​Qiita

#prml_qiita

PRML復活の呪文 part18 (5.1 -5.2) - Qiita

# TL;DR - 複数の「層」の重み$w$と非線形関数を使って入力$x$から所望の出力$y$を得ようとするモデルがニューラルネットワーク - 重み$w$を推定するための準備として誤差関数を導出する # 5 ニューラルネットワーク...

🆕 新着Qiita記事をお知らせします。​

​『PRML1.5.1 誤識別率の最小化は事後確率最大化と等価』
https://qiita.com/yayaya7639/items/c5d07b4f414e71c76d33 by @yayaya7639 @​Qiita

#prml_qiita #機械学習_qiita

PRML1.5.1 誤識別率の最小化は事後確率最大化と等価 - Qiita

PRMLの1.5.1を読んでいると,「誤り確率の最小にするのが,事後確率が最大のクラスに割り当てるときであると言い換えられる.」とあって,いきなりなんでそんなことになるんだと疑問に思ったので,覚え書きのために自分なりの解釈を書いてみま...

🆕 新着Qiita記事をお知らせします。​

​『PRML復活の呪文 part17 (4.4 - 4.5.2)』
https://qiita.com/yosshun/items/d1faa36d898295cc8cae by @yosshun @​Qiita

#prml_qiita

PRML復活の呪文 part17 (4.4 - 4.5.2) - Qiita

# TL;DR - ガウス的なアプローチで、予測分布を出したいときは事後確率分布をパラメータ$w$に関して積分する計算が必要。だが、事後確率分布がシグモイド関数/ソフトマックス関数がごちゃごちゃするような形だと積分できない... ⇒...

🆕 新着Qiita記事をお知らせします。​

​『PRML 第1章 演習問題』
https://qiita.com/masatoyoshimori/items/5b567e2203b8b2033d20 by @masatoyoshimori @​Qiita

#prml_qiita

PRML 第1章 演習問題 - Qiita

##11/8(Thu)輪読会資料 @ Yahoo Lodge ##1.1 担当外のため省略 ##1.2 担当外のため省略 ##1.3 (標準) ###問題文 3個の色分けされた箱r(赤)、b(青)、g(緑)を考える。 箱rには、3個...

🆕 新着Qiita記事をお知らせします。​

​『[テスト]PRML 1.2_確率論』
https://qiita.com/masatoyoshimori/items/faf09adb3784643cf644 by @masatoyoshimori @​Qiita

#prml_qiita

[テスト]PRML 1.2_確率論 - Qiita

test