深層型EMモデルの論文を読む
ランニング30分 英語:toeic
深層型EMモデルの論文を読む
「Neural Expection Maximization」https://arxiv.org/abs/1708.03498
最近はやりの深層学習型の生成モデルである。スイスのAI研究所IDSIAが投稿したものである。
基本的に生成モデルはデータから隠れ変数を補足するもので以下があると思っている。
・ベイズの定理
・EM (Expectation Maximization)
・VB(Variatinal Bayes)
・MCMC
一般的には事後分布はベイズ式からは陽に解けないので、EM VB MCMCの何れかの繰返し演算を使うことになる。
EMは左図の米国イエローストーンの間欠泉の混合分布の区分が有名であるが、この論文は点でなく図柄を識別しようとするものである。
区分問題に限ればEMの問題点は区分数が予め決められていることである。VBの場合は区分数が不明でも最適な区分で仕分けることができる。
なおk-means法でも解けるが各点の所属確率までは表現できない。
普通のEMは次式で定式化できるが は所属確率 はデータ
画像なので深層モデルで画像のアイテム毎に対応付けている。
は画像のアイテム番号 はpixel番号
この論文で正直に告白しているが はVAEと同じである。
モデル構成図は下図となってEMがK個が連続している。ここも正直に言っているがこの連続関係を学習するとVAE+RNNモデルと同じになる。
そこで深層EMが連続したモデルN-EMとRNN-EMモデルとを実験で比較していて、位置関係を学習できるRNN-EMモデルの方がよい結果となっている。
そうなれば下記の記事に書いたVAE+RNNの論文の方が個数が与えられなくても解けるので秀逸である。
ここで注目すべきことは画像アイテムが所属を意味する前項と所属しない後項の和算で損失関数を作っておりこれは敵対的モデルGANと同じ構成になっている。
この最近発表されたこのモデルは、図らずとも過去の様々なモデルを呼び起こす内容となっている。