独居見守り用one-class SVMの論文を読む
ランニングできず 英語できず
(1) 独居見守り用one-class SVMの論文を読む
「One-Class SVM を用いた高齢者異常検出モニタリングシステム」
https://www.msi.co.jp/userconf/2013/pdf/muc13_CR12_1.pdf
オープンポーズを利用したヘルスケア用システムとして独居老人の異常検知One-Class SVMの論文を読みました。そこでこの論文中の(1)~(2)式の説明をしたいと思います。
下図の様に超平面で分布を分離し、各々の集団をSVMで引き離せば明確になります。
この図の場合は少し広いですが裾野が異常先となります。
上図を翻って考え、逆に分布をある関数で高次元の非線形関数で写像し、切断面は線形でもよい事になります。one-class SVMの定式化はこのアイデアで出来ています。
PRMLの(7.22)に示す様に重なり合う(ソフトマージン)を使うと拘束条件付の最適化問題になります。
①式
ここで
は最適化対象の重みで分離を最大にします
は線形切断面
①式はラグランジュ関数問題を適用できるので、各々を微分して解を求めます。
②式
②式を各々で微分すると
③式
③式を使ってカーネルトリックを使うと
よって①式微分より最適なとが求まったので、
①のSVMは次の決定できてないの2次計画法問題を解くモデルとなります。
④式
またKKT条件より次が成り立ちます(残念ですが導出できませんでした)
但し は④式の最適解です
この様な条件を満たすには次が成り立ちます。
よって 超平面境界を適当にの点に置くと次が求められます。
の点での境界の内外の区分関数は次の簡単な式となります。
⑤式
実際に⑤式をC言語で計算した結果が下図となります。
④式の最適化問題は有効制約法による2次計画法を使いました。
「2値判別問題における有効制約法」山下寛隆
上の図の赤点はカーネルで3次元に写像した図で、切断面は線形です。この様にカーネルを使うと分離問題は旨く行くことがわかります。
ベイズ方式による多腕バンディッドの論文を読む
テニススクール90分 英語できず
(1) ベイズ方式による多腕バンディッドの論文を読む
「Gaussian Process Optimization in the Bandit Setting:No Regret and Experimental Design」https://arxiv.org/abs/0912.3995
バンディッドとはスロットマシンのことで、この論文は複数のスロットマシンへ出来るだけ少ない投資で沢山の報酬を得る戦略を考えるものです。
一般に沢山投資すればする程よいスロットマシンが見つかるので、これは事前の予想を試行結果で改善するのでベイズモデルとなります。
確率過程で無条件下では、ある時点から次の時点に推移するにはガウス分布の乱数で推移すると考えるのは合理的です。但しガウス分布の裾の広さは経験的に分っているとします。
この確率過程で下図の様に実測が分っている場合はその点を通るモデルとしてガウス確率過程(GP:Gaussian Process)がります。
下図はx軸に各スロットマシンが並んでおりy軸に報酬とした場合、真の平均の報酬曲線を推定する過程を示しています。GPは観測データが無い所は報酬の分散が広くなり、観測データがあると分散が狭くなる特性があります。
上図の様に分散が大きい所を試行すればより正確な曲線を把握できることがわかります。この様にすれば出来るだけ少ない投資で最上のマシンを見つける戦略が立てられそうです。
上図の様に探索するには具体的には次式で探します。
この方式をGP-UCB(Gaussian Process-Upper Confidence Bound)アルゴリズムと云います。
ここで
は回までの平均の報酬
は回までの報酬の標準偏差
が大きいと霍乱項を重視してを選択します
逆にが少ないと経験を重視したグリィディな選択とります
上式の値を得るためにGPは次の式で算出します。導出は下記のPRML記述参照
①式
ここで
は時点で得られた報酬です
はのグラム行列です
ここで は実際のデータより最尤法で計算されます。
恒例のPRMLから①式を導出してみます。
ガウス過程は高次元へ写像した関数での線形回帰を考えます。即ち高次元へ写像した方が非線形的な回帰を実現して当てはめが良くなります。
まず損失関数を考え回帰係数で微分して極小値を採る様にします。
②式
これをで微分すると
③式
ここで ④式 と置くと
⑤式
但し
④式をベクトル表現すると
上式に⑤式を代入すると
これをについて解くと 但し
①式が導出された
但し
Efronの曲率による最尤値推定の論文を読む
ランニングできず 英語できず
(1) Efronの曲率による最尤値推定の論文を読む
「Curvature and Inference for Maximum Likelihood Estimations」
http://statweb.stanford.edu/~ckirby/brad/papers/2016CurvatureInferenceMLEs.pdf
T研のMゼミで解説された この論文がPRMLの記述と異なり全く付いて行けなかったのでPRML記述に直して読んでみました。
この論文は指数分布族の最尤推定できる範囲を幾何的に説明したもので情報幾何学の一部となります。
著者のEfronの曲率は次の資料で分る様に情報幾何学の甘利俊一先生がこの分野を志した契機になったものです。
https://www.jstage.jst.go.jp/article/bjsiam/11/3/11_KJ00005768851/_pdf
情報幾何学は難解ですが、甘利先生の影響はニューロや脳神経モデルで絶大なので読んでみる気になりましたが、やはり途中で挫折しました。
情報幾何学を解説した甘利先生の講義のビデオがありました。
情報幾何講義 (甘利俊一、午前) 難易度★★ - YouTube
今回はこの論文の指数分布族の記述についてPRMLの記述で理解するだけとなります。
指数分布族はPRMLでは次式で定義されています。
①式
ここで
はデータ
はパラメータ
はの任意の関数
は確率の和が1になる事を保証するものです。
①式を積分すると1なので
②式
分配関数と置くと
ここで 即ち と置くと
そして と置くと論文の(2.1)式が出てきます。
(2.1) 式
指数分布族では平均と分散が を微分と2回微分で計算できる便利な定理があります。
以下これを示します。
②式をで微分すると
③式
左辺の第1項は
左辺の第2項は
③式は次となります。
なので
⑤式
なので 論文の(2.2)式となります。
(2.2)式
同様にして分散も2回微分で求められて
(2.2)式
ここまでの結論として分配関数の対数を微分すると平均、2回微分すると分散が表現できることが、指数分布族の特徴です。
ここまでがPRMLを使った指数分布族の説明で、以降論文に沿って説明します。
指数分布族の尤度は(2.2)を使って次式となります。
パラメータを求めるため尤度を微分します。
尤度が正しく極大値を取るかを見るため2回微分します。
ここではフィッシャー情報行列で
この値が零または負なれば極小値か鞍点なので正しい尤度解ではありません。
以降この式の特性を調べる記述になります。
このが様々な値を採る場合の幾何学的な状態を下図に示します。
なので ととは直交しています。
※ この論文で以降で尤度の2回微分の状態を調べる記述になり、この結果(2.19)式以降の記述で尤度が計算できる境界と範囲の説明になりますが、難解なため後日挑戦します。
文体のパターンの繰返しで深層学習する論文を読む
ランニングできず 英語できず
(1) 文体のパターンの繰返しで深層学習する論文を読む
「Dynamic Evaluation of Neural Sequence Models」 https://arxiv.org/abs/1709.07432
一般に自然言語の深層学習では単語間の繋がりをLSTMで学習することが殆どですが、近年構文を学習するHocherのモデルや意味データベースを使って解析を強化するモデルも出現してきています。
この論文は長文の構造が似た文体が繰返し出現することに注目し、文体を表す隠れ変数で生成される文が連結して構成されるとして解釈するモデルです。
このモデルをdynamic evalと称しています。
文体を表す隠れ変数を仮定すると文章の尤度は次式となります。
ここで
:文章全体
:文 or 固定長の文字列
:文体を表す隠れ変数
:文章全体を表す隠れ変数
このモデルでは下図の様にRMSprop型を修正した深層モデルで
隠れ変数を解いています。
この論文では明記されていませんが下図のmodel(si,θi)はLSTMと解釈されます。
(1.1)手法
自然言語の深層学習にはRNNやLSTMを使うのが一般的ですが、文体間の生成モデルなので深層学習のパラメータ更新タイプのRMSpropの更新規則を改修し使っています。
このパラメータの調整は一般のニューロモデルと同じです。最終的に生成した文章と実際の文章の相違より逆伝播してパラメータを調整しています。
但しパラメータの更新規則はRMSpropの修正版を使っています。
RMSpropの更新規則は以下です。
このRMSpropを以下に置き換えしています。
また 文体の連鎖を計算するため以下を計算します。
:の生成規則で生成した文と実際の文との相違による損失量
ここからRMSpropの各項を計算します。
よって上記の置き換えを適用すると
各は文章全体の隠れ変数に収束する必要があるので、
上式のRMSpropの更新規則に正則化項としてこの制限を追加しています。
ここで
(1.2) 結果
Penn Treebank の文章でのPerplexityは以下の結果となっています。
Perplexityは文の複雑性を表し少ない程よいとされています。
ここで LSTM + dynamic evalとあるのは下図の構成になっているからです。
「Generating sequence withe recurrent neural networks」Graves (2013) より
(1.3) 感想
・の更新規則は記述に無い様です。この辺は読み落としかもしれません。
・簡単なロジックなので実装は容易かもしれませんが、LSTMの調整が難しそうです。
強化学習方程式の不確実性を報酬に取込む論文を読む
テニス2時間 英語できず
(1) 強化学習方程式の不確実性を報酬に取込む論文を読む
「The Uncertaintry Bellman Equation and Exploration」
https://arxiv.org/abs/1709.05380
この論文は強化学習を解くBellman方程式の近似解での不確実性を見積りより精緻に方程式を解き、既存のDQNを改善するものです。
モデル名UBE(Uncertaintry Bellman Equaiton)
一般に強化学習は将来の累計報酬の期待値が最大になる様に局面毎の行動を選択するモデルです。
これはBellman方程式で行動価値関数として定式化されますが、将来への漸化式で解くので行動によって無限に分岐が続く場合、近似解で解くことが一般的です。
ここで
は方策(policy)
は割引率
は報酬
は局面
は行動で方策によって確率的に決定されます
また現報酬とそれ以降の行動価値関数の和を行動価値関数であらわすと。
但し
(1.1) 手法
一般に何らかなの霍乱要因があると行動価値関数と推定された行動価値関数に差が出てきます。
この差には認識できない報酬が存在しているからと考えられます。
ここで を行動価値関数の差とすると
この二乗平均誤差は解析的に次式で表現できます
この霍乱要因による行動価値関数の差はMarcovの不等式を使うと
霍乱要因の上式の下限を隠れた報酬として定理1を導入しています。
[定理1]
この論文は隠れた報酬をDQNに与えてモデルを改善しています。
(1.2) 結果
全ATARIゲームのDQNのスコアの中央値と不確定部分を隠された報酬とするUBEスコアの中央値との比較を示しています。
ここで
instrinsic Motivation:擬似カウント
UBE n-step:隠れ報酬をn回刻みで計算する
「Montezumaの復習」は既存のDQNでは殆ど解けないモデルです。これには画面遷移を擬似カウントとして報酬とすると旨く行くことが知られています。UBEのスコアが上回っていますが、これは擬似カウントがUBEに反映されているからです。
中国人達の深層Treeモデルの論文を読む
ランニングできず 英語できず
(1) 中国人達の深層Treeモデルの論文を読む
「Deep Forest: Towards an Alternative to Deep Neural Networks」
https://arxiv.org/abs/1702.08835
これは下図にある様にランダムフォレストを単に多層化したアンサンブル型モデルなので残念ながら理論的な新しさはありません。モデル名称はgcForest(Multi-Graind Cascade Forest)
ランダムフォレスト自体がアンサンブル型なので深層にする意味が明確でないので構造が似ているDeepLearningと比較しています。
新興の中国人達がオリジナルな理論を構築できるまでは時間がかかりそうです。
そもそもアンサンブル型の優位性はJ.Friedmanが2000年に理論的に解明しました。
またFriedmanはアンサンブル・ツリー+ブースティング+クロス・バリエーションとして各々の短所を補うモデルを提唱していて、これが現在Xgbootとなっています。
DeepLearningは深層過程に於いて逆伝播して各層が独自の役割のフィルターを形成するもので、構造が似ているからと言って比較対象するものでは無いと思います。
同じアンサンブル型であればXgboostと性能比較すべきと思います。
(1,1) 手法
このモデルは4個のランダムフォレストの深層モデルとなっていて、識別結果に入力データを再追加して次層に渡して深層化しています。
(4個の内 2個は完全なランダムフォレスト 他の2個は入力データをランダムに短くしたランダムフォレストです)
多分このモデルだと過学習の可能性があるので、各層毎にクロス・バリデーションをしています。
最後にアンサンブルで識別結果を単純平均化しています。ランダムフォレストと同様にモデルの精度が頭打ちになると深層化を停止しています。
(1.2) 結果
結構面白いのは、DeepLeanningと対抗して文章の感情分析と画像識別をしていることです。
結果はこの記述を信じれば意外に良好です
顔の認識
音楽の感情分析
(1.3) 感想
アンサンブル型なのでXgboostでも同じ様に文章や画像の分析をしてみたら面白いと考えます。
3D動画よりDoll House画像を生成する論文を読む
ランニング30分 英語できず
(1) 3D動画よりDoll House画像を生成する論文を読む
「MatterPort3D: Learning from RGB-D Data in Indoor Environments」
https://arxiv.org/abs/1709.06158
この論文は屋内をMatterPort3Dと云う動画で撮ると、深層学習により屋内をDollhouseの様に見せることができるものです。
Mattterport3DカメラはMatterport社 https://matterport.com/ が販売するものです。
1) Matterport3Dデータの特性
このデータは次の様な優れた機能を有しています。
・RGB-D Panorama
1280x1024 Colorの解像度で奥行きのデータもあります。
360度のパノラマ動画を録画します。
・Precise Global Alignment
3D認識で1cm未満の精度があります。
ここで
奥行認識は観測点から大量の粒子を吹き付けた画像です
法面表示は観測点からの面の向きによって色調を変えた画像です
・Comprehensive Viewpoint Sampling
パノラマ動画用に2m置き程度にView Point(緑点)のデータを生成します。
・Entire Buildings
90件の家の全階・全部屋の3D動画が可能
2)Matterport3Dのデータを深層学習を使って様々な認識を可能にしています。
・フロアの識別
・物体の認識と種類の識別
3)深層学習による認識の方法
・教師用データの作成
この様な認識をするため実際の画像から教師用ラベルを作成する必要があります。
教師用のデータは「Amazon Mechanical Turk(AMT)」でツールと人力で構築しています。
50811物体から1659のラベル付けをしています。
言葉の意味階層モデルWordNetを使って最終的に40に絞っています。
・画像認識 KeyPoint Matching
異なるView Pointでの同じ物体の認識のため
下図の3画像(一致用と非一致用)の教師データで訓練しています。
特徴量は512個使用 ResNet-50での深層学習
・ View Overlap Prediction
動画で同じ場面である認識をSLAMの仕掛けを利用しています。
画像との同じ場面かの識別は次式で行っています。
ここで
は奥行きが確かなpixel数
は実際に5cm内の範囲でと重なっているpixelの数
写真の下段の数字は同じ場面の確率を示す
・法面認識
Matterport3Dデータは位置と奥行きのデータを持っているので容易に認識できます。
この認識にはCNNを使っています。
・局面の識別
この局面認識ではCrowd-sourcingで構築した教師データを使って訓練しています。
・立体の認識
Metterport3Dデータを1.5m x 1.5m x 3m の長方体で切り出して、
2cm刻みに小さくしていきます。これと教師データが70%以上一致すれば
教師データと同じとしています。教師データは418840個あり、ScanNetで
識別しています。