先端のAI研究者は1日10本論文を読む

ランニングできず 英語できず

(1) 確率ロボット輪読会に参加。9~13章のSLAMが終了し、強化学習の章になってほっとする。ここではBellman方程式による方策関数と価値関数の両方の実装が必要になっており先進的なモデルである事がわかる。両関数も非線形なので最近はDeepLearningで解くことが普通なので詳しい理論式は皆無である。かなり複雑な状況でも対応できる例が示してあるが、これは特徴量に分解した結果で実現できる事を述べた。

f:id:mabonki0725:20170618093435p:plain

次章のPOMDPは反対に詳細な解説になって期待できる。この会はT先生が真摯に付きあって頂いているので続いていると改めて感じる。

(2)I君が主催する「AI論文読み会」に参加。Dr.Rの最先端の意味解析としての知識ベース利用型のLDAの解説を受ける。これを聞きグラフィカル・モデルでのベイズ推定の勉強し直しの必要を感じる。またDr.Rは毎日10本ぐらい論文に目を通すとのこと。改めて最先端のAI研究者の凄さを垣間見る。以下はDr.Rが言及した論文の一覧

Grounding Topic Models with Knowledge Bases

https://www.microsoft.com/en-us/research/wp-content/uploads/2016/12/ijcai16ground.pdf Supplementary Material

https://www.cs.cmu.edu/~zhitingh/data/ijcai16ground_supp.pdf

Towards Bayesian Deep Learning: A Survey

https://arxiv.org/abs/1604.01662

Recurrent Topic-Transition GAN for Visual Paragraph Generation https://arxiv.org/pdf/1703.07022.pdf

TopicRNN: A Recurrent Neural Network with Long-Range Semantic Dependency https://arxiv.org/abs/1611.01702

(3)同読み会で「エネルギーベースの生成モデル」を述べる。生成モデルでのシンギュラリティの可能性の話をしたが同意を得られず、かなり無理な話として受け取られた様だ。もう少し具体例を入れて説明をする必要を感じる。皆の疑問は現実の世界は様々な可能性に満ち溢れている様に見え、その可能性を全てモデル化できるかというものであろう。Alpha碁に見られる様に状況の特徴量へ分解が旨く行けば、そのパラメータの確率的な動きで様々な状況が作れるはずである。例えば上図で示した状況で具体的な生成モデルの実現例を話すべきと考える。