盛り沢山の成果があったがSocher論文が読めず
ランニングできず 英語できず
(1) 確率ロボッテックスのSLAM9~13章の輪読終了。殆ど理解できず9章から再読中。その理解のため上田先生のSLAMをダウンロードしたがIpythonコードのため、Ipythonインストールするが失敗
https://github.com/ryuichiueda/probrobo_practice
(2)Socherの強化学習とDeepLearningによる要約論文を読み始めるが読了せず。https://arxiv.org/abs/1312.5602
(3)AI勉強会で三好さんのUNREALの講演を聞く。
https://arxiv.org/abs/1611.05397 論文
https://github.com/miyosuda/unreal プログラム
https://speakerdeck.com/miyosuda/tensorflow-and-deepmind-lab-and-unreal 説明資料
特徴としては、以下で構成され強化学習の統合モデルと言える。
A3Cアルゴリズムがbase
Policy選択と価値のCNN+LSTMのDeepLearningモデル
Reword Prediction :睡眠時の学習モデル
Value Function :20フレーム先読みの価値関数
Pixcel Contorol :遷移の多い場面選択Q学習
(4) 学校でOpenPoseのデモがT君の尽力で動画デモができる。動画のDeepLearningのモデルは初めて。隔絶した技術で多方面にかなりのカルチャーショックを与えると思われる。
https://arxiv.org/abs/1312.4659
Distance Supervision論文を読む
ランニング30分 英語30分Lesson31
(1) Distance supervision for relation extractionを読む
http://web.stanford.edu/~jurafsky/mintz.pdf
これは言葉間の関係知識ベースFreebaseを使って、ラベル付の文章の特徴量を生成し、ラベルと特徴量から回帰して分類するモデルである。FreebaseはWikipedia等から言葉間の関係を抽出した大規模な知識データベースである。
ラベル付の文章内にある2つの言葉がFreebaseのExampleに一致すれば、その言葉間のRelationがその文章にあるものとする。文章には複数この様な関係があるので、この関係を使って構文解析してその結果で特徴量を決定する。
このモデルの特徴は、文章外の一般知識を元に、文書分類を可能にしていることである。
明示的知識ベースによるNLP分析の論文を読む
ランニングできず 英語できず
LDAで著名なT先生の意見では、wordNet等の明示的な知識ベースを使ったNLP分析は効果が出ないとの指摘であったが、今回の論文を読み、明示的知識ベースを使うと精度が高められる可能性を知る。そこで下記の論文を読んでみる気になる。
http://web.stanford.edu/~jurafsky/mintz.pdf
今回のサーベイ論文を読みNLPでは知らない事が多すぎる事を痛感する。
(2)職場で「機械学習の一般知識」の資料を説明する。windows でpython XGboostの導入ができず言い訳として提出したものだ。
改めて時代の変化の激しさとその範囲に広さを自覚する。
(3)大学でロボッテクスの成果報告を行う。DeepLearningと3D-SLAMの融合の方向性になる模様である。3D-SLAMの実装を迫られそうだ。
機械学習での概念知識ベースのまとめ
(1)Machine Learning with Wold Knowledge:The Position and Survey のまとめ
Survey(調査)なる論文を初めて読んだが、課題図書の一覧リストを読む思いをした。
https://arxiv.org/abs/1705.02908
1 Introduction
NLPでの知識ベースの役割として、以下の2点に焦点を当てている。
・特徴量の抽出
・文章の要約(ラベリング)に焦点
文章理解には常識や概念があれば、理解し易い場合が多い例があり、文章理解でのworld knowledgeの必要性がわかる。
2 Domain Knowledg
専門知識のラベリングではSemi-Supervised Learningが主な方法としている。
専門知識の概念習得には転移学習が有力
https://www.cse.ust.hk/~qyang/Docs/2009/tkde_transfer_learning.pdf
開発された知識ベース
Cyc project
Freebase
KnowAll
TexRuner
WikiTaxonormy
Pobase
DBpedia
YAGO
NELL
Illinois-Profiler
Knowledge Vault
3 機械学習での世界知識の特徴量抽出とラベル(要約化)のため、表現、推測、学習の観点での報告
表現:Distributional Lexical feature 分散表現
推測:ラベルの推測
beam-Search Viterbi A-star plolcy-base
関係の推測
semantic parsing
学習:ラベルの推測 特徴量の重さの学習
ドメイン学習 Transfer learning
4 World 知識の特徴量表現
4.1 明示的類似特徴量
ESA:Wikipedia のページとEntityとのTF-IDFを特徴量とする
Naive Bayes Method :p(ei|ct)を特徴量とする
4.2 明示的異質特徴量
HIN (heterogeneout information Network) グラフィカルモデル
4.3 暗示的特徴量
LDA
NHLMs : Emmbedding LDA
OHLDA : Wikipediaの分類を使った階層LDA
KB-LDA : OHLDAにSVOの関係を反映
5 Wold知識の推測
曖昧性と多義性を回避する技術が必要
Entity Linking : key wordをwikipediaとの関係付 → wikification
Semating Parsering :意味構造木CCGの生成による検索
6 パラダイムの学習
自己学習:RBM DeepLearningの初期パラメータの設定
Source-tree Transfer Learning:大規模知識のカテゴリの階層化
意味空間でのNearest neighborによる区分法
Zero-shot Learning ; DeepLearningでの特徴量でラベル化する
Distant Supervision : 明示的知識ベースの対応データでラベリングする
https://www.aclweb.org/anthology/P09-1113
NIPS常連レベルの学識との壁を感じる
ランニングできず 英語できず
(1)T研で日本語機械学習ゼミに参加 K君のSteinオペレータによる関数近似の論文の解説。流石にNIPS常連のK君レベルになると殆ど理解できず。改めて数理統計のプロの凄さを体感する。
http://www.cs.dartmouth.edu/~qliu/PDF/steinslides16.pdf
Stein Variational Gradient Descent: A General Purpose Bayesian Inference Algorithm
論文はnotationレベルで難解だが、スライドの方はかなり分りやすい。アルゴリズムや成果は分りやすい記述になっている。
(2)ロボテックス勉強会での資料作成と発表
ROSを強化学習のライブラリィと認識していて、この誤解解消のため、ROSの意義を述べる。基本的な誤解だったので高圧的な解説になったかと悔やむ。しかしROS-SLAMに長じている人も数人いて、論文で話題になった迫力あるLSD-SLAM(単眼3次元SLAM)のデモを見せてもらう。下記でGITHUBで公開されている。
https://gist.github.com/0V/a3817fa67345bd0cde6c
オープンイノーベションで無料で優秀なツールが次々と出現しており、これらを実装していく方が楽しみが多く、高い壁を次々と越えていく様子を見ると、論文を読み理論から迫る方法は情報も少なく、閉鎖的な技術の時代の方法かもしれない。
NLPの知識ベースの論文をやっと読むが再度熟読が必要となる
ランニングできず 英語30分 Lesson33
(1) やっとMachine Learning with world Knowlegを読む。5/8日に投稿されたNLPの知識表現を網羅的に扱った論文で、冒頭の2点の問題設定に引き込まれたが、
・知識表現の特徴量抽出の技術
・文章要約の技術
基本的には参照先を読んで理解する事が前提で記述してあり、再度の熟読が必要である。
(2)ラズパイマウスの充電器の故障でOSが起動しなかったが、学校に充電器の再購入してもらい、2時間充電でOSが起動した。上田本に従ってラズパイのドライバーの自動設定まで進む。記述が簡潔で上田先生の人柄が良く出ている本と改めて思う。
(3)職場でXGBoostを導入したプロジェクトがシステム部で始まるが、素人同然のコンサル会社が行った事前分析の説明を受けた。
「諾否率が95%のデータで、AIを使うと89%諾否が当たっている」という結論だが、AIの性能が無く全部許諾した場合95%の諾否が当たることになり、この結論は意味が無いことを指摘した。相手も事前分析が全く意味が無いことを認め、混乱が始まった。立場上責任は無いので傍観するしかない。統計には数字の罠が至る所にあり、センスか熟練の何れかが必要である。
アルファ碁の勝因はGANモデルであること
テニス2時間 英語30分 Lesson33
(1) やはりAlpha碁の完勝は、強化学習での敵対的モデル(Adversarial Model)の有効性を証明したと思う。碁の様に天文学的な組合せでの最適化を可能にしたのは、対戦もAlpha碁とした事である。ロボッテクスの性能は、特徴量の選定とそのIRL(逆強化学習)の分配関数Z(θ)の精度で決まる。下記の論文では分配関数は敵対関係モデルで作成できることを示した。そう考えるとAlpha碁の勝因はIRL-GANとそっくりである。
https://arxiv.org/abs/1611.03852
・碁でのよい特徴量64個の抽出に成功した
・棋譜モデル(SL)で熟練者のデータを集めた
・敵対的モデル(RL)を繰返し精度を高めた
ロボッテクスや自動運転でモデルを強化するには、敵対的なモデルで敵対的データを生成し、このデータでモデルを強化する。この相互的補完モデルが性能を左右すると思われる。