PredNetの論文を読み始める

テニス2時間 英語できず

 引き続き、RLとMMLによるプログラム生成の論文をBeamSearchまで読む。

RLとMMLは共通の定式化が可能なのは、GANとIRLが同じという理論の反対の定式化であろう。

 TwitterのYutaさんの投稿で有名なPredNetの論文を読んでみる気になる。ネットワーク図を見た時、実装や収束ができるか疑問だったが、DNCで精緻なNNモデルが実現できているので可能かもしれない。

https://arxiv.org/abs/1605.08104

 連休明けで今日から仕事が始まる。まずpythonに習熟することから始めよう。

筑波自動走行チャレンジの資料で課題を再認識する

ランニングできず 英語 30分 Lesson17

 体調がすぐれず午前中寝ていた。

 午後大学で研修の打合せ、T君がラズパイマウスを稼動する様にしてくれて助かる。筑波チャレンジをO先生が企画しており、また千葉工大の原祥尭先生のROSによる詳細な資料が見つかり、ようやくROSによる自動走行の理論的課題が明確になってくる。やはりSLAMのグラフィカルモデルのデータ集約の方法の改善が技術的な課題と認識できる。2年来のこの課題がラズパイマウスで追求できるか楽しみである。

https://www.slideshare.net/hara-y/ros-slam-navigation-rsj-seminar

f:id:mabonki0725:20170507054124p:plain

 昨日に続き強化学習とMMLで発話の内容をプログラム化する論文を読む。類を見ない大胆なチャレンジと感じる。 

https://arxiv.org/abs/1704.07926

 

GANによる翻訳の論文を評価する

ランニングできず 英語できず

 

 男性一人では入店禁止の横須賀の猫カフェに女房と一緒に行く。久々に猫を触ってストレスを解消したが、女房が我侭を言うので却って疲れた。

 昨日に続きGANに よる翻訳の論文を読む。原文と翻訳文を2次元にして、これをCNNに入れ人間の翻訳ではYesをNMT(機械翻訳)ではFalseをいれてDiscriminatorを学習させている。問題はGeneratorである。本来のGeneratorは乱数からDNNで擬似的なモデルを作るが、機械翻訳は乱数から作れないので、その質を改善するため、Disciminatorの真偽の確率を報酬として汎用的な強化学習の手法をとっている。即ちGeneratorでの翻訳でDiscirimatorを旨く騙せたら高い報酬を、騙せなかったら罰則を与え強化学習をする。

汎用的な強化学習は、特徴量に重みを懸けた線形和で表現し、報酬で重みを改善する仕掛けなので効率が悪い。論文でも学習効率は良くないと言っている。フレームワークとしては発展性があるが、Disicriminatorの情報を効率的に適用するGeneratorの工夫が必要である。 

[1704.06933] Adversarial Neural Machine Translation

f:id:mabonki0725:20170506084412p:plain

 DeepMind社が出した強化学習による自然言語生成論文の再度読む。TreeLSTMなるもので文生成を学習するのだが、文生成がうまくできたかの判断が必要で、これに強化学習での報酬を使っている。判断方法は4つあり、TreeLSTMで生成した文を感情分析の2値判断LSTMモデルに入れ正解率で評価するのが一番わかりやすい。その他の2方法は2文比較をしていて、この2文が何を示しているかよく記述していない。4番目の手法は生成文で単語識別の容易差perplexity=p(w|sentence)で評価するものだ。この単語を何にしているか説明がない。文章の意味をどう価値付けるかの大事な話であり、読み取れないのは残念だ。

https://arxiv.org/abs/1611.09100

GANによる翻訳の論文を読む

テニス2時間 英語30分 Lession 16

 連休中の快晴の中で4日もテニスできたのは幸運だった。

 中国人達が書いた、GANによる翻訳の論文を途中まで読む。強化学習を使っていて本格的とわかるが、通常のニューロ方式の手法がアドホックでよく理解できない。

 TwitterのpiqcyさんからRLとMML(max marginal Liklihood)によるプログラム学習の論文を知る。piqcyさんは奈良先端大の中村研出身と思うが、素晴らしい記事をいつも掲載してくれる。

https://arxiv.org/abs/1704.07926

Tree LSTMと強化学習の論文を読む

ランニングできず 英語できず

 薬が切れたため、一旦実家に戻る。

 NLPに強化学習を適用したDeepMind社の論文を読む。

https://arxiv.org/abs/1611.09100

ICPR21017で発表されたもので、以下の特徴がある。

・文法の知識が必要とせず、文章の構造はTree型LSTMでShiftとReduceで生成していく

・文章が旨く生成されたか判断する報酬は、主に感情分析(LSTMによる2値分類)の確率で与えるが、Perplextyで評価するsentence Generationも使った報酬も考えている。

f:id:mabonki0725:20170504080423p:plain

 中国人達が考えた、人間の翻訳を半教師学習とするGANでの翻訳システムの論文を途中まで読む。これで飛躍的に人間の翻訳精度に近くなったとあり、驚異を感ずる。

[1704.06933] Adversarial Neural Machine Translation

 先生と学生から報告があったのでROS課題、「ロボットとの会話」「ロボットのカメラ画像」に取組む。RaspiとDLサーバとの通信はできたが、両方ともパッケージの登録ができず挫折する。この分野はNet上の英語情報を見て失敗を繰返しながら習得する様だ。かなり壁を感じる。

 

 

NLPでのAttentionの優位性を示したQA論文

テニス2時間 英語30分 Lesson 15
 pythonで文章を読むプログラムを作成する。コメントの漢字でもエラーがでる。
pythonの先頭に下記のコメントを入れると解決した。
# -*- coding: utf-8 -*-
LexRankの実装はこれからである。

 

NLPのQAシステムの論文を読む。

[1506.03340] Teaching Machines to Read and Comprehend

これは以下の特徴を持つ
1) 構文解析により回答候補のentityを抜出し、文章をentityに置き換える
 このアルゴリズムは不明、大文字、頻度によるものか

  f:id:mabonki0725:20170503130253p:plain


2) 文章と回答を繋いだCrom型文章をBI-LSTMによるAttensionで訓練する。この手法が一番精度が高い

f:id:mabonki0725:20170503130036p:plain

 とうとうGANで翻訳モデルが中国から出された。

[1704.06933] Adversarial Neural Machine Translation

このAdversarialを応用したモデルは頻出すると考えられる。人間の脳もこの様に反復学習しているのではないかと思える。
 強化学習による文書生成モデルでICPR2017では、文書作成の報酬について述べられている。この報酬こそは意味価値ではないかと思える。

https://arxiv.org/abs/1611.09100

 


 

sciTeエディターの引数設定で躓く

テニス2時間  英語30分

 テニスも英語も集中力が維持できなくなっている事が分かった。テニスは3ゲーム、英語は30分の壁がある。

 大学のPBL計画書で課題欄に目標を記述する。

 「AI技術の最前線をキャッチアップしつつ、ロボテックスとしての自動運転モデルの構築と問題点を実機で行う。」

 LexRankのプログラムをpythonで実装するため、sciTeエディターの設定変更を行う。

 ・日本語対応化

  エディタで、SciTEGlobal.properties ファイルを開き

    # Japanese input code page 932 and ShiftJIS character set 128
    #code.page=932
    #character.set=128

 の2,3行の先頭の # を削除する。

・引数の設定 → 解決せず

 

言語理解として、奈良先端大の進藤さんの紹介の以下の論文を読むことにする。

Teaching Machines to Read and Comprehend

https://arxiv.org/abs/1506.03340