GANによる翻訳の論文を評価する

ランニングできず 英語できず

 

 男性一人では入店禁止の横須賀の猫カフェに女房と一緒に行く。久々に猫を触ってストレスを解消したが、女房が我侭を言うので却って疲れた。

 昨日に続きGANに よる翻訳の論文を読む。原文と翻訳文を2次元にして、これをCNNに入れ人間の翻訳ではYesをNMT(機械翻訳)ではFalseをいれてDiscriminatorを学習させている。問題はGeneratorである。本来のGeneratorは乱数からDNNで擬似的なモデルを作るが、機械翻訳は乱数から作れないので、その質を改善するため、Disciminatorの真偽の確率を報酬として汎用的な強化学習の手法をとっている。即ちGeneratorでの翻訳でDiscirimatorを旨く騙せたら高い報酬を、騙せなかったら罰則を与え強化学習をする。

汎用的な強化学習は、特徴量に重みを懸けた線形和で表現し、報酬で重みを改善する仕掛けなので効率が悪い。論文でも学習効率は良くないと言っている。フレームワークとしては発展性があるが、Disicriminatorの情報を効率的に適用するGeneratorの工夫が必要である。 

[1704.06933] Adversarial Neural Machine Translation

f:id:mabonki0725:20170506084412p:plain

 DeepMind社が出した強化学習による自然言語生成論文の再度読む。TreeLSTMなるもので文生成を学習するのだが、文生成がうまくできたかの判断が必要で、これに強化学習での報酬を使っている。判断方法は4つあり、TreeLSTMで生成した文を感情分析の2値判断LSTMモデルに入れ正解率で評価するのが一番わかりやすい。その他の2方法は2文比較をしていて、この2文が何を示しているかよく記述していない。4番目の手法は生成文で単語識別の容易差perplexity=p(w|sentence)で評価するものだ。この単語を何にしているか説明がない。文章の意味をどう価値付けるかの大事な話であり、読み取れないのは残念だ。

https://arxiv.org/abs/1611.09100