【講演概要】

ニューラルネットワーク物語生成モデル

浅川 伸一 (東京女子大学)



Mikolov ら(2010)がリカレントニュールネットワークを自然言語処理へ応用して以来、 言語情報処理を扱う際に注目を集めてきた。 最近の成果では、Sutskever ら(2014)の Sequence to Sequence モデルは State of the arts に迫る翻訳成績である。 Zaremba, Kurach, Fergus (2014) のモデルは数学の記号を操作できているように見える。 Weston ら(2015)の Memory Networks は見方によってはアドベンチャーゲームを解いているようにみえる。 Graves ら(2014) の Neural Turing Machines は、コピーする内容だけでなく、 コピーする回数を記憶し、任意の長さの中断後に把持した系列を再生し、 6-grams までの系列を記憶し、優先度付き並べ替えアルゴリズムを学習した。 Zaremba と Sutskever (2015) のモデルは Python のプログラミングコードを出力する。 以上のような証拠から、 リカレントニューラルネットワーク言語処理モデルは物語生成にも適用可能であると判断した。 実際にどの程度まで可能であるかを示して、議論したい。