EMNLP & SCAI workshop参加報告

こんにちは。対話最適化チームの斎藤です。先日ベルギーブリュッセルで開催されたEMNLP 2018(Empirical Methods in Natural Language Processing)に参加してきました。EMNLPはACL (Association of Computational Linguistics)が毎年開催している自然言語処理の主要な国際会議です。

今年はベルギーブリュッセルにて10/31〜11/04に開催されました。10/31,11/01は、併設のワークショップが開催されていて、そのうちSCAI(Search Oriented Conversational AI, https://scai.info/ )でポスター発表をしてきました。

また個人的に興味がある発表を聴講してきました。その中からいくつかピックアップして紹介していきます。

現地入り

コペンハーゲン経由で、ブリュッセル空港に行くはずが、まさかのブリュッセル空港のストライキで、コペンハーゲンからの航空便が欠航に、、、

急遽、オランダ・アムステルダム経由で電車でブリュッセル行きすることになってしまいました。
のっけから、スリル満点ですがなんとかブリュッセル市内に到着できました。
image.png (4.0 MB)

SCAI(Search Oriented Conversational AI)

このワークショップを主催された方はGoogleの情報検索分野(Information Retrieval)が専門の方でした。もともと、IR分野では、単語集合に対する「昼食 肉 地下鉄成増」のような入力に対して検索をかけていたのですが、より柔軟で自然な入力方法を追求する過程や、近年のスマートスピーカーなどの新規に出現した対話インターフェースの出現により、NLP界隈や対話方策の強化学習など幅広い分野を巻き込んで集会を開きたいということが理由でNLPの会議で開催したとのことでした。

招待講演では、Y. V. Chen先生が”Towards Open Domain Conversation”というタイトルでお話されていました。こちらの先生は、今回、私が発表した強化学習による対話方策分野を含む対話と機械学習に関して先駆的で多様な研究をされている方です。

もともと、機械学習による対話には2つの流れがあります。
1つ目が、タスク指向対話と呼ばれるもので90年台からある特定のドメインの特定のゴールを達成するためだけに必要な語彙や発話の形式化を学習されるものです。
2つ目が、2015年ころからのseq2seqと呼ばれる雑談モデルの流れがあります。こちらは、ボットが何をしゃべるかは保証できないけれども、人力でドメインごとの語彙の仕分けや辞書の作成が不要というものです。

最近は、この2つの流れを接近させてマージしようというのが1つのトレンドになっているとのことでした。

image.png (5.8 MB)

自然言語理解では対話のターンの時系列に応じて古い発話の単語の重要度(Attentionの一種)を下げたり、ユーザーの振る舞いをニューラルネットでモデル化した強化学習(World model の一種)などをお話されていました。

斎藤もポスター発表を行いました。内容は、スロットフィリングの強化学習についてです。映画やホテルの検索タスクを対話エージェントに学習させるときに、「注文の多いユーザー」がいます。都市名や時間だけでなく、値段や映画の評判など事細かな要望を出してくる人です。そのようなユーザーにいきなり立ち向かえるように学習するのは大変です。

そこで、最初は「注文の少ないユーザー」から学習させて、徐々にユーザーの「注文の数」を多くしていくという手法を発表しました。詳細はこちらのプロシーディング
http://aclweb.org/anthology/W18-5707 )にありますので、興味のあるかたはご参照ください。

EMNLP本会議

以下では、11/02以降に聴講した発表からピックアップしてお伝えします。

複数ドメインのゴール指向対話の階層型強化学習

タイトル:Subgoal Discovery for Hierarchical Dialogue Policy Learning.
著者:Da Tang, Xiujun Li, Jianfeng Gao, Chong Wang, Lihong Li, Tony Jebara

複数ドメインのゴール指向対話とは、ホテルの予約と航空券の検索をひとつのボットが学習する対話タスクです。

しかし、ドメインの個数が増加するとあるタスクから別のタスクへの切り替えをルールベースのプログラムでやるのはつらいです。また、複数のドメインを従来行われてきた強化学習の手法で学習しようとすると対話エージェントが何をすれば良いのかの指標となる報酬値を計算するプログラムが複雑になるというつらさもあります。

そこで、複数ドメインの対話履歴から、どこにドメインの切り替わりがあるのかを学習して、ホテルの予約を学習させるための報酬値や、航空券の検索を学習させるための報酬値を出力するモデルを学習する手法を提案していました。

マルチターン対話型の質問応答データセットQuAC

タイトル:QuAC : Question Answering in Context
著者:Eunsol Choi, He He, Mohit Iyyer, Mark Yatskar, Wen-tau Yih, Yejin Choi, Percy Liang, Luke Zettlemoyer

従来の質問応答分野では、主に一つの質問に一つの回答を与えることを目的としていました。

例えば、「2018年のアメリカの大統領は?」という質問に対し「ドナルド・トランプ」という回答を出力して終わりなどです。しかし、現実のコミュニケーションのなかには、そんなクイズ番組のような単純なやりとりだけではありません。

また、「今の大統領は誰と選挙を戦ったの?」という質問の答えは、どの国の、いつ行われた選挙なのかによって答えが変わります。このような単一の発話だけでは、文脈が特定できない問題はマルチターンの対話の特徴でもあります。つまり、「今のフランスの大統領はマクロンです。」という発言を受けているのか「ドナルド・トランプは2016年にアメリカの大統領選挙で当選した。」という発言に対してなのかによって、答えが変わったりします。このようなタスクにも対応できる可能性のあるモデルの学習データ・セットとしてQuACというデータセットが発表されていました。

データセットの作り方は生徒役と先生役が特定のお題について会話することで作成されます。お題はWikipediaページのタイトルの単語だけが与えられます。先生役だけがWikiページ全体を見ることができますが、生徒役は、自分が知らないお題が出た時には、お題に関する質問や、先生役の返答に含まれている単語についてさらなる質問をすることができます。最初の方はWhat質問が多くて、Whatを聞くことがなくなってくるとHow & Why & Whichなどの質問がでてくるといった印象でした。これも、ある意味自然で、見たことの無い単語の「何」が分からないと、単語と別の単語の関係性が「どうなっているのか」も分からないわけです。

余談:ブリュッセルの天気と街の様子

天気予報では10度前後となっていたはずなのに、実際は、
1度〜3度とかなり寒かったです。宿泊先と会議場所を震えながら往復するはめになりました。
Slide1.jpg (90.0 kB)

感想

EMNLP本会議では既存のNLP分野のカテゴリーについての進展が見られた一方で、ワークショップには分野横断的な企画もあり、NLP分野以外の人たちが活発な議論を繰り広げていたのが印象的でした。

また、いくつかのスタートアップのメンバーやVCの人たちが、NLPについての哲学的な雑談で盛り上がっていました。特に、「より多くの語彙を勉強すると人間は自分の思考の範囲が広がった気になるけれども、実は逆で、人間の取りうる思考の範囲を狭めて考えやすくするために多くの語彙が出現してきた。」などのお話は、個々の発話だけをみると意味が不明なことがあるので、文脈やドメインの前提によって意味を補完する必要がある場合なども想定しないといけない対話の分析にも有用そうでした。