LSTMの文の理解能力について、個人的に面白いと思ったので紹介したいと思います。今回使用した学習済みモデルはこちらの記事で紹介しています。
以下の動画は2つの質問を学習済みモデルにしたものです。A(上の質問)は課金に関する質問で、B(下の質問)はアカウント消失に関する質問です。両方は2つのカテゴリー("課金"と"アカウント")が混在する質問で、前後のカテゴリーを入れ替えただけのテキストです。
Aの文
この前はアカウントの引き継ぎの問題解決ありがとうございました。今回の不具合はアイテムを購入したのに反映されません。このようなことが続くのは悲しいです。
Bの文
この前はアイテム購入の問題解決ありがとうございました。今回の不具合はアカウントの引き継ぎができない問題です。このようなことが続くのは悲しいです。
これらは先に説明した通り、前後のカテゴリーを入れ替えて意味が逆になるようにしています。このモデルでは両方の質問に対してカテゴリーの分類に成功しています。動画の下の"predictions"の部分が各カテゴリーのスコア(確信度と呼ぶことにします)になっていて、この値が高いカテゴリーほどそのカテゴリーであるということを確信していることになります。
確信度は0はじまりのカンマ区切りで、1列は"その他"、2列目は"アカウント"、3列目は"課金"のカテゴリーであることを表しています。Aのテキストの確信度は以下の通りです。3列目が一番高い確信度になっていることがわかります。つまり課金のカテゴリーに分類していることがわかります。
Aの文
predictions
etc, other, account, payment
0.0038606818, 0.036638796, 0.04247639, 0.46222764
Bのテキストの確信度は以下の通りです。こちらは2列が一番高い確信度が高いことからアカウントのカテゴリーに分類していることがわかります。
Bの文
predictions
etc, other, account, payment
0.0007114554, 0.04938373, 0.72704375, 0.0038164733
これらの一番確信度が高いカテゴリーは、他の確信度より大きな差をつけています。この結果から、LSTMが単純に単語からカテゴリーを分類するのではなく、文からカテゴリーを分類できているのではないかと思います。
今後検証したいこと
- サンプル数を増やす
- LSTMの代わりに1-D convolutional networkを使う
- 学習済みのword embeddingを使う