Kerasを使ってテキスト分類をするWebアプリケーションのプロトタイプを作ってみました。このプロトタイプはカスタマーサービスで利用することを想定してカスタマーからの質問に自動で返答することを考えます。質問はいくつかのカテゴリーに属していて、アプリケーションがそのカテゴリーを分類できるようにします。
サンプルのソースコードはGitHubを参照してください。
データを集める
分類モデルを作る前にデータセットを集める必要があります。インターネット上にある記事などを見るとIMDBの映画レビューのデータセットを使っていることが多いように思います。今回はこのデータセットではなく質問と回答のデータセットを別で用意しました。
ファイルフォーマット
ファイルはTSVで質問ID、質問テキスト、返答テキスト、カテゴリーを含んでいます。質問と返答テキストは日本語です。以下のような形式です。
id question answer category
このデータセットは約9000サンプルで、カテゴリーの種類は約15です。
データをロードする
TSVファイルから読み込みます。
import json
import numpy as np
import csv
issues = []
with open("data/issues.tsv", 'r', encoding="utf-8") as tsv:
tsv = csv.reader(tsv, delimiter='\t')
for row in tsv:
row = []
row.append(row[1]) # question
row.append(row[2]) # answer
row.append(row[3]) # category
issues.append(row)
テキストの前処理
使わない文字を削除
データセットのテキストデータにはe-mailのアドレスや記号など今回使用しない文字列が含まれているのでそれらを削除します。
以下のようなテキストの例を考えます。削除する文字列は単純に正規表現で空文字に置換しています。
filtered_text = []
text = ["お時間を頂戴しております。version 1.2.3 ----------------------------------------"]
for t in issues:
result = re.compile('-+').sub('', t)
result = re.compile('[0-9]+').sub('0', result)
result = re.compile('\s+').sub('', result)
# ... このような置換処理が複数繋がっています
# 質問テキストが空文字になることがあるのでその行は含めないようにします
if len(result) > 0:
sub_texts.append(result)
filtered_text.append(result)
print("text:%s" % result)
# text:お時間を頂戴しております。
サンプルとラベルを作成します
データセットからサンプルとラベルを作成します。今回は全て使うのではなく15カテゴリーの中から例として"Account"と"Payment"の2カテゴリのみ使用します。それ以外は"その他"としてラベルづけします。サンプルはこの3 つのラベルで同じサイスである必要があります。データ数が偏ってしまうとLSTMでうまく分類できなくなってしまいます。今回は"Payment"のラベルが688サンプルしかなかったので、約700のサンプル数に揃えました。
サンプルとラベルを作成する
labels = []
samples = []
threshold = 700
cnt1 = 0
cnt2 = 0
cnt3 = 0
for i, row in enumerate(filtered_samples):
if 'Account' in row[2]:
if cnt2 < threashold:
cnt1 += 1
labels.append(2)
samples.append(row[0])
elif 'Payment' in row[2]:
if cnt3 < threashold:
cnt3 += 1
labels.append(3)
samples.append(row[0])
else:
if cnt1 < threashold:
cnt1 += 1
labels.append(1)
samples.append(row[0])
filtered_samples
は事前に記号などを削除したデータセットです。
MeCabを使って分かち書きにする
質問テキストは日本語なので分かち書きにする必要があります。例えば以下のようなテキストがあるとします。
お時間を頂戴しております
このテキストをMeCabで分かち書きに変換します。
import MeCab
import re
def tokenize(text):
wakati = MeCab.Tagger("-O wakati")
wakati.parse("")
words = wakati.parse(text)
# Make word list
if words[-1] == u"\n":
words = words[:-1]
return words
texts = [tokenize(a) for a in samples]
以下のようにスペースで区切られたテキストになります。
お 時間 を 頂戴 し て おり ます
サンプルとラベルを分割する
サンプルとラベルとトレーニングデータと検証データに分割します。
from keras.preprocessing.text import Tokenizer
from keras.preprocessing.sequence import pad_sequences
import numpy as np
from keras.utils.np_utils import to_categorical
maxlen = 1000
training_samples = 1600 # training data 80 : validation data 20
validation_samples = len(texts) - training_samples
max_words = 15000
# word indexを作成
tokenizer = Tokenizer(num_words=max_words)
tokenizer.fit_on_texts(texts)
sequences = tokenizer.texts_to_sequences(texts)
word_index = tokenizer.word_index
print("Found {} unique tokens.".format(len(word_index)))
data = pad_sequences(sequences, maxlen=maxlen)
# バイナリの行列に変換
categorical_labels = to_categorical(labels)
labels = np.asarray(categorical_labels)
print("Shape of data tensor:{}".format(data.shape))
print("Shape of label tensor:{}".format(labels.shape))
# 行列をランダムにシャッフルする
indices = np.arange(data.shape[0])
np.random.shuffle(indices)
data = data[indices]
labels = labels[indices]
x_train = data[:training_samples]
y_train = labels[:training_samples]
x_val = data[training_samples: training_samples + validation_samples]
y_val = labels[training_samples: training_samples + validation_samples]
data
は以下のような整数のシーケンスなデータになっています。
[0, 0, 0, 10, 5, 24]
0以外の整数は分かち書きにした各単語と一致しています。0は単語がないことを意味します。上記の例だと3単語のため左の3列は0で埋められています。
モデルの作成と学習
学習にはKerasを使用しています。KerasにはLSTMとword embeddingが用意されているので、それを使います。LSTMは時系列データの分類や回帰問題などに利用されます。
モデルの作成
from keras.models import Sequential
from keras.layers import Flatten, Dense, Embedding
from keras.layers import LSTM
model = Sequential()
model.add(Embedding(15000, 100, input_length=maxlen))
model.add(LSTM(32))
model.add(Dense(4, activation='sigmoid'))
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['acc'])
model.summary()
このモデルはLSTMの学習の他にEmbedding()
を使ってword embeddingも同時に学習します。
学習する
model.fit()
を呼ぶだけです。
history = model.fit(x_train, y_train, epochs=15, batch_size=32, validation_split=0.2, validation_data=(x_val, y_val))
結果をプロットする
%matplotlib inline
import matplotlib.pyplot as plt
acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs = range(1, len(acc) + 1)
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()
plt.figure()
plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()
plt.show()
以下のような結果になりました。
最終的にvalidation accuracyが約90%になりました。
モデルを保存する
モデルと学習した重みを保存します。
model.save('pre_trained_model.h5')
Webアプリケーションを作成する
学習済みモデルをWebアプリケーションに組み込みます。Kerasと同じ言語の方が扱いやすかったのでWebフレームワークにはFlaskを使いました。このアプリケーションをテキストは受け取って、そのテキストのカテゴリーを予測した結果をユーザーに返すだけです。以下のようにテキストエリアと質問ボタンがあり、予測した結果が表示されます。
質問を予測する
カテゴリーを予測する前にword indexを作成する必要があります。このword indexはモデルを作成した時と同じものです。
app.py
# 学習済みモデルをロードする
model = load_model('../pre_trained_model.h5')
# padded_seqは2次元の行列で渡す必要があります
result = model.predict([padded_seq])
予測の結果を取得する。
np.argmax(res[0])
ソースコードはこちらのリポジトリを参照してください。
参考文献
Deep Learning with Python こちらの書籍がとても参考になりました!Keras作者のCholletさんによって書かれているのでとてもオススメです。