下面就列舉了幾篇運用CNN進行文本分類的論文作為總結(jié)。
1 yoon kim 的《Convolutional Neural Networks for Sentence Classification》。(2014 Emnlp會議)
2 《A Convolutional Neural Network for Modelling Sentences》(2014 ACL會議)
這個模型看起來就相對復(fù)雜一些,不過其基礎(chǔ)也是基于卷積的。每一層的卷積操作之后同樣會跟上一個max pooling操作。整個模型操作相對于上面的那個模型比較繁瑣,同時我有以下幾個比較質(zhì)疑的地方:
1 倒數(shù)第二到倒數(shù)第三層使用了k-max 的pooling操作,也就是說第三層中相鄰的詞語對應(yīng)于原來的句子可能不再是相鄰的,而且它們只有相對的先后關(guān)系保存了下來。倒數(shù)第三層中不同卷積平面對應(yīng)的詞語在原句子中可能處于不同的位置,甚至是不同的詞語,因此倒數(shù)第三道倒數(shù)第四之間的卷積是沒有意義的。
2 關(guān)于這里的folding操作。把同一個詞語向量的不用維度之間進行加法操作,這樣原文里是這樣解釋的“With a folding layer, a feature detector of the i-th order depends now on two rows of feature values in the lower maps of order i -1.”。但是這樣的操作有意義嗎??從來沒有見人提到用過,也許我們未來可以探索一下這樣是否能夠提高卷積器的性能。
3《A C-LSTM Neural Network for Text Classification》(arXiv preprint arXiv)
4 《Recurrent Convolutional Neural Networks for Text Classification》(2015 AAAi會議)
5 《Learning text representation using recurrent convolutional neural network with highway layers》(arXiv preprint arXiv)