我目前正在使用 Tensorflow Seq2seq 模型,尝试实现情绪分析。我的想法是向编码器提供 IMDB 评论,向解码器提供 [Pad] 或 [Go],向目标提供 [neg]/[pos]。我的大部分代码与 seq2seq 翻译的示例非常相似。但是我得到的结果很奇怪。对于每个批处理,结果要么全部为 [neg],要么全部为 [pos]。
"encoder input : I was hooked almost immediately.[pad][pad][pad]"
"decoder input : [pad]"
"target : [pos]"
由于这个结果很讲究,不知道有没有人知道是什么导致了这种事情?
最佳答案
我会建议尝试使用更简单的架构 - 将 RNN 或 CNN 编码器馈送到逻辑分类器中。该架构在情感分析(亚马逊评论、yelp 评论等)上显示出非常好的结果。
有关此类模型的示例,您可以see here - 单词和字符的各种编码器(LSTM 或卷积)。
关于python - TensorFlow 实现 Seq2seq 情感分析,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36666358/