1

我正在使用 Watson/Alchemy Sentiment Analysis API,发现一些文章被标记为负面,而这些文章可以说是正面的。当文章讨论好的或有益的减少时,就会发生这种情况。

例如,华盛顿邮报的这篇文章,“我们在美国的枪支暴力大幅下降。这就是原因。” 当提交给 API 时,它返回 -0.4 的分数,尽管文章相当乐观!(文章认为枪支暴力已经显着下降。)

另一个例子是CoreLogic 的这篇文章,“CoreLogic 在 2016 年 1 月报告了 38,000 起已完成的止赎”。API 返回的文档情绪评分为 -0.27,尽管文本是正面的:“......与 2015 年 1 月相比,止赎库存下降了 21.7%,完成的止赎下降了 16.2%。全国完成的止赎数量同比下降从 2015 年 1 月的 46,000 人增加到 2016 年 1 月的 38,000 人。”

是否有解决此问题的既定解决方法?具体来说,当细心的读者会以与 API 建议的完全不同的方式评估此类文章的情绪时,我们不希望损害服务的可信度,从而损害我们的结果。我正在寻找可以让我修改特定案例的情绪结果的东西(例如,“止赎减少”是积极的,“凶杀案减少”也是如此)。

4

1 回答 1

1

我相信这是很正常的 :-) 很少有情绪分析算法可以在 100% 的结果中给你正确的答案 :-) 我不知道算法的实现,但我敢打赌,情绪是从表情和单词的“情绪”计算。例如,最有可能的“枪”、“暴力”可能与负面情绪有关,但沃森可能没有理解它们与“大规模下降”有关(即使“下降”也可能有负面情绪)。

即使是最先进的情感分析算法也可以在非常特定的领域达到 85%~90% 的准确率。因此,在此基础上设定您的期望总是很重要的。

于 2016-03-21T22:07:19.920 回答