我正在使用 Watson/Alchemy Sentiment Analysis API,发现一些文章被标记为负面,而这些文章可以说是正面的。当文章讨论好的或有益的减少时,就会发生这种情况。
例如,华盛顿邮报的这篇文章,“我们在美国的枪支暴力大幅下降。这就是原因。” 当提交给 API 时,它返回 -0.4 的分数,尽管文章相当乐观!(文章认为枪支暴力已经显着下降。)
另一个例子是CoreLogic 的这篇文章,“CoreLogic 在 2016 年 1 月报告了 38,000 起已完成的止赎”。API 返回的文档情绪评分为 -0.27,尽管文本是正面的:“......与 2015 年 1 月相比,止赎库存下降了 21.7%,完成的止赎下降了 16.2%。全国完成的止赎数量同比下降从 2015 年 1 月的 46,000 人增加到 2016 年 1 月的 38,000 人。”
是否有解决此问题的既定解决方法?具体来说,当细心的读者会以与 API 建议的完全不同的方式评估此类文章的情绪时,我们不希望损害服务的可信度,从而损害我们的结果。我正在寻找可以让我修改特定案例的情绪结果的东西(例如,“止赎减少”是积极的,“凶杀案减少”也是如此)。