Google推出的新项目,可以专业“清除”那些烦人的评论

很多网络大V都喜欢经营自己的社交媒体,但在很多人发布的内容下,总会有很多“不堪入目”的评论,严重的甚至会引起网络暴力事件。不得已之下,很多人关闭了评论功能,或者直接删除了所发布的内容。如果有一种技术可以“清除”这些恼人的评论,是不是就不会再出现这样的情况?

为了解决这一问题,日前Google旗下的网络安全孵化器Jigsaw 推出了一个新项目Perspective,它可以帮助“清除”那些评论。Perspective是一个应用程序接口,通过使用机器学习技术来识别网上涉及暴力和性骚扰的信息。

在今年稍晚的时候,公司将会发布更多的机器学习模型。但第一次发布的模型,是通过讨论来识别评论是否存在问题。

据介绍,通过识别评论对对话产生的影响,Perspective 来获得是否“清除”相关言论的反馈。内容提供商使用这一技术后,可以在第一时间给评论者以反馈,帮助调节不当评论引发的问题,或者也可以帮助读者识别那些不当的信息。Jigsaw的目标是可以让网友们轻松快乐的聊天,但很显然那些恼人的苹果会让很多人敬而远之。

对此,Jigsaw的总裁Jared Cohen表示,“想象一下,正当你和朋友讨论今天早上发生的新闻时。偏偏有人在你说话的时候,屡屡给你泼冷水,或者叫你很难听的外号,又或指控你莫须有的罪名。这种情况下,你可能想立刻结束这样的对话。”

他还补充说,不幸的是,当你在经常使用的网站上讨论看到的见闻时,这些不合时宜的评论却经常发生。

应该如何处理这些恼人的言论,其实主要取决于内容提供商以及那些社交媒体。Jigsaw的技术会给这些言论进行评分,然后这些言论会被标记出来或被贴一个警示的标签,这样用户在浏览的时候就会看到。与此同时,发布评论的人也会看到这样的处理结果,以便他们思考这些话是不是他们想说,以及是不是恰当。

除了网络安全平台,内容提供商也在想各种办法来解决自己平台上的评论问题。如全球知名的通讯社——路透社,彻底删除了他们的评论区;BuzzFeed则正在试验提供不同渠道的声音和评论。

目前,Jigsaw已经与《纽约时报》建立了合作,通过使用机器学习模型来识别报纸每天产生的11000多条评论。

在识别的过程中,Perspective会标出像性别歧视这样的关键词。同时,该技术也会考虑内容本身或者文章阐释的主题,是不是也是产生攻击性言论的原因所在。

像人脸识别一样,Jigsaw也是通过学习了大量的歧视、骚扰等内容来进行精准的判断。据报道,Jigsaw在维基百科上学习了大量关于性骚扰的内容来直到工作。在这之前,公司在维基百科上抓取了多达几百万个语义解释,并做了深入的分析。

然后,机器根据已经建立的学习模型,来识别评论中带有个人攻击的内容,以及这些攻击的内容是针对那些人的。经过不断的测试,已经习得的模型会被用到Perspective中。因为Jigsaw只做了英文状态下的学习模式,所以目前Perspective也只能识别英文言论。

Jigsaw针对维基百科评论所做的研究显示,只有18%的攻击者收到了警告或者来自调解人的调解。这也意味着,平台上大部分的骚扰内容并并没有被识别到。最早,Jigsaw是与雅虎进行了相关的合作。通过一种评论分析算法,雅虎的评论调解者会标识不合格的评论。这次合作中,对不合格内容的识别率达到了90%。

除了Perspective工具外,Google旗下的Jigsaw还推出了反黑客攻击及检测假新闻的工具。

这样看来,在媒介形态的发展速度超过媒介素养养成的当下,适当的技术介入和监测尤为必要。此前,有人称特朗普竞选成功是因为社交媒体里充斥的假新闻。另外,特朗普发表的涉嫌歧视女性的内容也不在少数。

近来,Facebook等社交网站也曾表示要积极治理假新闻等问题。但对于性骚扰、网络暴力等内容还没有相应的规定。很显然,Perspective工具是一次很大的尝试。

在中国,微博、微信、豆瓣、知乎等热门应用上的假新闻、性骚扰、网络暴力类留言也不在少数。

Google推出的这项新项目Perspective,也许对上述中国公司同样有着不低的应用价值。