自然语言处理遇“瓶颈”——聊天机器人的“春天”何时到来?

聊天机器人曾经红极一时,如今似乎大不如前。或许是因为它有时会出言不逊,辜负了人类的期许,近来有被打入冷宫的趋势。但究其原因,似乎是机器人在自然语言处理中出现了问题,使得目前的聊天质量不能为人类所满意。

有点“瞎聊”的机器人

它可能会显得有点“智障”,或是答非所问,例如,当你问“太阳为什么照常升起”,它可能会回答“今天天气很好”。它可能会变得“不可理喻”,如果通过机器学习把一堆涉及敏感话题的语料喂给它,它会自然而然吐出类似反种族等不恰當的回答。它可能会变得“不善言辞”,如果遇到它从未学习过的话题,瞬间就会变得“顾左右而言他”。

自然语言处理的难点

但相信这只是自然语言处理发展中的必经之路。科学家在自然语言处理时遇到的最大困难就是普遍存在的不确定性,即怎么消除所谓的歧义,这种歧义涵盖词法、句法等方面。人类可以很轻易地分辨在不同语境下同一词汇不同的涵义,但对于聊天机器人而言难度颇高,例如,“那个人手上有胎记”和“最近人手不足”,两者同样都有“人手”,但却有不同的分词方法,不同的涵义,这对于聊天机器人而言确实有点艰难。

人类的语言结构、逻辑非常复杂,有时不同的语气所表达的情感截然不同,例如“我真是太走运了,竟然又被老师抽到去背书”和“我真是太走运了,中了二千块!”中的“走运”明显不同,第一句是自嘲,第二句才是激动,聊天机器人该如何结合上下文,以及识别用户不同的情感去区别对待,并给出恰当的回应,绝非易事。

我们说话时总会有所省略,不可能每句话都补充完整,而聊天机器人就面临了要如何去补足这些缺失的代词。例如某人先说“我养的兔子喜欢吃胡萝卜”,其后又说“它真是太可爱了”,机器人会如何结合上下文来理解用户的意思?“它”到底是指“兔子”,“胡萝卜”,还是用户本人说自己可爱呢?这种分辨对于人类轻而易举,对于机器人就非常不易,因为它需要掌握足够的基本知识,需要对约定俗成的东西综合辨别,才能给出正确的回答。

人类在聊天时,总是有意无意地发生这样那样的输入错误,这对于严谨的聊天机器人而言就很头疼了。它必须对貌似错乱的文字进行重新确认,再用猜测的方式去揣度用户的心意。有的用户喜欢用时下流行的新词, 例如“疯狂打call”,这些新词可能对于某些人都是陌生的,如果机器人也还没学过这些新鲜的玩意儿,就很有可能会无可避免地发生错误。再加上有的人喜欢还用各种表情符号,语言缩写,运用错误的语法输入和过于口语的表达,使得机器人一时难以招架。对于人类而言,听到不熟悉的方言,也会不知如何应对,何况机器人呢?

要更好地理解人类,就需要在自然语言处理上多花功夫,机器人必须具备丰富的知识,包括基本的人类生活常识,背景知识,对人类不同语境下的情感、情绪有准确地拿捏,还必须是一个与时俱进的语言学家,懂得灵活变通……相信聊天机器人的“春天”也会随之到来。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();