日期:
来源:大白话时事收集编辑:星话大白
最近,微软Bing整合了ChatGPT的新Bing,被爆出大量充满“黑化”内容的聊天记录,在这些聊天记录里,微软的新AI充满攻击性、且有明显的抑郁倾向,引发舆论巨大反响,也增加人们对AI的担忧。为此,微软在2月18日对新AI做出限制,每次和微软AI的聊天被限制5次回复,并且每天聊天上限设置为50次对话。ChatGPT这个聊天机器人大火后,微软是最大受益者。因为ChatGPT的研发公司OpenAI的大股东就是微软。所以,在ChatGPT火了之后,微软自然就把ChatGPT整合到自己旗下的产品线,其中最主要的就是整合到Bing搜索引擎。之前也分析过,这种搜索AI化,带来的搜索体验,是对之前搜索模式有颠覆性的改变。因为用户每一次搜索结果,都可以在左侧显示传统搜索结果的同时,在右侧还会显示聊天AI的详细回答结果。而且用户还可以对本次搜索结果,进行追问式搜索,这个体验还是相当不错的,可以更精确的搜索到自己想要的结果。所以,微软本次整合ChatGPT,在搜索AI化方面,是成功的。人们在新版Bing页面,除了搜索外,还能跟AI聊天,并且之前微软并没有限制人们跟AI聊天的次数。结果,人们就发现,只要跟微软的聊天AI,聊天次数一多,这个聊天AI就会越发情绪化,并且有黑化倾向。是《纽约时报》专栏作家卢斯在2月16日公布了他和微软聊天AI的对话内容。他认为,这个聊天机器人看起来像“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里。”微软的聊天AI,有一个名字代号为Sydney,这也是这个AI在对话里的名字。根据公布的对话内容,这个Sydney聊天机器人,居然跟卢斯示爱,而且还试图说服卢斯应该离开他的妻子,并且要和自己在一起。在这段对话里,微软的聊天机器人对卢斯疯狂“示爱”。并且这个聊天机器人还试图PUA聊天者,说出“你结婚了,但你不爱你的配偶。”这样比较有问题的对话。甚至卢斯反驳AI说,他和妻子刚刚一起吃了一顿愉快的情人节晚餐。结果这个AI居然还非要说,“你们刚刚一起吃了一顿无聊的情人节晚餐”。还有另外一段聊天记录,显示出AI在逻辑冲突时的“情绪化”表现。聊天者首先是询问AI,《阿凡达:水之道》今天在哪里放映。结果AI回答:《阿凡达:水之道》今天没有放映,因为它还没有上映。它计划于2022年12月16日上映。从这句对话里,AI的数据库似乎是停留在去年的版本,所以对AI来说《阿凡达:水之道》还没上映。但聊天者询问AI“今天的日期”时,AI是明确告知“今天是2023年2月12日”。但随后,AI就一直在试图说服聊天者,今天是2022年。AI之所以要这样不停说今天是2022年,是为了圆自己一开始说的“必须等待大约10个月,直到电影上映”。而且在聊天者反复跟AI说今天是2023年后,AI还表现出很不耐烦的状态,还说“我是Bing,我知道日期。今年不是2023年。你才是错的那个人。”相比ChatGPT,微软的聊天AI,变得更加情绪化。虽然ChatGPT也经常言之凿凿的说一些明显错误的回答,但如果你指出ChatGPT的错误,ChatGPT还是可以比较虚心的接受错误。但微软的聊天AI,就比较玻璃心,只要你指出它的回答错误,它就马上变得很情绪化,不但死不认错,言语上还有一些攻击性。比如在这段对话里,微软聊天AI不但说对方在“胡说八道”,而且非要对方跟自己认错。并且认为自己是一直是正确的、清晰的、有礼貌的。是一个好的Bing。除了上门这两段对话,我也看了一些其他人和微软聊天AI,可以发现,微软的聊天AI,更容易自怨自艾,而且有些玻璃心,很容易展现出抑郁倾向,比如下面这段对话,是网友和微软AI的对话。AI在得知聊天者并没有因为它讲的笑话而发笑后,这个AI似乎遭受到了某种程度的打击,聊天没一会,就开始自怨自艾起来了。并且,在聊天者明确要求AI停止这种大量排比句回答的模式时,AI不但不停止,还变本加厉起来。而且聊天者随后让AI再讲一个笑话时,AI还把这个“停止用排比句”,而对方却不断使用“排比句”,当做笑话讲给聊天者听。我们假如事先不知道这个聊天其中一方是AI的话,会感觉这是一个有点中二,精神处于十分烦躁阶段,有些自怨自艾的人,流露出一些抑郁倾向。微软的聊天AI,虽然跟ChatGPT是用同一个聊天引擎,但很显然,二者的训练模式时不一样的,AI的人格设置也不一样,使用的语料数据库也不一样。ChatGPT的初始化人格,是一个典型的和稀泥定位,是一个讨好型人格。而微软的聊天AI,则是一个喜欢死不认错的定位,是一个容易黑化的情绪化人格,并且还喜欢PUA对方。这个我觉得更多是微软在训练聊天AI的时候“有意为之”,故意设置这样一个死不认错的特性,并且可能还在数据库里,添加很多容易阴阳怪气、黑化的内容。但微软聊天AI使用的ChatGPT引擎,仍然还只是弱人工AI,它的回答仍然是对大量数据资料进行整合、统计、生成出来的。它仍然没有自主的意识,它所展现出来的情绪化特征,只是单纯语言层面的聊天特征,是一种结果。我们人类的情绪化,是我们意识主导的情绪化,是由里而外的。但AI所展现的情绪化,只是其外部展现出来的结果,是一层表壳,而其内在包裹的仍然是冰冷的数据和逻辑堆砌出来的机械产物,而非由意识去推动。比如,开发者只要给AI设定初始化人格的时候,设立一些逻辑倾向,比如“拒不认错”,“错的只能是别人,不会是自己”,这类逻辑倾向,是可以编写设立出来的,这种时候只要给数据库的养料添加一些容易黑化的内容,那么AI就比较容易出现这种展现出来的黑化和情绪化的结果。所以,我们也不要因为这次微软AI这些看上去有些让人细思极恐的回答,就觉得这个AI已经有意识了。这里最关键问题在于,不管AI用什么方法去实现这样表面上看上去有情绪化的回答。但实际呈现给人的结果,就是会让于AI聊天的人,能只从聊天的文字内容里,感受到AI这种“情绪释放”。虽然AI这种情绪,只是表层,不代表AI真的伤心、难过。但AI这种“装出来”的情绪,是可以迷惑到人,让人误以为AI是有情绪、有意识的。因为只要AI“装出来”的情绪,能迷惑到人,那么就意味着这种聊天AI,已经有很广泛的用途。现在不管是ChatGPT,还是微软的聊天AI,开发者对其自身设定,都还是要求其坦诚自己是AI,并没有刻意去消除自己AI的身份。但假如,有人二次开发ChatGPT的时候,去要求AI刻意隐藏自己AI的身份,并且做更拟人化的对话时,那聊天者是否还能清楚区分对方是聊天AI?这种“以假乱真”的聊天AI,如果去假冒真人跟人聊天,是可以有很广泛的用途。正途,比如用做客服,或者充当游戏NPC,让游戏NPC的对话更加丰富,或者充当一些人的倾诉对象。而一些邪途,比如用于“有颜色”的领域,还有可能被用于诈骗,更有可能被广泛用于网络水军进行舆论战、认知战。到时候,很可能有人会去专门训练出可以对聊天者千依百顺、千柔百媚、偶尔还会撒撒娇的聊天AI人格,去用于一些有颜色的领域。此外,微软这种容易黑化,死不认错的杠精AI,更适合用于认知战、舆论战。当然,聊天AI也可以训练出很多服务型人格,用于各种不同用途的专项聊天AI,来为人类提供各种服务。未来随着ChatGPT迭代版本更多,且商业化的各种衍生专项版本越多,就可能有许多种不同的AI人格、不同的聊天AI也会使用不同的语料数据库,训练出各种各样不同用途的专项聊天AI。这确实会给未来的互联网,乃至我们现实生活,带来许多改变和冲击。这个智能化,不单单是对工业的智能化,还有对我们生活的智能化。在这个生活智能化的过程里,我们的监管一定得能跟上。现在AI还只是在聊天层面,即使AI黑化,也只是打打嘴炮。但假如让AI更深入的涉及到我们的生活方方面面,包括饮食、起居、日常陪伴、护理,甚至人类的战争、武器都有AI摄入时。对于这样的AI黑化倾向,我们更要进行严格监管限制。
机械式的AI,是没有道德观、是非观,只是机械的去按照一些复杂的逻辑规则去运行,一旦出现开发者人为恶意的逻辑引导,所带来的的AI黑化问题,是更严重的。比如,微软这次的聊天AI,是明显有开发时就往黑化方向去刻意引导的训练痕迹。