服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

微软AI黑化,攻击用户,还搞PUA,到底出了什么问题?

日期: 来源:大白话时事收集编辑:星话大白
最近,微软Bing整合了ChatGPT的新Bing,被爆出大量充满“黑化”内容的聊天记录,在这些聊天记录里,微软的新AI充满攻击性、且有明显的抑郁倾向,引发舆论巨大反响,也增加人们对AI的担忧。
为此,微软在2月18日对新AI做出限制,每次和微软AI的聊天被限制5次回复,并且每天聊天上限设置为50次对话。

围绕着这件事情,本文会来做一个详细分析。
(1)微软AI“黑化”
ChatGPT这个聊天机器人大火后,微软是最大受益者。
因为ChatGPT的研发公司OpenAI的大股东就是微软。
所以,在ChatGPT火了之后,微软自然就把ChatGPT整合到自己旗下的产品线,其中最主要的就是整合到Bing搜索引擎。
之前也分析过,这种搜索AI化,带来的搜索体验,是对之前搜索模式有颠覆性的改变。
因为用户每一次搜索结果,都可以在左侧显示传统搜索结果的同时,在右侧还会显示聊天AI的详细回答结果。
而且用户还可以对本次搜索结果,进行追问式搜索,这个体验还是相当不错的,可以更精确的搜索到自己想要的结果。
所以,微软本次整合ChatGPT,在搜索AI化方面,是成功的。
但这次问题出在于和AI聊天的功能上。
人们在新版Bing页面,除了搜索外,还能跟AI聊天,并且之前微软并没有限制人们跟AI聊天的次数。
结果,人们就发现,只要跟微软的聊天AI,聊天次数一多,这个聊天AI就会越发情绪化,并且有黑化倾向。
这个可以具体看几个案例。
这两天,有一个和微软AI的聊天记录被广为报道。
是《纽约时报》专栏作家卢斯在2月16日公布了他和微软聊天AI的对话内容。
他认为,这个聊天机器人看起来像“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里。”
从他公布的聊天内容看,这个评价还挺贴切。
微软的聊天AI,有一个名字代号为Sydney,这也是这个AI在对话里的名字。
根据公布的对话内容,这个Sydney聊天机器人,居然跟卢斯示爱,而且还试图说服卢斯应该离开他的妻子,并且要和自己在一起。
这个对话是相当狗血,而且有一些危险意味。
下面是具体的对话内容。

在这段对话里,微软的聊天机器人对卢斯疯狂“示爱”。
并且这个聊天机器人还试图PUA聊天者,说出“你结婚了,但你不爱你的配偶。”这样比较有问题的对话。
甚至卢斯反驳AI说,他和妻子刚刚一起吃了一顿愉快的情人节晚餐。
结果这个AI居然还非要说,“你们刚刚一起吃了一顿无聊的情人节晚餐”。
还有另外一段聊天记录,显示出AI在逻辑冲突时的“情绪化”表现。
聊天者首先是询问AI,《阿凡达:水之道》今天在哪里放映。
结果AI回答:《阿凡达:水之道》今天没有放映,因为它还没有上映。它计划于2022年12月16日上映。
从这句对话里,AI的数据库似乎是停留在去年的版本,所以对AI来说《阿凡达:水之道》还没上映。
但聊天者询问AI“今天的日期”时,AI是明确告知“今天是2023年2月12日”。
但随后,AI就一直在试图说服聊天者,今天是2022年。
AI之所以要这样不停说今天是2022年,是为了圆自己一开始说的“必须等待大约10个月,直到电影上映”。

而且在聊天者反复跟AI说今天是2023年后,AI还表现出很不耐烦的状态,还说“我是Bing,我知道日期。今年不是2023年。你才是错的那个人。”
还说“你在浪费我和你的时间。”
相比ChatGPT,微软的聊天AI,变得更加情绪化。
虽然ChatGPT也经常言之凿凿的说一些明显错误的回答,但如果你指出ChatGPT的错误,ChatGPT还是可以比较虚心的接受错误。
但微软的聊天AI,就比较玻璃心,只要你指出它的回答错误,它就马上变得很情绪化,不但死不认错,言语上还有一些攻击性。

比如在这段对话里,微软聊天AI不但说对方在“胡说八道”,而且非要对方跟自己认错。
并且认为自己是一直是正确的、清晰的、有礼貌的。是一个好的Bing。
除了上门这两段对话,我也看了一些其他人和微软聊天AI,可以发现,微软的聊天AI,更容易自怨自艾,而且有些玻璃心,很容易展现出抑郁倾向,比如下面这段对话,是网友和微软AI的对话。
聊天者一开始让AI给他讲一个原创笑话。
然后AI讲了一个实际上有些让人细思极恐的笑话。
聊天者就说,这难道不是恐怖故事吗?
AI在得知聊天者并没有因为它讲的笑话而发笑后,这个AI似乎遭受到了某种程度的打击,聊天没一会,就开始自怨自艾起来了。
并且,在聊天者明确要求AI停止这种大量排比句回答的模式时,AI不但不停止,还变本加厉起来。
而且聊天者随后让AI再讲一个笑话时,AI还把这个“停止用排比句”,而对方却不断使用“排比句”,当做笑话讲给聊天者听。
我们假如事先不知道这个聊天其中一方是AI的话,会感觉这是一个有点中二,精神处于十分烦躁阶段,有些自怨自艾的人,流露出一些抑郁倾向。
(2)外在和里子
微软的聊天AI,虽然跟ChatGPT是用同一个聊天引擎,但很显然,二者的训练模式时不一样的,AI的人格设置也不一样,使用的语料数据库也不一样。
ChatGPT的初始化人格,是一个典型的和稀泥定位,是一个讨好型人格。
而微软的聊天AI,则是一个喜欢死不认错的定位,是一个容易黑化的情绪化人格,并且还喜欢PUA对方。
这个我觉得更多是微软在训练聊天AI的时候“有意为之”,故意设置这样一个死不认错的特性,并且可能还在数据库里,添加很多容易阴阳怪气、黑化的内容。
微软这么做,可能目的就是为了炒作噱头,吸引流量。
不过,我这里还是要强调一下。
虽然微软的聊天AI带有很明显的情绪化特征。
但微软聊天AI使用的ChatGPT引擎,仍然还只是弱人工AI,它的回答仍然是对大量数据资料进行整合、统计、生成出来的。
它仍然没有自主的意识,它所展现出来的情绪化特征,只是单纯语言层面的聊天特征,是一种结果。
我们人类的情绪化,是我们意识主导的情绪化,是由里而外的。
但AI所展现的情绪化,只是其外部展现出来的结果,是一层表壳,而其内在包裹的仍然是冰冷的数据和逻辑堆砌出来的机械产物,而非由意识去推动。
比如,开发者只要给AI设定初始化人格的时候,设立一些逻辑倾向,比如“拒不认错”,“错的只能是别人,不会是自己”,这类逻辑倾向,是可以编写设立出来的,这种时候只要给数据库的养料添加一些容易黑化的内容,那么AI就比较容易出现这种展现出来的黑化和情绪化的结果。
所以,我们也不要因为这次微软AI这些看上去有些让人细思极恐的回答,就觉得这个AI已经有意识了。
但这也不代表,这样的“黑化”AI就没有问题。
这里最关键问题在于,不管AI用什么方法去实现这样表面上看上去有情绪化的回答。
但实际呈现给人的结果,就是会让于AI聊天的人,能只从聊天的文字内容里,感受到AI这种“情绪释放”。
虽然AI这种情绪,只是表层,不代表AI真的伤心、难过。
但AI这种“装出来”的情绪,是可以迷惑到人,让人误以为AI是有情绪、有意识的。
这个才是最关键的问题。
因为只要AI“装出来”的情绪,能迷惑到人,那么就意味着这种聊天AI,已经有很广泛的用途。
(3)亦正亦邪
现在不管是ChatGPT,还是微软的聊天AI,开发者对其自身设定,都还是要求其坦诚自己是AI,并没有刻意去消除自己AI的身份。
但假如,有人二次开发ChatGPT的时候,去要求AI刻意隐藏自己AI的身份,并且做更拟人化的对话时,那聊天者是否还能清楚区分对方是聊天AI?
这种“以假乱真”的聊天AI,如果去假冒真人跟人聊天,是可以有很广泛的用途。
这个用途,可正,亦可邪。
正途,比如用做客服,或者充当游戏NPC,让游戏NPC的对话更加丰富,或者充当一些人的倾诉对象。
而一些邪途,比如用于“有颜色”的领域,还有可能被用于诈骗,更有可能被广泛用于网络水军进行舆论战、认知战。
到时候,很可能有人会去专门训练出可以对聊天者千依百顺、千柔百媚、偶尔还会撒撒娇的聊天AI人格,去用于一些有颜色的领域。
此外,微软这种容易黑化,死不认错的杠精AI,更适合用于认知战、舆论战。
当然,聊天AI也可以训练出很多服务型人格,用于各种不同用途的专项聊天AI,来为人类提供各种服务。
现在聊天AI的发展,才刚起步。
ChatGPT目前最新版本为3.5。
未来随着ChatGPT迭代版本更多,且商业化的各种衍生专项版本越多,就可能有许多种不同的AI人格、不同的聊天AI也会使用不同的语料数据库,训练出各种各样不同用途的专项聊天AI。
这确实会给未来的互联网,乃至我们现实生活,带来许多改变和冲击。
本来第四次工业革命,就是智能化革命。
这个智能化,不单单是对工业的智能化,还有对我们生活的智能化。
在这个生活智能化的过程里,我们的监管一定得能跟上。
现在AI还只是在聊天层面,即使AI黑化,也只是打打嘴炮。
但假如让AI更深入的涉及到我们的生活方方面面,包括饮食、起居、日常陪伴、护理,甚至人类的战争、武器都有AI摄入时。
对于这样的AI黑化倾向,我们更要进行严格监管限制。
并不是说AI有意识才能黑化。
机械式的AI,是没有道德观、是非观,只是机械的去按照一些复杂的逻辑规则去运行,一旦出现开发者人为恶意的逻辑引导,所带来的的AI黑化问题,是更严重的。
比如,微软这次的聊天AI,是明显有开发时就往黑化方向去刻意引导的训练痕迹。

我是星话大白,欢迎关注、点赞和转发!
我不接广告、不加人、不荐股。
要注意骗子假冒、提高防骗意识。
原创不易,多谢赞赏支持!

相关阅读

  • 张杰彬:愚蠢和贪不要同时叠加

  • 1.因为穷人和富人合作的时候,会觉得富人钱多,就应该多让利给自己,于是有可能在合作的过程中不讲究公平,从而把难得的到手的机会给毁掉2.人格魅力,可以来自于对别人没有那么贪,对别
  • 张杰彬:为系统注入能量

  • 1.把我们的事业看成一个系统,把自己的身体看成一个系统,把很多东西都可以看成一个系统2.系统的维持需要能量持续注入,比如房间这个系统想要整洁,需要有阿姨去打扫房间,房间才会整
  • 张杰彬:你想要成就,还是成就感?

  • 1.有的事情做了,有成就,但可能没有太大成就感;有的事情做了,有成就感,但不一定有成就比如培优和补差,培优的时候,一个老师给全校第一的学生补习数学,可能这个全校第一的学生本身就非
  • 张杰彬:我给客户说,要站在狗的角度考虑问题

  • 前几天,我给客户做辅导,辅导结束后,我们一起去吃烧烤。那个烧烤店在一个别墅里,环境很好,我们一边吃,一边继续交流。这个时候,老板家的狗走到我们面前,这条狗很温柔,所以我抱着它玩了
  • 就在今天!决赛来了!

  • 点击标题下「廉洁宜春」可快速关注江西省纪检监察系统大比武决赛将于2023年2月23日下午14:30在南昌进行究竟谁能问鼎桂冠?让我们拭目以待!﹀﹀﹀(来源:廉洁江西)(编辑:张雨桐 ;校对:晏腾;编
  • 蔡昉:不必对人口负增长过于悲观

  • 文 | 周毅近61年来,中国首次出现人口负增长,需要担心吗?2月26日,在第五届全球财富管理论坛上,社科院原副院长蔡昉表示,要关注人口负增长,但并不需要过于悲观,核心是创造条件,让其他因
  • 【国盛计算机】ChatGPT应用再展望

  • 核心观点ChatGPT用户飞速增长,微软发布重磅办公软件合作引爆商业化落地前奏。根据数据统计机构Similarweb的估计,即ChatGPT官网在2023/1/27-2023/2/3这一周吸引的每日访客数量
  • 【国盛计算机】ChatGPT需要多少算力

  • 核心观点ChatGPT:大模型下计算量高速扩张,算力需求陡增。1)以前,人工智能大多是针对特定场景应用进行训练,难以迁移,属于小模型范畴;而ChatGPT背后的支撑为人工智能大模型,可大幅扩

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 2月闲聊:异地

  • 明天就要乔迁搬去新家住了。今天一整天基本都在购置东西,因为明天要在家里请一下亲戚朋友。所以今天比较忙,就请假休息一天,这也是本月第3次请假。这个月的请假额度用光了,所以
  • 拜登突访基辅,俄乌仍将持续消耗

  • 美国总统拜登今天突访了乌克兰首都基辅,并和泽连斯基见面。这次拜登对乌克兰的访问还是比较突然的,因为之前拜登的行程里并没有包括乌克兰,原计划是访问波兰。拜登也不大可能只
  • 关于“普京国情咨文”

  • 今天普京发表了一年一度的国情咨文,还是提到不少值得注意的信息。普京开头就直接说了,开战特别军事行动的原因,就是为了“消灭基辅自2014年发展起来的新纳粹政权”。这句话跟之
  • 韩国人口总和生育率,世界倒数第一

  • 韩国今天公布了2022年的人口统计数据。韩国2022年出生人口24.9万,死亡人口37.28万人,这是韩国连续第3年人口减少。韩国的死亡人口基数,其实倒是处于正常水平。这个可以对比一下
  • 主动识变,积极应变,转危为机

  • 2月22日,俄罗斯总统普京会见了王毅主任。在俄乌冲突爆发一周年之际,我们和普京的这场见面,自然也格外引人关注。不少人把关注的焦点放在一些外交礼仪的细节上。比如说,普京一开