从几年前Alpha Go战胜柯洁,到半年前chat GPT的横空出世,近些年来,关于人工智能的讨论从来不绝于耳。人工智能未来发展将会到怎样的层面,是会威胁人类文明?或是为人类提供帮助?这一直是被讨论的焦点。
在复旦大学哲学学院教授徐英瑾看来,目前高唱“AI威胁论”有些杞人忧天,因为现下的人工智能还远远未达到这个程度,例如Alpha Go和chat GPT都是专用人工智能,它们都有一定的局限性。
那么,看似风马牛不相及的哲学与人工智能之间有什么关系?哲学又能对人工智能的发展起到什么作用?
人工智能研究的最终目的,无非是造出一台能够执行人类大多数任务的机器,其核心问题就是,首先要对人有一个了解。因此在某种程度来说,想要了解人工智能怎么回事,跟了解人是怎么回事,是高度关联的课题。
从哲学的角度思考人工智能,或许会在纷纭的观点中为我们提供一些更加清醒的认知。
01.主流人工智能并不通用
西方第一代人工智能研究者——如明斯基(Marvin Minsky)、纽艾尔(Allen Newell)、司马贺(Herbert Simon),还有麦卡锡(John McCarthy)等人——所试图实现的机器智能,多少是具有“通用人工智能”(artificial general intelligence, AGI)意蕴的,与AGI相对的则是“专用人工智能”。
顾名思义,“专用人工智能”就是指专司某一个特定领域工作的人工智能系统,而所谓的“通用人工智能”(artificial general intelligence, AGI),就是能够像人类那样胜任各种任务的人工智能系统。
而目前主流的AI研究所提供的产品都不属于“AGI”的范畴。比如,曾经因为打败李世石与柯洁而名震天下的谷歌公司的Alpha Go,其实就是一个专用的人工智能系统——除了用来下围棋之外,它甚至不能用来下中国象棋或者是日本将棋,遑论进行医疗诊断,或是为家政机器人提供软件支持。
虽然驱动Alpha Go工作的 “深度学习”技术本身,也可以在进行某些变通之后被沿用到其他人工智能的工作领域中,但进行这种技术变通的毕竟是人类程序员,而不是程序本身。换言之,在概念上就不可能存在着能够自动切换工作领域的深度学习系统。由于一切真正的AGI系统都应当具备在无监督条件下自行根据任务与环境的变化切换工作知识域的能力,所以上面笔者的这个判断本身就意味着:深度学习系统无论如何发展,都不可能演变为AGI系统。
尽管上面这个结论在“导论”中已经被反复重申,但考虑到目下同情深度学习的势力实在过于强大,以至于笔者忍不住在此还想换一个角度对该结论进行论证。该论证将以美国哲学家福多(Jerry Fodor)对于联结主义(即深度学习的前身)的哲学批判为自身的母型,因此,在学术的正规性上要超过“导论”所呈现的论证。该论证可以呈现为下述三段论。
大前提任何一个AGI系统都需要能够处理那种“全局性性质”(global properties),如在不同的理论体系之间进行抉择的能力(其根据则或许是“其中哪个理论更简洁”,或是“哪个理论对既有知识体系的扰动更小”,等等)。
小前提深度学习系统所依赖的人工神经元网络,在原则上就无法处理“全局性性质”。
结论深度学习机制自身就无法被“AGI化”。
很显然,该论证的结论的可接受性,将主要取决于大前提与小前提是否都是真的。笔者现在将马上说明:二者都是真的。
此论证的大前提之所以是真的,是因为任何的AGI系统都必须具有人类水准的常识推理能力,而常识推理的一个基本特征,就是推理过程所会涉及的领域是事先无法确定的。比如,人类投资家对于金融业务的谈论就很难规避对于国际政治军事形势的讨论(因为金融市场往往对国际军事形势的变化有非常敏感的表现),因此,我们就很难在讨论金融问题的时候预先规定“哪些领域一定不会被关涉”。
这一点甚至在做家务之类的看似琐碎的日常劳作中也会得到体现——比如,对于居室环境的整理在很大程度上并不仅仅关涉对于“整洁”这一要求,而且还要兼顾“方便用户”这一要求,而该要求本身又指向了保洁员对于所有家庭成员的生活习惯的额外知识。
换言之,跨领域的思维能力是即使连做家务的简单日常活动都需要具备的。这也就是说,在涉及多样性的问题领域的时候,行为主体就必须具备对于来自不同领域的要求进行全局权衡能力,而这就是福多所说的处理“全局性质”的那种能力。不难想见的是,上述要求不仅是被施加给人类的,而且也是被施加给一个理想的AGI系统的——如果我们希望AGI具有人类水准上的通用问题求解能力的话。具体而言,家政机器人、聊天机器人与军用机器人所面临的环境的开放性与复杂性,都要求支持这些机器人运作的人工智能系统应具有类似于人类处理“全局性质”的能力。
上述三段论的小前提也是真的,即深度学习机制是在原则上就难以处理这种具有领域开放性的全局性问题。
综上所述,目前主流AI技术的进展,并不能帮助我们真正制造出具有AGI基本特点的智能机器。那么,出路又在何方呢?一个很容易想到的方案是:机器智能的研究者必须得向业已存在的自然智能——即人类智能与动物智能——学习,由此寻找到突破的灵感。
02.如何向自然智能学习?
在通俗网络媒体中,我们常常听到这样的评论:某某公司宣扬他们研制的人工智能系统已经达到了4岁或者5岁儿童的智商的水准。使得这种说法具有意义的前提显然是:存在某种横跨机器与人类智力的某种通用的“智商”概念——因此,心理测量学对于人类智商的测算方式,也可以被运用到测量机器智商之上。
虽然笔者对用现成的人类智商标准衡量人工智能产品的水准的做法表示强烈的保留态度,却对某种更抽象意义上的横跨机器与人类的“智商”概念保持开放态度。
我们当如何从自然智能那里寻找到关于建造AGI机制的“施工图纸”?一个很容易想到的策略便是:心理学家所刻画的种种人类智力的分类形式,归根结底是由人类的神经系统所执行的。时下方兴未艾的“类脑人工智能”(braininspired AI)研究路数。该研究规划的代表项目是由瑞士牵头的“蓝脑计划”(Blue Brain Project),其目的是将人类整个大脑的神经联接信息全部用一个完整的数据模型予以记录。
不得不承认,与前面提到的深度学习的进路相比,类脑人工智能的研究思路的确更可取一些。虽然从字面上看,深度学习的前身——人工神经元网络——也是基于对于人类大脑的仿生学模拟的,但是在专业的神经科学家看来,传统的神经元网络也好,结构更为复杂的深度学习机制也罢,其对于人脑的模拟都是非常低级与局域的。与之相比较,类脑人工智能的野心则要大得多:
它们要对人脑的整体运行机制作出某种切实的研究,并将其转化为某种数学形式,使得计算机也能够按照“人脑蓝图”来运作。考虑人类大脑的整体运作——而不是局域神经网的某种低端运作——能够以“神经回路”的方式向我们提示更多的关于人类智力整体运作的信息,类脑人工智能的研究显然能够比主流的深度学习研究减少犯下“盲人摸象”错误的几率。
不过,基于如下理由,笔者依然认为类脑人工智能研究还是隐藏了不少风险。
理由1
人脑的运作机制非常复杂,比如,关于人类大脑的海马区是如何处理记忆信息的,现在的神经科学家也无法打包票说我们目前得到的认识是基本准确的。换言之,脑科学研究投入大,研究前景不确定。在这种情况下,如果我们将AI研究的“鸡蛋”全部放在脑科学研究的“篮子”里,那么,AI研究自身的发展节奏也就将完全“受制于人”,而无法有效地分摊研究风险。
理由2
目前对于神经回路的研究,占据了类脑人工智能研究者的主要注意力,因为对于神经回路的模拟似乎是相对容易着手的。但是,我们很难保证某些神经细胞内部的活动不会对智能的产生具有关键性作用,而这一点也就使得类脑人工智能研究陷入了两难:如果不涉及这些亚神经细胞活动的话,那么人工智能研究或许就会错过某些关键性的大脑运作信息;但如果这些活动也都成为模拟对象的话,那么由此带来的计算建模成本将会变得完全不可接受(因为单个神经细胞内部的生化活动所对应的数学复杂性,就可以与整个大脑的神经网络所对应的数学复杂性相提并论。
理由3
我们尚且不清楚,“意识”(consciousness)的存在是否是使得智能活动得以展开的一个必要条件。但假设其存在的确构成这样一个必要条件,那么由此引发的问题便是:我们依然缺乏一个关于“意识如何产生”的成熟的脑科学理论,因此,我们无法预报何时能够从关于人脑的意识学说中得到关于“机器意识”的建模思路。更麻烦的是,如果彭罗斯(Roger Penrose)的“量子大脑假设”是对的,那么我们就必须从量子层面上重新思考意识的本质。对于类脑人工智能研究来说,这一方面会使得研究者去放弃建立在经典物理学构架上的传统图灵机计算模型,另一方面又会逼迫他们去思考“如何在与传统计算机不同的量子计算机的基础上去构建认知模型”这一艰难的话题。
笔者曾在2017年6月于美国加州圣迭戈召开的世界意识科学大会上与彭罗斯爵士本人交谈,向其讨教“量子计算机是否能够实现量子意识”这一问题。他对这一问题给出了否定的回答,因为他认为量子计算机的运作依然需要经典计算机的运作提供某种基础。虽然笔者不敢肯定他的这个回答一定是正确的(因为据笔者所知,像“DWAVE”这样的“退火量子计算机”在硬件构成上就与传统计算机非常不同),但笔者至少可以肯定的是:即使关于大脑的量子意识理论是对的,也并不是任何意义上的量子物理学现象都可以引发意识(否则“意识”就本该是无处不在的)。因此,在量子计算机研究与对于量子意识的机器实现之间,应当还存在大量的理论空白需要填补。这一切无疑会使得类脑人工智能的工作进度表将越拉越长。
理由4
即使人类目前已经掌握了大脑运作的基本概况,我们也无法保证由此得到的一张大脑运作蓝图可以被机器所实现。其背后的道理是:使得神经活动得以可能的底层生物化学活动具有一种与电脑运作所依赖的底层物理活动非常不同的物理学特征,而正是基于这种不同,科学界才将前者称为“湿件”(wetware),以便与后者所对应的“硬件”(hardware)相互区别。但麻烦也出在这里:我们都知道,高性能航空发动机的运作蓝图,一般都需要非常特殊的航空材料来加以“落实”,因为这些蓝图本身在某种意义上也已经透露了关于相关运作材料的性质的信息——与之相对比,我们又怎么能够期望关于大脑的运作蓝图,可以不包含对于特定生化信息的指涉,而可以被完全运用到硅基材料之上呢?
分析到这一步,读者可能会问:既然简单地模拟我们的人脑并不是“向自然智能学习”的方便法门,我们又有什么别的出路呢?
该问题的答案便是:我们必须学习胡塞尔的“想象力自由变更”的办法,对“智能”的本质进行直观。套用到本书的语境中去,该办法的具体操作步骤便是:对各种可能的智能类型进行展列,并由此为出发点对各种可能的智能形式进行想象,最终剔除关于智能的偶然性成分,找到智能的本质性要素。
提到“人类之外的自然智能”,很多人或许会马上联想到灵长类动物的智能。但考虑人类与其他灵长类动物之间的类似性,出于“剔除人类智能实现方式中的偶然性因素”这一目的,我们最好还是在非灵长类动物中寻找智能活动的标记。比如,我们在作为软体动物的章鱼那里找到复杂的行为模式,尽管作为软体动物的章鱼具有与灵长类不同的神经系统(这种另类的神经系统使得章鱼可以在大脑与吸盘处分置记忆系统)。
对于章鱼的行为与心智的研究,目前已经成为西方学界的一个新热点。甚而言之,有些专家还认为植物也可以具有“短期记忆”与“长期记忆”等心智功能,尽管植物是没有严格意义上的神经系统的;甚而言之,有人还认为细菌也可以体现某种“群体智能”——比如,通过信号传导蛋白质(而不是神经组织)的帮助,大量聚集的细菌可以解决一些复杂的计算机程序才能够解决的优化问题。
从上面列举的这些例子中我们不难发现,使得发现智能活动得以存在的偶然因素与本质性因素。神经系统的存在,恐怕就是可以被“约分”掉的偶然性因素,因为植物与细菌的智能都不依赖于其存在。特定智能行为对于遗传代码的依赖性,看来也必须被“约分”掉。因为对于章鱼的研究表明,章鱼的大量复杂的捕猎与逃逸行为都是后天习得的(换言之,遗传基因只能为章鱼获得复杂行为的潜力进行编码,而不能对具体的行为本身进行编码)。与之相比较,不能被“约分”掉的本质性因素则包括:(甲)如何面临环境的挑战,并给出应战的模式;(乙)如何在给出这种应战的同时,最有效、经济地利用智能体所具有的资源。这也就是说,尽管自然智能的具体表现形式非常丰富多彩,但是其所具有的一般功能结构却是相对一致的。
综合本节的讨论来看,向自然智能借脑固然是未来AGI发展的必经之路,但如何确定我们所需要模拟的自然智能的“知识层次”,则是在相关研究展开前率先要被回答的问题。与类脑人工智能研究者对于大脑具体神经细节的聚焦不同,笔者主张通过“想象力自由变更”的办法,对智能活动的本质——有机体对于开放式环境的节俭式应答——进行抽象,由此获得对于AGI的一些更富操作性的指导意见。
03.再谈“强人工智能”与“超级人工智能”
本文既有的讨论,其实已经足以澄清这么一个论点:既有的专用人工智能之路,并不能真正通向AGI,因为后者对于智能活动本质的涉及,并不是前者的题中应有之义。对于有些读者来说,这样的澄清似乎还漏掉了目前媒体广泛炒作的两个概念:一个是“强人工智能”(strong AI),一个是“超级人工智能”(artificial super intelligence)。那么,AGI与它们之间的关系又是什么呢?
首先可以肯定的是,强AI既不是AGI的对立面,也不是其同义词。与强AI对应的概念是“弱AI”(weak AI),而弱AI也既非专用AI的对立面,亦非其同义词(尽管二者外延上有高度重合)。说得更清楚一点,弱AI指的是计算机对于自然智能的模拟,而强AI指的是计算机在上述模拟的基础上对于真实心智的获得,二者之间的区分,牵涉到的是“虚拟心灵”与“真实心灵”之间的区别。
与之相比较,专用AI与AGI之间的区分则是AI系统自身运用范围宽窄之间的区别。因此,从概念的外延角度来看,一个AGI系统或许可能是弱AI,也可以是强AI(因为一个达到AGI标准的系统是否能够配得上“真实心灵”,依然是一个有待争议的心灵哲学话题)——而专用AI系统则只可能是弱AI(因为真实的心灵肯定是具有跨领域的问题处理能力)。
再来看“超级AI”这个概念。笔者个人认为这是一个非常含糊的字眼,因为“超级”本身的含义就非常含糊。如果就AI系统在单项能力上对于人类的超越的话,那么现在的“Alpha Go”就已经是这样的超级AI了——但如果“超级AI”指的是某种能够比人类更为灵活地统调各种能力与知识领域的AI系统而言,很显然这样的系统还没有出现。
但即使存在这样的系统,如何界定 “超级”二字的真正含义,依然会成为一个值得商榷的问题。其背后的道理是:正如前面已经指出,任何智能体都无法不在尽量节俭地使用资源的前提下,对开放环境中存在的挑战“无所顾忌”地回应,因此,即使是所谓的“超级AI”,也不可能在其运作中无限地挥霍其运算资源,并要求无限的前设知识作为其推理前提。换言之,这样的系统依然是与我们人类一样的“有限的存在者”,并与我们人类一样面临某种终极的脆弱性。
不过,如果我们将“超级”的门槛降低,并在“比人类稍微更灵活、更具创造性一点”这一意义上使用“超级AI”这个字眼的话,那么,制造出这样的系统,并非在概念上是不可能的。说得更具体一点,我们当然可以由此设想:某种AGI系统能够以一种比人类更具效率的方式进行联想与类比,找到问题的求解方略,而这种系统所接驳的某些外围设备的强大物理功能,显然也能够使得整个人造系统获得比人类整体更强大的决策与行动能力。
那么,这样一种超级AGI系统,是否能够对人类的文明构成威胁呢?对于该问题,笔者暂且保持开放的态度。不过,正如本章所反复说明的,即使有一天这样的AGI系统问世,其技术路径也会与主流的人工智能技术非常不同——因此,那种凭借主流人工智能技术的进展就大喊“奇点时刻即将到来”的论调,依然是站不住脚的(“奇点”在库兹威尔这样的未来学家那里,特指人工智能技术能够颠覆性改变整个人类文明的那个历史时刻点。但在笔者已知的范围内,在国际主流的科学哲学界与心灵哲学界,很少有人认真看待这种“奇点理论”)。换言之,虽然“AI威胁论”并非永远会显得不合时宜,至少就目前的情况而言,高唱此论调,的确显得有些杞人忧天。
《哲学证成与机器编程》
徐英瑾 著
复旦大学出版社