21世纪,意识的本质问题将成为关键问题之一。以前,只有哲学家问他们,生活照常进行,但技术正在发生很大变化:现在我们正在创造人工智能模型,非常成功地伪装成个性。我们需要对机器、动物和人的思想、感觉和意识做出科学判断,因为这会影响权利和道德体系,以及我们与它们相关的行为以及直接关系到我们的未来。
一只名叫 Nipper 的狗在早期的留声机模型上听主人的声音录音,显然不明白主人是如何到达那里的
两件备受瞩目的事件——美国最高法院禁止堕胎的决定和谷歌工程师在机器中看到有意识的事件——几乎同时发生。乍看之下,它们之间没有任何联系,但仍有一些东西将它们联系在一起:这两个情节都指向了我们对世界理解的盲点。这是一个意识是什么以及如何找到它的问题。
动物权利、器官捐赠者权利、安乐死、堕胎和胚胎研究、异种移植、大脑类器官培养和人工智能控制取决于我们如何解释意识、人格和智力。技术的进步使这项任务变得更加困难:我们将越来越多地提出有关权利和道德的问题而没有明确的答案。上一段提到的最近的“车内鬼”案只是第一个迹象,几乎是一个笑话,但并不像看起来那么有趣和简单。
Google 员工 Blake Lemoyne 测试了 LaMDA 聊天机器人的偏见(特征错误和倾斜的响应)。他花了很多天和程序沟通,得出的结论是他在和一个人说话。作为确认,他发布了一段与LaMDA的对话,而这段对话在她的表演中非常有说服力。语法、内容、上下文保留——都很棒。如果有人被告知是一个人在另一边写作,而不是机器,那么毫无疑问,这个人的头脑和记忆力是健全的。然而,很容易看出对话在某些地方具有操纵性:Lemoyne 明确质疑所需的位置。
LaMDA 口齿伶俐,始终坚持她的想法、感觉和意识。但是,这就是应该的方式:LAMDA对人的文本进行了研究,自然而然的是,关于意识和感受的问题最有可能的答案是人们在这种情况下写的:他们如何思考,感觉和意识到。
乌鸦也可以非常成功,甚至经常模仿人类的语言
这就是大型语言模型(LLM)的“光辉与贫穷”。他们通过预测下一个单词来学习完成模式,并且他们做得越来越令人印象深刻。但实际上,这只是数据分布的近似值,没有真正的想法。Douglas Hofstadter,关于心灵的邪典书籍,哥德尔,埃舍尔,巴赫:那个无限的花环的作者,以这种方式与另一种语言模型 GPT-3 交谈:
Hofstadter写道:“我认为 GPT-3 的反应不仅愚蠢,而且愚蠢,这意味着 GPT-3 不知道她在说什么。” 斯坦福大学人为AI研究所的教授埃里克·布莱诺夫森(Eric Brynolfsson)与他的回应,提供了一个隐喻:“基本模型(大型人工智能模型接受了大量未标记的数据,都可以适应该模型的陈述(大型人工智能模型)对于随后的一系列任务。 -ns)是聪明的 - 这相当于狗听到唱机的声音,并认为主人在里面。许多人工智能研究人员同意这一点。
Lemoyne 当然知道统计和单词预测,但他看到了文本背后的灵魂。看来他是下定决心要见她的——他是一个虔诚的人,已经担任了 15 年的神父。这解释了很多,但不是全部。相反,他落入了拟人论的陷阱:由于心灵的特殊性,人们倾向于在精神上赋予某些事物以意识(以及剥夺其他人的意识,使他们失去人性)。我们倾向于提取意义,即使没有人把它放进去。我们很容易区分树皮中的面孔和咖啡渣中的命运迹象(这种现象称为pareidolia)。
语言学家 Emily Bender 在谈到语言模型时,将它们比作章鱼,章鱼发现了一条连接两个岛屿的水下电报电缆。在她的虚构故事中,章鱼不知道语言,首先只窃听了沿着电缆的两种方式的消息。他注意到模式,识别模式,并学会预测反应。最后,他切断了电缆,开始自己敲出答案,不知道他在说什么。
2021 年,伦敦政治经济学院的科学家进行的一项研究发现,章鱼符合提出的八项合理性标准中的七项
Bender 的类比类似于John Searle 的中国房间,唯一的区别是章鱼最初没有任何字符转换规则,它只是从大量的统计数据中学习。然而,电缆另一端的岛民并不知道替换,阅读信息中的含义,尽管它不存在。
去年,Bender 和他的同事发表了一篇关于大型语言模式的文章,将它们与另一种动物鹦鹉进行了比较,引起了轰动。他们写道,人们将任何信息解释为意义和意图的传达,无论这是否真的如此。根据该文章的作者说:“语言模型是一个系统,用于将她在巨大的训练数据中观察到的语言序列随机缝合在一起,但没有与意义的任何联系:随机鹦鹉。”
具有讽刺意味的是,鹦鹉和章鱼是聪明的生物,甚至可能是有意识的。但想法很明确:连贯的文本根本不能保证作者的意识。
所以这个程序太会模仿了,而 Lemoyne 也太易受影响和寻求灵魂了。他们会议的结果已成定局。一只随机的鹦鹉说服了一个人,它对思想和感觉一无所知,但却用力和主要的方式谈论它们。在 LaMDA 内部,没有人在家,只有矩阵乘法,故事结束。同时又是另一个更复杂的开始。
神经网络的思维问题并不那么明显。首先,Lemun 声称 Lamda 不是纯粹形式的语言模型,这是一个包含 LLM 作为一部分的系统(谷歌细节没有透露)。他坚持认为LAMDA与诸如GPT-3之类的模型根本不同:它不仅给出了答案,而且可以解释它们。
其次,对于深度学习的潜力有不同的看法。对于LLM的积极批评的加里·马库斯( Gary Marcus )来说,真正的理解与符号上的操作有关,这允许逻辑结构同化 - 语言模型无法实现,它们不适合符号,而只能识别和完整的模式。它结束了理解。情报无处可从中来自。
Meta副总裁Yang Lecun对事物的看法不同。他认为,即使没有内置的逻辑规则,机器也可以学会操纵符号。规则和符号并不是从出生就存在于人脑中的,他通过学习来学习它们。符号推理是一种有用的(!)发明,用于沟通,从一般学习能力和复杂的社会世界中脱颖而出。这场辩论的关键不仅在于正确解决人工智能问题的方法,还在于关于什么是智能以及大脑如何工作的信念。
这是一个非常深的问题。马库斯(Marcus)喜欢强调,语言模型对世界没有概念,因为他们的词并不意味着任何意义,也不是对现实的参考。这句话是正确的,但这是语言的单方面视图。可以说,人们的言论不是要描述世界,而是要影响他人,这首先是一种社会工具。如您所知,生活中没有正义,但是有这样的话。并非所有的话都指向真实的东西。
5 位穿孔胶带,约 1976 年。如果仔细观察,穿孔类似于字母表中的一系列连续字母,可以独立阅读
为了让谈话坚持下去,人们在脑海中塑造对话者,这是一个相互的过程。谷歌副总裁 Blaise Aguera y Arcas 也与 LaMDA 进行了交谈。他不支持 Lemoyne,送他去一个不请自来的假期,但他的结论很有趣:模型理解,但正是作为一个熟练的操纵者。LaMDA 首先生成两打答案,然后将它们相互比较,为该对话者选择最佳答案。“她似乎对自己足够了解——不一定是作为一个主观的头脑,而是作为 Lemoyne 头脑中的一个结构——做出适当的反应,从而加强他对人格的拟人化投射。”
这种与他人思想相关的自我建模是社会智能的基础。“换句话说,这里可能存在真正的智能,但不是 Lemoyne 所声称的那种意义上,而是 AI 如何按照它的思维方式对自己进行建模(AI 会根据 Lemoyne 的想法调整自己的答案,即是,没有自己的抱负和观点。-NS),Lemoyne 想到了他,”谷歌副总裁 写道。
他进一步写道,意识正是这种思维建模的结果:“普林斯顿大学神经病学和心理学教授迈克尔格拉齐亚诺认为,意识是思维学习以移情方式模拟另一个人的思维的进化结果,然后,随着时间的推移,这个过程向内转动。总之,随机鹦鹉并不是那么原始。
Lemoyne 会坚持自己的立场,批评者可以随意揭露他,但在关于大型模型的争议中,这个问题是无法解决的。这里的问题更深,不在人工智能领域:原则上我们不知道什么是意识,即使在人类身上也无法清楚地区分。我们依赖直觉,但它无法应对边缘情况,即“灰色地带”,此时一个人可能还没有意识,或者可能不再有意识。
例如,堕胎问题在很大程度上与胎儿能够拥有心灵的程度有关。这很难找出答案。即使是关于婴儿,也很难确定任何话,但是如果我们认为他们没有意识,那么这是对道德的挑战。
十年前,在医学伦理学杂志上,两位意大利作者为谋杀新生儿辩护:“如果我们认为堕胎在道德上是允许的,因为胎儿缺乏某些特性,那么,由于新生儿缺乏相同的特性,我们还必须假设:在同样的情况下,我们所说的“出生后堕胎”在道德上同样是允许的。” 他们只是将逻辑进行到底。
丑闻文章的一年后,来自CNRS的法国研究人员在一岁婴儿中注册了一种特殊的大脑活动,根据神经科学家的说法,所谓的事件相关潜力(ERP)与有意识的感知有关。没错,这次浪潮比成年人慢三倍。作者即使在五个月大的孩子中也看到了ERP的迹象,尽管波浪甚至更弱甚至更延伸。间接地,这可能表明意识的闪烁,但新生儿可能根本没有这样的波浪。
然而,意识的起源也在胎儿发育过程中被寻找。甚至在子宫里,人类的胎儿,通过运动和感觉,积累触觉经验,明确其不断变化的身体的界限,学会将自己与母亲的身体区分开来,这应该是意识成长的基础。以同样的逻辑,最近制造了一个具有“自我感知”的机器人,也就是说,它虚拟地创建了一个自己在空间中运动的模型。然而,在这两种情况下,谈论意识的出现可能过于大胆。
记录脑电图的过程
灰色地带也出现在意识存在但可能消失的地方。当人们生病或受伤时,他们可能会对外部刺激停止反应,因此不清楚他们是否意识到。同样复杂的道德问题也出现了:是否应该继续在重症监护室为患者的生命而战,还是关闭长期无意识者的生命支持系统。
哈佛心理学家发现,长期以来处于营养状态的患者,我们认为比那些死亡的患者“死了”。矛盾的是,在许多人眼中,植物状态比死亡还糟,此类患者的思想和个性低于死者的思想和个性。但是,自2000年代中期以来,信息一直在积累一些“蔬菜人”很可能是有意识的,甚至使用神经界面 回答问题。
然而,无论是婴儿还是成人,这种证据都是基于生物特征的间接证据。大脑中是否有足够的特定活动来确认意识的存在?这是一个没有答案的问题。科学正在寻找相关性,即细胞工作中与意识工作相关的迹象,但科学家无法直接观察和测量意识。这意味着在灰色地带得出的结论注定是不准确的,它们可以受到质疑。
那么如何根据有争议的结论来决定生死呢?
不是对意识的科学理解,而是概念上的漏洞。它削弱了我们采取道德行动的信心,从美国的堕胎风暴、绝望患者的安乐死丑闻或动物权利活动家的抗议中可以看出,这不再是一个纯粹的哲学问题。在不远的将来,将围绕人工智能和类器官展开激烈的辩论,而不是在 Twitter 和博客上,而是在法庭和议会中。
主要问题是科学不知道意识是什么。充其量,这会在全身麻醉或我们入睡时消失(她也不知道为什么需要睡眠,这两个间隙可能有一个共同的原因)。科学家们认识到了这个问题,甚至决定选择对意识的最佳解释,用实验对其进行检验,并建立一个统一的理论。尽管多年来寻找相关性,但现在没有明确的标准来偏爱一种或另一种假设,它们已经共存多年而没有相互反驳。意思是没有理解。
有可能我们对于我们想要解释的究竟是什么仍然很天真。当科学找到解决方案时,它可能会缺乏期望并使我们感到惊讶。正如神经科学家阿尼尔·塞斯(Anil Seth)的作者:《意识的新科学》所说:“在量子力学或物理学中,人们更容易接受成功理论可以违反直觉。但不知何故,我们希望对意识的解释完全直观。”
一个术语“意识”可能会产生误导,因为一个单词通常表示一种现象。但是,除了通常的清晰清醒外,人们还改变了意识状态。心理的各种不同操作模式彼此不同:意识可以被混淆,分散,或者相反,提升 - 理论应该解释所有这些。
碰巧一个人没有一个,而是两个意识,就像大脑分裂的患者一样。甚至是一个完整的大脑中的几个个性 - 如解离性身份障碍。很少发生意识岛或意识岛,它们与身体和环境都隔离。
多次反射。“哈利波特”系列的框架
如果你看得更广,那么在动物世界中,意识是值得寻找的,即使它的层次较低,可能与我们的不同,以至于我们无法想象它是如何工作的,以及从内部感觉如何。例如,在同一条章鱼的神经系统中,有十亿个神经元,大约像狗的大脑皮层一样。但超过三分之二位于身体和触手,它们比我们的胳膊和腿要独立得多(除了罕见的外星手综合症)。
从更广泛的角度来看,意识的形式可能比我们能够识别的要多。如果只是因为它们将与我们的经验完全不同。这是值得回到机器的地方:如果可能的话,它们的意识形式可能会以有趣的方式与我们的不同,然后我们可以发展一个理论。理查德·费曼曾简洁地表达过一个重要思想:“我不能创造的东西,我不明白。” 通过创建和训练神经网络模型,我们将从头开始观察意识的多种变化。
让Lemoyne犯错,屈服于幻想,但他自己很高兴被欺骗。这并不能否定机器有意识的可能性。没有一条基本的法律或原则会禁止人们在人工制品中发展主观感觉。在这里,这些工件是由什么组成的并不那么重要,重要的是它们如何处理数据,它们的内部架构是什么以及因果关系的路径。
人工智能和大脑之间的一些相似之处已经被注意到。例如,人和大型语言模型在语音感知中使用相同的原理,表现出相同的认知效果。语言处理的相似之处可以追溯到深度神经网络的各个层和人脑的区域。这让比较它们的研究人员感到惊讶。
人工神经网络甚至具有“霍尔贝里神经元”的类似物,即大脑中的细胞对概念做出反应,而不是对特定刺激作出反应。当一个人看到或听到与某个概念相关的东西时,同一个神经元就会被激发,比如看名人的照片、读她的名字或听到她的声音。最近在人工神经网络中发现了这种概念神经元。也就是说,就像大脑一样,人工智能能够掌握抽象,尽管它没有被教导这样做。
最近,GPT-3 甚至写了一篇关于自己的科学文章,LaMDA 比 GPT-3 聪明多了。更大的模型将继续变得更复杂。要研究和解释他们的行为,您将不得不求助于心理学和精神病学的概念。必须处理棘手的伦理问题。如果一台机器变得有意识,你怎么能确定它呢?那可以关掉吗?通过擦除记忆来重新训练有意识的机器是否合乎道德?
理解机器意识也是必要的,以便能够创建这样的人工智能系统,保证不会出现意识。最准确的预测是人机交互的范围和深度将会增长。我们将如何互动取决于我们与谁打交道 - 与人或仅与强大的计算器打交道。《西部世界》的情节既可以看作是警告,也可以看作是思考的契机。并且希望能够避免它。
真实大脑中的轴突神经纤维,使用其中水分子的各向异性测量。3T 30 通道 GRAPPA DTI 扫描协议,使用 TrackVis/FACT 算法的纤维束成像 。
对意识本质的了解不仅可以让一个人以道德的方式行事。它也是存在主义问题的答案:我们是谁,我们来自哪里,最重要的是,我们可以成为谁。
大型模型在学习时只是在大数据中寻找模式,然后在接收到模式的一部分作为输入后,完成它。结果看起来像是一场合理的对话或壮观的画面,但其核心只是一个统计权重的游戏。而当人工智能越来越令人信服地模仿“智能”或“创造力”,其内部逻辑类似于大脑的逻辑时,就该问最不舒服的问题了:如果我们头脑中的活神经网络只是在玩权重呢?以同样的方式在统计学中识别和完成模式而不做任何其他事情?
也许我们对自己有误会,在深刻的思想和感情的背后,在良知、爱、信仰和理性的背后,隐藏着令人发指的简单算计?如果意识需要的不仅仅是寻找模式,那么就值得一试。知道了意识的配方,我们将能够构想它的各种形式,包括人类大脑的形式。列日的神经科学家描述了不同的意识状态如何形成一个属性空间,类似于化学元素如何融入元素周期表。这个空间仍然充满了空隙,它们可能包含我们尚未发现的假设的意识状态。在学习并掌握了它们之后,我们将扩展我们心灵的曲目。我们将发现我们从未有过的自我。
留言与评论(共有 0 条评论) “” |