服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

人工智能安全问题:埃隆·马斯克最深的担忧

日期: 来源:瓦砾村夫收集编辑:瓦砾村钱罐

4月5日,埃隆·马斯克发推:关于人工智能安全问题争辩的总结。配图文字:但是侧轨没那么直,会减慢进展。

这条推文发表的前几天,一则“马斯克等千名专家签署公开信,呼吁暂停高级人工智能训练六个月”的消息引发了热议。

目前还没看到老马正面回应公开信事件,但从他多年来的各个访谈中,不难看出,人工智能安全问题,多年如一,始终都是“硅谷钢铁侠”心中最深的担忧和恐惧。

在2018年9月接受播客主Joe Rogan访谈时,老马说:

“我尝试说服人们放慢人工智能的发展,启动人工智能的监管,但都是徒劳的。我尝试了很多年,没人听从。。。”

“我警告了我可以警告的每一个人。我会见了奥巴马,只为了一个原因。”

本文摘录了2016年以来,针对人工智能安全问题,老马的十二段公开访谈。

除了表达对于人工智能失控的担忧,不断呼吁推动人工智能的监管,在这些访谈中,老马还介绍了创立OpenAI和Neuralink的初衷,在特斯拉开启自动驾驶和人形机器人项目背后的思考,以及对于ChatGPT的评价。

视频总长约42分钟,本文约1万字。


2016年6月 

Code Conference现场访谈

埃隆:

对于人工智能某些可能对未来不利的发展方向,我感到担忧。

我认为可以这样说,不是所有的人工智能的未来都是良性的,不是所有的。如果我们创造了某种数字超级智能,在各方面都远超我们,那么保证它是良性的,极为重要。

事实上,我和其他几个人一起创建了OpenAI,它是一个非营利组织。我认为治理结构很重要,因为我们想要确保,我们并没有从开发的人工智能技术中创造利润的职责。

我们创建了这个501c3机构,但它与众不同。很多501c3机构,他们并没有高度的紧迫感,他们并不快速地开发技术,但OpenAI不一样。OpenAI有非常高度的紧迫感。我认为加入这家公司的人们真的很出色。

OpenAI的目标,是民主化人工智能的力量。我喜欢阿克顿勋爵的一句话,他是那个提出“权力腐败和绝对权力绝对腐败”的人。他说,自由是由权力的分散组成的,而专制是由权力的集中组成的。

我认为重要的是,不能让人工智能的神奇力量集中在少数人手中,从而导致一个我们不想要的世界。

Kara Swisher:

那是个什么样的世界?你预见到了什么?

埃隆:

那被称为“奇点”,因为很难准确预测那可能是一个什么样的未来。除了我知道,没什么人喜欢生活在暴君之下。一般来说,并不是人们选择了生活在民主制度,而不是独裁制度下。

Kara:

专制者会是电脑吗?

埃隆:

或者是那些控制电脑的人。

Walt Mossberg:

你是不是特别担心我提到的这些公司中的任何一家?他们目前似乎都在朝这个方向发展,也就是未来十年的战场。

埃隆:

我不想指名道姓,但只有一家公司。

Walt:

只有一家是你所担心的。我猜,他们并没有计划造车,和你产生竞争。

埃隆(沉思):

只有一家。

Walt:

告诉我,这是个有趣的问题。

埃隆:

这和竞争无关,这像是为了共同毁灭而产生的竞争。这和竞争无关,这只是为了努力提升未来是美好的可能性,仅此而已。

OpenAI的目标,只不过是要采取一系列最有可能改善积极的未来的行动。

你可以把未来想象成一组可能性的流。这些可能性产生分支,然后合并,坍缩到一个特定的事件,然后再产生分支。然后,有一些特定的可能性是与积极的未来相关的。

而在OpenAI,我们想尽我们所能来增加美好未来发生的可能性。我认为这就是我们努力正在做的。

Walt:

你是否担心随着开放,坏人可能会利用已经开发的人工智能的力量做坏事?

埃隆:

这当然是一个很好的反例。

然而,我认为如果人工智能的力量得以广泛分布,如果不存在一个比其他人工智能聪明一百万倍的超级智能,如果相反,人工智能的力量得以广泛分布,让我们可以将人工智能的力量与每个人的意志联系起来,你有你的人工智能代理,每个人都有各自的人工智能代理,那么,如果有人试图做一些非常可怕的事情,那么其他人的集体意志就可以战胜这个坏家伙。

而如果有一个人工智能胜过其他一百万倍,就做不到这一点了。

Walt:

而且它是私有的。

埃隆:

对,要么它拥有自我意志,要么更可能至少在一开始会被一小部分人控制,我认为这才是真正的风险所在。

一直存在着争论,什么是最好的政府形式?我很喜欢这句,我记得是丘吉尔说的:“除了我们曾尝试过的,民主是最糟糕的政府形式”。


2016年9月 

在特斯拉加州工厂接受Sam Altman的访谈

埃隆:

我可以想出的最好替代方案,也许也是其他人可以想出的最好方案,就是我们实现人工智能技术的民主化。也就是说,没有任何一家公司或一小部分人能控制高级人工智能技术。我认为那会是非常危险的状况。

它也可能被某些坏人偷走。比如,某些邪恶的独裁者或国家可能会派情报机构偷取它,并获得控制权。

一旦你获得了极其强大的人工智能技术,就会变成一个非常不稳定的状况,你就不知道,谁会来掌控它。

我认为,风险并不在于人工智能会源于邪恶而发展出自我意志,令人担心的是,某些人可能会拿它来干坏事。

而即使他们不打算拿它来干坏事,也会有人把它拿走,然后用它来干坏事。我认为,这个危险非常大。

因此,我认为我们必须实现人工智能技术的民主化,并让它能广泛使用。而这显然就是你,我及其他团队成员创建OpenAI的原因,那就是,帮助传播人工智能技术,让它不集中在少数人的手中。


2017年1月

Future of Life Institute论坛

Max Tegmark:

最后,据我所知,埃隆你从来没有表达过对人工智能的任何担忧,对吧?

我想知道,如果你有特别的担忧,有什么非常明确的,我们现在就能做的可以带来帮助的事情吗?

埃隆:

我在想,什么是真正美好的未来?那会是什么样子的?或者说是最不坏的?我不知道该如何界定。

早些时候由Sam,可能还有其他人提出的观点,我们正在走向超级智能,或文明的终结。这就是即将发生的两个可能性。

人类的智力将不断进步,唯一会阻止其前行的,是某些事情让文明陷入停滞或摧毁文明。我们必须明白,我们想要处于一个什么样的,存在着数字超级智能的世界。

重要的另一点是,我们所有人都已经是电子有机体了。你的手机,电脑和所有的应用程序都是你自身的机器延伸。

你已经是超人了。相比30年前的美国总统,你拥有更大的力量,更多的能力。如果你有互联网连接,而你有一篇充满智慧的文章,你可以和数百万人沟通,你可以瞬间和全球所有人沟通。这些都是不久前都还并不存在的神奇力量。

每个人都已经是超人和电子有机体了。

而限制在于带宽。我们的带宽受限,特别是在输出方面。我们的输入要好得多,而我们的输出极其缓慢。慷慨的说,输出的速度可能是每秒数百或一千比特。

我们的输出方式,包括使用我们的小肉棍,我们非常缓慢地移动,按下按钮或点击小屏幕,极其缓慢。与可以进行太比特级通信的计算机相比,存在着非常大的若干数量级的差异。

我们的输入因为有视觉而好得多,但即使是这样也可以大大加强。

我认为,对于一个我们向往的美好未来而言,需要做的两件事情是,我们必须用直连脑机接口来解决带宽的限制,一个到达大脑皮层的高带宽接口。这样我们就可以拥有一个数字化的第三层,能和我们其他部分更充分地共生。

我们已经拥有了大脑皮层和边缘系统,它们似乎挺和谐的,它们之间有很好的带宽,而连接到我们数字化第三层的带宽却很弱。

我认为,如果能够解决这个带宽问题,并且可以广泛使用人工智能...

用核弹来做比喻并不完全正确,它并不会爆炸,产生蘑菇云。更可能的是,如果只有少数几个人拥有它,本质上,他们就能够成为全球独裁者。

无论是谁,如果它只被少数人掌握,而且如果他们非常聪明,他们就将拥有全球统治权。

我认为极为重要的是,它必须能够被广泛使用,而且我们必须解决带宽问题。如果我们做到了这些,那么它将与我们的意识相联,与我们的意志相联,与人类个体意志的总和相联。而且每个人都能拥有它,这将仍是一个相对公平的竞争环境,事实上,可能会比今天更平等。


2017年2月 

World Government Summit现场访谈

穆罕默德:

这是最大的全球政府峰会,这里有超过139个政府。

如果你想建议政府官员为未来做好准备,你会给他们哪三个建议?

埃隆:

嗯,我认为第一个建议是要密切关注人工智能的发展。

我们需要非常小心我们采用人工智能的方式,并确保研究人员不被兴奋冲昏了头脑。因为有时候,科学家可能会如此沉浸于他们的工作,以至于不一定能意识到他们所做的事情的影响。

为了公共安全,重要的是,政府需要密切关注人工智能,并确保它不会对公众构成危险。


2017年7月 

ISS R&D Conference现场访谈

观众提问:

嗨,我的名字是Chris LaFleur,我在国会为众议员约翰工作。

几天前,我读到你谈论人工智能及其危险性,以及作为一个商人,你是如何完全反对监管的。但作为一个人,你认为我们在这个问题上先行动起来是至关重要的。

能否请你详细说明一下,你看到了哪些我们所见的盲区?以及作为一个政策制定者,我应该寻求做些什么来保护我们所有人?

埃隆:

哈哈哈,没问题。

嗯,我认为很难明白人工智能已经发展到何种程度,以及它正多快的发展,因为有一个双重指数发展在起作用。

硬件能力正以指数级增长,而正在进入人工智能领域的软件人才也呈指数级增长。双重指数的情况下,都很难做出预测。人们的预测几乎总是过于保守,总是落后于现实。

我不知道你是否看过这样的视频,你可以相当准确地生成某个人的模拟视频,并让ta说出从未说过的话。你可以谷歌搜索下,效果相当惊人。

然后有一个叫做生成对抗网络的东西,两个网络互相竞争,以生成最逼真的视频。

一个网络生成视频,然后另一个网络会识别哪些地方看起来很假,然后另一个会进行修复,如此往复,直到你无法分辨视频究竟是真的还是假的。

人工智能可以加以应用的自由度正在增加,我认为,每年增加十个数量级(译注:口误?)。这的确很疯狂。

而这是运行在并不适合神经网络的硬件上。GPU可能比CPU强大一个数量级,但为神经网络优化设计的芯片则比GPU强大一个数量级。今年年底或明年,会有一大批为神经网络而优化的芯片问世。

我认为,政府的部分职责是确保公众的安全,例如,处理公共安全问题。

我认为,正确的做法是建立某个政府监管机构。起初,机构的目标只是为了获得准确深入的了解,而并是不在毫无了解的情况下,就拍拍脑袋制定规则。

我们必须要建立这个机构,它必须获得准确深入的了解。一旦建立了理解,就开始应用监管规定。

飞机是这样,我们有联邦航空局。汽车也是这样,药物和食品也一样。而我认为,没有人希望联邦航空局消失,或药监局消失,或任何这些监管机构消失。

我认为,我们需要确保人们在人工智能安全方面不抄近路。这将是一个真正的大问题,它将会如潮水般涌来。


2018年3月 

SXSW Conference现场访谈

Jonathan Nolan:

问题在于,对于人工智能的危险性,很多人工智能专家并不和你一样有着同样的担忧。

埃隆:

傻瓜。。。我等着被打脸(笑)

Jonathan:

具体来说,在什么方面你们意见不一致?

埃隆:

那些所谓的人工智能专家,我看最大的问题是过高估计了自己的认知,而且他们过高估计了自己的聪明程度。

一般来说,我们都高估了自己的聪明程度,我们比自认为的要笨的多。

这一点往往困扰着聪明人,他们以他们的智力来定义他们自己,他们不喜欢机器可能比他们更聪明的这个想法。因此,他们不屑一顾,而这在根本上是有问题的,这就是一厢情愿。

我非常接近人工智能的最前沿,而它让我感到害怕。它的能力远远超过了几乎所有人的认知,而且它的改进速度是指数级的。

你可以从AlphaGo看到这一点,可能在6到9个月的时间里,它从甚至无法击败一个普通的围棋选手,到击败欧洲冠军,他的排名是600,然后以五番棋四胜击败了李世石,他已经是多年的世界冠军,然后击败了现任世界冠军,然后击败了同时对局的所有人。

然后出现了AlphaZero,它以100:0击败了AlphaGo。而AlphaZero是通过和自己下棋进行学习的。它基本上可以玩任何一种由你设定规则的游戏。无论你给什么规则,它只要阅读规则,开始玩,就能超人一等,任何游戏。

没有人预料到会有这么快的进步速度。

如果你问问那同一批认为人工智能没我说的进步速度的专家们,你会发现,他们对于围棋和其他人工智能的预测,一直都很弱。

进步的速度的确很戏剧化。我们必须想出一些办法,确保数字超级智能的出现能与人类共生。我想,这是我们面临的最大的生存危机,也是最紧迫的危机。

Jonathan:

那么我们如何做到这一点呢?

如果我们目前认为,这是不可避免的,某个版本的人工智能即将到来,我们该如何应对呢?

埃隆:

嗯,通常来说我并不提倡监督监管。我认为一般来说,我们应该尽量减少这些东西。

但这是一个对公众产生非常严重危险的情况,因此,需要有一个公共机构获得完整深入的了解,然后进行监督,以确认所有人都在安全地开发人工智能。

这一点极为重要。

我认为人工智能的危险比核弹头的危险要大得多,而没有人会建议允许人们随心所欲的制造核弹头,那太疯狂了。

记住我的话,人工智能远比核弹更危险,危险的多。为什么我们没有监管机构的监督?这太疯狂了。


2018年9月 

Joe Rogan播客访谈

Joe Rogan:

那么,究竟发生了什么,让你决定采取一种更宿命的态度?有什么具体的事情吗,还是说,这是我们的未来不可避免的?

埃隆:

我尝试说服人们放慢人工智能的发展,启动人工智能的监管,但都是徒劳的。我尝试了很多年,没人听从。

Joe:

这似乎是电影中的一个场景,机器准备接管人类,你把我吓坏了。

没人听从。。。

埃隆:

没人听从。

Joe:

没人。。。今天,人们是否更倾向于听从?

这似乎是一个在过去几年里,比五年十年前更经常被提起的问题,那时就像科幻小说。

埃隆:

也许他们会听吧,目前为止,他们还没有。

我认为,一般来说人们不喜欢监管的运作方式,它非常缓慢,确实非常缓慢。

通常,某种新技术,会造成损害或导致死亡。会有强烈的呼吁,会引发调查。若干年过去了,会有一些委员会进行准确深入的了解,将制定规则,然后会有监督,最终会有法规。

这一切都需要很多年,这是常规。比方说,汽车的法规,要求配置安全带,花了多长时间?

为了安全带,汽车行业斗争了超过十年。他们成功地抵制了任何关于安全带的规定,尽管数字显而易见,如果你系了安全带,死亡或严重受伤的可能性就会小得多,这毫无疑问。而多年来,汽车行业成功地进行了抵制。最终,在许多许多人死亡后,监管机构才坚持需要使用安全带。

这个时间跨度不适用于人工智能。从它变的危险开始,你不可能仍然花上十年的时间,那就太晚了。

Joe:

你觉得,我们离太晚还有几十年的时间,还是只有几年了?

如果你有这种宿命的态度,而且你觉得我们正在朝着世界末日倒计时。。。

埃隆:

不一定是世界末日倒计时,它是。。。

Joe:

失控的倒计时?

埃隆:

失控,是的。

人们称它为“奇点”,这可能是一个很好的思考方式。它是一个奇点,就像黑洞一样,很难预测在事件视界之后会发生什么。

Joe:

是的,一旦实现了,就会非常困难。

埃隆:

一旦改变出现了,会发生什么?

Joe:

而且它将能够自我改进。这令人毛骨悚然,对吧。它可以非常非常迅速地进行数千年的创新。

埃隆:

是的。

Joe:

然后我们就会变得很荒谬。

埃隆:

荒谬。

Joe:

我们就是一种蠢蠢的,只会吃喝拉撒的生物,试图阻止诸神。我们只有有限的寿命,只喜欢看诺曼·洛克威尔的画。

埃隆:

可能会很可怕,也可能会很棒,并不确定。但有一点是肯定的,我们将无法控制它。

Joe:

你认为我们是否有可能以某种方式与这项技术融合,而它将增强我们现有的能力?还是说,你认为它将取代我们?

埃隆:

嗯,与人工智能融合,似乎是对我们来说最好的方案。如果你不能打败它,就加入它。

从长期生存的角度来看,Neuralink的目的,是为了创建一个高带宽的大脑接口,这样我们就可以与人工智能共生。因为我们有着带宽问题,你无法通过你的手指进行交流,太缓慢了。

Joe:

可以肯定的是,你正在向某些人发出警告。

埃隆:

是的,我的确正在发出很多很多的警告。我警告了我可以警告的每一个人。我甚至会见了奥巴马,只为了一个原因。

Joe:

只是为了讨论人工智能?

埃隆:

是的。

Joe:

他说了什么?希拉里怎么样?先担心她吧。(笑)

埃隆:

不,他听从了,他当然听从了。

我会见了国会。我参加了一个所有50位州长都在席的会议,并讨论了人工智能的危险。我和所有我可以交谈的人都谈了。

似乎没有人意识到这一切会怎么发展。

Joe:

是因为这,还是说他们认为有比他们更聪明的人已经在处理这个问题了?

因为当人们听到“人工智能”时,这几乎是一个抽象的话题。要理解这个话题几乎是很困难的。当它发生的时候,就已经太晚了。

埃隆:

嗯,我认为他们不太理解,或者不认为这会很快发生,或者不确定该怎么做。

而我说,明确的是,可以建立一个政府委员会,获得准确深入的了解。在开展监督之前,在制定法规之前,应该试着去了解这一切。

然后,如果有了这个拥有准确深入了解的委员会,一旦他们了解了情况,跟上了节奏,他们就可以制定一些规则,或提出一些规则。这可能是一个更安全的处理这些事情的方式。

Joe:

我知道这可能应该是政府需要处理的问题,但我并不希望政府来处理这个问题。

埃隆:

你想让谁来处理?

Joe:

我想让你来处理这个问题。

埃隆:

哦,天哪!

Joe:

是的,我觉得你才是更好的吹哨人。

因为如果迈克·彭斯(译注:美国副总统)开始谈论人工智能,我就会说,闭嘴傻叉,你对人工智能一无所知。得了吧,他不知道他在逼逼什么。

埃隆:

我没有权力去监管其他公司,我该怎么。。。

Joe:

是的,但也许那些公司会同意的。


2018年11月 

在特斯拉加州工厂接受短新闻网站Axios的采访

Jim VandeHei:

人们应该如何看待人工智能?如果要和你一个年幼的孩子解释,你会说人工智能是什么?

埃隆:

它就是数字智能。随着算法和硬件的改进,很明显,数字智能将远远胜过生物智能。

Jim:

当你说将很快超过人类的智能时,机器不仅仅只是比我们更聪明,而且会是指数级的胜出?

埃隆:

我们需要确保人工智能的进步是良好的,或者我们尽力确保它是良好的。

Mike Allen:

但我们在这方面远远落后了。

埃隆:

是的,我们并没有在意。我们更关心某人怎么称呼他人,而不是人工智能是否会毁灭人类。这太疯狂了。

Mike:

在我们获得解决方案之前。。。

埃隆:

我们就像游乐场里的孩子。

Jim:

这对社会来说可能是一个巨大的问题。你最害怕的场景是什么?

埃隆:

人类确实没有进化到能够考虑普遍的生存威胁。我们进化到了能考虑近期与我们非常相关的事情,能因为别人生气,但却不能真正思考可能毁灭整个人类的事情。

但是最近几十年,就在上个世纪,显然出现了有可能摧毁文明的核弹,出现了可能摧毁文明的人工智能,出现了全球变暖,这可能会摧毁文明,或至少严重破坏文明。

Mike:

不好意思,人工智能怎么能毁灭文明?

埃隆:

就像人类破坏灵长类动物的栖息地一样。文明不一定会被摧毁,但我们可能会被流放到世界的小小一角。

当智人的聪明程度远超其他灵长类动物时,它就把它们赶入了小的栖息地,它们已经碍事了。

Jim:

即使当前的人工智能技术,就不能以极具破坏性的方式使用吗?

埃隆:

你可以用很少的钱生产一大群刺客无人机。只要用手机中的FaceId芯片,配备少量炸药和标准的无人机,让它们对建筑物进行网格扫描,直到找到目标人物,撞向他们,然后爆炸。

你现在就可以做到,不需要额外的新技术,就是现在。

Jim:

人们认为这些只是科幻小说和电影的东西,离我们很远。但每次我听你说,不,这东西就在眼前。

埃隆:

可能有一个比被无人机追杀更大的风险,就是人工智能会被用来进行非常有效,但隐藏的很好的宣传。

Mike:

深度的伪装。

埃隆:

是的,影响社会的方向,影响选举。

人工智能可以不断打磨信息,打磨信息,检查,查看反馈,再查看反馈,把消息调整的更好一点。在几毫秒内,它可以调整信息,做出转变,并对新闻做出响应。

而且,很多社交媒体账户的背后并不是人。你怎么知道那是人,或不是?

Mike:

监管机构和其他人对此否认的一个原因是变化的速度。这种变化速度的后果是什么?

埃隆:

实施监管的方式是缓慢而线性的,而我们正面临指数级进步的威胁。如果你对指数级进步的威胁做出线性的反应,指数级威胁很可能会胜出。

简而言之,这就是问题。


2020年12月

Axel Springer Award现场访谈

Mathias Döpfner:

我们上次讨论时,我问你:在可预见的未来,对你来说最重要的项目或最重要的话题是什么?

你说,那一定是人工智能将在我们的社会中发挥的作用。你能解释一下为什么这是一个很大的机会,但同时也似乎让你担心?

埃隆:

嗯,我认为,长期以来,人类一直是地球上最聪明的生物。而这一点将随着通常被称为“通用人工智能”的东西而改变。这是一个在各方面都比人类更聪明的人工智能,它甚至可以对人类进行仿真。我们应该为此感到担忧。

我认为,政府应该对人工智能的发展进行监督,特别是超级先进的人工智能。任何对公众造成潜在危险的东西,我们通常会同意,应该有政府的监督来确保公众安全。

Mathias:

因为你觉得有一天,人类可能会需要为机器服务,而不是反过来?

埃隆:

说实话,当我看着人们使用手机时,我觉得我们已经在为机器服务了。

每个人都在回答着问题。每一次你进行搜索,或添加信息,你都在为机器服务,你就在构建这个数字群体的思维。

是的,通用人工智能(AGI)的出现被称为奇点,这是有原因的。因为就像黑洞,它也是一个奇点,很难预测会发生什么。

这并不是说,AGI的出现一定是坏事,但坏事是所有结果的可能性之一。

Mathias:

雷·库兹韦尔定义的奇点会在什么时候发生呢?

埃隆:

嗯,我想你是说他预测的是2025年,我认为那挺准确的。

Mathias:

那么,如何才能避免它变成对人类的威胁,而不是机会?这是否是一个治理的问题,不让太多的权力落在一个人或几个人手中?或者说,你如何确保它采取正确的方向?

埃隆:

我认为,我们应该有来自政府的监督,就像已有的情况。对于汽车、飞机、食品和药品,我们有来自政府的监督和管理。这些行业,都有监管机构来监督它们的发展,以确保公共安全。

我认为,数字超级智能也会有潜在的公共安全风险。因此,我认为由监管机构进行关注是非常重要的。

Mathias:

到那时,谁应该拥有这些数据?

埃隆:

我认为每个人都应该拥有自己的数据,个人应该拥有自己的数据。

当然,人们不应该被某个网站的某些条款所欺骗,而突然间,就不再拥有自己的数据了。这很疯狂。总之,谁会去阅读那些条款呢?

这就像,我们肯定不会允许人们在后院制造核弹,这看上去很疯狂。

我认为,数字超级智能有可能比核弹更危险。应该有人加以关注,我们不能让精神病人来管理精神病院。

Mathias:

这是一个全球问题,因为如果我们践行了,但中国有不同的规则,不同的监管框架,那会是另一个挑战。

埃隆:

嗯,一般来说,这是那些开发人工智能的人会提出的反驳之一。

而特斯拉也在开发某种人工智能,即自动驾驶。但这是一种非常狭窄的人工智能形式,汽车并不会在某一天醒过来,接管这个世界。

这个反驳就是,额,中国将有不受制约的人工智能发展。如果我们制定了法规减缓我们的发展速度,那么中国将取得优势。

从我和中国政府官员的谈话中,我了解到他们对人工智能也相当担忧。事实是,相比于其他国家,他们更可能建立起一个不错的监管制度。


2021年9月

Code Conference现场访谈问答

观众提问:

嗨,埃隆,我是BCG的Zia Youssef。你能不能谈一谈人工智能和机器人技术?

你在过去曾表示过担忧,但现在也在参与构建这些技术。你认为我们在这方面要解决的问题有哪些?

埃隆:

嗯,我这么说已经很久了,我认为人工智能的安全是一个真正的大问题。

我们应该有某个监管机构来监督人工智能的安全,但目前还没有任何这样的机构存在。而且一般来说,政府设置的任何监管机构通常都需要多年时间才能到位。

除了人口崩溃问题,我认为人工智能安全可能是对于未来文明的第二大威胁。但如我所说,我不太确定该怎么做。

特斯拉可以说是世界上最大的机器人制造商,因为我们有基本上可以半自动驾驶的汽车,它们最终将能完全自动驾驶。而且我们正在建造一款人形机器人,基本上就像汽车,但长着腿。

这些项目我之前推迟了一段时间,因为我显然不希望加速“人工智能启示录”的到来。

但显然,随着波士顿动力公司的进展,人形机器人将会成为现实。不管特斯拉参不参与,它们都会成为现实。

在确保机器人和人工智能的安全性上,特斯拉有更大的能力,而我将竭尽所能做到这一点。


2022年3月

Axel Springer访谈 

Mathias Döpfner:

2017年,你说第三次世界大战将是一场与人工智能或关于人工智能的战争。现在我们有一场常规战争正在进行,人工智能可以帮忙吗?

埃隆:

第三次世界大战的原因之一将是,如果一个国家或地区拥有高级人工智能技术,而其他大国也想要;或者他们担心,因为某个国家获得高级人工智能,从而让他们在战争中拥有巨大的优势,那么在对方国家发展强大的人工智能,用于武器技术之前,他们可能会企图发起攻击。

Mathias:

你最近展示了擎小柱,人形机器人。你分享了盛大的期望,它可以为世界做些什么。能稍微解释一下你的动机吗?

我想,这不仅仅是因为擎小柱可以完成对火星的首次访问,它还是人工智能领域的一个游戏规则改变者。能分享一下你的愿景吗?

埃隆:

对于人工智能和机器人技术,我总是战战兢兢的对待它们,因为我当然不希望发生任何有可能对人类有害的事情。

人形机器人,它们显然正在成为现实。看看波士顿动力公司,他们的演示一年比一年更棒。人形机器人会出现的,人工智能的进步速度是非常快的。

即使特斯拉停止开发人工智能,我认为,我们仍然走在发展通用人工智能的正轨上,也就是说,比最聪明的人类更聪明的智能。


2023年2月

World Government Summit远程访谈

埃隆:

而在一个更短期的时间范围内,我认为我们需要颇为担忧人工智能,需要关注人工智能的安全问题。

你刚才提到了ChatGPT,我在创建OpenAI的过程中发挥了重要作用。基本来说,当时我担心谷歌并没对人工智能的安全问题给予足够的重视。因此,我和其他一些人共同创建了OpenAI。

尽管一开始它是一家开源的非营利组织,但现在它已经成为了闭源的营利组织。

我已经没有OpenAI的任何股份了,我不在董事会里,我也不以任何方式控制它。但是,我认为ChatGPT已经向人们展示了人工智能已经变得多么先进。

人工智能已经发展了相当长时间,它只是并不具备大多数人都能使用的用户界面。ChatGPT所做的,只是在已有若干年的人工智能技术上添加了一个可用的用户界面。而且还将会有更先进的版本问世。

坦率地说,我认为我们需要监管人工智能的安全问题。因为如果你想想任何有可能对人们造成风险的技术,比如飞机、汽车或药品,我们有监管机构来监督汽车、飞机和药品的公共安全问题。

我认为我们应该对人工智能有类似的监督监管,因为它对于社会的风险,事实上比汽车、飞机或药品更大。这可能会减缓人工智能的发展,但我认为这可能也是件好事。

挑战在于,政府的监管机构往往是应对已发生的坏事而设立的。比如飞机或汽车,一开始,汽车是不受监管的,飞机也不受监管,但发生了很多飞机失事的状况。有时,制造商偷工减料,导致了很多人的死亡。公众对此颇为不满,于是他们建立了一个监管机构来提高安全性。

而现在,商业航班非常安全。事实上,航班比开车更安全,商业航班的安全性高于汽车。

而和过去相比,汽车也是极其安全的。但如果你想想安全带是怎么引入的,为了抵制将安全带作为一项安全措施,汽车行业斗争了10年15年,最后监管机构终于让他们在汽车上安装安全带,这极大地提升了汽车的安全性。然后,安全气囊也是安全方面的另一个重大改进。

我的担心是,对于人工智能而言,如果它出了什么问题,从监管的角度来看,反应可能会太慢。

我想说,对于未来文明而言,最大的风险之一就是人工智能。

但人工智能既有消极的一面,也有积极的一面。它富有希望,具有强大的能力,但同时也伴随着巨大的危险。看看核物理学的发现,我们可以因此获得核能发电,但同时也带来了核弹。

总之,我认为我们应该深度关注这个问题,我们应该对那些从根本上对公众构成风险的东西进行某种监管。

(以上)


相关阅读

  • 国产AI大模型竞相绽放,中国企业挑战在哪?

  • ChatGPT引发的大模型热潮依然汹涌。从上周末开始,各大企业AI大模型落地的消息接踵而至。4月7日,阿里云自研大模型“通义千问”开始邀请用户测试。4月8日,京东集团副总裁何晓冬
  • “通义千问”带动阿里上涨,中国AI竞赛升温

  • 阿里巴巴目前正在考虑分拆业务,但该公司可能会选择保持对人工智能业务的控制权。周二(4月11日),中国电商巨头阿里巴巴(BABA)宣布推出备受期待的ChatGPT式生成式人工智能系统,名为
  • 《生成式人工智能服务管理办法(征求意见稿)》

  • 为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,现向社会公
  • 生成式人工智能服务管理办法公开征求意见

  • 本报北京4月11日讯 记者刘欣 记者今天从国家互联网信息办公室获悉,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四
  • 美国对华2000亿关税清单,到底影响有多大?

  • 1 今天A股大跌,上证最大跌幅超过2%。直接导火索是美国证实计划对华2000亿美元产品加征25%关税。 听起来,2000亿美元数目巨大,我们来算笔账。 2000亿美元,按现在人民币汇率

最新文章

  • 按摩、冰敷不管用?黑眼圈自救指南看这里!

  • 这是不是你:总贪恋睡前的自由时光,想再看一集、再玩一会。结果经常熬到凌晨,才舍得睡。第二天起来,眼下乌青乌青的,憔悴又显老。想佛系地随它去吧,这家伙的存在感又实属有点强。想
  • 人工智能安全问题:埃隆·马斯克最深的担忧

  • 4月5日,埃隆·马斯克发推:关于人工智能安全问题争辩的总结。配图文字:但是侧轨没那么直,会减慢进展。这条推文发表的前几天,一则“马斯克等千名专家签署公开信,呼吁暂停高级人工智
  • 一个在茫茫多项目当中筛选侯选投资标的的思路

  • 我是在2013年上班上绝望了,然后想到了炒股改善生活,第一眼就绝望了,怎么这么多股票,选择哪个才能涨?我昨天(2023.4.6)刚查的上交所一共有1684家上市公司,深交所有1511家上市公司,相当