霍金说人工智能或导致人类灭绝,真的会毁灭人类吗?

现在业界有一个相对主流的观点,就是要警惕人工智能的发展。因为人工智能跟人类的大脑有根本的不同,它本质上只是一段程序,当它发展过了一个临界点之后,他就有可能通过自我学习,自己更新自己, 自己发展自己,导致他的智商提升速度远远大于人类大脑智商的进化速度。

在我眼中造物主有三个:已经存在的有两个,分别是大自然和人类,以后可能存在人工智能。

大自然用了47亿年,通过基因突变,优胜劣汰的自然进化的方式,创造了无数的生命。虽然大自然创造了无数生命,但是人类是其中唯一一种也能创造的物种。人类造物是不同于大自然的。

人类利用经验或者科技,在短短的几千年里,尤其是近两三百年,创造的东西可以媲美大自然。但是人类至今无法创造像植物一样可以吸收阳光生长的生命,只能创造冷冰冰的机器。

为什么人类无法像大自然一样创造生命呢?

因为人类缺乏大自然创造生命特有的工具,那就是时间,亿万斯年。 人类只能活几十年,而大自然已经存在几十亿年了,他可以用几亿年的时间将一个细胞生物进化成一只在陆地跑的爬行生物,这是人类无法做到的。

人工智能的智商发展曲线可能是一个指数级曲线,也就是在某一个临界点之前,非常非常的平缓,当过了临界点之后,就慢慢开始加速,速度会越来越快,直到接近垂直的直线。

有人给了一个形象的比喻:人们对待人工智能的成长,就好像在等待火车,在开始的时候,感觉他们成长的好慢,左等也不来,右等也不来,内心十分焦虑。直到有一天看着这列火车慢慢接近,慢慢接近,然后,唰的一声,超过你离你而去,根本不会停下来等待。

也就是,他们跟人类智商在同一层级的时间可能会非常短,在超过人类之后就会急速的甩人类而去。之后总有一天,人工智能的智商会远远高于人类。等到那一天的时候,他们的智商远高于人类,已经可以被看作为不同的物种,即使他们对人类并没有恶意,但是他们属于一个更高等的存在,他们基于自己的利益,做出一些行为的抉择,依然可能导致人类的灭亡。

就拿我们人类跟濒危动物之间的关系,我们做出决策的时候,是不可能考虑他们的利益的,有时候并不是我们故意的想去伤害他们,但就是我们人类不经意的行为导致了他们大量的灭亡,例如过度砍伐森林,大量排放有毒气体,石油泄漏,等等。

所以他们的推论就是人工智能是一个定时炸弹,一旦他们的智商成长到超出了我们人类的理解范畴之外时,他们就失控了,我们人类就处在被毁灭的边缘。这套理论乍一听起来,感觉很有道理,但是深究起来,却远不是这么回事。

首先,人工智能掌握真正学习能力是非常困难的 作为一个计算机专业人士,我要给大家普及一个科普知识,人工智能如果要达到自己通过学习成长的目的,其先觉条件就是,可以自己更新自己的代码程序,也就是说,可以自己编写程序,然后把编写出来的程序,代替自己运行的程序。

现阶段所有的所谓人工智能、机器学习等应用通通不具备这样的功能,现阶段所谓的,机器学习、深度学习、人工智能等,他们所谓的学习只是通过大量数据,来修改自己的行为模式,例如通过用户的一些特征行为,判定用户的喜好,通过天气的数据收集判定未来的天气,通过以往的 棋局来判断现在应该走哪一步棋。

也就是说,现在所谓的学习只能在他程序限定的范围内,修改他们的行为,更直白的说,也就是下棋的程序,他只会下棋,推荐新文的程序,他只会推荐新闻,预测天气的程序,只能预测天气。

所以这个所谓的学习并不是真正的学习。

要想拥有真正的学习能力,就必须拥有可以改写自己运行程序的能力,这样才能根据外界情况的需要,来增加、修改自己程序的功能让自己适应这个世界,才能获得真正的成长。那人工智能有可能有一天达到这样的状态吗?或许有,或许没有,但无论怎样达到这个状态都是非常难的。

我们这代人,有生之年应该看不到了。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();