世界顶级科学家逝世前最后的警告!小心这武器,可能毁灭人类

今年的3月份,著名的物理学家霍金逝世,而他最后一次公开对人类的演讲居然是小心人工智能的发展,这个潜在的力量是人类的最大的威胁。他的演讲中认为现阶段人工智能武器还可控,如果未来还达到不可控阶段,大力发展人工智能武器,这个世界恐怕未来会遇到前所未有的麻烦。担心人工智能具备独立意识,甚至能控制核武器,从而毁灭人类。

不过对于这份担心空恐怕有些多余,这份言论过于悲观,目前人类在技术实质上已经停滞,只有信息技术类还保持高速度发展,人类地球资源有限,只有飞出宇宙,走向星辰大海,这都离不开技术的发展,目前人工智能还处于初级阶段,智能武器出现人类意识遥遥无期,还没有那么可怕。

目前美国正在实施“忠诚僚机”计划,此计划主要是有人战斗机加上可靠的无人僚机,有人加无人的超强计算机的配合,智能武器作为侦查监视、火力摧毁等任务,实现人机混合作业,才能在未来战争中发挥最大的作用。有专家表示,以人工智能为基础的智能武器,可以采用非致命武器,比如电磁脉冲,微波武器等概念武器,这或许是一种新的思路来解决智能武器带来的威胁。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();