无论你高兴与否,
机器人和人工智能都是未来不可避免的一部分。
许多跨领域技术和经济学专家表达了他们对于机器人的担忧。值得注意的是,这些担忧是在表示希望我们的技术可以得到改善,并不是禁止。
本篇将为你介绍关于机器人和人工智能的一些紧迫问题,这也是专家在科技新时代到来之前所希望解决的问题。
杰夫·贝佐斯(Jeff Bezos)
(亚马逊集团董事会主席兼CEO)
我认为自主武器非常可怕。
Jeff Bezos谈到自动化的危险时,他表达了自己的观点。虽然他提出不相信自动化会威胁人类的工作或生活,但他对于自主武器仍然缺乏自信。
上个月,在乔治•布什(George W. Bush)总统的领导下,Bezos建议需要有国际条约来管理、约束自主武器的使用。他认为,这些条约将规范这些武器的使用,防止黑客攻击和滥用技术。
凯文·沃里克(Kevin Warwick)
(考文垂大学的副校长兼“Cyborg教授”)
智能设备现在具有沟通的能力,尽管我们认为我们可以监视他们,但其实我们没有办法知道。
凯文·沃里克表示了他关于人工智能之间通信的关注。2017年,Facebook创造了两个机器人,并开发了他们自己的语言。但机器人以一种对于他们的创造者来说所难以理解的方式进行交流,这才使得人们对于AI的交流开始出现担忧。
而沃里克注意到了这一事件的意义,他很快警告其他人,不受监控的通信的进一步影响是其独立的发展已超出了科学家和工程师的控制范围。
Facebook显然同意了,一旦他们意识到机器人正在以一种不让人类介入的方式进行对话,就会关闭实验。
为了确保AI的安全使用,人类对它们相互作用的监测是必不可少的,许多科学家现在都是在谨慎地向前推进这一行业的发展。
我最担心的不是智能AI而是愚蠢的AI。
——托比·沃尔什(Toby Walsh)
去年新南威尔士大学AI领域的教授Tony Walsh签署了一份请愿书,呼吁联合国禁止“杀手机器人”。签署请愿书的还有Elon Musk、谷歌DeepMind的Mustafa Suleyman和其他来自世界各地的科学家和学者。
尽管他支持请愿书,但沃尔什澄清说道,他真正的恐惧不是聪明的AI而是“愚蠢的AI”。它们没有良心,也不考虑后果。
他认为,如果我们要继续打造更好的机器人和AI,我们必须考虑每一个事件,并相应地妥善计划以确保人类的安全。
John Giannandrea
(谷歌前AI主管)
重要的是我们对我们正在使用的训练数据是明晰的,并且在其中寻找隐藏的偏见,否则我们正在构建有偏见的系统。
另一个专家——谷歌的John Giannandrea对于人类对于未来技术的偏见的影响发出警告。不仅是他,害怕我们正在编程的技术中存在偏差的那些科学家、学者和工程师的队伍正在不断扩大,他只是其中的一员。
特别是,Giannandrea呼吁在医疗决策中使用完全透明的智能技术。他警告人们不要因为相信智能黑匣子技术,从而不完全公开它们的工作原理或背后的深层学习系统。
问题不是意识,而是能力。你制造的机器在实现目标方面是非常有能力的,但在实现这些目标时可能会导致事故。
——斯图亚特·罗素(Stuart Russell)
世界经济论坛·机器人与人工智能理事会副主席 斯图亚特·罗素认为,当涉及到AI和自主技术时,我们必须解决的最大问题之一是如何实现目标驱动,以及他们能够做些什么来实现这一目标。
在2016年,他用了一个自动侵入红灯的例子来提出这个问题:如果汽车可以侵入交通系统,并把绿灯变亮,让它完成它的目标,它就有可能把生命置于危险之中。
对罗素和其他许多人来说,仅仅确保机器人能直接保护人类的生命是不够的,我们必须教导他们也要间接保护生命。目前,在严格的目标驱动性质的编程上有大量的盲点,如果不检查这可能会造成人类生命受到威胁的风险。
比尔盖茨(Bill Gates)
(微软创始人)
如果人们相较于他们的热情而言更担心创新的事物,那就太糟糕了。
比尔盖茨似乎认为我们没有什么可担心的,除了恐惧本身。虽然Gates已经同意了许多伊隆·马斯克对机器人和AI的观点,但他也表达了自己的观点,即人们需要以热情而不是恐惧来接近技术的进步。
虽然Gates承认他对超智力的恐惧,但他相信:如果我们事先计划好并解决了这些恐惧,人类将没什么可担心的。
我们都知道未来机器人的普遍使用可能会成为大趋势
很多人担心当AI发展到一定阶段的时候
是否会取代人类的存在
就像各个领域的专家提出的观点那样
我们应该做的是解决新技术所可能带来的问题
预测、防范风险
而并不是完全禁止
因为我们的技术是可以被改善的
并且虽然技术在不断发展
但人类本身的“智能”也在不断发展
我们的情感交流、社会关系维系、思维表达
一切的一切
都是我们自身拥有的财富
素材来源:Interesting Engineering
编译:甜菜
留言与评论(共有 0 条评论) |