让手机扫描识别一张李冰冰的照片,得出的答案居然是赵本山,这并非恶作剧。很可能,你手机里的人工智能识别功能被“黑”了。
7月10日,在2018中国互联网大会分论坛-中国人工智能移动安全高峰论坛,美国乔治亚大学终身教授、360智能安全研究团队负责人李康教授现场演示了人工智能时如何错把美女当大叔。 而这,也仅仅是AI系统安全风险的冰山一角。
再或者,人类看到的是一张猫的图片,却被机器识别成了狗,这对人来说异常简单的对比,可是对于机器学习来说,这却需要不断的训练,结果依然不如人意。为什么会这样?李康教授表示深度学习系统中的数据流处理,都是用的固定维度,比如给机器训练用的是猫脸,但是固定维度没有做一个安全防护,被攻击后得到的结果就是狗脸或者任意一张脸甚至是其他物体。人工智能深度学习系统本身就是建立在复杂的软件实现之上,它的风险不局限于对抗样本攻击,复杂的软件和供应链会导致很高的软件漏洞几率,这与周鸿祎所提的人工智能生来就不安全不谋而合。
李康教授提到,人工智能的安全问题分为两类,一类是“骗人”,一类是“偷人”。骗人就如同,拿一张猫的图片,黑客攻击后给你一张狗的图片,而“偷人“就直接涉及到众多人工智能企业,例如企业刚推出一个人工智能技术,竞争对手很快就能做到同样的技术。如果你做了一个模型放到手机上,不做安全防护,竞争对手通过手机就很容易拿到。想想好不容易跑了上百万千万的数据训练出来一套模型,被人直接拿去用,人家用的比自己还好,这种拿来主义,对企业造成的损失无法估量。
云计算的发展,促使很企业和个人将信息通过云端存储、计算,并认为云端的数据保护更加安全可靠,实际上,李康教授分享了一个通过用户操作攻击云端的实例。将一张植入了恶意代码的照片放到云端,云端可以跟恶意代码自动连接,黑客就可以拿到这个应用的模型,参数及用户登录资料等,窃取企业成果,盗用用户隐私信息变得如此简单。
李康教授认为安全没有被关注这才是人工智能最大的隐患,他多次呼吁产业界关注自己公司的模型和参数,从产品研究之初就提升安全意识,将安全防护作为保护公司产品和用户隐私的第一步。无独有偶,全球最大黑客赛事GeekPwn发起人、碁震KEEN创始人兼CEO王琦提出人工智能与黑客亦敌亦友,人工智能就像一个被黑客生出来的孩子,它带有从“娘胎”里来的安全隐患基因,对此王琦在GeekPwn做了大量的攻击实验来提醒人工智能产业界关注安全问题。
留言与评论(共有 0 条评论) |